JP2024052524A - 通信管理サーバ、通信システム、通信管理方法、及びプログラム - Google Patents
通信管理サーバ、通信システム、通信管理方法、及びプログラム Download PDFInfo
- Publication number
- JP2024052524A JP2024052524A JP2023117755A JP2023117755A JP2024052524A JP 2024052524 A JP2024052524 A JP 2024052524A JP 2023117755 A JP2023117755 A JP 2023117755A JP 2023117755 A JP2023117755 A JP 2023117755A JP 2024052524 A JP2024052524 A JP 2024052524A
- Authority
- JP
- Japan
- Prior art keywords
- communication terminal
- communication
- mobile device
- image
- icon related
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 303
- 238000007726 management method Methods 0.000 title claims description 98
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000000034 method Methods 0.000 claims description 69
- 230000005540 biological transmission Effects 0.000 claims description 32
- 230000004044 response Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 description 75
- 238000010586 diagram Methods 0.000 description 44
- 238000012545 processing Methods 0.000 description 32
- 230000006870 function Effects 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 239000013256 coordination polymer Substances 0.000 description 4
- 238000003702 image correction Methods 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】本開示は、遠隔で展示会等の実空間の映像を閲覧するユーザに、このユーザの通信端末に映し出された映像が実空間のどの位置の映像であるかを把握し易くする。【解決手段】本開示は、実空間のロボットRから実空間における位置を受信すると共に、実空間の説明者端末5から実空間における位置を受信する受信部31と、各位置に応じて、仮想空間の対応位置にロボットRに関するアイコンr1及び説明者端末に関するアイコンe1を関連付けた状態で示すと共に、仮想空間にユーザ端末9に関するアイコンy1を示した仮想空間画像を作成する画像作成部37と、ユーザ端末9に仮想空間画像を送信する送信部と、ユーザ端末9から、仮想空間画像においてアイコンy1をアイコンr1に関連付ける操作を受け付けることにより、説明者端末5及びユーザ端末9の間の音声通信を確立する音声通信確立部(31)と、を有する通信管理サーバである。【選択図】図21
Description
本開示内容は、通信管理サーバ、通信システム、通信管理方法、及びプログラムに関する。
実空間の展示会などにおいて、説明者がテレプレゼンスロボット(以下「ロボット」と示す)と共に展示会を見学するツアーが登場している。展示会の遠隔見学を希望するユーザは、自分のPC(Personal Computer)等で、ロボットに搭載されたカメラからの映像を見たり、ロボットに搭載されたマイクからの説明者の音声を聞いたりすることにより、遠隔地からでもリアルに近い臨場感で見学をすることができることが既に知られている(特許文献1)。
しかしながら、説明者がロボットと共に見学する展示会で、ユーザが遠隔で展示会等の実空間の映像を閲覧する場合、このユーザのPC等で映し出された映像が実空間のどの位置の映像であるかを把握することが困難であるという課題が生じている。
本開示は、上述の課題を鑑みてなされたもので、遠隔で展示会等の実空間の映像を閲覧するユーザに、このユーザの通信端末に映し出された映像が実空間のどの位置の映像であるかを把握し易くすることを目的とする。
請求項1に係る発明は、実空間で撮影及び移動が可能な移動装置から当該移動装置の前記実空間における位置を示す実空間装置位置情報を受信すると共に、前記実空間における第1の通信端末から当該第1の通信端末の前記実空間における位置を示す実空間端末位置情報を受信する受信部と、前記実空間装置位置情報及び前記実空間端末位置情報に応じて、仮想空間の対応位置に前記移動装置に関するアイコン及び前記第1の通信端末に関するアイコンを関連付けた状態で示すと共に、前記仮想空間に第2の通信端末に関するアイコンを示した仮想空間画像を作成する画像作成部と、前記第2の通信端末に前記仮想空間画像を送信する送信部と、前記第2の通信端末から、前記仮想空間画像において前記第2の通信端末に関するアイコンを前記移動装置に関するアイコンに関連付ける操作を受け付けることにより、前記第1の通信端末及び前記第2の通信端末の間の音声通信を確立する音声通信確立部と、を有する通信管理サーバである。
本開示によれば、遠隔で展示会等の実空間の映像を閲覧するユーザに、このユーザの通信端末に映し出された映像が実空間のどの位置の映像であるかを把握し易くすることができる。
〔通信システムの概略〕
図1を用いて通信システム1の概略を説明する。図1は、テレプレゼンスロボット(以降「ロボット」と示す)Rを用いた通信システムの全体構成図である。
図1を用いて通信システム1の概略を説明する。図1は、テレプレゼンスロボット(以降「ロボット」と示す)Rを用いた通信システムの全体構成図である。
通信システム1は、通信管理サーバ3、説明者端末5、マイク付きイヤホン6、ユーザ端末9、及びロボットRによって構築されている。
ロボットRは、主に、ロボット端末7、広角撮影装置8、及びロボットRを移動させる車両装置10によって構成されている。本実施形態のロボットRは自律走行するが、自律走行しなくてもよい。なお、ロボットRは移動装置の一例であり、移動装置には、ドローンのように空中を移動するもの、潜水艦型ラジコンのように水中を移動するものも含まれる。また、車両装置10は、推進装置の一例である。なお、ロボットRには、温度センサ、湿度センサ、酸素センサ、又は二酸化炭素センサ等の環境センサが設けされ、ロボットRの周囲を照らす照明装置等も設けられている。なお、説明者E1,E1は「説明者E」の一例、ユーザY1,Y2,Y3は「ユーザY」の一例、及びロボットR1,R2は「ロボットR」の一例である。また、説明者端末5a,5bは「説明者端末5」の一例、マイク付きイヤホン6a,6bは「マイク付きイヤホン6」の一例、ロボット端末7a,7bは「ロボット端末7」の一例、及びユーザ端末9a,9b,9cは「ユーザ端末9」の一例である。更に、広角撮影装置8a,8bは「広角撮影装置8」の一例、及び車両装置10a,10bは、「車両装置10」の一例である。
通信管理サーバ3、説明者端末5、ユーザ端末9、ロボットRのロボット端末7は、インターネット等の通信ネットワーク100を介して通信することができる。通信形態は、有線又は無線を問わない。図1では、説明者端末5、ユーザ端末9、及びロボット端末7は、無線通信することが示されている。また、マイク付きイヤホン6は、説明者端末5とのペアリングにより近距離通信ができる。
なお、説明者端末5及びユーザ端末9は通信端末の一例である。
〔実空間の状況〕
続いて、図2を用いて実空間の状況を説明する。図2は、実空間における展示会の状況を示した図である。なお、図2では、展示会について説明するが、これに限るものではない。
続いて、図2を用いて実空間の状況を説明する。図2は、実空間における展示会の状況を示した図である。なお、図2では、展示会について説明するが、これに限るものではない。
図2に示すように、展示会では、ロボットR1が説明者E1を追従して移動しながら説明者E1や周囲を撮影している。同様に、ロボットR2が説明者E2を追従して移動しながら説明者E2や周囲を撮影している。
説明者E1は説明者端末5aを所持しており、いつでも操作することができる。同様に、説明者E2は説明者端末5bを所持しており、いつでも操作することができる。なお、説明者E1,E2は、説明者Eの一例である。また、説明者端末5a,5bは、図1の説明者端末5の一例である。
ロボットR1は、ロボット端末7a、広角撮影装置8a、及び車両装置10aによって構成されており、ロボットR2は、ロボット端末7b、広角撮影装置8b、及び車両装置10bによって構成されている。ロボット端末7a,7bは、図1のロボット端末7の一例である。広角撮影装置8a,8bは、図1の広角撮影装置8の一例である。車両装置10a,10bは、図1の車両装置10の一例である。
〔ハードウェア構成〕
続いて、図3乃至図13を用いて、通信システム1を構築しているサーバ及び端末等のハードウェア構成を説明する。
続いて、図3乃至図13を用いて、通信システム1を構築しているサーバ及び端末等のハードウェア構成を説明する。
<通信システムのハードウェア構成>
図3は、通信管理システムのハードウェア構成図である。
図3は、通信管理システムのハードウェア構成図である。
図3に示すように、通信管理サーバ3は、一般的なコンピュータの構成を有しており、例えば、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303,SSD(Solid State Drive)304、ディスプレイ308等を有する。また、通信管理サーバ3は、ネットワークI/F306、キーボード311、ポインティングデバイス312、メディアI/F307、及びバス310等を有する。なお、SSDではなくHDD(Hard Disk Drive)であってもよい。
CPU301は、例えば、ROM302、SSD304等に格納されたプログラムやデータを読み出し、処理を実行することにより、通信管理サーバ3が備える各機能を実現する演算装置である。ROM302は、IPL等のCPU301の起動に用いられるプログラム等を予め記憶した不揮発性のメモリである。RAM303は、CPU301のワークエリア等として利用される揮発性のメモリである。
SSD344は、例えば、OSや、アプリケーションソフトのプログラムや、各種のデータを記憶するストレージ装置である。ディスプレイ3058は、例えば、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種の情報を表示する表示手段である。
ネットワークI/F306は、通信ネットワーク2を利用してデータ通信を行うための通信インタフェースである。キーボード311は、システム管理者等による文字、数値、各種指示などの入力操作を受け付けるための入力手段の一例である。ポインティングデバイス312は、システム管理者等による各種指示の選択や実行、処理対象の選択、カーソルの移動等の操作を受け付ける。なお、マウス等であってもよい。
メディアI/F307は、例えば、メモリカード等の記録メディア306に対するデータの読み出しや、書き込み(記憶)を制御する。上記の各構成要素を電気的に接続し、アドレス信号、データ信号、及び各種の制御信号等を伝達する。
<説明者端末、ロボット端末、及びユーザ端末のハードウェア>
図4は、説明者端末、ロボット端末、及びユーザ端末のハードウェア構成図である。
図4は、説明者端末、ロボット端末、及びユーザ端末のハードウェア構成図である。
図4に示すように、説明者端末5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F506、加速度・方位センサ507、メディアI/F509、GPS受信部511を備えている。
これらのうち、CPU501は、説明者端末5全体の動作を制御する。ROM502は、CPU501やIPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、説明者端末用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ505は、CPU501の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等の撮像手段であってもよい。撮像素子I/F506は、CMOSセンサ505の駆動を制御する回路である。加速度・方位センサ507は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F509は、フラッシュメモリ等の記録メディア508に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部511は、GPS衛星からGPS信号を受信する。また、GPS受信部511は、IMES(Indoor MEssaging System)等の屋内の位置を示す信号を受信することも可能である。
また、説明者端末5は、遠距離通信回路512、CMOSセンサ513、撮像素子I/F514、マイク515、スピーカ516、音入出力I/F517、ディスプレイ518、外部機器接続I/F519、近距離通信回路520、近距離通信回路520のアンテナ520a、及びタッチパネル521を備えている。
これらのうち、遠距離通信回路512は、通信ネットワーク100を介して、他の機器と通信する回路である。CMOSセンサ513は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F514は、CMOSセンサ513の駆動を制御する回路である。マイク515は、音を電気信号に変える内蔵型の回路である。スピーカ516は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F517は、CPU501の制御に従ってマイク515及びスピーカ516との間で音信号の入出力を処理する回路である。ディスプレイ518は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。外部機器接続I/F519は、各種の外部機器を接続するためのインタフェースである。近距離通信回路520は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル521は、利用者がディスプレイ518を押下することで、説明者端末5を操作する入力手段の一種である。
また、説明者端末5は、バスライン510を備えている。バスライン510は、図4に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、ロボット端末7、及びユーザ端末9は、説明者端末5と同様の構成であるため、説明を省略する。
<マイク付きイヤホンのハードウェア構成>
図5は、マイク付きイヤホンのハードウェア構成図である。
図5は、マイク付きイヤホンのハードウェア構成図である。
図5に示すように、マイク付きイヤホン6は、マイク615、スピーカ616、音入出力I/F617、近距離通信回路620、近距離通信回路520のアンテナ620a、及びボタン621を備えている。
マイク615は、音を電気信号に変える内蔵型の回路である。スピーカ616は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F617は、マイク515及びスピーカ516との間で音信号の入出力を処理する回路である。近距離通信回路520は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。ボタン621は、利用者がマイク付きイヤホン6を操作する操作手段の一種である。
<広角撮影装置のハードウェア構成>
図6を用いて、広角撮影装置8のハードウェア構成を説明する。図6は、広角撮影装置8の一例のハードウェア構成図である。以下では、広角撮影装置8は、2つの撮像素子を使用した全天球(全方位)広角撮影装置8であるが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に広角撮影装置8と同じ機能を有するようにしてもよい。
図6を用いて、広角撮影装置8のハードウェア構成を説明する。図6は、広角撮影装置8の一例のハードウェア構成図である。以下では、広角撮影装置8は、2つの撮像素子を使用した全天球(全方位)広角撮影装置8であるが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に広角撮影装置8と同じ機能を有するようにしてもよい。
図6に示されているように、広角撮影装置8は、撮像ユニット801、画像処理ユニット804、撮像制御ユニット805、マイク808、音処理ユニット809、CPU811、ROM812、SRAM813、DRAM814、操作部815、ネットワークI/F816、近距離通信回路817、アンテナ817a、電子コンパス818、ジャイロセンサ819、及び、加速度センサ820なども接続される。
このうち、撮像ユニット801は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)802a、802bと、各広角レンズに対応させて設けられている2つの撮像素子803a、803bを備えている。撮像素子803a、803bは、魚眼レンズ802a、802bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD( Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
撮像ユニット801の撮像素子803a、803bは、各々、画像処理ユニット804とパラレルI/Fバスで接続されている。一方、撮像ユニット801の撮像素子803a、803bは、撮像制御ユニット805とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット804、撮像制御ユニット805及び音処理ユニット809は、バス810を介してCPU811と接続される。更に、バス810には、ROM812、SRAM813、DRAM814、操作部815、ネットワークI/F816、近距離通信回路817、及び電子コンパス818なども接続される。
画像処理ユニット804は、撮像素子803a、803bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図8(c)に示されているような正距円筒射影画像のデータを作成する。
撮像制御ユニット805は、一般に撮像制御ユニット805をマスタデバイス、撮像素子803a、803bをスレーブデバイスとして、I2Cバスを利用して、撮像素子803a、803bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU811から受け取る。また、撮像制御ユニット805は、同じくI2Cバスを利用して、撮像素子803a、803bのレジスタ群のステータスデータ等を取り込み、CPU811に送る。
また、撮像制御ユニット805は、操作部815のシャッターボタンが押下されたタイミングで、撮像素子803a、803bに画像データの出力を指示する。広角撮影装置8によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子803a、803bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
撮像制御ユニット805は、後述するように、CPU811と協働して撮像素子803a、803bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、広角撮影装置8にはディスプレイが設けられていないが、表示部を設けてもよい。
マイク808は、収録した音声を音声データに変換する。音処理ユニット809は、マイク808から出力される音声データをI/Fバスを通して取り込み、音声データに対して所定の処理を施す。
CPU811は、広角撮影装置8の全体の動作を制御すると共に必要な処理を実行する 。ROM812は、CPU811のための種々のプログラムを記憶している。SRAM813及びDRAM814はワークメモリであり、CPU811で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM814は、画像処理ユニット804での処理途中の画像データ及び処理済みの正距円筒射影画像のデータを記憶する。
操作部815は、シャッターボタンなどの操作ボタンの総称である。操作者は操作部815を操作することで、種々の撮像モードや撮像条件などを入力する。
ネットワークI/F816は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F816としては、無線、有線を問わない。DRAM814に記憶された正距円筒射影画像のデータは、このネットワークI/F816を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F816を介して外部(装置等)に送信されたりする。
近距離通信回路817は、広角撮影装置8に設けられたアンテナ817aを介して、Wi-Fi、NFC、Bluetooth(登録商標)等の近距離無線通信技術によって、外部(ロボット端末7等)との通信を行う。この近距離通信回路817によっても、正距円筒射影画像のデータを外部に送信することができる。
電子コンパス818は、地球の磁気から広角撮影装置8の方位を算出し、方位情報を出力する。この方位情報はExif(Exchangeable image file format)に沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
ジャイロセンサ819は、広角撮影装置8の移動に伴う角度の変化(ロール角、ピッチング角、ヨー角)を検出する。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。
加速度センサ820は3軸方向の加速度を検出する。検出した加速度に基づいて広角撮影装置8の姿勢(重力方向に対する角度)を検出する。ジャイロセンサ819と加速度センサ820は両方を有することで画像補正の精度が向上する。
(全天球映像について)
次に、図7を用いて、広角撮影装置8の使用状況を説明する。なお、図7は、広角撮影装置8の使用イメージ図である。広角撮影装置8は、図7に示されているように、例えば、人が持って周りの被写体や風景を撮像するために用いられる。この場合、図6に示されている撮像素子803a及び撮像素子803bによって、それぞれ、人の周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図7を用いて、広角撮影装置8の使用状況を説明する。なお、図7は、広角撮影装置8の使用イメージ図である。広角撮影装置8は、図7に示されているように、例えば、人が持って周りの被写体や風景を撮像するために用いられる。この場合、図6に示されている撮像素子803a及び撮像素子803bによって、それぞれ、人の周りの被写体が撮像されることで、2つの半球画像を得ることができる。
次に、図8及び図9を用いて、広角撮影装置8で撮像された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図8(a)は広角撮影装置8で撮像された半球画像(前側)、図8(b)は広角撮影装置8で撮像された半球画像(後側)、図8(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図9(a)は正距円筒射影画像で球を被う状態を示した概念図、図9(b)は全天球画像を示した図である。
図8(a)に示されているように、撮像素子803aによって得られた画像は、後述の魚眼レンズ802aによって湾曲した半球画像(前側)となる。また、図8(b)に示されているように、撮像素子803bによって得られた画像は、魚眼レンズ802bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、広角撮影装置8によって合成され、図8(c)に示されているように、正距円筒射影画像ECが作成される。
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図9(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図9(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions) 及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、上記の「所定領域映像」に相当)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図10及び図11を用いて説明する。所定領域映像は動画でも静止画でもよい。
図10は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見る操作者の視点の位置に相当するものである。また、図11(a)は図10の立体斜視図、図11(b)はディスプレイに表示された場合の所定領域映像を表す図である。また、図11(a)では、図10に示されている全天球画像が、三次元の立体球CSで表されている。このように生成された全天球画像CEが、立体球CSであるとすると、図11に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮像方向と画角を示す所定領域情報によって特定される。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域映像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる(図12参照)。
図11(a)に示されている所定領域映像Qは、図11(b)に示されているように、所定のディスプレイに、仮想カメラICの撮像領域の画像として表示される。図11(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって 表された所定領域映像である。以下では、仮想カメラICの撮像方向(ea、aa)と画角(α)を用いて説明する。なお、所定領域Tは、画角αと距離fではなく、所定領域Tである仮想カメラICの撮像領域(X、Y、Z)によって示してもよい。
また、図11(a)の状態から、図11(c)に示されているように、仮想カメラICの仮想的な視点が右側(図面に向かって左側)に移動(「変更」ともいう)されると、これに応じて全天球画像CEにおける所定領域Tが所定領域T'に移動されるため、所定のディスプレイに表示される所定領域画像Qが所定領域画像Q'に変更される。これにより、送信先の説明者端末5及びユーザ端末9の各ディスプレイ518には、図11(b)に示されている画像が、図11(d)に示されている画像に変更表示される。
次に、図12を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図12は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図12に示されているように、「ea」はelevation angle(仰角)、「aa」はazimuth angle(方位角)、「α」は画角(Angle)を示す。即ち、撮像方向(ea、aa)で示される仮想カメラICの注視点が、仮想カメラICの撮像領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。図12に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角画角をαとした場合の中心点CPが、所定領域情報の(x、y)パラメータとなる。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図12では、一般的に以下の(式1)で示される三角関数が成り立つ。
(L/f)=tan(α/2)・・・(式1)
<車両装置のハードウェア構成>
図13は、車両装置のハードウェア構成図である。車両装置10は、例えば、CPU1001、ROM1002、RAM1003、外部機器接続I/F1019、近距離通信回路1020、近距離通信回路1020のアンテナ1020a、車輪駆動部1021、及び操舵部1022等を有する。
(L/f)=tan(α/2)・・・(式1)
<車両装置のハードウェア構成>
図13は、車両装置のハードウェア構成図である。車両装置10は、例えば、CPU1001、ROM1002、RAM1003、外部機器接続I/F1019、近距離通信回路1020、近距離通信回路1020のアンテナ1020a、車輪駆動部1021、及び操舵部1022等を有する。
CPU1001は、ROM1002等に格納されたプログラムを実行することにより、車両装置10の各機能を実現する演算装置である。ROM1002は、車両装置10のプログ ラム等を記憶する不揮発性のメモリである。ROM1002は、例えば、フラッシュROM等の書き換え可能な不揮発性メモリであっても良い。RAM1003は、CPU1001のワークエリア等として用いられる揮発性のメモリである。
外部機器接続I/F1019は、ロボット端末7等と有線接続し、通信を行うための有線通信インタフェースである。
近距離通信回路1020は、例えば、ロボット端末7等と同じ無線通信方式により無線通信を行うための無線通信インタフェースである。
車輪駆動部1021は、車両装置10を移動させるための車輪を駆動させる駆動装置の一例である。車輪駆動部1021には、例えば、モータ等が含まれる。
操舵部1022は、車輪駆動部1021によって移動する車両装置10の操舵を行う操舵装置の一例である。操舵部1022は、例えば、車輪の向きや傾きを変えるものであっても良いし、左右の車輪の回転数や速度等を制御することにより、車両装置10(ロボットR)の向きを変えるもの等であっても良い。
〔通信システムの各機能構成〕
続いて、図14を用いて、通信システム1の各機能構成を説明する。図14は、通信システム1の各機能構成図である。
続いて、図14を用いて、通信システム1の各機能構成を説明する。図14は、通信システム1の各機能構成図である。
<通信管理サーバ>
図14に示されているように、通信管理サーバ3は、送受信部31、認証部35、位置設定部36、及び画像作成部37を有している。これら各部は、図3に示されている各構成要素のいずれかが、SSD304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。また、通信管理サーバ3は、図3に示されているROM302、RAM303、又はSSD304によって構築される記憶部40を有している。なお、記憶部40には、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)が記憶されている。
図14に示されているように、通信管理サーバ3は、送受信部31、認証部35、位置設定部36、及び画像作成部37を有している。これら各部は、図3に示されている各構成要素のいずれかが、SSD304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。また、通信管理サーバ3は、図3に示されているROM302、RAM303、又はSSD304によって構築される記憶部40を有している。なお、記憶部40には、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)が記憶されている。
(位置情報管理テーブル)
記憶部40には、図15に示されているような位置情報管理テーブルが記憶されている。位置情報管理テーブルでは、人又はロボットの名称(人の場合は名前等)、ログインID、パスワード、アイコンID、アイコン画像、実空間位置情報、仮想空間位置情報、所属先、及び専用の音声通信の相手を示す各情報が関連付けて管理されている。なお、前半の情報(名称、ログインID、パスワード、アイコンID、及びアイコン画像)は、滅多に変更されない情報であり、後半の情報(実空間位置情報、仮想空間位置情報、所属先、及び専用の音声通信の相手)は、実空間の展示会での状況及びユーザYの操作により変更される可能性が高い情報である。なお、アイコン画像は、模式的に示しているに過ぎず、実際にはアイコンのデータ又はアイコンが記憶されている記憶部40におけるURL等が管理される。また、アイコンは、所定の人に関するものだけでなく、この同じ所定の人が使用する通信端末(説明者端末5、ユーザ端末9等)に関するものと言うこともできる。
記憶部40には、図15に示されているような位置情報管理テーブルが記憶されている。位置情報管理テーブルでは、人又はロボットの名称(人の場合は名前等)、ログインID、パスワード、アイコンID、アイコン画像、実空間位置情報、仮想空間位置情報、所属先、及び専用の音声通信の相手を示す各情報が関連付けて管理されている。なお、前半の情報(名称、ログインID、パスワード、アイコンID、及びアイコン画像)は、滅多に変更されない情報であり、後半の情報(実空間位置情報、仮想空間位置情報、所属先、及び専用の音声通信の相手)は、実空間の展示会での状況及びユーザYの操作により変更される可能性が高い情報である。なお、アイコン画像は、模式的に示しているに過ぎず、実際にはアイコンのデータ又はアイコンが記憶されている記憶部40におけるURL等が管理される。また、アイコンは、所定の人に関するものだけでなく、この同じ所定の人が使用する通信端末(説明者端末5、ユーザ端末9等)に関するものと言うこともできる。
また、「所属先」は、例えば、図18において、説明者E1のアイコンe1とユーザY2のアイコンy2が関連付けられたロボットR1(ここでは、アイコンID)を特定するための情報である。「専用の音声通信相手」は、説明者Eが他のユーザには音声を聞こえない状態で音声通信する場合の相手先(ここでは、アイコンID)を特定するための情報である。
(各機能構成)
送受信部31は、他の端末(装置)とデータ通信を行う。
送受信部31は、他の端末(装置)とデータ通信を行う。
認証部35は、他の端末(装置)のログイン認証等を行う。
位置設定部36は、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)に基づいて、図15の「仮想空間位置情報」フィールドに、実空間端末位置情報に対応する仮想空間上の位置を示す仮想空間端末(装置)位置情報を記憶して設定する等の処理を行う。
画像作成部37は、後述の図18等の仮想空間画像を作成する。
なお、通信管理サーバ3は、複数のサーバによって構築されていてもよい。この場合、位置情報管理テーブルの各フィールドは、各サーバの役割に応じて分割して記憶される。
<説明者端末>
図14に示されているように、説明者端末5は、通信部50、送受信部51、受付部52、位置取得部53、及び表示制御部54を有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
図14に示されているように、説明者端末5は、通信部50、送受信部51、受付部52、位置取得部53、及び表示制御部54を有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
通信部50は、近距離通信回路520の処理等により、マイク付きイヤホン6との通信を行う。
送受信部51は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。
受付部52は、人(説明者E等)の操作を受け付ける。
位置取得部53は、GPS受信部511等の処理により、屋外又は屋内の位置を示す位置情報を取得する。
表示制御部54は、説明者端末5のディスプレイ518に対して、各種画像を表示させる。
なお、本実施形態では、GPSを用いて説明者端末5の屋外又は屋内の位置を示す位置情報を取得しているが、これに限らない。例えば、表示制御部54は、説明者端末5のディスプレイ518に、説明者端末5の位置情報が埋め込まれたコード情報(QRコード(登録商標)等の2次元コード、又はバーコード等の1次元コード)を表示させ、説明者Eが所有するスマートフォンのカメラでコード情報を読み取ることで、説明者端末5の位置情報を取得することも可能である。
<ロボット端末>
図14に示されているように、ロボットR(ロボット端末7)は、送受信部71、受付部72、位置取得部73、表示制御部74、及び追従移動制御部78を有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
図14に示されているように、ロボットR(ロボット端末7)は、送受信部71、受付部72、位置取得部73、表示制御部74、及び追従移動制御部78を有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
送受信部71は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。
受付部72は、人(説明者E等)の操作を受け付ける。
位置取得部73は、GPS受信部511等の処理により、屋外又は屋内の位置を示す位置情報を取得する。
表示制御部74は、ロボット端末7のディスプレイ518に対して、各種画像を表示させる。
なお、本実施形態では、GPSを用いてロボットR(ロボット端末7)の屋外又は屋内の位置を示す位置情報を取得しているが、これに限らない。例えば、表示制御部74は、ロボットR(ロボット端末7)のディスプレイ518に、ロボットR(ロボット端末7)の位置情報が埋め込まれたコード情報(QRコード等の2次元コード、又はバーコード等の1次元コード)を表示させ、説明者Eが所有するスマートフォンのカメラでコード情報を読み取ることで、ロボットR(ロボット端末7)の位置情報を取得することも可能である。
追従移動制御部78は、広角撮影装置8又はCOMS513で撮影された人の画像を画像認識して、人を追従する制御を行う。
<ユーザ端末>
図14に示されているように、ユーザ端末9は、送受信部91、受付部92、及び表示制御部94有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
図14に示されているように、ユーザ端末9は、送受信部91、受付部92、及び表示制御部94有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
送受信部71は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。
受付部72は、人(ユーザY等)の操作を受け付ける。
表示制御部74は、ユーザ端末9のディスプレイ518に対して、各種画像を表示させる。
〔通信システムの処理又は動作〕
続いて、図16乃至図28を用いて、通信システムの処理又は動作について説明する。
続いて、図16乃至図28を用いて、通信システムの処理又は動作について説明する。
<ログイン処理>
まずは、図16を用いて、各端末及びロボットのログイン処理を説明する。図16は、各端末及びロボットのログイン処理を示したシーケンス図である。なお、ロボットRの場合、実際にはロボット端末7がログインを行う。また、ここでは、マイク付きイヤホン6a、説明者端末5a、ロボットR1(ロボット端末7a)、通信管理サーバ3、及びユーザ端末9aの処理について説明する。なお、マイク付きイヤホン6a、説明者端末5a、ロボットR1(ロボット端末7a)、及びユーザ端末9aは、それぞれ、マイク付きイヤホン6、説明者端末5、ロボットR(ロボット端末7)、及びユーザ端末9の一例である。
まずは、図16を用いて、各端末及びロボットのログイン処理を説明する。図16は、各端末及びロボットのログイン処理を示したシーケンス図である。なお、ロボットRの場合、実際にはロボット端末7がログインを行う。また、ここでは、マイク付きイヤホン6a、説明者端末5a、ロボットR1(ロボット端末7a)、通信管理サーバ3、及びユーザ端末9aの処理について説明する。なお、マイク付きイヤホン6a、説明者端末5a、ロボットR1(ロボット端末7a)、及びユーザ端末9aは、それぞれ、マイク付きイヤホン6、説明者端末5、ロボットR(ロボット端末7)、及びユーザ端末9の一例である。
S11:ログインの前に、マイク付きイヤホン6aと説明者端末a5との間でペアリングを行うことで、マイク付きイヤホン6aを説明者端末5aと近距離無線接続する。
S12:説明者端末5aの受付部52は説明者E1からログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部51が通信管理サーバ3に対して、仮想空間及び音声通信へのログイン要求を送信する。また、このログイン要求には、説明者E1のログインID及びパスワード等が含まれている。更に、ログイン要求には、説明者端末5aの実空間上の位置を示す実空間端末位置情報も含まれている。説明者端末5の実空間端末位置情報は、説明者端末5aの位置取得部53によって取得された説明者端末5aの実空間上(ここでは、展示会場)の位置を示す情報である。これにより、通信管理サーバ3の送受信部31は、説明者端末5aからのログイン要求を受信する。なお、説明者端末5aが移動する度に、説明者端末5aから通信管理サーバ3に移動後の実空間端末位置情報が送信される。
S13:通信管理サーバ3では、認証部35が、送受信部31によって処理S12で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。ログイン認証が成功した場合、認証部35は、この認証に用いたログインID及びパスワードを含むレコードの「実空間位置情報」フィールドに、処理S12で受信された実空間位置情報を記憶する。なお、後述の処理S31が開始される前であれば、実空間端末位置情報の送受信のタイミングは、処理S12に限らずいつでもよい。認証結果は、説明者端末5aに返信される。
S14:ロボットR1の受付部72は説明者E1からログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部71が通信管理サーバ3に対して、映像通信へのログイン要求を送信する。また、このログイン要求には、ロボットR1のログインID及びパスワード等が含まれている。更に、ログイン要求には、ロボットR1の実空間上(ここでは、展示会場)の位置を示す実空間装置位置情報も含まれている。ロボットR1の実空間装置位置情報は、ロボットR1の位置取得部73によって取得されたロボットR1の実空間上の位置を示す情報である。これにより、通信管理サーバ3の送受信部31は、ロボットR1からのログイン要求を受信する。
S15:通信管理サーバ3では、認証部35が、送受信部31によって処理S14で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。ログイン認証が成功した場合、認証部35は、この認証に用いたログインID及びパスワードを含むレコードの「実空間位置情報」フィールドに、処理S14で受信された実空間装置位置情報を記憶する。なお、後述の処理S31が開始される前であれば、実空間装置位置情報の送受信のタイミングは、処理S14に限らずいつでもよい。認証結果は、ロボットR1(ロボット端末7a)に返信される。
S16:ユーザ端末9aの受付部92はユーザYからログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部91が通信管理サーバ3に対して、通信管理サーバ3のサービスへのログイン要求を送信する。また、このログイン要求には、ユーザ端末9のログインID及びパスワード等が含まれている。これにより、通信管理サーバ3の送受信部31は、ユーザ端末9aからのログイン要求を受信する。
S17:通信管理サーバ3では、認証部35が、送受信部31によって処理S16で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。なお、認証結果は、ユーザ端末9aに返信される。
以降は、上記全てのログイン認証が成功した場合について説明を続ける。
<仮想空間画像の表示、音声通信、及び映像通信>
続いて、図17乃至図21を用いて、仮想空間画像の表示、音声通信、及び映像通信の処理を説明する。図17は、仮想空間画像の表示、音声通信、及び映像通信の処理を示したシーケンスである。
続いて、図17乃至図21を用いて、仮想空間画像の表示、音声通信、及び映像通信の処理を説明する。図17は、仮想空間画像の表示、音声通信、及び映像通信の処理を示したシーケンスである。
S31:通信管理サーバ3では、位置設定部36が、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)に基づいて、処理S13の認証に用いられたログインID及びパスワードを含むレコードの「仮想空間位置情報」フィールドに、処理S12で受信された実空間端末位置情報に対応する仮想空間上の位置を示す仮想空間(端末)位置情報を記憶して設定する。同様に、位置設定部36が、位置対応情報に基づいて、処理S15の認証に用いられたログインID及びパスワードを含むレコードの「仮想空間位置情報」フィールドに、処理S14で受信された実空間装置位置情報に対応する仮想空間(装置)位置情報を記憶して設定する。更に、位置設定部36は、処理S17の認証に用いられたログインID及びパスワードを含むレコードの「仮想空間位置情報」フィールドに、初期位置としての仮想空間(装置)位置情報を記憶して設定する。
更に、画像作成部37は、図18に示すように、実空間の展示会場を模式化したレイアウトマップm1に対して、位置情報管理テーブルで管理されている仮想空間位置情報に基づき、この仮想空間位置情報に対応するアイコン画像をマッピングすることで、仮想空間画像を作成する。
S32:送受信部31は、ユーザ端末9aに対して、画像作成部37によって作成された仮想空間画像のデータを送信する。これにより、ユーザ端末9aの送受信部91は、仮想空間画像のデータを受信する。
S33:次に、ユーザ端末9aでは、表示制御部94がディスプレイ518上に図18に示すような仮想空間画像が示された画面110を表示させる。
図18は、ユーザY1のアイコンy1の初期位置を示す仮想空間画像を示す図である。図18に示すように、仮想空間画像には、実空間上の展示会場を模式化したレイアウトマップm1、及び仮想空間上の展示会に参加している者及びロボットの各アイコンが示されている。ここでは、仮想空間の展示会に参加したユーザY1のアイコンy1が初期位置(例えば、仮想空間画像内の右側)に示されている。
また、ロボットR1を示すアイコンr1を中心とした関連付領域a1内で、説明者E1を示すアイコンe1、及び仮想空間の展示会に遠隔参加しているユーザY2を示すアイコンy2が示されている。この状態は、アイコンr1で示されるロボットR1に対して、アイコンe1で示される説明者E1、及びアイコンy2で示されるユーザY2が所属していることを示している。この所属の関係は、位置情報管理テーブルの「所属先」のフィールドで管理されているため、通信管理サーバ3の画像作成部37は、上述の処理32で、位置情報管理テーブルの「所属先」のフィールドを参考にして、仮想空間画像を作成する。なお、図18において、関連付領域a1は破線の円で示されているが、実際には示されなくてもよいし、円の領域ではなく多角形の領域でもよい。
また、関連付領域a1内のアイコンe1が示す説明者E1の説明者端末5aと、アイコンy2が示すユーザY2のユーザ端末9bは、音声の通信セッションにより、音声通信することができる。そのため、説明者E1はマイク付きイヤホン6aを用い、ユーザY2に対して実空間(実世界)の展示会の様子を説明することができ、ユーザY2はユーザ端末9bを用い、説明者E1に対して実空間の展示会に関する質問等を行うことができる。
更に、関連付領域a1内のアイコンe1が示す説明者E1の説明者端末5aと、アイコンy2が示すユーザY2のユーザ端末9bは、映像の通信セッションにより、アイコンr1が示すロボットR1が送信した映像のデータを受信して表示することができる。
なお、ロボットR1は、映像の通信セッションを用いても、音声のデータを配信することができるが、ロボットR1の周囲の雑音や会話等を収音してしまうため、音声のデータの送信は行わない。これに対して、上述の音声の通信セッションを用いる場合、説明者E1は、ロボットR1に対して話しかけないで、マイク付きイヤホン6を用いて話すため、ユーザY1,Y2には、ロボットR1の周囲の雑音や会話等はほとんど聞こえず、説明者E1の声をクリアに聞くことができる。
なお、仮想空間画像が示された画面110の左側で、関連付領域a2に含まれる各アイコンr2,e2,y3は、それぞれロボットR2、説明者E2、ユーザY3を示し、上述の関連付領域a1に含まれるアイコンr1,e1,y2の関係と同様の関係を有するため、説明を省略する。
S34:ユーザ端末9aでは、受付部92がユーザY1から、図19に示すようにカーソルc1を用いて関連付領域a1内にアイコンy1を移動させる操作を受け付ける。そして、送受信部91は、通信管理サーバ3に対してアイコンy1の移動後の仮想空間位置情報を送信する。この仮想空間位置情報には、ユーザY1のアイコンID「y21」が含まれている。これにより、通信管理サーバ3の送受信部31は、移動後の仮想空間位置情報を受信する。
なお、位置設定部36は、位置情報管理テーブルにおいて、処理S34で受信されたアイコンIDに対応する「仮想空間位置情報」フィールドに、移動後の仮想空間位置情報を上書きする。これにより、画像作成部37は、上書きされた移動後の仮想空間位置情報を用いて最新の仮想空間画像を作成する。このように、処理S31~S34が繰り返されることで、ユーザ端末9aに表示される仮想空間画像が更新される。
なお、ユーザY1は、図18において、アイコンy1をアイコンr1と重なるように移動させてもよい。この場合、位置設定部36が、関連付領域a1内でアイコンy1を他のアイコンe1,r1,y2と重ならない位置に変更させて位置情報管理テーブルの「仮想空間位置情報」フィールドに記憶する。これにより、画像作成部37は、図19に示すように、アイコンy1が他のアイコンと重ならない仮想空間画像を作成する。
S35:通信管理サーバ3は、アイコンの位置の関連付け処理を行う。ここで、図20を用いて、アイコンの位置の関連付け処理を説明する。図20は、アイコンの位置の関連付け処理を示すフローチャートである。
S211:まず、位置設定部36は、位置情報管理テーブルにおける「仮想空間位置情報」フィールドを参考にして、アイコンy1が所定のロボットR1のアイコンr1の関連付領域a1内に入ったかを判断する。
S212:位置設定部36が関連付領域a1内に入ったと判断した場合には(S211;YES)、位置設定部36は、所定のロボットR1のアイコンr1の仮想空間上の位置とユーザY1のアイコンy1の仮想空間上の位置を関連付ける。具体的には、位置設定部36は、位置情報管理テーブルにおいて、ユーザY1のレコードの「所属先」フィールドに、ロボットR1のアイコンID「r21」を記憶して管理する。なお、位置設定部36が関連付領域a1内に入ったと判断しなかった場合には(S211;NO)、処理S212は実行されない。なお、以降、処理S212が実行された場合について説明する。
S36:通信管理サーバ3の送受信部31は、位置情報管理テーブルを参照し、(1)関連付範囲a1内に入ったアイコンy1で示されるユーザY1のログインID「L21」と、(2)このログインID「L21」を含むレコードの「所属先」フィールドで管理されているアイコンID「r21」と同じアイコンIDを「所属先」フィールドで管理している他のレコードのログインID「L11」,「L22」とに基づき、[1]ログインID「L21」が用いられているユーザ端末9aと、[2-1]ログインID「L11」が用いられている説明者端末5aと、[2-2]ログインID「L22」が用いられているユーザ端末9bとの3つの間で、音声の通信セッションを確立させる。また、マイク付きイヤホン6と説明者端末5aとの間は、上述の処理S11により近距離無線接続が行われているため、マイク付きイヤホン6a、説明者端末5a、及びユーザ端末9aの間では、音声通信を行うことができる。
S37:通信管理サーバ3の送受信部31は、位置情報管理テーブルを参照し、関連付範囲a1内に入ったアイコンy1で示されるユーザY1のログインID「L21」と、このログインID「L21」を含むレコードの「所属先」フィールドで管理されているアイコンID「r21」と同じアイコンIDを「アイコンID」フィールドで管理しているレコードのログインID「L31」とに基づき、ログインID「L21」が用いられているユーザ端末9aと、ログインID「L31」が用いられているロボットR1との間で、映像の通信セッションを確立させる。これにより、ロボットR1とユーザ端末9aは、通信管理サーバ3を介して、相互に映像通信を行うことができる。例えば、ロボットR1が撮影して得た展示会の映像のデータを送信すると、ユーザ端末9aのディスプレイ518上に展示会の映像が表示される。一方、ユーザ端末9aが撮影して得たユーザy1の顔の映像のデータを送信すると、ロボットR1ではロボット端末7aのディスプレイ518上にユーザy1の顔の映像が表示される。
また、ロボットR1が複数のユーザ端末と映像通信している場合には、ロボットR1は通信管理サーバ3を介して複数のユーザ端末に展示会の映像のデータを送信することで、各ユーザ端末で展示会の映像が表示される。一方、各通信端末は通信管理サーバ3を介してロボットR1に各ユーザの顔の映像のデータを送信することで、ロボットR1で各ユーザの顔の映像が表示される。これにより、説明者E1は、各ユーザの表情を確認しながら商品の説明等を行うことができる。
S38:ユーザ端末9aでは、送受信部91が処理S37により送信された映像のデータを受信し、図21に示すように、表示制御部94が別画面(ポップアップ画面等)111に、実空間の展示会の映像を表示させる。ここでは、説明者E1が鞄を説明するシーンが表示されている。このようにして、ユーザY1は、実空間の展示会に行かなくても、所望の実空間の展示会の映像を閲覧することができる。
<ロボットへの追従>
続いて、図22乃至図24を用いて、ユーザのアイコンがロボットのアイコンの移動に追従する処理を説明する。図22は、ユーザのアイコンがロボットのアイコンの移動に追従する処理を示すシーケンス図である。
続いて、図22乃至図24を用いて、ユーザのアイコンがロボットのアイコンの移動に追従する処理を説明する。図22は、ユーザのアイコンがロボットのアイコンの移動に追従する処理を示すシーケンス図である。
S51:実空間で説明者E1が移動すると、ロボットR1が説明者E1の移動に追従する。この場合、ロボットR1は、追従移動制御部78が、CMOS513で撮影された説明者E1の画像を画像認識して、説明者E1を追従する制御を行う。
S52:ロボットR1が追従して移動すると、位置取得部73が新たな実空間装置位置情報を取得し、送受信部71が通信管理サーバ3に実空間装置位置情報を送信する。この実空間装置位置情報には、送信元のロボットR1を識別するためのログインID「L31」が含まれている。これにより、通信管理サーバ3の送受信部31が、実空間装置位置情報を受信する。また、送受信部31が、位置情報管理テーブルに、処理S52で受信したログインIDを含むレコードの「実空間位置情報」フィールドに、処理S52で受信した実空間装置位置情報を上書きする。これに伴い、位置設定部36が、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)に基づいて、対応する仮想空間位置情報も変更する。
S53:通信管理サーバ3では、追従による仮想空間内の位置変更処理を行う。ここで、図23を用いて、追従による仮想空間内の位置変更処理を説明する。
S231:位置設定部36は、位置情報管理テーブルの「実空間位置情報」フィールドを参照し、所定のロボットR1の実空間における位置が変更したかを判断する。変更していない場合には(S231;NO)、この処理S231は繰り返される。
S232:所定のロボットR1の実空間における位置が変更した場合には(S231;NO)、位置設定部36は、位置情報管理テーブルを参照し、所定のロボットR1のアイコンID「r21」が所属先となっている全てのアイコンID「e11」、「y21」、「y22」に係る各仮想空間端末(装置)位置情報を関連付領域a1内で変更させる。
S54:図22に戻り、画像作成部37は、処理S53に基づき、新たに仮想空間画像を作成する。
S55:送受信部31は、ユーザ端末9aに対して、処理S54で作成された仮想空間画像のデータを送信する。これにより、ユーザ端末9aの送受信部91は、仮想空間画像のデータを受信する。
S56:ユーザ端末9aでは、図24に示すように、表示制御部94がディスプレイ518上に仮想空間画像が示された画面110を表示させる。図24では、実空間上で説明者E1が移動することに伴い、仮想空間上で説明者E1のアイコンe1が移動している。また、実空間上でロボットR1が説明者E1に追従して移動することに伴い、仮想空間上でアイコンr1がアイコンe1に追従して移動している。更に、仮想空間上でアイコンr1が移動することに伴い、仮想空間上で関連付領域a1内のアイコンy1,y2がアイコンr1に追従して移動している。また、ロボットR1は移動中の説明者E1を追従しながら撮影しているため、この場合の別画面111には、移動中の説明者E1の後ろ姿が表示されている。
<専用の音声通信>
続いて、図25及び図26を用いて、専用の音声通信を行う処理を説明する。図25は、専用の音声通信を行う処理を示すシーケンス図である。図26は、専用の音声通信を行う相手のアイコンを選択した状態の仮想空間画像を示す図である。
続いて、図25及び図26を用いて、専用の音声通信を行う処理を説明する。図25は、専用の音声通信を行う処理を示すシーケンス図である。図26は、専用の音声通信を行う相手のアイコンを選択した状態の仮想空間画像を示す図である。
S71:ユーザ端末9aでは、受付部92がユーザY1から、図26に示すようにカーソルc1を用いて、自分のアイコンy1以外のアイコン(ここでは、アイコンe1)を選択する操作を受け付ける。そして、送受信部91は、通信管理サーバ3に対して、専用の音声通信の確立要求として、アイコンe1の選択を示す情報を送信する。この情報には、選択した者であるユーザY1のアイコンID「y21」及び選択されたアイコンe1のアイコンID「e11」が含まれている。これにより、通信管理サーバ3の送受信部31は、アイコンの選択を示す情報を受信する。
S72:通信管理サーバ3の送受信部31は、位置情報管理テーブルのアイコンID「e11」のレコードの「専用の音声通信相手」フィールドにアイコンID「y21」を記憶して管理すると共に、位置情報管理テーブルのアイコンID「y21」のレコードの「専用の音声通信相手」フィールドにアイコンID「e11」を記憶して管理する。これにより、送受信部91は、専用の音声通信相手として相互に管理しているアイコンID「e11」に係るログインID「L11」が用いられている説明者端末5aと、専用の音声通信相手として相互に管理しているアイコンID「y21」に係るログインID「L21」が用いられているユーザ端末9aとの間で、専用の音声の通信セッションを確立させる。また、マイク付きイヤホン6aと説明者端末5aとの間は、上述の処理S11により近距離無線接続が行われているため、マイク付きイヤホン6a、説明者端末5a、及びユーザ端末9aの間では、専用の音声通信を行うことができる。これにより、ユーザY1は、他のユーザY2に音声内容を聞かれない状態で、説明者E1に相談したり、逆に、説明者E1は、他のユーザY2に音声内容を聞かれない状態で、ユーザY1に回答したりすることができる。
なお、図26では、ユーザY1は説明者E1のアイコンe1を選択したが、これに限るものではない。例えば、ユーザY1は同じ関連付領域a1内の他のユーザY2のアイコンy2を選択して、ユーザY2と専用の音声通信による会話を行ってもよい。また、ユーザY1は異なる関連付領域a2内の説明者E2のアイコンe2を選択して、説明者E2と専用の音声通信による会話を行ってもよいし、他のユーザY3のアイコンy3を選択して、ユーザY3と専用の音声通信による会話を行ってもよい。また、ユーザYだけでなく、説明者Eが説明者端末5に表示された仮想空間画像に対して、自分のアイコン以外のアイコンを選択することで、専用の音声通信を開始するようにしてもよい。
<追従先のロボットの変更>
続いて、図27及び図28を用いて、追従先のロボットを変更する処理を説明する。図27は、追従先のロボットを変更する処理を示すシーケンス図である。図28は、ユーザのアイコンを別のロボットのアイコンに関連付けるための移動を行った後の仮想空間画像を示す図なお、下記処理S91~S94は、上述の処理S34,S31,S32,S33と同様の処理である。
続いて、図27及び図28を用いて、追従先のロボットを変更する処理を説明する。図27は、追従先のロボットを変更する処理を示すシーケンス図である。図28は、ユーザのアイコンを別のロボットのアイコンに関連付けるための移動を行った後の仮想空間画像を示す図なお、下記処理S91~S94は、上述の処理S34,S31,S32,S33と同様の処理である。
S91:ユーザ端末9aでは、受付部92がユーザY1から、図28に示すようにカーソルc1を用いて関連付領域a2内にアイコンy1を移動させる操作を受け付ける。そして、送受信部91は、通信管理サーバ3に対してアイコンy1の移動後の仮想空間位置情報を送信する。この仮想空間位置情報には、ユーザY1のアイコンID「y21」が含まれている。これにより、通信管理サーバ3の送受信部31は、移動後の仮想空間位置情報を受信する。
S92:位置設定部36は、位置情報管理テーブルにおいて、処理S91で受信されたアイコンIDに対応する「仮想空間位置情報」フィールドに、移動後の仮想空間位置情報を上書きする。これにより、画像作成部37は、上書きされた移動後の仮想空間位置情報を用いて最新の仮想空間画像を作成する。
S93:送受信部31は、ユーザ端末9aに対して、画像作成部37によって作成された仮想空間画像のデータを送信する。これにより、ユーザ端末9aの送受信部91は、仮想空間画像のデータを受信する。
S94:次に、ユーザ端末9aでは、表示制御部94がディスプレイ518上に図28に示すように、アイコンy1が関連付領域a2内に移動した後の仮想空間画像が示された画面110を表示させる。
S95:通信管理サーバ3は、アイコンの位置の関連付け処理を行う。なお、この処理は、既に図20を用いて説明しているため、説明を省略する。なお、ここでは、所定のロボットが、ロボットR1からロボットR2になり、位置情報管理テーブルにおいて、ユーザY1のレコードの「所属先」フィールドがロボットR1のアイコンID「r21」からロボットR2のアイコンID「r22」に変更される。
S96:通信管理サーバ3の送受信部31は、位置情報管理テーブルを参照し、(1)関連付範囲a2内に入ったアイコンy1で示されるユーザY1のログインID「L21」と、(2)このログインID「L21」を含むレコードの「所属先」フィールドで管理されているアイコンID「r22」と同じアイコンIDを「所属先」フィールドで管理している他のレコードのログインID「L12」,「L23」とに基づき、[1]ログインID「L21」が用いられているユーザ端末9aと、[2-1]ログインID「L12」が用いられている説明者端末5bと、[2-2]ログインID「L23」が用いられているユーザ端末9cとの3つの間で、音声の通信セッションを確立させる。また、マイク付きイヤホン6bと説明者端末5bとの間は、上述の処理S11により近距離無線接続が行われているため、マイク付きイヤホン6b、説明者端末5b、及びユーザ端末9aの間では、音声通信を行うことができる。
S97:通信管理サーバ3の送受信部31は、位置情報管理テーブルを参照し、関連付範囲a2内に入ったアイコンy1で示されるユーザY1のログインID「L21」と、このログインID「L21」を含むレコードの「所属先」フィールドで管理されているアイコンID「r22」と同じアイコンIDを「アイコンID」フィールドで管理しているレコードのログインID「L32」とに基づき、ログインID「L21」が用いられているユーザ端末9aと、ログインID「L32」が用いられているロボットR2との間で、映像の通信セッションを確立させる。これにより、ロボットR2とユーザ端末9aは、通信管理サーバ3を介して、相互に映像通信を行うことができる。例えば、ロボットR2が撮影して得た展示会の映像のデータを送信すると、ユーザ端末9aのディスプレイ518上に展示会の映像が表示される。一方、ユーザ端末9aが撮影して得たユーザy1の顔の映像のデータを送信すると、ロボットR2ではロボット端末7のディスプレイ518上にユーザy1の顔の映像が表示される。
また、ロボットR2が複数のユーザ端末と映像通信している場合には、ロボットR2は通信管理サーバ3を介して複数のユーザ端末に展示会の映像のデータを送信することで、各ユーザ端末で展示会の映像が表示される。一方、各通信端末は通信管理サーバ3を介してロボットR2に各ユーザの顔の映像のデータを送信することで、ロボットR2で各ユーザの顔の映像が表示される。これにより、説明者E2は、各ユーザの表情を確認しながら商品の説明等を行うことができる、
S98:ユーザ端末9aでは、送受信部91が処理S97により送信された映像のデータを受信し、図28に示すように、表示制御部94が別画面(ポップアップ画面等)111に、実空間の展示会の映像を表示させる。ここでは、説明者E2が衣服を説明するシーンが表示されている。このようにして、ユーザY1は、実空間の展示会に行かなくても、所望の実空間の展示会の映像を閲覧することができる。
S98:ユーザ端末9aでは、送受信部91が処理S97により送信された映像のデータを受信し、図28に示すように、表示制御部94が別画面(ポップアップ画面等)111に、実空間の展示会の映像を表示させる。ここでは、説明者E2が衣服を説明するシーンが表示されている。このようにして、ユーザY1は、実空間の展示会に行かなくても、所望の実空間の展示会の映像を閲覧することができる。
なお、処理96により、図17の処理S36におけるユーザ端末9aと通信管理サーバ3の間の音声の通信セッションは切断される。また、処理97により、図17の処理S37におけるユーザ端末9aと通信管理サーバ3の間の映像の通信セッションは切断される。
〔実施形態の主な効果〕
以上説明したように、本実施形態によれば、図21に示すように、遠隔で展示会等の実空間の映像を閲覧するユーザYに、このユーザYのユーザ端末9で映し出された映像が実空間のどの位置の映像であるかを把握し易くすることができる。
以上説明したように、本実施形態によれば、図21に示すように、遠隔で展示会等の実空間の映像を閲覧するユーザYに、このユーザYのユーザ端末9で映し出された映像が実空間のどの位置の映像であるかを把握し易くすることができる。
また、図1に示すように、実空間の展示会等に複数のロボットR1,R2が存在している場合であっても、図28に示すように、ユーザY1が仮想空間画像上で自分のアイコンy1を、ロボットr1の周辺からロボットr2の修正に移動させるだけで、即座に図26の別画面111の映像が図28の別画面111の映像に切り替わるため、わざわざ実空間のロボットR1を所望の位置に移動させてもらう必要がない。
更に、上述のように、説明者Eは、ロボットRに対して話しかけないで、マイク付きイヤホン6を用いて、ユーザYと会話をするため、ユーザYはロボットRの周囲の雑音や会話等が混じった音声を聞くのではなく、ユーザYのクリアな音声を聞くことができる。
また、図19に示すように、一旦、仮想空間画像上でアイコンy1,y2をアイコンr1に関連付けると、図24に示すように、アイコンr1の移動に伴い、アイコンy1,y2が自動的に追従して移動するため、ユーザYはユーザ端末9で映し出された映像が実空間のどの位置の映像であるかを把握し続けることができる。
〔補足〕
上述の実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU、及び従来の回路モジュール等のデバイスを含む。
上述の実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU、及び従来の回路モジュール等のデバイスを含む。
また、上記各プログラムは、(非一時的な)記録媒体に記録されることで、流通されるようにしてもよい。
各CPU301,501,801,1001は、単一であってもよく複数であってもよい。
R ロボット(移動装置の一例/第1,第2の移動装置の一例)
1 通信システム
3 通信管理サーバ
5 説明者端末(第1の通信端末の一例/第1,第2の通信端末の一例)
6 マイク付きイヤホン(音声入出力デバイスの一例)
7 ロボット端末
8 広角撮影装置
9 ユーザ端末(第2,第3の通信端末の一例/所定の通信端末の一例)
10 車両装置
31 送受信部(送信部の一例、受信部の一例、音声通信確立部の一例、映像通信確立部の一例)
35 認証部
36 位置設定部
37 画像作成部
40 記憶部
1 通信システム
3 通信管理サーバ
5 説明者端末(第1の通信端末の一例/第1,第2の通信端末の一例)
6 マイク付きイヤホン(音声入出力デバイスの一例)
7 ロボット端末
8 広角撮影装置
9 ユーザ端末(第2,第3の通信端末の一例/所定の通信端末の一例)
10 車両装置
31 送受信部(送信部の一例、受信部の一例、音声通信確立部の一例、映像通信確立部の一例)
35 認証部
36 位置設定部
37 画像作成部
40 記憶部
Claims (16)
- 実空間で撮影及び移動が可能な移動装置から当該移動装置の前記実空間における位置を示す実空間装置位置情報を受信すると共に、前記実空間における第1の通信端末から当該第1の通信端末の前記実空間における位置を示す実空間端末位置情報を受信する受信部と、
前記実空間装置位置情報及び前記実空間端末位置情報に応じて、仮想空間の対応位置に前記移動装置に関するアイコン及び前記第1の通信端末に関するアイコンを関連付けた状態で示すと共に、前記仮想空間に第2の通信端末に関するアイコンを示した仮想空間画像を作成する画像作成部と、
前記第2の通信端末に前記仮想空間画像を送信する送信部と、
前記第2の通信端末から、前記仮想空間画像において前記第2の通信端末に関するアイコンを前記移動装置に関するアイコンに関連付ける操作を受け付けることにより、前記第1の通信端末及び前記第2の通信端末の間の音声通信を確立する音声通信確立部と、
を有する通信管理サーバ。 - 請求項1に記載の通信管理サーバであって、
前記第2の通信端末から前記第2の通信端末に関するアイコンを前記移動装置に関するアイコンに関連付ける操作を受け付けることにより、前記移動装置及び前記第2の通信端末の間の映像通信を確立する映像通信確立部と、
を有する通信管理サーバ。 - 前記画像作成部は、前記実空間における前記移動装置の移動に伴い、前記実空間装置位置情報に応じて前記移動装置に関するアイコンを移動させた前記仮想空間画像を作成する、請求項1に記載の通信管理サーバ。
- 前記画像作成部は、前記移動装置に関するアイコンの移動に伴い、前記移動装置に関するアイコンに関連付けられた前記第2の通信端末に関するアイコンを前記移動装置に関するアイコンに追従して移動させた前記仮想空間画像を作成する、請求項3に記載の通信管理サーバ。
- 前記画像作成部は、前記仮想空間に第3の通信端末に関するアイコンを示した前記仮想空間画像を作成し、
前記音声通信確立部は、前記第1乃至第3の通信端末のうちの所定の通信端末から、前記仮想空間画像において前記所定の通信端末に関するアイコンを前記第1乃至第3の通信端末のうちで前記所定の通信端末とは異なる他の通信端末に関するアイコンに関連付ける操作を受け付けることにより、前記所定の通信端末及び前記他の通信端末の間の専用の音声通信を確立する、
請求項1に記載の通信管理サーバ。 - 前記第3の通信端末から前記第3の通信端末に関するアイコンを前記移動装置に関するアイコンに関連付ける操作を受け付けることにより、前記移動装置、前記第2の通信端末、及び前記第3の通信端末の間の映像通信を確立する映像通信確立部を有する、請求項5に記載の通信管理サーバ。
- 前記第1の通信端末は音声入出力デバイスと音声通信することで、前記音声入出力デバイスと前記第2の通信端末の間で音声通信する、請求項1に記載の通信管理サーバ。
- 実空間で撮影及び移動が可能な第1の移動装置の前記実空間における位置及び第1の通信端末の前記実空間における位置に応じて、仮想空間の対応位置に前記第1の移動装置に関するアイコン及び前記第1の通信端末に関するアイコンを関連付け、更に所定の通信端末に関するアイコンを関連付けた状態で示すと共に、前記実空間で撮影及び移動が可能な第2の移動装置の前記実空間における位置及び第2の通信端末の前記実空間における位置に応じて、前記仮想空間の対応位置に前記第2の移動装置に関するアイコン及び前記第2の通信端末に関するアイコンを関連付けた状態で示した仮想空間画像を作成する画像作成部と、
前記第1の通信端末及び前記所定の通信端末の間の音声通信を確立する音声通信確立部と、
前記所定の通信端末に前記仮想空間画像を送信する送信部と、
を有し、
前記音声通信確立部は、前記所定の通信端末から、前記仮想空間画像において前記所定の通信端末に関するアイコンを前記第1の移動装置から前記第2の移動装置に関連付けを変更する操作を受け付けることにより、前記第1の通信端末及び前記所定の通信端末の間の音声通信を切断し、前記第2の通信端末及び前記所定の通信端末の間の音声通信を確立する、
通信管理サーバ。 - 請求項8に記載の通信管理サーバであって、
前記第1の移動装置及び前記所定の通信端末の間の映像通信を確立した状態で、前記所定の通信端末から、前記仮想空間画像において前記所定の通信端末に関するアイコンを前記第1の移動装置から前記第2の移動装置に関連付けを変更する操作を受け付けることにより、前記第1の移動装置及び前記所定の通信端末の間の映像通信を切断し、前記第2の通信端末及び前記所定の通信端末の間の映像通信を確立する映像通信確立部を有する通信管理サーバ。 - 前記画像作成部は、前記実空間における前記第1の移動装置の移動の位置に応じて前記第1の移動装置に関するアイコンを移動させると共に、前記所定の通信端末に関するアイコンを前記第1の移動装置に関するアイコンに追従して移動させる前記仮想空間画像を作成し、前記所定の通信端末から、前記仮想空間画像において前記所定の通信端末に関するアイコンを前記第1の移動装置から前記第2の移動装置に関連付けを変更する操作を受け付けることにより、前記所定の通信端末に関するアイコンを前記第1の移動装置に関するアイコンに追従して移動させることを中止し、前記所定の通信端末に関するアイコンを前記第2の移動装置に関するアイコンに追従して移動させる前記仮想空間画像を作成する、請求項8に記載の通信管理サーバ。
- 請求項1乃至7のいずれか一項に記載の通信管理サーバと、
前記移動装置と、
を有する通信システム。 - 請求項8乃至10のいずれか一項に記載の通信管理サーバと、
前記第1の移動装置と、
前記第2の移動装置と、
を有する通信システム。 - 通信管理サーバが、
実空間で撮影及び移動が可能な移動装置から当該移動装置の前記実空間における位置を示す実空間装置位置情報を受信すると共に、前記実空間における第1の通信端末から当該第1の通信端末の前記実空間における位置を示す実空間端末位置情報を受信する受信処理と、
前記実空間装置位置情報及び前記実空間端末位置情報に応じて、仮想空間の対応位置に前記移動装置に関するアイコン及び前記第1の通信端末に関するアイコンを関連付けた状態で示すと共に、前記仮想空間に第2の通信端末に関するアイコンを示した仮想空間画像を作成する画像作成処理と、
前記第2の通信端末に前記仮想空間画像を送信する送信処理と、
前記第2の通信端末から、前記仮想空間画像において前記第2の通信端末に関するアイコンを前記移動装置に関するアイコンに関連付ける操作を受け付けることにより、前記第1の通信端末及び前記第2の通信端末の間の音声通信を確立する音声通信確立処理と、
を実行する通信管理方法。 - 通信管理サーバが、
実空間で撮影及び移動が可能な第1の移動装置の前記実空間における位置及び第1の通信端末の前記実空間における位置に応じて、仮想空間の対応位置に前記第1の移動装置に関するアイコン及び前記第1の通信端末に関するアイコンを関連付け、更に所定の通信端末に関するアイコンを関連付けた状態で示すと共に、前記実空間で撮影及び移動が可能な第2の移動装置の前記実空間における位置及び第2の通信端末の前記実空間における位置に応じて、前記仮想空間の対応位置に前記第2の移動装置に関するアイコン及び前記第2の通信端末に関するアイコンを関連付けた状態で示した仮想空間画像を作成する画像作成処理と、
前記第1の通信端末及び前記所定の通信端末の間の音声通信を確立する音声通信確立処理と、
前記所定の通信端末に前記仮想空間画像を送信する送信処理と、
を実行し、
前記音声通信確立処理は、前記所定の通信端末から、前記仮想空間画像において前記所定の通信端末に関するアイコンを前記第1の移動装置から前記第2の移動装置に関連付けを変更する操作を受け付けることにより、前記第1の通信端末及び前記所定の通信端末の間の音声通信を切断し、前記第2の通信端末及び前記所定の通信端末の間の音声通信を確立する処理を含む、
通信管理方法。 - コンピュータに、請求項13に記載の方法を実行させるプログラム。
- コンピュータに、請求項14に記載の方法を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/373,294 US20240112422A1 (en) | 2022-09-30 | 2023-09-27 | Communication management server, communication system, and method for managing communication |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022158681 | 2022-09-30 | ||
JP2022158681 | 2022-09-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024052524A true JP2024052524A (ja) | 2024-04-11 |
Family
ID=90623393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023117755A Pending JP2024052524A (ja) | 2022-09-30 | 2023-07-19 | 通信管理サーバ、通信システム、通信管理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024052524A (ja) |
-
2023
- 2023-07-19 JP JP2023117755A patent/JP2024052524A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7322940B2 (ja) | 画像通信システム、画像通信端末、画像通信方法、プログラム、及び記録媒体 | |
JP7452596B2 (ja) | 通信端末、表示方法、プログラム及び画像通信システム | |
JP7400195B2 (ja) | 画像通信システム、撮像装置、通信端末、モード切替方法、プログラム | |
US10764513B2 (en) | Communication terminal, image data communication system, and communication method | |
US10944798B2 (en) | Communication terminal, image communication system, and display control method | |
JP7192592B2 (ja) | 撮像装置、画像通信システム、画像処理方法、プログラム | |
US10666898B2 (en) | Communication management system, communication system, and communication method | |
JP2024052524A (ja) | 通信管理サーバ、通信システム、通信管理方法、及びプログラム | |
JP2018061243A (ja) | 通信端末、表示方法、及びプログラム | |
JP7151316B2 (ja) | 通信端末、画像通信システム、表示方法、及びプログラム | |
JP7115097B2 (ja) | 通信端末、プログラム、表示方法、記録媒体 | |
US20240112422A1 (en) | Communication management server, communication system, and method for managing communication | |
JP2024052610A (ja) | 通信管理サーバ、通信システム、通信管理方法、及びプログラム | |
JP7279452B2 (ja) | Vr端末、vrシステム、表示方法、及びプログラム | |
JP7331405B2 (ja) | Vrシステム、通信方法、及びプログラム | |
JP7338755B2 (ja) | 通信端末、通信システム、通信方法及びプログラム | |
JP7326789B2 (ja) | 通信端末、画像通信システム、表示方法、及びプログラム | |
JP7279825B2 (ja) | 通信端末、通信システム、通信方法、表示制御方法及びプログラム | |
JP7354733B2 (ja) | 通信端末、画像通信システム、表示方法、及びプログラム | |
JP7371369B2 (ja) | 通信端末および画像通信システム | |
JP2023140160A (ja) | 通信端末、通信管理システム、遠隔操作移動装置、通信システム、遠隔操作方法、通信管理方法、制御方法、通信方法、及びプログラム | |
JP7006133B2 (ja) | 通信システム及び通信方法 | |
JP2023140161A (ja) | 通信端末、通信管理システム、通信システム、処理方法、通信管理方法、通信方法、及びプログラム | |
JP2023140159A (ja) | 通信端末、通信管理システム、通信システム、処理方法、通信管理方法、通信方法、及びプログラム | |
JP2024069305A (ja) | 通信端末、画像通信システム、表示方法、及びプログラム |