JP2024052610A - COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM - Google Patents
COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP2024052610A JP2024052610A JP2023168723A JP2023168723A JP2024052610A JP 2024052610 A JP2024052610 A JP 2024052610A JP 2023168723 A JP2023168723 A JP 2023168723A JP 2023168723 A JP2023168723 A JP 2023168723A JP 2024052610 A JP2024052610 A JP 2024052610A
- Authority
- JP
- Japan
- Prior art keywords
- communication
- image
- real space
- virtual space
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 203
- 238000007726 management method Methods 0.000 title description 63
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000000034 method Methods 0.000 claims description 52
- 230000005540 biological transmission Effects 0.000 claims description 33
- 230000004044 response Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 description 73
- 238000010586 diagram Methods 0.000 description 40
- 238000012545 processing Methods 0.000 description 28
- 230000006870 function Effects 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 10
- 239000013256 coordination polymer Substances 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 4
- 238000003702 image correction Methods 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241001310793 Podium Species 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000009385 viral infection Effects 0.000 description 1
Images
Abstract
【課題】本開示は、遠隔でイベントに参加する者が現場の者とコミュニケーションを取り易くすることを目的とする。【解決手段】本開示の通信管理サーバ3は、実空間で音声の入出力が可能であって実空間位置情報で示される位置に自律移動が可能なロボットR1と実空間の生徒端末との間の音声通信を確立し(S32)、実空間の人に関するアイコンと実空間のロボットR1に関するアイコンとを示す仮想空間画像を作成し(S51)、生徒端末9fに仮想空間画像を送信し(S52)、生徒端末9fから仮想空間画像に対してロボットR1に関するアイコンの移動に基づく変更後の仮想空間位置情報を受信し(S54)、ロボットR1に対して変更後の仮想空間位置情報に対応する変更後の実空間位置情報を送信する(S55)。【選択図】図21[Problem] The present disclosure aims to make it easier for people participating in an event remotely to communicate with people at the event. [Solution] A communication management server 3 of the present disclosure establishes voice communication between a robot R1 capable of inputting and outputting voice in real space and capable of autonomously moving to a position indicated by real space position information and a student terminal in the real space (S32), creates a virtual space image showing an icon related to a person in the real space and an icon related to the robot R1 in the real space (S51), transmits the virtual space image to the student terminal 9f (S52), receives changed virtual space position information based on the movement of the icon related to the robot R1 relative to the virtual space image from the student terminal 9f (S54), and transmits changed real space position information corresponding to the changed virtual space position information to the robot R1 (S55). [Selected Figure] Fig. 21
Description
本開示内容は、通信管理サーバ、通信システム、通信管理方法、及びプログラムに関する。 This disclosure relates to a communication management server, a communication system, a communication management method, and a program.
近年、リモートワークの普及により、学校の通信端末と各生徒の通信端末を接続して遠隔授業が行わることが普及してきた。更に、ウィルス感染対策、及び新しい働き方の推進等によって、実際に学校に登校する場合に加えて、自宅等から通信端末で遠隔授業に参加できるニーズが大きくなってきた。 In recent years, with the spread of remote work, it has become common to conduct distance learning by connecting the school's communication terminal with each student's communication terminal. Furthermore, due to measures against virus infection and the promotion of new ways of working, there is a growing need to be able to participate in distance learning from home, etc. using a communication terminal, in addition to actually attending school.
また、教室等の実空間の現場に存在する通信可能なロボットを介して、授業に出席した生徒と遠隔授業に参加した生徒がコミュニケーションを取ることができる提案がなされている(特許文献1参照)。 It has also been proposed that students attending classes and students participating in remote classes can communicate with each other via a communicative robot that exists in the real world, such as a classroom (see Patent Document 1).
しかしながら、遠隔授業等のイベントに参加した者からすると、ロボット等の移動装置は、必ずしも現場でコミュニケーションを取りたい相手の近くにいるとは限らないため、コミュニケーションが取りづらいという課題が生じる。 However, participants in events such as distance learning face the problem that mobile devices such as robots are not necessarily located near the people they want to communicate with, making it difficult to communicate with them.
本開示は、上述の課題を鑑みてなされたもので、遠隔でイベントに参加する者が現場の者とコミュニケーションを取り易くすることを目的とする。 This disclosure was made in consideration of the above-mentioned problems, and aims to make it easier for people participating in an event remotely to communicate with those on-site.
請求項1に係る発明は、実空間で音声の入出力が可能であって実空間位置情報で示される位置に自律移動が可能な移動装置と前記実空間の所定の通信端末との間の音声通信を確立する通信確立部と、前記実空間の人に関するアイコンと、当該実空間の前記移動装置に関するアイコンとを示す仮想空間画像を作成する画像作成部と、前記所定の通信端末に前記仮想空間画像を送信する送信部と、前記所定の通信端末から、前記仮想空間画像に対して前記移動装置に関するアイコンの移動に基づく変更後の仮想空間位置情報を受信する受信部と、を有し、前記送信部は、前記移動装置に対して、前記変更後の仮想空間位置情報に対応する変更後の実空間位置情報を送信する、通信管理サーバである。
The invention according to
本開示によれば、遠隔でイベントに参加する者が現場の者とコミュニケーションを取り易くすることができる。 This disclosure makes it easier for people participating in an event remotely to communicate with people on-site.
〔通信システムの概略〕
図1を用いて通信システム1の概略を説明する。図1は、本実施形態の通信システムの全体構成図である。
[Outline of the communication system]
An outline of a
通信システム1は、通信管理サーバ3、教師端末5、マイク付きイヤホン6、生徒端末9、及びテレプレゼンスロボット(以降「ロボット」と示す)Rによって構築されている。
The
ロボットRは、主に、ロボット端末7、広角撮影装置8、及びロボットRを移動させる車両装置10によって構成されている。本実施形態のロボットRは自律走行するが、自律走行しなくてもよい。なお、ロボットRは移動装置の一例であり、移動装置には、ドローンのように空中を移動するもの、潜水艦型ラジコンのように水中を移動するものも含まれる。また、車両装置10は、推進装置の一例である。なお、ロボットRには、温度センサ、湿度センサ、酸素センサ、又は二酸化炭素センサ等の環境センサが設けされ、ロボットRの周囲を照らす照明装置等も設けられている。
The robot R is mainly composed of a
通信管理サーバ3、教師端末5、生徒端末9、ロボットRのロボット端末7は、インターネット等の通信ネットワーク100を介して通信することができる。通信形態は、有線又は無線を問わない。図1では、教師端末5、生徒端末9、及びロボット端末7は、無線通信することが示されている。また、マイク付きイヤホン6は、教師端末5とのペアリングにより近距離通信ができる。通信管理サーバ3は、複数のサーバによって構築されていてもよい。
The
なお、教師端末5及び生徒端末9は通信端末の一例である。
Note that the
〔実空間の状況〕
続いて、図2を用いて実空間(実世界)の現場としての教室の状況を説明する。図2は、実空間における教室の状況を示した図である。図2では、実空間の教室に、4名の生徒S1~S4が、予め定められた各自の机D1~D4のところに着席しており、教師T1が授業を行っている。生徒S5,S6は、教室の授業には出席しておらず、自宅等の遠隔地から遠隔授業に参加しているため、教室には、生徒S5,S6の机D5,D6はあるが、生徒S5,S6はいない。なお、教師T1,T2は「教師T」の一例、生徒S1~S6は「生徒S」の一例、机D1~D6は「机D」の一例、及びロボットR1,R2は「ロボットR」の一例である。また、教師端末5a,5bは「教師端末5」の一例、マイク付きイヤホン6a,6bは「マイク付きイヤホン6」の一例、ロボット端末7a,7bは「ロボット端末7」の一例、及び生徒端末9e,9fは「生徒端末9」の一例である。更に、広角撮影装置8a,8bは「広角撮影装置8」の一例、及び車両装置10a,10bは、「車両装置10」の一例である。
[Real space situation]
Next, the situation of a classroom as a site in real space (real world) will be described with reference to FIG. 2. FIG. 2 is a diagram showing the situation of a classroom in real space. In FIG. 2, in a classroom in real space, four students S1 to S4 are seated at their respective desks D1 to D4, which have been determined in advance, and a teacher T1 is teaching a class. Since students S5 and S6 are not attending the class in the classroom, but are participating in the remote class from a remote location such as their home, the classroom has desks D5 and D6 for students S5 and S6, but students S5 and S6 are not present. Note that teachers T1 and T2 are examples of "teacher T", students S1 to S6 are examples of "student S", desks D1 to D6 are examples of "desk D", and robots R1 and R2 are examples of "robot R". The
また、図2では、教室について説明するが、これに限るものではなく、展示会、セミナー会場等であってもよい。また、生徒数、机の数、及び教師数も、これに限るものではない。また、授業は「イベント」の一例であり、イベントには、展示、講演等も含まれる。 Although FIG. 2 illustrates a classroom, the present invention is not limited to this and may be an exhibition or seminar venue. The number of students, desks, and teachers are also not limited to these. A class is an example of an "event," and events also include exhibitions, lectures, and the like.
更に、図2に示すように、教室では、ロボットR1が初期位置として教壇の前に位置し、教室全体を撮影している。 Furthermore, as shown in Figure 2, in the classroom, robot R1 is positioned in front of the podium as its initial position and takes pictures of the entire classroom.
教師T1は教師端末5aを所持しており、いつでも操作することができる。なお、教師端末5aは、図1の教師端末5の一例である。
Teacher T1 has a
ロボットR1は、ロボット端末7a、広角撮影装置8a、及び車両装置10aによって構成されている。ロボット端末7aは、図1のロボット端末7の一例である。広角撮影装置8aは、図1の広角撮影装置8の一例である。車両装置10aは、図1の車両装置10の一例である。
The robot R1 is composed of a
〔ハードウェア構成〕
続いて、図3乃至図13を用いて、通信システム1を構築しているサーバ及び端末等のハードウェア構成を説明する。
[Hardware configuration]
Next, the hardware configuration of the servers, terminals, and the like that constitute the
<通信システムのハードウェア構成>
図3は、通信管理システムのハードウェア構成図である。
<Hardware configuration of communication system>
FIG. 3 is a diagram showing the hardware configuration of the communication management system.
図3に示すように、通信管理サーバ3は、一般的なコンピュータの構成を有しており、例えば、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303,SSD(Solid State Drive)304、ディスプレイ308等を有する。また、通信管理サーバ3は、ネットワークI/F306、キーボード311、ポインティングデバイス312、メディアI/F307、及びバス310等を有する。なお、SSDではなくHDD(Hard Disk Drive)であってもよい。
As shown in FIG. 3, the
CPU301は、例えば、ROM302、SSD304等に格納されたプログラムやデータを読み出し、処理を実行することにより、通信管理サーバ3が備える各機能を実現する演算装置である。ROM302は、IPL等のCPU301の起動に用いられるプログラム等を予め記憶した不揮発性のメモリである。RAM303は、CPU301のワークエリア等として利用される揮発性のメモリである。
The
SSD344は、例えば、OSや、アプリケーションソフトのプログラムや、各種のデータを記憶するストレージ装置である。ディスプレイ3058は、例えば、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種の情報を表示する表示手段である。 SSD344 is a storage device that stores, for example, an OS, application software programs, and various data. Display 3058 is a display means that displays various information such as a cursor, menu, window, text, or image.
ネットワークI/F306は、通信ネットワーク2を利用してデータ通信を行うための通信インタフェースである。キーボード311は、システム管理者等による文字、数値、各種指示などの入力操作を受け付けるための入力手段の一例である。ポインティングデバイス312は、システム管理者等による各種指示の選択や実行、処理対象の選択、カーソルの移動等の操作を受け付ける。なお、マウス等であってもよい。
The network I/
メディアI/F307は、例えば、メモリカード等の記録メディア306に対するデータの読み出しや、書き込み(記憶)を制御する。上記の各構成要素を電気的に接続し、アドレス信号、データ信号、及び各種の制御信号等を伝達する。
The media I/
<教師端末、ロボット端末、及び生徒端末のハードウェア>
図4は、教師端末、ロボット端末、及び生徒端末のハードウェア構成図である。
<Hardware for teacher terminals, robot terminals, and student terminals>
FIG. 4 is a diagram showing the hardware configuration of the teacher terminal, the robot terminal, and the student terminal.
図4に示すように、教師端末5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F506、加速度・方位センサ507、メディアI/F509、GPS受信部511を備えている。
As shown in FIG. 4, the
これらのうち、CPU501は、教師端末5全体の動作を制御する。ROM502は、CPU501やIPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、教師端末用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ505は、CPU501の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等の撮像手段であってもよい。撮像素子I/F506は、CMOSセンサ505の駆動を制御する回路である。加速度・方位センサ507は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F509は、フラッシュメモリ等の記録メディア508に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部511は、GPS衛星からGPS信号を受信する。また、GPS受信部511は、IMES(Indoor MEssaging System)等の屋内の位置を示す信号を受信することも可能である。
Of these, the
また、教師端末5は、遠距離通信回路512、CMOSセンサ513、撮像素子I/F514、マイク515、スピーカ516、音入出力I/F517、ディスプレイ518、外部機器接続I/F519、近距離通信回路520、近距離通信回路520のアンテナ520a、及びタッチパネル521を備えている。
The
これらのうち、遠距離通信回路512は、通信ネットワーク100を介して、他の機器と通信する回路である。CMOSセンサ513は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F514は、CMOSセンサ513の駆動を制御する回路である。マイク515は、音を電気信号に変える内蔵型の回路である。スピーカ516は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F517は、CPU501の制御に従ってマイク515及びスピーカ516との間で音信号の入出力を処理する回路である。ディスプレイ518は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。外部機器接続I/F519は、各種の外部機器を接続するためのインタフェースである。近距離通信回路520は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル521は、利用者がディスプレイ518を押下することで、教師端末5を操作する入力手段の一種である。
Among these, the long-
また、教師端末5は、バスライン510を備えている。バスライン510は、図4に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
The
なお、ロボット端末7、及び生徒端末9は、教師端末5と同様の構成であるため、説明を省略する。
The
<マイク付きイヤホンのハードウェア構成>
図5は、マイク付きイヤホンのハードウェア構成図である。
<Hardware configuration of earphones with microphone>
FIG. 5 is a diagram showing the hardware configuration of the earphone with microphone.
図5に示すように、マイク付きイヤホン6は、マイク615、スピーカ616、音入出力I/F617、近距離通信回路620、近距離通信回路520のアンテナ620a、及びボタン621を備えている。
As shown in FIG. 5, the earphones with
マイク615は、音を電気信号に変える内蔵型の回路である。スピーカ616は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F617は、マイク515及びスピーカ516との間で音信号の入出力を処理する回路である。近距離通信回路520は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。ボタン621は、利用者がマイク付きイヤホン6を操作する操作手段の一種である。
The
<広角撮影装置のハードウェア構成>
図6を用いて、広角撮影装置8のハードウェア構成を説明する。図6は、広角撮影装置8のハードウェア構成図である。以下では、広角撮影装置8は、2つの撮像素子を使用した全天球(全方位)広角撮影装置8であるが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に広角撮影装置8と同じ機能を有するようにしてもよい。
<Hardware configuration of wide-angle imaging device>
The hardware configuration of the wide-
図6に示されているように、広角撮影装置8は、撮像ユニット801、画像処理ユニット804、撮像制御ユニット805、マイク808、音処理ユニット809、CPU811、ROM812、SRAM813、DRAM814、操作部815、ネットワークI/F816、近距離通信回路817、アンテナ817a、電子コンパス818、ジャイロセンサ819、及び、加速度センサ820なども接続される。
As shown in FIG. 6, the wide-
このうち、撮像ユニット801は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)802a、802bと、各広角レンズに対応させて設けられている2つの撮像素子803a、803bを備えている。撮像素子803a、803bは、魚眼レンズ802a、802bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD( Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。
Of these, the
撮像ユニット801の撮像素子803a、803bは、各々、画像処理ユニット804とパラレルI/Fバスで接続されている。一方、撮像ユニット801の撮像素子803a、803bは、撮像制御ユニット805とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット804、撮像制御ユニット805及び音処理ユニット809は、バス810を介してCPU811と接続される。更に、バス810には、ROM812、SRAM813、DRAM814、操作部815、ネットワークI/F816、近距離通信回路817、及び電子コンパス818なども接続される。
The
画像処理ユニット804は、撮像素子803a、803bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図8(c)に示されているような正距円筒射影画像のデータを作成する。
The
撮像制御ユニット805は、一般に撮像制御ユニット805をマスタデバイス、撮像素子803a、803bをスレーブデバイスとして、I2Cバスを利用して、撮像素子803a、803bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU811から受け取る。また、撮像制御ユニット805は、同じくI2Cバスを利用して、撮像素子803a、803bのレジスタ群のステータスデータ等を取り込み、CPU811に送る。
The
また、撮像制御ユニット805は、操作部815のシャッターボタンが押下されたタイミングで、撮像素子803a、803bに画像データの出力を指示する。広角撮影装置8によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子803a、803bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
The
撮像制御ユニット805は、後述するように、CPU811と協働して撮像素子803a、803bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、広角撮影装置8にはディスプレイが設けられていないが、表示部を設けてもよい。
As described below, the
マイク808は、収録した音声を音声データに変換する。音処理ユニット809は、マイク808から出力される音声データをI/Fバスを通して取り込み、音声データに対して所定の処理を施す。
The
CPU811は、広角撮影装置8の全体の動作を制御すると共に必要な処理を実行する 。ROM812は、CPU811のための種々のプログラムを記憶している。SRAM813及びDRAM814はワークメモリであり、CPU811で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM814は、画像処理ユニット804での処理途中の画像データ及び処理済みの正距円筒射影画像のデータを記憶する。
The
操作部815は、シャッターボタンなどの操作ボタンの総称である。操作者は操作部815を操作することで、種々の撮像モードや撮像条件などを入力する。
The
ネットワークI/F816は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F816としては、無線、有線を問わない。DRAM814に記憶された正距円筒射影画像のデータは、このネットワークI/F816を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F816を介して外部(装置等)に送信されたりする。
The network I/
近距離通信回路817は、広角撮影装置8に設けられたアンテナ817aを介して、Wi-Fi、NFC、Bluetooth(登録商標)等の近距離無線通信技術によって、外部(ロボット端末7等)との通信を行う。この近距離通信回路817によっても、正距円筒射影画像のデータを外部に送信することができる。
The short-
電子コンパス818は、地球の磁気から広角撮影装置8の方位を算出し、方位情報を出力する。この方位情報はExif(Exchangeable image file format)に沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。
The
ジャイロセンサ819は、広角撮影装置8の移動に伴う角度の変化(ロール角、ピッチング角、ヨー角)を検出する。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。
The
加速度センサ820は3軸方向の加速度を検出する。検出した加速度に基づいて広角撮影装置8の姿勢(重力方向に対する角度)を検出する。ジャイロセンサ819と加速度センサ820は両方を有することで画像補正の精度が向上する。
The
(全天球映像について)
次に、図7を用いて、広角撮影装置8の使用状況を説明する。なお、図7は、広角撮影装置8の使用イメージ図である。広角撮影装置8は、図7に示されているように、例えば、人が持って周りの被写体や風景を撮像するために用いられる。この場合、図6に示されている撮像素子803a及び撮像素子803bによって、それぞれ、人の周りの被写体が撮像されることで、2つの半球画像を得ることができる。
(About spherical images)
Next, the usage of the wide-
次に、図8及び図9を用いて、広角撮影装置8で撮像された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図8(a)は広角撮影装置8で撮像された半球画像(前側)、図8(b)は広角撮影装置8で撮像された半球画像(後側)、図8(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図9(a)は正距円筒射影画像で球を被う状態を示した概念図、図9(b)は全天球画像を示した図である。
Next, an outline of the process for creating an equirectangular projection image EC and a celestial sphere image CE from an image captured by the wide-
図8(a)に示されているように、撮像素子803aによって得られた画像は、後述の魚眼レンズ802aによって湾曲した半球画像(前側)となる。また、図8(b)に示されているように、撮像素子803bによって得られた画像は、魚眼レンズ802bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、広角撮影装置8によって合成され、図8(c)に示されているように、正距円筒射影画像ECが作成される。
As shown in FIG. 8(a), the image obtained by the
そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図9(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図9(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions) 及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。 By using OpenGL ES (Open Graphics Library for Embedded Systems), the equirectangular projection image is pasted to cover the sphere as shown in FIG. 9A, and a celestial sphere image CE as shown in FIG. 9B is created. In this way, the celestial sphere image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. Note that OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the celestial sphere image CE may be a still image or a video.
以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、上記の「所定領域映像」に相当)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図10及び図11を用いて説明する。所定領域映像は動画でも静止画でもよい。 As described above, the spherical image CE is an image pasted to cover the spherical surface, which gives a sense of incongruity to humans when viewed. Therefore, by displaying a specific area of the spherical image CE (hereinafter, equivalent to the above-mentioned "specific area image") as a planar image with little curvature, it is possible to display the image in a way that does not give a sense of incongruity to humans. This will be described with reference to Figs. 10 and 11. The specific area image may be a video or a still image.
図10は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見る操作者の視点の位置に相当するものである。また、図11(a)は図10の立体斜視図、図11(b)はディスプレイに表示された場合の所定領域映像を表す図である。また、図11(a)では、図10に示されている全天球画像が、三次元の立体球CSで表されている。このように生成された全天球画像CEが、立体球CSであるとすると、図11に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮像方向と画角を示す所定領域情報によって特定される。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域映像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる(図12参照)。 10 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional sphere. The virtual camera IC corresponds to the position of the viewpoint of the operator who views the omnidirectional image CE displayed as a three-dimensional sphere. FIG. 11(a) is a three-dimensional perspective view of FIG. 10, and FIG. 11(b) is a diagram showing a predetermined area image when displayed on a display. In FIG. 11(a), the omnidirectional image shown in FIG. 10 is represented by a three-dimensional sphere CS. If the omnidirectional image CE generated in this way is a sphere CS, as shown in FIG. 11, the virtual camera IC is located inside the omnidirectional image CE. The predetermined area T in the omnidirectional image CE is the imaging area of the virtual camera IC, and is specified by the predetermined area information indicating the imaging direction and the angle of view of the virtual camera IC in the three-dimensional virtual space including the omnidirectional image CE. The zoom of the predetermined area T can also be expressed by moving the virtual camera IC closer to or farther away from the omnidirectional image CE. The predetermined area image Q is an image of a predetermined area T in the omnidirectional image CE. Therefore, the predetermined area T can be specified by the angle of view α and the distance f from the virtual camera IC to the omnidirectional image CE (see FIG. 12).
図11(a)に示されている所定領域映像Qは、図11(b)に示されているように、所定のディスプレイに、仮想カメラICの撮像領域の画像として表示される。図11(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって 表された所定領域映像である。以下では、仮想カメラICの撮像方向(ea、aa)と画角(α)を用いて説明する。なお、所定領域Tは、画角αと距離fではなく、所定領域Tである仮想カメラICの撮像領域(X、Y、Z)によって示してもよい。 The predetermined area image Q shown in FIG. 11(a) is displayed on a predetermined display as an image of the imaging area of the virtual camera IC, as shown in FIG. 11(b). The image shown in FIG. 11(b) is a predetermined area image represented by the initial (default) predetermined area information. In the following, the imaging direction (ea, aa) and angle of view (α) of the virtual camera IC are used for explanation. Note that the predetermined area T may be represented by the imaging area (X, Y, Z) of the virtual camera IC, which is the predetermined area T, instead of the angle of view α and distance f.
また、図11(a)の状態から、図11(c)に示されているように、仮想カメラICの仮想的な視点が右側(図面に向かって左側)に移動(「変更」ともいう)されると、これに応じて全天球画像CEにおける所定領域Tが所定領域T'に移動されるため、所定のディスプレイに表示される所定領域画像Qが所定領域画像Q'に変更される。これにより、送信先の教師端末5及び生徒端末9の各ディスプレイ518には、図11(b)に示されている画像が、図11(d)に示されている画像に変更表示される。
In addition, when the virtual viewpoint of the virtual camera IC is moved (also called "changed") from the state shown in FIG. 11(a) to the right (left when looking at the drawing) as shown in FIG. 11(c), the predetermined area T in the omnidirectional image CE is moved to the predetermined area T' accordingly, and the predetermined area image Q displayed on the predetermined display is changed to the predetermined area image Q'. As a result, the image shown in FIG. 11(b) is changed to the image shown in FIG. 11(d) and displayed on each
次に、図12を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図12は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図12に示されているように、「ea」はelevation angle(仰角)、「aa」はazimuth angle(方位角)、「α」は画角(Angle)を示す。即ち、撮像方向(ea、aa)で示される仮想カメラICの注視点が、仮想カメラICの撮像領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。図12に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角画角をαとした場合の中心点CPが、所定領域情報の(x、y)パラメータとなる。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図12では、一般的に以下の(式1)で示される三角関数が成り立つ。
(L/f)=tan(α/2)・・・(式1)
<車両装置のハードウェア構成>
図13は、車両装置のハードウェア構成図である。車両装置10は、例えば、CPU1001、ROM1002、RAM1003、外部機器接続I/F1019、近距離通信回路1020、近距離通信回路1020のアンテナ1020a、車輪駆動部1021、及び操舵部1022等を有する。
Next, the relationship between the predetermined area information and the image of the predetermined area T will be described with reference to FIG. 12. FIG. 12 is a diagram showing the relationship between the predetermined area information and the image of the predetermined area T. As shown in FIG. 12, "ea" indicates an elevation angle, "aa" indicates an azimuth angle, and "α" indicates an angle of view. That is, the posture of the virtual camera IC is changed so that the gaze point of the virtual camera IC indicated by the imaging direction (ea, aa) becomes the center point CP of the predetermined area T, which is the imaging area of the virtual camera IC. As shown in FIG. 12, the center point CP when the diagonal angle of view of the predetermined area T represented by the angle of view α of the virtual camera IC is α becomes the (x, y) parameter of the predetermined area information. f is the distance from the virtual camera IC to the center point CP. L is the distance between any vertex of the predetermined area T and the center point CP (2L is the diagonal line). In FIG. 12, the trigonometric function shown in the following (Equation 1) generally holds.
(L/f)=tan(α/2) (Equation 1)
<Hardware configuration of vehicle device>
13 is a diagram showing a hardware configuration of the
CPU1001は、ROM1002等に格納されたプログラムを実行することにより、車両装置10の各機能を実現する演算装置である。ROM1002は、車両装置10のプログ ラム等を記憶する不揮発性のメモリである。ROM1002は、例えば、フラッシュROM等の書き換え可能な不揮発性メモリであっても良い。RAM1003は、CPU1001のワークエリア等として用いられる揮発性のメモリである。
The
外部機器接続I/F1019は、ロボット端末7等と有線接続し、通信を行うための有線通信インタフェースである。
The external device connection I/
近距離通信回路1020は、例えば、ロボット端末7等と同じ無線通信方式により無線通信を行うための無線通信インタフェースである。
The short-
車輪駆動部1021は、車両装置10を移動させるための車輪を駆動させる駆動装置の一例である。車輪駆動部1021には、例えば、モータ等が含まれる。
The
操舵部1022は、車輪駆動部1021によって移動する車両装置10の操舵を行う操舵装置の一例である。操舵部1022は、例えば、車輪の向きや傾きを変えるものであっても良いし、左右の車輪の回転数や速度等を制御することにより、車両装置10(ロボットR)の向きを変えるもの等であっても良い。
The
〔通信システムの各機能構成〕
続いて、図14を用いて、通信システム1の各機能構成を説明する。図14は、通信システム1の各機能構成図である。
[Functional configuration of the communication system]
Next, the functional configuration of the
<通信管理サーバ>
図14に示されているように、通信管理サーバ3は、送受信部31、認証部35、位置設定部36、画像作成部37、及び参加登録部38を有している。これら各部は、図3に示されている各構成要素のいずれかが、SSD304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。また、通信管理サーバ3は、図3に示されているROM302、RAM303、又はSSD304によって構築される記憶部40を有している。なお、記憶部40には、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)が記憶されている。また、記憶部40には、各生徒Sの実空間における座席の位置を示す座席位置情報が記憶されている。
<Communication management server>
As shown in FIG. 14, the
(位置情報管理テーブル)
記憶部40には、図15に示されているような位置情報管理テーブルが記憶されている。位置情報管理テーブルでは、人又はロボットの名称(人の場合は名前等)、ログインID、パスワード、アイコンID、アイコン画像、実空間位置情報、仮想空間位置情報、参加先、及び専用の音声通信の相手を示す各情報が関連付けて管理されている。なお、前半の情報(名称、ログインID、パスワード、アイコンID、及びアイコン画像)は、滅多に変更されない情報であり、後半の情報(実空間位置情報、仮想空間位置情報、参加先、及び専用の音声通信の相手)は、実空間の教室での状況及び遠隔授業に参加している生徒Sの操作により変更される可能性が高い情報である。なお、アイコン画像は、模式的に示しているに過ぎず、実際にはアイコンのデータ又はアイコンが記憶されている記憶部40におけるURL等が管理される。また、アイコンは、所定の人に関するものだけでなく、この同じ所定の人が使用する通信端末(教師端末5、生徒端末9等)に関するものと言うこともできる。
(Location information management table)
The
また、「参加先」は、例えば、図20において、教師T1のアイコンt1、各生徒Sのアイコンが関連付けられたロボットR1(ここでは、ロボットR1のアイコンID)を特定するための情報である。「専用の音声通信相手」は、教師Tが他の生徒には音声を聞こえない状態で音声通信する場合の相手先(ここでは、アイコンID)を特定するための情報である。 "Participation destination" is information for identifying, for example, the icon t1 of teacher T1 and the robot R1 (here, the icon ID of robot R1) associated with the icon of each student S in FIG. 20. "Exclusive voice communication partner" is information for identifying the partner (here, the icon ID) with which teacher T communicates by voice when the voice cannot be heard by other students.
(各機能構成)
送受信部31は、他の端末(装置)とデータ通信を行う。
(Functional configuration)
The transmitting/receiving
認証部35は、他の端末(装置)のログイン認証等を行う。
The
位置設定部36は、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)に基づいて、図15の「仮想空間位置情報」フィールドに、実空間端末位置情報に対応する仮想空間上の位置を示す仮想空間端末(装置)位置情報を記憶して設定する等の処理を行う。また、位置設定部36は、逆に、位置対応情報に基づいて、「実空間位置情報」フィールドに、仮想空間端末(装置)位置情報に対応する実空間上の位置を示す実空間位置情報を記憶して設定する等の処理を行う。
The
画像作成部37は、後述の図18の出席登録画像、及び図20等の仮想空間画像を作成する。
The
参加登録部38は、仮想空間の遠隔授業へ、教師T(又は教師Tの通信端末)及び遠隔の生徒S(生徒Sの通信端末)を参加させる登録を行う。
The
なお、通信管理サーバ3は、複数のサーバによって構築されていてもよい。この場合、位置情報管理テーブルの各フィールドは、各サーバの役割に応じて分割して記憶される。
The
<教師端末>
図14に示されているように、教師端末5は、通信部50、送受信部51、受付部52、位置取得部53、及び表示制御部54を有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Teacher's terminal>
14, the
通信部50は、近距離通信回路520の処理等により、マイク付きイヤホン6との通信を行う。
The
送受信部51は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。
The transmitter/
受付部52は、人(教師T等)の操作を受け付ける。
The
位置取得部53は、GPS受信部511等の処理により、屋外又は屋内の位置を示す位置情報を取得する。
The
表示制御部54は、教師端末5のディスプレイ518に対して、各種画像を表示させる。
The
<ロボット端末>
図14に示されているように、ロボットR(ロボット端末7)は、送受信部71、受付部72、位置取得部73、表示制御部74、及び移動制御部78を有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Robot terminal>
14, the robot R (robot terminal 7) has a transmission/
送受信部71は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。
The transmitter/
受付部72は、人(教師T等)の操作を受け付ける。
The
位置取得部73は、GPS受信部511等の処理により、屋外又は屋内の位置を示す位置情報を取得する。
The
表示制御部74は、ロボット端末7のディスプレイ518に対して、各種画像を表示させる。
The
移動制御部78は、通信管理サーバ3からの指示により、車両装置10を駆動させてロボットRを移動するための制御を行う。
The
<生徒端末>
図14に示されているように、生徒端末9は、送受信部91、受付部92、及び表示制御部94有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Student device>
14, the
送受信部71は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。
The transmitter/
受付部72は、人(生徒S等)の操作を受け付ける。
The
表示制御部74は、生徒端末9のディスプレイ518に対して、各種画像を表示させる。
The
〔通信システムの処理又は動作〕
続いて、図16乃至図25を用いて、通信システムの処理又は動作について説明する。
[Communication system processing or operation]
Next, the processing or operation of the communication system will be described with reference to FIGS.
<ログイン処理>
まずは、図16を用いて、各端末及びロボットのログイン処理を説明する。図16は、各端末及びロボットのログイン処理を示したシーケンス図である。なお、ロボットRの場合、実際にはロボット端末7がログインを行う。また、ここでは、マイク付きイヤホン6a、教師端末5a、ロボットR1(ロボット端末7a)、通信管理サーバ3、及び生徒端末9fの処理について説明する。
<Login process>
First, the login process of each terminal and robot will be described with reference to Fig. 16. Fig. 16 is a sequence diagram showing the login process of each terminal and robot. In the case of robot R, the
S11:ロボットR1の受付部72は教師T1からログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部71が通信管理サーバ3に対して、映像音声通信へのログイン要求を送信する。また、このログイン要求には、ロボットR1のログインID及びパスワード等が含まれている。更に、ログイン要求には、ロボットR1の実空間上(ここでは、教室内)の位置を示す実空間装置位置情報も含まれている。ロボットR1の実空間装置位置情報は、ロボットR1の位置取得部73によって取得されたロボットR1の実空間内の位置を示す情報である。これにより、通信管理サーバ3の送受信部31は、ロボットR1からのログイン要求を受信する。
S11: The
S12:通信管理サーバ3では、認証部35が、送受信部31によって処理S11で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。ログイン認証が成功した場合、位置設定部36は、この認証に用いたログインID及びパスワードを含むレコードの「実空間位置情報」フィールドに、処理S11で受信された実空間装置位置情報を記憶する。なお、後述の処理S51が開始される前であれば、実空間装置位置情報の送受信のタイミングは、処理S11に限らずいつでもよい。認証結果は、ロボット端末7aに返信される。
S12: In the
S13:ログインの前に、マイク付きイヤホン6aと教師端末a5との間でペアリングを行うことで、マイク付きイヤホン6aを教師端末5aと近距離無線接続する。
S13: Before logging in, pair the microphone-equipped
S14:教師端末5aの受付部52は教師T1からログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部51が通信管理サーバ3に対して、仮想空間及び音声通信へのログイン要求を送信する。また、このログイン要求には、教師T1のログインID及びパスワード等が含まれている。更に、ログイン要求には、教師端末5aの実空間上の位置を示す実空間端末位置情報も含まれている。教師端末5aの実空間端末位置情報は、教師端末5aの位置取得部53によって取得された教師端末5aの実空間内(ここでは、教室内)の位置を示す情報である。これにより、通信管理サーバ3の送受信部31は、教師端末5aからのログイン要求を受信する。なお、教師端末5aが移動する度に、教師端末5aから通信管理サーバ3に移動後の実空間端末位置情報が送信される。
S14: The
S15:通信管理サーバ3では、認証部35が、送受信部31によって処理S12で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。ログイン認証が成功した場合、位置設定部36は、この認証に用いたログインID及びパスワードを含むレコードの「実空間位置情報」フィールドに、処理S12で受信された実空間位置情報を記憶する。なお、後述の処理S51が開始される前であれば、実空間端末位置情報の送受信のタイミングは、処理S12に限らずいつでもよい。認証結果は、教師端末5aに返信される。
S15: In the
S16:参加登録部38は、処理S14で受信されたログインIDで特定されるレコードの「参加先」フィールドに、処理S12で登録されたロボットR1のログインID「L31」を登録することで、教師T1はロボットR1が存在する教室に対する遠隔授業に参加する。これにより、教師T1は、実空間の教室の授業に出席すると共に、仮想空間の遠隔授業にも参加する。
S16: The
S17:生徒端末9fの受付部92は生徒S6からログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部91が通信管理サーバ3に対して、通信管理サーバ3のサービスへのログイン要求を送信する。また、このログイン要求には、生徒端末9fのログインID及びパスワード等が含まれている。これにより、通信管理サーバ3の送受信部31は、生徒端末9fからのログイン要求を受信する。
S17: The
S18:通信管理サーバ3では、認証部35が、送受信部31によって処理S17で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。ログイン認証が成功した場合、位置設定部36は、この認証に用いたログインID及びパスワードを含むレコードの「仮想空間位置情報」フィールドに、予め定められている仮想空間位置情報を登録する。この仮想空間位置情報が予め定められている例として、教室内の生徒の机の位置が固定されているために対応する仮想空間の位置が固定されている場合、授業の前に各生徒Sが自分の席を登録している場合等が考えられる。認証結果は、生徒端末9fに返信される。なお、以降は、上記全てのログイン認証が成功した場合について説明を続ける。
S18: In the
S19:参加登録部38は、処理S17で受信されたログインIDで特定されるレコードの「参加先」フィールドに、処理S12で登録されたロボットR1のログインID「L31」を登録することで、ロボットR1が存在する教室に対する遠隔授業に参加する。なお、図15では、生徒S6だけでなく、生徒端末9eを使用する生徒S5も、ロボットR1が存在する教室に対する遠隔授業に参加する場合が示されている。
S19: The
<音声通信、映像音声通信、及び出席登録>
続いて、図17及び図18を用いて、音声通信及び映像音声通信の開始処理、並びに出席登録の処理を説明する。図17は、音声通信及び映像音声通信の開始処理、並びに出席登録の処理を示すシーケンスである。
<Audio communication, audio-video communication, and attendance registration>
Next, the process of starting voice communication and audio-video communication and the process of registering attendance will be described with reference to Fig. 17 and Fig. 18. Fig. 17 shows a sequence diagram of the process of starting voice communication and audio-video communication and the process of registering attendance.
S31:通信管理サーバ3の送受信部31は、位置情報管理テーブルを参照し、「参加先」フィールドで、同じロボットR1のログインID「L31」が管理されている教師端末5(ここでは教師端末5a)及び生徒端末9(ここでは生徒端末9e,9f)との間で、音声の通信セッションを確立させる。また、マイク付きイヤホン6と教師端末5aとの間は、上述の処理S13により近距離無線接続が行われているため、マイク付きイヤホン6a、教師端末5a、及び生徒端末9eの間では、音声通信を行うことができる。
S31: The transmitter/
S32:通信管理サーバ3の送受信部31は、位置情報管理テーブルを参照し、「参加先」フィールドで、ロボットR1のログインID「L31」が管理されている生徒端末9(ここでは生徒端末9e,9f)と、当該ロボットR1との間で、映像及び音声の通信セッションを確立させる。これにより、ロボットR1と生徒端末9e,9fは、通信管理サーバ3を介して、相互に映像音声通信を行うことができる。例えば、ロボットR1が撮影して得た教室の映像及び音声のデータを送信すると、生徒端末9e,9fのディスプレイ518上に教室の映像が表示され、教室内の音声が出力される。一方、生徒端末9e,9fが撮影して得た生徒S5,S6の顔の映像のデータ及び生徒S5,S6の音声のデータを送信すると、ロボットR1ではロボット端末7aのディスプレイ518上に生徒S5,S6の顔の映像が表示され、生徒S5,S6の音声が出力される(図23参照)。
S32: The transmission/
S33:教師端末5aの受付部52は、教師T1から出席登録画像の要求を受け付ける。そして、送受信部51は通信管理サーバ3に対して出席登録画像の要求を送信する。これにより、通信管理サーバ3の送受信部31は出席登録画像の要求を受信する。
S33: The
S34:画像作成部37は、記憶部40に記憶されている座席位置情報を読み出して、出席登録画像を作成する。
S34: The
S35:送受信部31は、教師端末5aに対して、画像作成部37によって作成された出席登録画像のデータを送信する。これにより、教師端末5aの送受信部51は、出席登録画像のデータを受信する。
S35: The transmitting/receiving
S36:教師端末5aでは、図18に示すように、表示制御部54が教師端末5aのディスプレイ518上に出席登録画像が示された画面110を表示させる。図18は、生徒の出席登録画像を示す図である。図18には、教室のレイアウトが表示され、予め定められた生徒の机の位置及び生徒名が示されたアイコンα1~α6が表示されている。また、出席登録画像の右下部には、出席を登録するための「登録」ボタン119が表示されている。
S36: As shown in FIG. 18, in the
ここで、受付部52が、教師T1からカーソルc1により各アイコンを選択することで、実空間の教室への出席の結果を受け付ける。図18では、実空間の教室に、生徒S1~S4が出席し、生徒S5,S6が出席していない状態が示されている。そして、受付部52が、教師T1から「登録」ボタンの押下を受け付けると、送受信部51が通信管理サーバ3に対して、教師T1から受け付けた出席を示す出席情報を送信する。この出席情報には、出席した生徒を特定する生徒特定情報が含まれている。生徒特定情報は、生徒名、生徒のログインID、又は生徒のアイコンのアイコンIDである。これにより、通信管理サーバ3の送受信部31は、出席情報を受信する。
Here, the
S37:通信管理サーバ3では、位置設定部36が、位置情報管理テーブルにおいて、生徒特定情報で特定されるレコードの「仮想空間位置情報」フィールドに、予め定められている仮想空間位置情報を登録する。この仮想空間位置情報が予め定められている例として、教室内の生徒の机の位置が固定されている場合、授業の前に各生徒が自分の席を登録している場合等が考えられる。
S37: In the
以上により、図2に示すように、生徒S1~S4は実空間の教室の授業に出席し、生徒S5,S6は仮想空間の遠隔授業に参加した状態になる。 As a result, as shown in Figure 2, students S1 to S4 are attending a classroom class in the real world, while students S5 and S6 are participating in a remote class in the virtual world.
<画像空間画像の表示>
続いて、図19乃至図23を用いて、画像空間画像の表示の処理を説明する。図19は、仮想空間画像の表示の処理を示すシーケンスである。
Display of Image Space Images
Next, the process of displaying an image space image will be described with reference to Fig. 19 to Fig. 23. Fig. 19 shows a sequence illustrating the process of displaying a virtual space image.
S51:通信管理サーバ3では、位置設定部36が、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)に基づき、位置情報管理テーブルにおける教師T1のレコードの「仮想空間位置情報」フィールドに、「実空間位置情報」フィールドに記憶されている実空間端末位置情報に対応する仮想空間端末情報を記憶して設定する。同様に、位置設定部36が、位置対応情報(マッチング情報)に基づき、位置情報管理テーブルにおけるロボットR1のレコードの「仮想空間位置情報」フィールドに、「実空間位置情報」フィールドに記憶されている実空間端末位置情報に対応する仮想空間端末情報を記憶して設定する。これにより、教師T1及びロボットR1の実空間での移動は、仮想空間でのアイコンt1,r1の移動に反映される。更に、本実施形態では、ロボットR1のアイコンr1の仮想空間での移動は、実空間でのロボットR1の移動に反映される。
S51: In the
また、画像作成部37は、図20に示すように、実空間の教室を模式化したレイアウトマップm1に対して、座席位置情報、及び位置情報管理テーブルで管理されている仮想空間位置情報に基づき、この仮想空間位置情報に対応するアイコン画像をマッピングすることで、仮想空間画像を作成する。
In addition, as shown in FIG. 20, the
S52:送受信部31は、生徒端末9fに対して、画像作成部37によって作成された仮想空間画像のデータを送信する。これにより、生徒端末9fの送受信部91は、仮想空間画像のデータを受信する。
S52: The transmission/
S53:次に、生徒端末9fでは、表示制御部94がディスプレイ518上に図20に示すような仮想空間画像が示された画面120を表示させる。
S53: Next, on the
図20は、教師及びロボットの現在位置を示す各アイコン、各生徒の初期位置を示す各アイコン、並びにロボットからの映像を含む仮想空間画像を示す図である。図20に示すように、仮想空間画像には、実空間上の教室を模式化したレイアウトマップm1、教師T1のアイコンt1、ロボットR1のアイコンr1、各生徒S1~S6のアイコンs1~s6、及び各机D1~D6のアイコンd1~d6が示されている。ここでは、実空間上の現在位置の教師T1のアイコンt1、及び実空間上の現在位置のロボットRのアイコンr1が示されている。また、予め仮想空間上の位置が定められた各アイコンs1~s6,d1~d6が示されている。 Figure 20 shows a virtual space image including icons indicating the current positions of the teacher and robot, icons indicating the initial positions of each student, and video from the robot. As shown in Figure 20, the virtual space image shows a layout map m1 that simplifies a classroom in real space, an icon t1 of teacher T1, an icon r1 of robot R1, icons s1-s6 of each student S1-S6, and icons d1-d6 of each desk D1-D6. Shown here are the icon t1 of teacher T1 at its current position in real space, and the icon r1 of robot R at its current position in real space. Also shown are the icons s1-s6 and d1-d6, whose positions in virtual space have been determined in advance.
更に、画面120内の右側には、別画面(ポップアップ画面等)121として、処理32の映像音声通信によって、ロボットR1から送られて来た現在の実空間の教室の映像が示され、ロボットR1からの音声も出力されている。
Furthermore, on the right side of
また、教師T1の教師端末5aと、生徒S5の生徒端末9e及び生徒S6の生徒端末9fは、処理S31の音声通信を行うことができる。そのため、教師T1はマイク付きイヤホン6aを用い、生徒S5,S6に対して実空間の教室の様子を説明することができ、生徒S5は生徒端末9eを用い、また生徒S6は生徒端末9fを用い、教師T1に対して実空間の授業に関する質問等を行うことができる。
In addition,
なお、ロボットR1は、映像音声の通信により、教室から遠隔の生徒端末9e,9fに音声のデータを送信することができるが、ロボットR1の周囲の雑音や会話等を収音してしまう。これに対して、上述の映像音声通信を用いる場合、教師T1は、ロボットR1に対して話しかけないで、マイク付きイヤホン6を用いて話すため、生徒S5,S6には、教師T1の声をクリアに聞くことができる。
The robot R1 can transmit audio data from the classroom to the
S54:生徒端末9eでは、受付部92が生徒S6から、図21に示すようにカーソルc2を用いてアイコンr1を移動させる操作を受け付ける。そして、送受信部91は、通信管理サーバ3に対してアイコンr1の移動による変更後の仮想空間位置情報を送信する。この仮想空間位置情報には、ロボットR1のアイコンID「r31」が含まれている。これにより、通信管理サーバ3の送受信部31は、変更後の仮想空間位置情報を受信する。
S54: In the student terminal 9e, the
なお、位置設定部36は、位置情報管理テーブルにおいて、処理S54で受信されたアイコンIDに対応する「仮想空間位置情報」フィールドに、変更後の仮想空間位置情報を上書きする。これにより、画像作成部37は、上書きされた変更後の仮想空間位置情報を用いて最新の仮想空間画像を作成する。更に、位置設定部36は、位置対応情報(マッチング情報)を用いて、同じレコードの「実空間位置情報」フィールドに対し、変更後の仮想空間位置情報に対応する変更後の実空間位置情報を上書きする。このように、処理S51~S54が繰り返されることで、生徒端末9eに表示される仮想空間画像が更新される。
The
S55:送受信部31は、ロボットR1に対して、処理S54で上書きされた変更後の実空間位置情報を送信する。これにより、ロボットR1の送受信部71は、変更後の実空間位置情報を受信する。
S55: The transmitter/
S56:ロボットR1では、移動制御部78が処理S55によって受信された変更後の実空間位置情報に基づいて、この実空間位置情報で示される実空間の教室内の位置に移動するように、車両装置10に対して移動制御する。これにより、図22に示すように、実空間の教室内では、ロボットR1が、生徒S3の近くに移動する。例えば、遠隔授業に参加している生徒S6が、実空間の教室の授業に出席している生徒S3と話し合うような場合、図21に示すように、生徒S6が生徒端末9fの仮想空間画面上でロボットR1のアイコンr1を生徒S3のアイコンs3の近くに移動させる。これにより、図22に示すように、実空間の教室内のロボットRが生徒S3の近くまで移動するため、教室内の生徒S3と遠隔の生徒S6は、ロボットR1を介して話し合うことができる。この場合、図23に示すように、ロボットR1のロボット端末7aには、処理32の映像音声通信よって、遠隔の生徒S5,S6が映し出されているため、生徒S3は、実空間に近い感覚で、生徒S6と話し合うことができる。
S56: In the robot R1, the
<専用の音声通信>
続いて、図24及び図25を用いて、専用の音声通信を行う処理を説明する。図24は、専用の音声通信を行う処理を示すシーケンス図である。図25は、専用の音声通信を行う相手のアイコンを選択した状態の仮想空間画像を示す図である。
<Dedicated voice communication>
Next, the process of performing dedicated voice communication will be described with reference to Fig. 24 and Fig. 25. Fig. 24 is a sequence diagram showing the process of performing dedicated voice communication. Fig. 25 is a diagram showing a virtual space image in a state where an icon of a party with which to perform dedicated voice communication is selected.
S71:生徒端末9aでは、受付部92が生徒S6から、図25に示すようにカーソルc2を用いて、教師T1のアイコンt1を選択する操作を受け付ける。そして、送受信部91は、通信管理サーバ3に対して、専用の音声セッションの確立要求として、アイコンt1の選択を示す情報を送信する。この情報には、選択した者である生徒S6のアイコンID「s26」及び選択された教師T1のアイコンt1のアイコンID「t11」が含まれている。これにより、通信管理サーバ3の送受信部31は、アイコンの選択を示す情報を受信する。
S71: In the student terminal 9a, the
S72:通信管理サーバ3の送受信部31は、位置情報管理テーブルのアイコンID「t11」のレコードの「専用の音声通信相手」フィールドにログインID「L26」を記憶して管理すると共に、位置情報管理テーブルのアイコンID「s26」のレコードの「専用の音声通信相手」フィールドにログインID「L11」を記憶して管理する。これにより、送受信部91は、専用の音声通信相手として相互に管理しているログインID「L11」が用いられている教師端末5aと、専用の音声通信相手として相互に管理しているログインID「L26」が用いられている生徒端末9fとの間で、専用の音声の通信セッションを確立させる。また、マイク付きイヤホン6aと教師端末5aとの間は、上述の処理S13により近距離無線接続が行われているため、マイク付きイヤホン6a、教師端末5a、及び生徒端末9fの間では、専用の音声通信を行うことができる。これにより、生徒S6は、他の生徒S5等に音声内容を聞かれない状態で、教師T1に相談したり、逆に、教師T1は、他の生徒S5に等に音声内容を聞かれない状態で、生徒S6に回答したりすることができる。
S72: The transmission/
なお、図25では、生徒S6は教師T1のアイコンt1を選択したが、これに限るものではない。例えば、生徒S6は遠隔の他の生徒S5のアイコンs5を選択して、生徒S5と専用の音声通信による話し合いを行ってもよい。 In FIG. 25, student S6 selects the icon t1 of teacher T1, but this is not limited to this. For example, student S6 may select the icon s5 of another remote student S5 and hold a discussion with student S5 via dedicated voice communication.
また、教師端末5及び生徒端末9のうち少なくとも一方は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)でもよい。ここで、図26を用いて、HMDのハードウェア構成を説明する。図26は、ヘッドマウントディスプレイのハードウェア構成図である。
In addition, at least one of the
図26に示すように、HMDは、コンピュータとして、図26に示されているように、CPU201、ROM202、RAM203、外部機器接続I/F205、ディスプレイ207、操作部208、メディアI/F209、バスライン210、スピーカ212、電子コンパス218、ジャイロセンサ219、加速度センサ220を備えている。
As shown in FIG. 26, the HMD is a computer that includes a
これらのうち、CPU201は、HMD全体の動作を制御する。ROM202は、IPL等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。
Of these, the
外部機器接続I/F205は、各種の外部機器を接続するためのインタフェースである。この場合の外部機器は、通信管理サーバ3、マイク付きイヤホン6等である。
The external device connection I/
ディスプレイ207は、各種画像を表示する液晶や有機EL(Electro Luminescence)などの表示部の一種である。
The
操作部208は、種々の操作ボタンや電源スイッチ、物理ボタン、ユーザの視線を検知して操作する視線操作回路等の各種指示の選択や実行、処理対象の選択、カーソルの移動等を行うための入力手段である。
The
メディアI/F209は、フラッシュメモリ等の記録メディア209mに対するデータの読み出し又は書き込み(記憶)を制御する。記録メディア209mには、DVDやBlu-ray Disc(登録商標)等も含まれる。
The media I/
スピーカ212は、電気信号を物理振動に変えて音楽や音声などの音を生み出す回路である。
電子コンパス218は、地球の磁気からHMDの方位を算出し、方位情報を出力する。
The
ジャイロセンサ219は、HMDの移動に伴う角度の変化(roll角、Pitch角、Yaw角)を検出するセンサである。
The
加速度センサ220は、三軸方向の加速度を検出するセンサである。
The
バスライン210は、CPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
The
また、この場合、教師端末5及び生徒端末9の各機能構成(図14参照)は、RAM253に記憶されたプログラムに従ったCPU201からの命令によって実現される。
In this case, each functional configuration of the
なお、この場合の教師端末5の位置取得部53は、電子コンパス218、ジャイロセンサ219、及び加速度センサ220の処理により、屋内の位置を示す位置情報を取得する。また、位置取得部53が屋外の位置を示す位置情報を取得するために、HMDは図4のGPS受信部511と同様の構成を有していてもよい。更に、教師端末5の通信部50は、外部機器接続I/F205の処理等により、マイク付きイヤホン6との無線通信を行う。
In this case, the
〔実施形態の主な効果〕
以上説明したように、本実施形態によれば、図21に示すように、遠隔授業に参加している生徒S6が、仮想空間画像上でロボットR1のアイコンr1を移動させることで、実空間のロボットR1が図2に示す位置から、アイコンr1の移動に応じた図22の位置に移動する。これにより、遠隔授業等のイベントに参加する生徒S6が現場である教室の生徒S3とコミュニケーションを取り易くすることができる。
[Main Effects of the Embodiments]
As described above, according to this embodiment, as shown in Fig. 21, when a student S6 participating in a remote class moves the icon r1 of the robot R1 on the virtual space image, the robot R1 in the real space moves from the position shown in Fig. 2 to the position in Fig. 22 corresponding to the movement of the icon r1. This makes it easier for the student S6 participating in an event such as a remote class to communicate with the student S3 in the classroom where the event is held.
更に、上述のように、教師Tは、ロボットRに対して話しかけないで、マイク付きイヤホン6を用いて、遠隔の生徒Sと会話をすることができるため、遠隔の生徒SはロボットRの周囲の雑音や会話等が混じった音声を聞くのではなく、生徒Sのクリアな音声を聞くことができる。
Furthermore, as described above, the teacher T can talk to the remote student S using the microphone-equipped
また、図25に示すように、遠隔授業等のイベントに参加している生徒S6が、直接話したい相手(ここでは、教師T1)のアイコンt1を選択することで、処理S31による音声の通信セッションとは別である専用の音声の通信セッションが確立するため(処理S72)、他の生徒S5等には聞かれたくない内容について教師T1と話すことができる。 Also, as shown in FIG. 25, when a student S6 participating in an event such as a distance learning class selects the icon t1 of the person with whom he or she wants to talk directly (here, teacher T1), a dedicated voice communication session separate from the voice communication session by process S31 is established (process S72), and the student S6 can talk to teacher T1 about matters that he or she does not want other students S5, etc. to hear.
〔補足〕
上述の実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU、及び従来の回路モジュール等のデバイスを含む。
〔supplement〕
Each function in the above-described embodiment can be realized by one or more processing circuits. Here, the "processing circuit" in the present embodiment includes a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, and devices such as an ASIC (Application Specific Integrated Circuit), a DSP (digital signal processor), an FPGA (field programmable gate array), a SOC (System on a chip), a GPU, and a conventional circuit module designed to execute each of the above-described functions.
また、上記各プログラムは、(非一時的な)記録媒体に記録されることで、流通されるようにしてもよい。 Furthermore, each of the above programs may be distributed by being recorded on a (non-temporary) recording medium.
各CPU201,301,501,801,1001は、単一であってもよく複数であってもよい。
Each
R ロボット(移動装置の一例)
1 通信システム
3 通信管理サーバ
5 教師端末(他の通信端末の一例)
6 マイク付きイヤホン(音声入出力デバイスの一例)
7 ロボット端末
8 広角撮影装置
9 生徒端末
9e 生徒端末(他の通信端末の一例)
9f 生徒端末(所定の通信端末の一例)
10 車両装置
31 送受信部(送信部の一例、受信部の一例、音声通信確立部の一例、通信確立部の一例)
35 認証部
36 位置設定部
37 画像作成部
38 参加登録部
40 記憶部
R Robot (an example of a moving device)
1
6. Earphones with a microphone (an example of an audio input/output device)
7
9f Student terminal (an example of a predetermined communication terminal)
10
35
Claims (10)
前記実空間の人に関するアイコンと、当該実空間の前記移動装置に関するアイコンとを示す仮想空間画像を作成する画像作成部と、
前記所定の通信端末に前記仮想空間画像を送信する送信部と、
前記所定の通信端末から、前記仮想空間画像に対して前記移動装置に関するアイコンの移動に基づく変更後の仮想空間位置情報を受信する受信部と、
を有し、
前記送信部は、前記移動装置に対して、前記変更後の仮想空間位置情報に対応する変更後の実空間位置情報を送信する、
通信管理サーバ。 a communication establishment unit that establishes voice communication between a mobile device capable of inputting and outputting voice in a real space and capable of autonomously moving to a position indicated by real space position information and a predetermined communication terminal in the real space;
an image creation unit that creates a virtual space image showing an icon related to a person in the real space and an icon related to the mobile device in the real space;
A transmission unit that transmits the virtual space image to the predetermined communication terminal;
a receiving unit that receives, from the predetermined communication terminal, virtual space position information after a change based on a movement of an icon related to the moving device with respect to the virtual space image;
having
the transmitting unit transmits, to the mobile device, changed real space position information corresponding to the changed virtual space position information;
Communications management server.
前記移動装置は撮影が可能であって、前記移動装置から前記所定の通信端末に前記撮影により得られた映像が送信される、
請求項1に記載の通信管理サーバ。 the communication establishment unit establishes, in addition to the voice communication, a video/audio communication that enables a video communication between the mobile device and the predetermined communication terminal;
The mobile device is capable of taking pictures, and the pictures obtained by taking pictures are transmitted from the mobile device to the predetermined communication terminal.
The communication management server according to claim 1 .
前記音声通信確立部は、前記所定の通信端末から、当該所定の通信端末に関するアイコンを前記他の通信端末に関するアイコンに関連付ける操作を受け付けることにより、前記所定の通信端末及び前記他の通信端末の間の専用の音声通信を確立する、
請求項5に記載の通信管理サーバ。 the image creation unit creates the virtual space image showing an icon related to the predetermined communication terminal and an icon related to the other communication terminal as icons related to people in the real space;
the voice communication establishment unit accepts an operation from the predetermined communication terminal to associate an icon related to the predetermined communication terminal with an icon related to the other communication terminal, thereby establishing dedicated voice communication between the predetermined communication terminal and the other communication terminal;
The communication management server according to claim 5.
前記移動装置と、
を有する通信システム。 A communication management server according to any one of claims 1 to 6;
The moving device;
A communication system having the above configuration.
前記実空間の人に関するアイコンと、当該実空間の前記移動装置に関するアイコンとを示す仮想空間画像を作成する画像作成処理と、
前記所定の通信端末に前記仮想空間画像を送信する送信処理と、
前記所定の通信端末から、前記仮想空間画像に対して前記移動装置に関するアイコンの移動に基づく変更後の仮想空間位置情報を受信する受信処理と、
を有し、
前記送信処理は、前記移動装置に対して、前記変更後の仮想空間位置情報に対応する変更後の実空間位置情報を送信する処理を含む、
通信管理方法。 a communication establishment process for establishing voice communication between a mobile device capable of inputting and outputting voice in a real space and capable of autonomously moving to a position indicated by the real space position information and a predetermined communication terminal in the real space;
an image creation process for creating a virtual space image showing an icon related to a person in the real space and an icon related to the mobile device in the real space;
a transmission process of transmitting the virtual space image to the predetermined communication terminal;
a receiving process for receiving, from the predetermined communication terminal, virtual space position information after change based on a movement of an icon related to the moving device with respect to the virtual space image;
having
the transmission process includes a process of transmitting, to the mobile device, changed real space position information corresponding to the changed virtual space position information;
How to manage communications.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022158682 | 2022-09-30 | ||
JP2022158682 | 2022-09-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024052610A true JP2024052610A (en) | 2024-04-11 |
Family
ID=90622504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023168723A Pending JP2024052610A (en) | 2022-09-30 | 2023-09-28 | COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024052610A (en) |
-
2023
- 2023-09-28 JP JP2023168723A patent/JP2024052610A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7322940B2 (en) | Image communication system, image communication terminal, image communication method, program, and recording medium | |
JP7452596B2 (en) | Communication terminals, display methods, programs and image communication systems | |
US10764513B2 (en) | Communication terminal, image data communication system, and communication method | |
US10944798B2 (en) | Communication terminal, image communication system, and display control method | |
JP7400195B2 (en) | Image communication system, imaging device, communication terminal, mode switching method, program | |
US20180097682A1 (en) | Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium | |
US10666898B2 (en) | Communication management system, communication system, and communication method | |
JP7192592B2 (en) | Imaging device, image communication system, image processing method, program | |
US11042342B2 (en) | Communication terminal, image communication system, display method, and non-transitory recording medium | |
JP7151316B2 (en) | Communication terminal, image communication system, display method, and program | |
JP2024052610A (en) | COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM | |
JP2018061243A (en) | Communication terminal, display method, and program | |
JP2024052524A (en) | COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM | |
US20240112422A1 (en) | Communication management server, communication system, and method for managing communication | |
JP7326789B2 (en) | Communication terminal, image communication system, display method, and program | |
JP7279825B2 (en) | Communication terminal, communication system, communication method, display control method and program | |
JP7354733B2 (en) | Communication terminal, image communication system, display method, and program | |
US11863871B2 (en) | Communication terminal, image communication system, and method of displaying image | |
JP7371369B2 (en) | Communication terminals and image communication systems | |
JP7331405B2 (en) | VR system, communication method, and program | |
JP7279452B2 (en) | VR terminal, VR system, display method, and program | |
JP7006133B2 (en) | Communication system and communication method | |
JP2023134089A (en) | Communication device, communication system, display method, and program | |
JP2023134065A (en) | Communication device, communication system, display method, and program | |
JP2023109839A (en) | Communication terminal, communication method, and program |