JP2024052610A - COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM - Google Patents

COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM Download PDF

Info

Publication number
JP2024052610A
JP2024052610A JP2023168723A JP2023168723A JP2024052610A JP 2024052610 A JP2024052610 A JP 2024052610A JP 2023168723 A JP2023168723 A JP 2023168723A JP 2023168723 A JP2023168723 A JP 2023168723A JP 2024052610 A JP2024052610 A JP 2024052610A
Authority
JP
Japan
Prior art keywords
communication
image
real space
virtual space
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023168723A
Other languages
Japanese (ja)
Inventor
雄一 荒海
忍 新谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2024052610A publication Critical patent/JP2024052610A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】本開示は、遠隔でイベントに参加する者が現場の者とコミュニケーションを取り易くすることを目的とする。【解決手段】本開示の通信管理サーバ3は、実空間で音声の入出力が可能であって実空間位置情報で示される位置に自律移動が可能なロボットR1と実空間の生徒端末との間の音声通信を確立し(S32)、実空間の人に関するアイコンと実空間のロボットR1に関するアイコンとを示す仮想空間画像を作成し(S51)、生徒端末9fに仮想空間画像を送信し(S52)、生徒端末9fから仮想空間画像に対してロボットR1に関するアイコンの移動に基づく変更後の仮想空間位置情報を受信し(S54)、ロボットR1に対して変更後の仮想空間位置情報に対応する変更後の実空間位置情報を送信する(S55)。【選択図】図21[Problem] The present disclosure aims to make it easier for people participating in an event remotely to communicate with people at the event. [Solution] A communication management server 3 of the present disclosure establishes voice communication between a robot R1 capable of inputting and outputting voice in real space and capable of autonomously moving to a position indicated by real space position information and a student terminal in the real space (S32), creates a virtual space image showing an icon related to a person in the real space and an icon related to the robot R1 in the real space (S51), transmits the virtual space image to the student terminal 9f (S52), receives changed virtual space position information based on the movement of the icon related to the robot R1 relative to the virtual space image from the student terminal 9f (S54), and transmits changed real space position information corresponding to the changed virtual space position information to the robot R1 (S55). [Selected Figure] Fig. 21

Description

本開示内容は、通信管理サーバ、通信システム、通信管理方法、及びプログラムに関する。 This disclosure relates to a communication management server, a communication system, a communication management method, and a program.

近年、リモートワークの普及により、学校の通信端末と各生徒の通信端末を接続して遠隔授業が行わることが普及してきた。更に、ウィルス感染対策、及び新しい働き方の推進等によって、実際に学校に登校する場合に加えて、自宅等から通信端末で遠隔授業に参加できるニーズが大きくなってきた。 In recent years, with the spread of remote work, it has become common to conduct distance learning by connecting the school's communication terminal with each student's communication terminal. Furthermore, due to measures against virus infection and the promotion of new ways of working, there is a growing need to be able to participate in distance learning from home, etc. using a communication terminal, in addition to actually attending school.

また、教室等の実空間の現場に存在する通信可能なロボットを介して、授業に出席した生徒と遠隔授業に参加した生徒がコミュニケーションを取ることができる提案がなされている(特許文献1参照)。 It has also been proposed that students attending classes and students participating in remote classes can communicate with each other via a communicative robot that exists in the real world, such as a classroom (see Patent Document 1).

しかしながら、遠隔授業等のイベントに参加した者からすると、ロボット等の移動装置は、必ずしも現場でコミュニケーションを取りたい相手の近くにいるとは限らないため、コミュニケーションが取りづらいという課題が生じる。 However, participants in events such as distance learning face the problem that mobile devices such as robots are not necessarily located near the people they want to communicate with, making it difficult to communicate with them.

本開示は、上述の課題を鑑みてなされたもので、遠隔でイベントに参加する者が現場の者とコミュニケーションを取り易くすることを目的とする。 This disclosure was made in consideration of the above-mentioned problems, and aims to make it easier for people participating in an event remotely to communicate with those on-site.

請求項1に係る発明は、実空間で音声の入出力が可能であって実空間位置情報で示される位置に自律移動が可能な移動装置と前記実空間の所定の通信端末との間の音声通信を確立する通信確立部と、前記実空間の人に関するアイコンと、当該実空間の前記移動装置に関するアイコンとを示す仮想空間画像を作成する画像作成部と、前記所定の通信端末に前記仮想空間画像を送信する送信部と、前記所定の通信端末から、前記仮想空間画像に対して前記移動装置に関するアイコンの移動に基づく変更後の仮想空間位置情報を受信する受信部と、を有し、前記送信部は、前記移動装置に対して、前記変更後の仮想空間位置情報に対応する変更後の実空間位置情報を送信する、通信管理サーバである。 The invention according to claim 1 is a communication management server having a communication establishment unit that establishes voice communication between a mobile device capable of inputting and outputting voice in real space and capable of autonomously moving to a position indicated by real space position information and a specified communication terminal in the real space, an image creation unit that creates a virtual space image showing an icon related to a person in the real space and an icon related to the mobile device in the real space, a transmission unit that transmits the virtual space image to the specified communication terminal, and a reception unit that receives changed virtual space position information based on the movement of the icon related to the mobile device relative to the virtual space image from the specified communication terminal, and the transmission unit transmits changed real space position information corresponding to the changed virtual space position information to the mobile device.

本開示によれば、遠隔でイベントに参加する者が現場の者とコミュニケーションを取り易くすることができる。 This disclosure makes it easier for people participating in an event remotely to communicate with people on-site.

本実施形態の通信システムの全体構成図である。1 is an overall configuration diagram of a communication system according to an embodiment of the present invention; 実空間における教室の状況を示した図である。This is a diagram showing the situation of a classroom in real space. 通信管理システムのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of the communication management system. 教師端末、ロボット端末、及び生徒端末のハードウェア構成図である。FIG. 2 is a diagram illustrating the hardware configuration of a teacher terminal, a robot terminal, and a student terminal. マイク付きイヤホンのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of the earphones with a microphone. 広角撮影装置のハードウェア構成図である。FIG. 2 is a diagram illustrating a hardware configuration of the wide-angle imaging device. 広角撮影装置の使用イメージ図の一例である。FIG. 1 is a diagram illustrating an example of an image of a wide-angle imaging device in use. 広角撮影装置で撮像された画像から正距円筒射影画像及び全天球画像が作成されるまでの処理の概略を説明する図である。1A and 1B are diagrams illustrating an outline of a process for creating an equirectangular projection image and a celestial sphere image from an image captured by a wide-angle imaging device. 広角撮影装置で撮像された画像から正距円筒射影画像及び全天球画像が作成されるまでの処理の概略を説明する図である。1A and 1B are diagrams illustrating an outline of a process for creating an equirectangular projection image and a celestial sphere image from an image captured by a wide-angle imaging device. 全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。FIG. 13 is a diagram showing the positions of a virtual camera and a predetermined area when a celestial sphere image is a three-dimensional solid sphere. 図10の立体斜視図等の一例を示す図である。FIG. 11 is a diagram showing an example of a three-dimensional perspective view of FIG. 10 . 所定領域情報と所定領域の画像の関係との関係を示した図の一例である。11 is a diagram illustrating an example of a relationship between predetermined area information and an image of a predetermined area. 車両装置のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of a vehicle device. 通信システムの各機能構成図である。FIG. 2 is a diagram illustrating the functional configuration of the communication system. 位置情報管理テーブルの概念図である。FIG. 4 is a conceptual diagram of a location information management table. 各端末及びロボットのログイン処理を示したシーケンス図である。FIG. 11 is a sequence diagram showing a login process of each terminal and a robot. 音声通信及び映像音声通信の開始処理、並びに出席登録の処理を示すシーケンスである。11 is a sequence showing a process of starting audio communication and audio-video communication, and a process of registering attendance. 生徒の出席登録画像を示す図である。FIG. 13 is a diagram showing an image of student attendance registration. 仮想空間画像の表示の処理を示すシーケンスである。11 is a sequence showing a process for displaying a virtual space image. 教師及びロボットの現在位置を示す各アイコン、各生徒の初期位置を示す各アイコン、並びにロボットからの映像を含む仮想空間画像を示す図である。A figure showing icons indicating the current positions of the teacher and robot, icons indicating the initial positions of each student, and a virtual space image including video from the robot. ロボットのアイコンを移動させた後の仮想空間画像を示す図である。FIG. 13 is a diagram showing a virtual space image after the robot icon has been moved. ロボットが移動後の実空間における教室の状況を示した図である。FIG. 13 shows the situation of the classroom in the real space after the robot has moved. ロボット端末に映し出された遠隔の生徒の映像を示す図である。FIG. 13 shows an image of a remote student displayed on a robot terminal. 専用の音声通信を行う処理を示すシーケンス図である。FIG. 11 is a sequence diagram showing a process for performing dedicated voice communication. 専用の音声通信を行う相手のアイコンを選択した状態の仮想空間画像を示す図である。FIG. 13 is a diagram showing a virtual space image in a state where the icon of a party with which dedicated voice communication is to be performed is selected. ヘッドマウントディスプレイのハードウェア構成図である。FIG. 2 is a diagram illustrating a hardware configuration of a head mounted display.

〔通信システムの概略〕
図1を用いて通信システム1の概略を説明する。図1は、本実施形態の通信システムの全体構成図である。
[Outline of the communication system]
An outline of a communication system 1 will be described with reference to Fig. 1. Fig. 1 is a diagram showing the overall configuration of a communication system according to this embodiment.

通信システム1は、通信管理サーバ3、教師端末5、マイク付きイヤホン6、生徒端末9、及びテレプレゼンスロボット(以降「ロボット」と示す)Rによって構築されている。 The communication system 1 is constructed from a communication management server 3, a teacher terminal 5, a microphone-equipped earphone 6, a student terminal 9, and a telepresence robot (hereafter referred to as the "robot") R.

ロボットRは、主に、ロボット端末7、広角撮影装置8、及びロボットRを移動させる車両装置10によって構成されている。本実施形態のロボットRは自律走行するが、自律走行しなくてもよい。なお、ロボットRは移動装置の一例であり、移動装置には、ドローンのように空中を移動するもの、潜水艦型ラジコンのように水中を移動するものも含まれる。また、車両装置10は、推進装置の一例である。なお、ロボットRには、温度センサ、湿度センサ、酸素センサ、又は二酸化炭素センサ等の環境センサが設けされ、ロボットRの周囲を照らす照明装置等も設けられている。 The robot R is mainly composed of a robot terminal 7, a wide-angle imaging device 8, and a vehicle device 10 that moves the robot R. In this embodiment, the robot R moves autonomously, but it does not have to move autonomously. The robot R is an example of a moving device, and moving devices also include those that move in the air, such as drones, and those that move underwater, such as submarine-type radio-controlled vehicles. The vehicle device 10 is an example of a propulsion device. The robot R is equipped with environmental sensors such as a temperature sensor, a humidity sensor, an oxygen sensor, or a carbon dioxide sensor, and is also equipped with a lighting device that illuminates the area around the robot R.

通信管理サーバ3、教師端末5、生徒端末9、ロボットRのロボット端末7は、インターネット等の通信ネットワーク100を介して通信することができる。通信形態は、有線又は無線を問わない。図1では、教師端末5、生徒端末9、及びロボット端末7は、無線通信することが示されている。また、マイク付きイヤホン6は、教師端末5とのペアリングにより近距離通信ができる。通信管理サーバ3は、複数のサーバによって構築されていてもよい。 The communication management server 3, teacher terminal 5, student terminal 9, and robot terminal 7 of robot R can communicate via a communication network 100 such as the Internet. The communication form may be wired or wireless. In FIG. 1, the teacher terminal 5, student terminal 9, and robot terminal 7 are shown to communicate wirelessly. In addition, the microphone-equipped earphones 6 can communicate in close range by pairing with the teacher terminal 5. The communication management server 3 may be constructed of multiple servers.

なお、教師端末5及び生徒端末9は通信端末の一例である。 Note that the teacher terminal 5 and the student terminal 9 are examples of communication terminals.

〔実空間の状況〕
続いて、図2を用いて実空間(実世界)の現場としての教室の状況を説明する。図2は、実空間における教室の状況を示した図である。図2では、実空間の教室に、4名の生徒S1~S4が、予め定められた各自の机D1~D4のところに着席しており、教師T1が授業を行っている。生徒S5,S6は、教室の授業には出席しておらず、自宅等の遠隔地から遠隔授業に参加しているため、教室には、生徒S5,S6の机D5,D6はあるが、生徒S5,S6はいない。なお、教師T1,T2は「教師T」の一例、生徒S1~S6は「生徒S」の一例、机D1~D6は「机D」の一例、及びロボットR1,R2は「ロボットR」の一例である。また、教師端末5a,5bは「教師端末5」の一例、マイク付きイヤホン6a,6bは「マイク付きイヤホン6」の一例、ロボット端末7a,7bは「ロボット端末7」の一例、及び生徒端末9e,9fは「生徒端末9」の一例である。更に、広角撮影装置8a,8bは「広角撮影装置8」の一例、及び車両装置10a,10bは、「車両装置10」の一例である。
[Real space situation]
Next, the situation of a classroom as a site in real space (real world) will be described with reference to FIG. 2. FIG. 2 is a diagram showing the situation of a classroom in real space. In FIG. 2, in a classroom in real space, four students S1 to S4 are seated at their respective desks D1 to D4, which have been determined in advance, and a teacher T1 is teaching a class. Since students S5 and S6 are not attending the class in the classroom, but are participating in the remote class from a remote location such as their home, the classroom has desks D5 and D6 for students S5 and S6, but students S5 and S6 are not present. Note that teachers T1 and T2 are examples of "teacher T", students S1 to S6 are examples of "student S", desks D1 to D6 are examples of "desk D", and robots R1 and R2 are examples of "robot R". The teacher terminals 5a and 5b are an example of a "teacher terminal 5", the earphones with microphone 6a and 6b are an example of an "earphones with microphone 6", the robot terminals 7a and 7b are an example of a "robot terminal 7", and the student terminals 9e and 9f are an example of a "student terminal 9". Furthermore, the wide-angle imaging devices 8a and 8b are an example of a "wide-angle imaging device 8", and the vehicle devices 10a and 10b are an example of a "vehicle device 10".

また、図2では、教室について説明するが、これに限るものではなく、展示会、セミナー会場等であってもよい。また、生徒数、机の数、及び教師数も、これに限るものではない。また、授業は「イベント」の一例であり、イベントには、展示、講演等も含まれる。 Although FIG. 2 illustrates a classroom, the present invention is not limited to this and may be an exhibition or seminar venue. The number of students, desks, and teachers are also not limited to these. A class is an example of an "event," and events also include exhibitions, lectures, and the like.

更に、図2に示すように、教室では、ロボットR1が初期位置として教壇の前に位置し、教室全体を撮影している。 Furthermore, as shown in Figure 2, in the classroom, robot R1 is positioned in front of the podium as its initial position and takes pictures of the entire classroom.

教師T1は教師端末5aを所持しており、いつでも操作することができる。なお、教師端末5aは、図1の教師端末5の一例である。 Teacher T1 has a teacher terminal 5a and can operate it at any time. Note that teacher terminal 5a is an example of teacher terminal 5 in FIG. 1.

ロボットR1は、ロボット端末7a、広角撮影装置8a、及び車両装置10aによって構成されている。ロボット端末7aは、図1のロボット端末7の一例である。広角撮影装置8aは、図1の広角撮影装置8の一例である。車両装置10aは、図1の車両装置10の一例である。 The robot R1 is composed of a robot terminal 7a, a wide-angle imaging device 8a, and a vehicle device 10a. The robot terminal 7a is an example of the robot terminal 7 in FIG. 1. The wide-angle imaging device 8a is an example of the wide-angle imaging device 8 in FIG. 1. The vehicle device 10a is an example of the vehicle device 10 in FIG. 1.

〔ハードウェア構成〕
続いて、図3乃至図13を用いて、通信システム1を構築しているサーバ及び端末等のハードウェア構成を説明する。
[Hardware configuration]
Next, the hardware configuration of the servers, terminals, and the like that constitute the communication system 1 will be described with reference to FIGS.

<通信システムのハードウェア構成>
図3は、通信管理システムのハードウェア構成図である。
<Hardware configuration of communication system>
FIG. 3 is a diagram showing the hardware configuration of the communication management system.

図3に示すように、通信管理サーバ3は、一般的なコンピュータの構成を有しており、例えば、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303,SSD(Solid State Drive)304、ディスプレイ308等を有する。また、通信管理サーバ3は、ネットワークI/F306、キーボード311、ポインティングデバイス312、メディアI/F307、及びバス310等を有する。なお、SSDではなくHDD(Hard Disk Drive)であってもよい。 As shown in FIG. 3, the communication management server 3 has a typical computer configuration, and includes, for example, a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, a RAM (Random Access Memory) 303, an SSD (Solid State Drive) 304, and a display 308. The communication management server 3 also includes a network I/F 306, a keyboard 311, a pointing device 312, a media I/F 307, and a bus 310. Note that an HDD (Hard Disk Drive) may be used instead of an SSD.

CPU301は、例えば、ROM302、SSD304等に格納されたプログラムやデータを読み出し、処理を実行することにより、通信管理サーバ3が備える各機能を実現する演算装置である。ROM302は、IPL等のCPU301の起動に用いられるプログラム等を予め記憶した不揮発性のメモリである。RAM303は、CPU301のワークエリア等として利用される揮発性のメモリである。 The CPU 301 is a computing device that realizes each function of the communication management server 3 by reading programs and data stored in, for example, the ROM 302, the SSD 304, etc., and executing processing. The ROM 302 is a non-volatile memory that stores in advance programs and the like used to start the CPU 301, such as IPL. The RAM 303 is a volatile memory that is used as a work area for the CPU 301, etc.

SSD344は、例えば、OSや、アプリケーションソフトのプログラムや、各種のデータを記憶するストレージ装置である。ディスプレイ3058は、例えば、カーソル、メニュー、ウィンドウ、文字、又は画像等の各種の情報を表示する表示手段である。 SSD344 is a storage device that stores, for example, an OS, application software programs, and various data. Display 3058 is a display means that displays various information such as a cursor, menu, window, text, or image.

ネットワークI/F306は、通信ネットワーク2を利用してデータ通信を行うための通信インタフェースである。キーボード311は、システム管理者等による文字、数値、各種指示などの入力操作を受け付けるための入力手段の一例である。ポインティングデバイス312は、システム管理者等による各種指示の選択や実行、処理対象の選択、カーソルの移動等の操作を受け付ける。なお、マウス等であってもよい。 The network I/F 306 is a communication interface for performing data communication using the communication network 2. The keyboard 311 is an example of an input means for accepting input operations such as characters, numbers, and various instructions by a system administrator or the like. The pointing device 312 accepts operations such as the selection and execution of various instructions by the system administrator or the like, the selection of a processing target, and cursor movement. Note that a mouse or the like may also be used.

メディアI/F307は、例えば、メモリカード等の記録メディア306に対するデータの読み出しや、書き込み(記憶)を制御する。上記の各構成要素を電気的に接続し、アドレス信号、データ信号、及び各種の制御信号等を伝達する。 The media I/F 307 controls the reading and writing (storing) of data from and to a recording medium 306 such as a memory card. It electrically connects the above components and transmits address signals, data signals, and various control signals.

<教師端末、ロボット端末、及び生徒端末のハードウェア>
図4は、教師端末、ロボット端末、及び生徒端末のハードウェア構成図である。
<Hardware for teacher terminals, robot terminals, and student terminals>
FIG. 4 is a diagram showing the hardware configuration of the teacher terminal, the robot terminal, and the student terminal.

図4に示すように、教師端末5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、撮像素子I/F506、加速度・方位センサ507、メディアI/F509、GPS受信部511を備えている。 As shown in FIG. 4, the teacher terminal 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a CMOS sensor 505, an image sensor I/F 506, an acceleration/orientation sensor 507, a media I/F 509, and a GPS receiver 511.

これらのうち、CPU501は、教師端末5全体の動作を制御する。ROM502は、CPU501やIPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、教師端末用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ505は、CPU501の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。なお、CMOSセンサではなく、CCD(Charge Coupled Device)センサ等の撮像手段であってもよい。撮像素子I/F506は、CMOSセンサ505の駆動を制御する回路である。加速度・方位センサ507は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F509は、フラッシュメモリ等の記録メディア508に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部511は、GPS衛星からGPS信号を受信する。また、GPS受信部511は、IMES(Indoor MEssaging System)等の屋内の位置を示す信号を受信することも可能である。 Of these, the CPU 501 controls the operation of the entire teacher terminal 5. The ROM 502 stores the CPU 501 and programs used to drive the CPU 501, such as the IPL. The RAM 503 is used as a work area for the CPU 501. The EEPROM 504 reads or writes various data, such as programs for the teacher terminal, under the control of the CPU 501. The CMOS (Complementary Metal Oxide Semiconductor) sensor 505 is a type of built-in imaging means that captures an image of a subject (mainly a self-portrait) and obtains image data under the control of the CPU 501. Note that instead of a CMOS sensor, an imaging means such as a CCD (Charge Coupled Device) sensor may also be used. The imaging element I/F 506 is a circuit that controls the operation of the CMOS sensor 505. The acceleration/direction sensor 507 is various sensors such as an electronic magnetic compass or gyrocompass that detects geomagnetism, and an acceleration sensor. The media I/F 509 controls the reading or writing (storing) of data from a recording medium 508, such as a flash memory. The GPS receiver 511 receives GPS signals from GPS satellites. The GPS receiver 511 can also receive signals indicating indoor positions, such as IMES (Indoor MEssaging System).

また、教師端末5は、遠距離通信回路512、CMOSセンサ513、撮像素子I/F514、マイク515、スピーカ516、音入出力I/F517、ディスプレイ518、外部機器接続I/F519、近距離通信回路520、近距離通信回路520のアンテナ520a、及びタッチパネル521を備えている。 The teacher terminal 5 also includes a long-distance communication circuit 512, a CMOS sensor 513, an image sensor I/F 514, a microphone 515, a speaker 516, an audio input/output I/F 517, a display 518, an external device connection I/F 519, a short-distance communication circuit 520, an antenna 520a of the short-distance communication circuit 520, and a touch panel 521.

これらのうち、遠距離通信回路512は、通信ネットワーク100を介して、他の機器と通信する回路である。CMOSセンサ513は、CPU501の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F514は、CMOSセンサ513の駆動を制御する回路である。マイク515は、音を電気信号に変える内蔵型の回路である。スピーカ516は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F517は、CPU501の制御に従ってマイク515及びスピーカ516との間で音信号の入出力を処理する回路である。ディスプレイ518は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。外部機器接続I/F519は、各種の外部機器を接続するためのインタフェースである。近距離通信回路520は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル521は、利用者がディスプレイ518を押下することで、教師端末5を操作する入力手段の一種である。 Among these, the long-distance communication circuit 512 is a circuit that communicates with other devices via the communication network 100. The CMOS sensor 513 is a type of built-in imaging means that captures an image of a subject under the control of the CPU 501 to obtain image data. The image sensor I/F 514 is a circuit that controls the driving of the CMOS sensor 513. The microphone 515 is a built-in circuit that converts sound into an electrical signal. The speaker 516 is a built-in circuit that converts an electrical signal into physical vibrations to generate sounds such as music and voice. The sound input/output I/F 517 is a circuit that processes the input and output of sound signals between the microphone 515 and the speaker 516 under the control of the CPU 501. The display 518 is a type of display means such as liquid crystal or organic EL (Electro Luminescence) that displays images of subjects and various icons. The external device connection I/F 519 is an interface for connecting various external devices. The short-distance communication circuit 520 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The touch panel 521 is a type of input means that allows the user to operate the teacher terminal 5 by pressing the display 518.

また、教師端末5は、バスライン510を備えている。バスライン510は、図4に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The teacher terminal 5 also includes a bus line 510. The bus line 510 is an address bus, a data bus, etc., for electrically connecting each component such as the CPU 401 shown in FIG. 4.

なお、ロボット端末7、及び生徒端末9は、教師端末5と同様の構成であるため、説明を省略する。 The robot terminal 7 and the student terminal 9 have the same configuration as the teacher terminal 5, so their explanation will be omitted.

<マイク付きイヤホンのハードウェア構成>
図5は、マイク付きイヤホンのハードウェア構成図である。
<Hardware configuration of earphones with microphone>
FIG. 5 is a diagram showing the hardware configuration of the earphone with microphone.

図5に示すように、マイク付きイヤホン6は、マイク615、スピーカ616、音入出力I/F617、近距離通信回路620、近距離通信回路520のアンテナ620a、及びボタン621を備えている。 As shown in FIG. 5, the earphones with microphone 6 include a microphone 615, a speaker 616, an audio input/output I/F 617, a short-range communication circuit 620, an antenna 620a of the short-range communication circuit 520, and a button 621.

マイク615は、音を電気信号に変える内蔵型の回路である。スピーカ616は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F617は、マイク515及びスピーカ516との間で音信号の入出力を処理する回路である。近距離通信回路520は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。ボタン621は、利用者がマイク付きイヤホン6を操作する操作手段の一種である。 The microphone 615 is a built-in circuit that converts sound into an electrical signal. The speaker 616 is a built-in circuit that converts the electrical signal into physical vibrations to produce sound such as music or voice. The sound input/output I/F 617 is a circuit that processes the input and output of sound signals between the microphone 515 and the speaker 516. The short-range communication circuit 520 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The button 621 is a type of operating means that allows the user to operate the microphone-equipped earphone 6.

<広角撮影装置のハードウェア構成>
図6を用いて、広角撮影装置8のハードウェア構成を説明する。図6は、広角撮影装置8のハードウェア構成図である。以下では、広角撮影装置8は、2つの撮像素子を使用した全天球(全方位)広角撮影装置8であるが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮像専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に広角撮影装置8と同じ機能を有するようにしてもよい。
<Hardware configuration of wide-angle imaging device>
The hardware configuration of the wide-angle imaging device 8 will be described with reference to Fig. 6. Fig. 6 is a hardware configuration diagram of the wide-angle imaging device 8. In the following, the wide-angle imaging device 8 is an omnidirectional (all-directional) wide-angle imaging device 8 using two imaging elements, but the number of imaging elements may be two or more. In addition, the wide-angle imaging device 8 does not necessarily have to be a device dedicated to omnidirectional imaging, and a normal digital camera, a smartphone, or the like may be provided with substantially the same functions as the wide-angle imaging device 8 by attaching an omnidirectional imaging unit to the device.

図6に示されているように、広角撮影装置8は、撮像ユニット801、画像処理ユニット804、撮像制御ユニット805、マイク808、音処理ユニット809、CPU811、ROM812、SRAM813、DRAM814、操作部815、ネットワークI/F816、近距離通信回路817、アンテナ817a、電子コンパス818、ジャイロセンサ819、及び、加速度センサ820なども接続される。 As shown in FIG. 6, the wide-angle imaging device 8 is also connected to an imaging unit 801, an image processing unit 804, an imaging control unit 805, a microphone 808, a sound processing unit 809, a CPU 811, a ROM 812, an SRAM 813, a DRAM 814, an operation unit 815, a network I/F 816, a short-range communication circuit 817, an antenna 817a, an electronic compass 818, a gyro sensor 819, and an acceleration sensor 820.

このうち、撮像ユニット801は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)802a、802bと、各広角レンズに対応させて設けられている2つの撮像素子803a、803bを備えている。撮像素子803a、803bは、魚眼レンズ802a、802bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD( Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Of these, the imaging unit 801 includes wide-angle lenses (so-called fisheye lenses) 802a and 802b each having an angle of view of 180° or more for forming a hemispherical image, and two imaging elements 803a and 803b provided corresponding to each wide-angle lens. The imaging elements 803a and 803b include an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor that converts the optical image by the fisheye lenses 802a and 802b into image data of an electrical signal and outputs it, a timing generation circuit that generates horizontal or vertical synchronization signals and pixel clocks for the image sensors, and a group of registers in which various commands and parameters necessary for the operation of the imaging elements are set.

撮像ユニット801の撮像素子803a、803bは、各々、画像処理ユニット804とパラレルI/Fバスで接続されている。一方、撮像ユニット801の撮像素子803a、803bは、撮像制御ユニット805とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット804、撮像制御ユニット805及び音処理ユニット809は、バス810を介してCPU811と接続される。更に、バス810には、ROM812、SRAM813、DRAM814、操作部815、ネットワークI/F816、近距離通信回路817、及び電子コンパス818なども接続される。 The imaging elements 803a and 803b of the imaging unit 801 are each connected to the image processing unit 804 via a parallel I/F bus. Meanwhile, the imaging elements 803a and 803b of the imaging unit 801 are connected to a serial I/F bus (such as an I2C bus) separately from the imaging control unit 805. The image processing unit 804, the imaging control unit 805, and the sound processing unit 809 are connected to the CPU 811 via a bus 810. In addition, the ROM 812, the SRAM 813, the DRAM 814, the operation unit 815, the network I/F 816, the short-range communication circuit 817, and the electronic compass 818 are also connected to the bus 810.

画像処理ユニット804は、撮像素子803a、803bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図8(c)に示されているような正距円筒射影画像のデータを作成する。 The image processing unit 804 takes in the image data output from the image sensors 803a and 803b via the parallel I/F bus, performs a predetermined process on each piece of image data, and then synthesizes the image data to create equirectangular projection image data as shown in Figure 8(c).

撮像制御ユニット805は、一般に撮像制御ユニット805をマスタデバイス、撮像素子803a、803bをスレーブデバイスとして、I2Cバスを利用して、撮像素子803a、803bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU811から受け取る。また、撮像制御ユニット805は、同じくI2Cバスを利用して、撮像素子803a、803bのレジスタ群のステータスデータ等を取り込み、CPU811に送る。 The imaging control unit 805 generally sets commands and the like in the registers of the imaging elements 803a and 803b using the I2C bus, with the imaging control unit 805 as the master device and the imaging elements 803a and 803b as slave devices. Necessary commands and the like are received from the CPU 811. The imaging control unit 805 also uses the I2C bus to retrieve status data and the like from the registers of the imaging elements 803a and 803b, and send it to the CPU 811.

また、撮像制御ユニット805は、操作部815のシャッターボタンが押下されたタイミングで、撮像素子803a、803bに画像データの出力を指示する。広角撮影装置8によっては、ディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子803a、803bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 The imaging control unit 805 also instructs the imaging elements 803a and 803b to output image data when the shutter button on the operation unit 815 is pressed. Some wide-angle imaging devices 8 have a preview display function or a function that supports video display on a display. In this case, the image data is output from the imaging elements 803a and 803b continuously at a predetermined frame rate (frames/minute).

撮像制御ユニット805は、後述するように、CPU811と協働して撮像素子803a、803bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、広角撮影装置8にはディスプレイが設けられていないが、表示部を設けてもよい。 As described below, the imaging control unit 805 also functions as a synchronization control means that cooperates with the CPU 811 to synchronize the output timing of image data from the imaging elements 803a and 803b. In this embodiment, the wide-angle imaging device 8 is not provided with a display, but a display unit may be provided.

マイク808は、収録した音声を音声データに変換する。音処理ユニット809は、マイク808から出力される音声データをI/Fバスを通して取り込み、音声データに対して所定の処理を施す。 The microphone 808 converts the recorded sound into audio data. The sound processing unit 809 takes in the audio data output from the microphone 808 via the I/F bus and performs a specified process on the audio data.

CPU811は、広角撮影装置8の全体の動作を制御すると共に必要な処理を実行する 。ROM812は、CPU811のための種々のプログラムを記憶している。SRAM813及びDRAM814はワークメモリであり、CPU811で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM814は、画像処理ユニット804での処理途中の画像データ及び処理済みの正距円筒射影画像のデータを記憶する。 The CPU 811 controls the overall operation of the wide-angle shooting device 8 and executes necessary processing. The ROM 812 stores various programs for the CPU 811. The SRAM 813 and DRAM 814 are work memories that store programs executed by the CPU 811 and data in the middle of processing. In particular, the DRAM 814 stores image data in the middle of processing by the image processing unit 804 and data of a processed equirectangular projection image.

操作部815は、シャッターボタンなどの操作ボタンの総称である。操作者は操作部815を操作することで、種々の撮像モードや撮像条件などを入力する。 The operation unit 815 is a general term for operation buttons such as the shutter button. The operator operates the operation unit 815 to input various imaging modes, imaging conditions, and the like.

ネットワークI/F816は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインタフェース回路(USBI/F等)の総称である。また、ネットワークI/F816としては、無線、有線を問わない。DRAM814に記憶された正距円筒射影画像のデータは、このネットワークI/F816を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F816を介して外部(装置等)に送信されたりする。 The network I/F 816 is a general term for an interface circuit (such as a USB I/F) with external media such as an SD card or a personal computer. The network I/F 816 may be wireless or wired. The data of the equirectangular projection image stored in the DRAM 814 is recorded on external media via the network I/F 816, or transmitted to the outside (such as a device) via the network I/F 816 as necessary.

近距離通信回路817は、広角撮影装置8に設けられたアンテナ817aを介して、Wi-Fi、NFC、Bluetooth(登録商標)等の近距離無線通信技術によって、外部(ロボット端末7等)との通信を行う。この近距離通信回路817によっても、正距円筒射影画像のデータを外部に送信することができる。 The short-range communication circuit 817 communicates with the outside (such as the robot terminal 7) by short-range wireless communication technology such as Wi-Fi, NFC, or Bluetooth (registered trademark) via an antenna 817a provided in the wide-angle shooting device 8. This short-range communication circuit 817 can also transmit data of the equirectangular projection image to the outside.

電子コンパス818は、地球の磁気から広角撮影装置8の方位を算出し、方位情報を出力する。この方位情報はExif(Exchangeable image file format)に沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮像日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 818 calculates the direction of the wide-angle imaging device 8 from the Earth's magnetism and outputs the direction information. This direction information is an example of related information (metadata) that conforms to the Exchangeable image file format (Exif), and is used for image processing such as image correction of the captured image. The related information also includes data such as the capture date and time of the image and the data size of the image data.

ジャイロセンサ819は、広角撮影装置8の移動に伴う角度の変化(ロール角、ピッチング角、ヨー角)を検出する。角度の変化はExifに沿った関連情報(メタデータ)の一例であり、撮像画像の画像補正等の画像処理に利用される。 The gyro sensor 819 detects changes in angle (roll angle, pitch angle, yaw angle) that accompany the movement of the wide-angle imaging device 8. The changes in angle are an example of related information (metadata) according to Exif, and are used for image processing such as image correction of captured images.

加速度センサ820は3軸方向の加速度を検出する。検出した加速度に基づいて広角撮影装置8の姿勢(重力方向に対する角度)を検出する。ジャイロセンサ819と加速度センサ820は両方を有することで画像補正の精度が向上する。 The acceleration sensor 820 detects acceleration in three axial directions. The attitude of the wide-angle imaging device 8 (angle with respect to the direction of gravity) is detected based on the detected acceleration. Having both the gyro sensor 819 and the acceleration sensor 820 improves the accuracy of image correction.

(全天球映像について)
次に、図7を用いて、広角撮影装置8の使用状況を説明する。なお、図7は、広角撮影装置8の使用イメージ図である。広角撮影装置8は、図7に示されているように、例えば、人が持って周りの被写体や風景を撮像するために用いられる。この場合、図6に示されている撮像素子803a及び撮像素子803bによって、それぞれ、人の周りの被写体が撮像されることで、2つの半球画像を得ることができる。
(About spherical images)
Next, the usage of the wide-angle imaging device 8 will be described with reference to Fig. 7. Fig. 7 is an image diagram of the wide-angle imaging device 8 in use. As shown in Fig. 7, the wide-angle imaging device 8 is used, for example, by a person holding it to capture surrounding subjects and scenery. In this case, two hemispherical images can be obtained by capturing images of subjects around the person using the imaging element 803a and the imaging element 803b shown in Fig. 6, respectively.

次に、図8及び図9を用いて、広角撮影装置8で撮像された画像から正距円筒射影画像EC及び全天球画像CEが作成されるまでの処理の概略を説明する。なお、図8(a)は広角撮影装置8で撮像された半球画像(前側)、図8(b)は広角撮影装置8で撮像された半球画像(後側)、図8(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。図9(a)は正距円筒射影画像で球を被う状態を示した概念図、図9(b)は全天球画像を示した図である。 Next, an outline of the process for creating an equirectangular projection image EC and a celestial sphere image CE from an image captured by the wide-angle imaging device 8 will be described with reference to Figures 8 and 9. Note that Figure 8(a) shows a hemispherical image (front side) captured by the wide-angle imaging device 8, Figure 8(b) shows a hemispherical image (rear side) captured by the wide-angle imaging device 8, and Figure 8(c) shows an image expressed by equirectangular projection (hereinafter referred to as an "equirectangular projection image"). Figure 9(a) is a conceptual diagram showing a state in which a sphere is covered with an equirectangular projection image, and Figure 9(b) shows a celestial sphere image.

図8(a)に示されているように、撮像素子803aによって得られた画像は、後述の魚眼レンズ802aによって湾曲した半球画像(前側)となる。また、図8(b)に示されているように、撮像素子803bによって得られた画像は、魚眼レンズ802bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、広角撮影装置8によって合成され、図8(c)に示されているように、正距円筒射影画像ECが作成される。 As shown in FIG. 8(a), the image obtained by the image sensor 803a becomes a hemispherical image (front side) curved by the fisheye lens 802a described below. Also, as shown in FIG. 8(b), the image obtained by the image sensor 803b becomes a hemispherical image (rear side) curved by the fisheye lens 802b. The hemispherical image (front side) and the hemispherical image (rear side) flipped 180 degrees are then combined by the wide-angle imaging device 8 to create an equirectangular projection image EC as shown in FIG. 8(c).

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図9(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図9(b)に示されているような全天球画像CEが作成される。このように、全天球画像CEは、正距円筒射影画像ECが球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions) 及び3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球画像CEは、静止画であっても動画であってもよい。 By using OpenGL ES (Open Graphics Library for Embedded Systems), the equirectangular projection image is pasted to cover the sphere as shown in FIG. 9A, and a celestial sphere image CE as shown in FIG. 9B is created. In this way, the celestial sphere image CE is represented as an image in which the equirectangular projection image EC faces the center of the sphere. Note that OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. Note that the celestial sphere image CE may be a still image or a video.

以上のように、全天球画像CEは、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球画像CEの一部の所定領域(以下、上記の「所定領域映像」に相当)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図10及び図11を用いて説明する。所定領域映像は動画でも静止画でもよい。 As described above, the spherical image CE is an image pasted to cover the spherical surface, which gives a sense of incongruity to humans when viewed. Therefore, by displaying a specific area of the spherical image CE (hereinafter, equivalent to the above-mentioned "specific area image") as a planar image with little curvature, it is possible to display the image in a way that does not give a sense of incongruity to humans. This will be described with reference to Figs. 10 and 11. The specific area image may be a video or a still image.

図10は、全天球画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球画像CEに対して、その画像を見る操作者の視点の位置に相当するものである。また、図11(a)は図10の立体斜視図、図11(b)はディスプレイに表示された場合の所定領域映像を表す図である。また、図11(a)では、図10に示されている全天球画像が、三次元の立体球CSで表されている。このように生成された全天球画像CEが、立体球CSであるとすると、図11に示されているように、仮想カメラICが全天球画像CEの内部に位置している。全天球画像CEにおける所定領域Tは、仮想カメラICの撮像領域であり、全天球画像CEを含む三次元の仮想空間における仮想カメラICの撮像方向と画角を示す所定領域情報によって特定される。また、所定領域Tのズームは、仮想カメラICを全天球画像CEに近づいたり、遠ざけたりすることで表現することもできる。所定領域映像Qは、全天球画像CEにおける所定領域Tの画像である。したがって、所定領域Tは画角αと、仮想カメラICから全天球画像CEまでの距離fにより特定できる(図12参照)。 10 is a diagram showing the positions of the virtual camera and the predetermined area when the omnidirectional image is a three-dimensional sphere. The virtual camera IC corresponds to the position of the viewpoint of the operator who views the omnidirectional image CE displayed as a three-dimensional sphere. FIG. 11(a) is a three-dimensional perspective view of FIG. 10, and FIG. 11(b) is a diagram showing a predetermined area image when displayed on a display. In FIG. 11(a), the omnidirectional image shown in FIG. 10 is represented by a three-dimensional sphere CS. If the omnidirectional image CE generated in this way is a sphere CS, as shown in FIG. 11, the virtual camera IC is located inside the omnidirectional image CE. The predetermined area T in the omnidirectional image CE is the imaging area of the virtual camera IC, and is specified by the predetermined area information indicating the imaging direction and the angle of view of the virtual camera IC in the three-dimensional virtual space including the omnidirectional image CE. The zoom of the predetermined area T can also be expressed by moving the virtual camera IC closer to or farther away from the omnidirectional image CE. The predetermined area image Q is an image of a predetermined area T in the omnidirectional image CE. Therefore, the predetermined area T can be specified by the angle of view α and the distance f from the virtual camera IC to the omnidirectional image CE (see FIG. 12).

図11(a)に示されている所定領域映像Qは、図11(b)に示されているように、所定のディスプレイに、仮想カメラICの撮像領域の画像として表示される。図11(b)に示されている画像は、初期設定(デフォルト)された所定領域情報によって 表された所定領域映像である。以下では、仮想カメラICの撮像方向(ea、aa)と画角(α)を用いて説明する。なお、所定領域Tは、画角αと距離fではなく、所定領域Tである仮想カメラICの撮像領域(X、Y、Z)によって示してもよい。 The predetermined area image Q shown in FIG. 11(a) is displayed on a predetermined display as an image of the imaging area of the virtual camera IC, as shown in FIG. 11(b). The image shown in FIG. 11(b) is a predetermined area image represented by the initial (default) predetermined area information. In the following, the imaging direction (ea, aa) and angle of view (α) of the virtual camera IC are used for explanation. Note that the predetermined area T may be represented by the imaging area (X, Y, Z) of the virtual camera IC, which is the predetermined area T, instead of the angle of view α and distance f.

また、図11(a)の状態から、図11(c)に示されているように、仮想カメラICの仮想的な視点が右側(図面に向かって左側)に移動(「変更」ともいう)されると、これに応じて全天球画像CEにおける所定領域Tが所定領域T'に移動されるため、所定のディスプレイに表示される所定領域画像Qが所定領域画像Q'に変更される。これにより、送信先の教師端末5及び生徒端末9の各ディスプレイ518には、図11(b)に示されている画像が、図11(d)に示されている画像に変更表示される。 In addition, when the virtual viewpoint of the virtual camera IC is moved (also called "changed") from the state shown in FIG. 11(a) to the right (left when looking at the drawing) as shown in FIG. 11(c), the predetermined area T in the omnidirectional image CE is moved to the predetermined area T' accordingly, and the predetermined area image Q displayed on the predetermined display is changed to the predetermined area image Q'. As a result, the image shown in FIG. 11(b) is changed to the image shown in FIG. 11(d) and displayed on each display 518 of the destination teacher terminal 5 and student terminal 9.

次に、図12を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図12は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図12に示されているように、「ea」はelevation angle(仰角)、「aa」はazimuth angle(方位角)、「α」は画角(Angle)を示す。即ち、撮像方向(ea、aa)で示される仮想カメラICの注視点が、仮想カメラICの撮像領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。図12に示されているように、仮想カメラICの画角αによって表される所定領域Tの対角画角をαとした場合の中心点CPが、所定領域情報の(x、y)パラメータとなる。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図12では、一般的に以下の(式1)で示される三角関数が成り立つ。
(L/f)=tan(α/2)・・・(式1)
<車両装置のハードウェア構成>
図13は、車両装置のハードウェア構成図である。車両装置10は、例えば、CPU1001、ROM1002、RAM1003、外部機器接続I/F1019、近距離通信回路1020、近距離通信回路1020のアンテナ1020a、車輪駆動部1021、及び操舵部1022等を有する。
Next, the relationship between the predetermined area information and the image of the predetermined area T will be described with reference to FIG. 12. FIG. 12 is a diagram showing the relationship between the predetermined area information and the image of the predetermined area T. As shown in FIG. 12, "ea" indicates an elevation angle, "aa" indicates an azimuth angle, and "α" indicates an angle of view. That is, the posture of the virtual camera IC is changed so that the gaze point of the virtual camera IC indicated by the imaging direction (ea, aa) becomes the center point CP of the predetermined area T, which is the imaging area of the virtual camera IC. As shown in FIG. 12, the center point CP when the diagonal angle of view of the predetermined area T represented by the angle of view α of the virtual camera IC is α becomes the (x, y) parameter of the predetermined area information. f is the distance from the virtual camera IC to the center point CP. L is the distance between any vertex of the predetermined area T and the center point CP (2L is the diagonal line). In FIG. 12, the trigonometric function shown in the following (Equation 1) generally holds.
(L/f)=tan(α/2) (Equation 1)
<Hardware configuration of vehicle device>
13 is a diagram showing a hardware configuration of the vehicle device 10. The vehicle device 10 includes, for example, a CPU 1001, a ROM 1002, a RAM 1003, an external device connection I/F 1019, a short-range communication circuit 1020, an antenna 1020a of the short-range communication circuit 1020, a wheel drive unit 1021, and a steering unit 1022.

CPU1001は、ROM1002等に格納されたプログラムを実行することにより、車両装置10の各機能を実現する演算装置である。ROM1002は、車両装置10のプログ ラム等を記憶する不揮発性のメモリである。ROM1002は、例えば、フラッシュROM等の書き換え可能な不揮発性メモリであっても良い。RAM1003は、CPU1001のワークエリア等として用いられる揮発性のメモリである。 The CPU 1001 is a computing device that realizes each function of the vehicle device 10 by executing programs stored in the ROM 1002 or the like. The ROM 1002 is a non-volatile memory that stores the programs of the vehicle device 10, etc. The ROM 1002 may be, for example, a rewritable non-volatile memory such as a flash ROM. The RAM 1003 is a volatile memory that is used as a work area for the CPU 1001, etc.

外部機器接続I/F1019は、ロボット端末7等と有線接続し、通信を行うための有線通信インタフェースである。 The external device connection I/F 1019 is a wired communication interface for connecting to and communicating with a robot terminal 7, etc.

近距離通信回路1020は、例えば、ロボット端末7等と同じ無線通信方式により無線通信を行うための無線通信インタフェースである。 The short-range communication circuit 1020 is, for example, a wireless communication interface for performing wireless communication using the same wireless communication method as the robot terminal 7, etc.

車輪駆動部1021は、車両装置10を移動させるための車輪を駆動させる駆動装置の一例である。車輪駆動部1021には、例えば、モータ等が含まれる。 The wheel drive unit 1021 is an example of a drive device that drives wheels to move the vehicle device 10. The wheel drive unit 1021 includes, for example, a motor.

操舵部1022は、車輪駆動部1021によって移動する車両装置10の操舵を行う操舵装置の一例である。操舵部1022は、例えば、車輪の向きや傾きを変えるものであっても良いし、左右の車輪の回転数や速度等を制御することにより、車両装置10(ロボットR)の向きを変えるもの等であっても良い。 The steering unit 1022 is an example of a steering device that steers the vehicle device 10 that moves by the wheel drive unit 1021. The steering unit 1022 may, for example, change the direction or inclination of the wheels, or may change the direction of the vehicle device 10 (robot R) by controlling the number of rotations or speed of the left and right wheels.

〔通信システムの各機能構成〕
続いて、図14を用いて、通信システム1の各機能構成を説明する。図14は、通信システム1の各機能構成図である。
[Functional configuration of the communication system]
Next, the functional configuration of the communication system 1 will be described with reference to Fig. 14. Fig. 14 is a diagram showing the functional configuration of the communication system 1.

<通信管理サーバ>
図14に示されているように、通信管理サーバ3は、送受信部31、認証部35、位置設定部36、画像作成部37、及び参加登録部38を有している。これら各部は、図3に示されている各構成要素のいずれかが、SSD304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。また、通信管理サーバ3は、図3に示されているROM302、RAM303、又はSSD304によって構築される記憶部40を有している。なお、記憶部40には、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)が記憶されている。また、記憶部40には、各生徒Sの実空間における座席の位置を示す座席位置情報が記憶されている。
<Communication management server>
As shown in FIG. 14, the communication management server 3 has a transmission/reception unit 31, an authentication unit 35, a position setting unit 36, an image creation unit 37, and a participation registration unit 38. Each of these units is a function or means realized by any of the components shown in FIG. 3 operating according to an instruction from the CPU 301 in accordance with a program deployed from the SSD 304 to the RAM 303. The communication management server 3 also has a storage unit 40 constructed by the ROM 302, RAM 303, or SSD 304 shown in FIG. 3. The storage unit 40 stores position correspondence information (matching information) indicating the correspondence between positions in the real space and positions in the virtual space. The storage unit 40 also stores seat position information indicating the seat position in the real space of each student S.

(位置情報管理テーブル)
記憶部40には、図15に示されているような位置情報管理テーブルが記憶されている。位置情報管理テーブルでは、人又はロボットの名称(人の場合は名前等)、ログインID、パスワード、アイコンID、アイコン画像、実空間位置情報、仮想空間位置情報、参加先、及び専用の音声通信の相手を示す各情報が関連付けて管理されている。なお、前半の情報(名称、ログインID、パスワード、アイコンID、及びアイコン画像)は、滅多に変更されない情報であり、後半の情報(実空間位置情報、仮想空間位置情報、参加先、及び専用の音声通信の相手)は、実空間の教室での状況及び遠隔授業に参加している生徒Sの操作により変更される可能性が高い情報である。なお、アイコン画像は、模式的に示しているに過ぎず、実際にはアイコンのデータ又はアイコンが記憶されている記憶部40におけるURL等が管理される。また、アイコンは、所定の人に関するものだけでなく、この同じ所定の人が使用する通信端末(教師端末5、生徒端末9等)に関するものと言うこともできる。
(Location information management table)
The storage unit 40 stores a location information management table as shown in FIG. 15. In the location information management table, each piece of information indicating the name of a person or robot (for a person, the name, etc.), login ID, password, icon ID, icon image, real space position information, virtual space position information, participation destination, and dedicated voice communication partner is managed in association with each other. Note that the first half of the information (name, login ID, password, icon ID, and icon image) is information that is rarely changed, and the second half of the information (real space position information, virtual space position information, participation destination, and dedicated voice communication partner) is information that is likely to be changed depending on the situation in the classroom in the real space and the operation of the student S participating in the remote class. Note that the icon image is merely shown diagrammatically, and actually, the icon data or the URL in the storage unit 40 in which the icon is stored, etc. are managed. It can also be said that the icon is not only related to a specific person, but also related to the communication terminal (teacher terminal 5, student terminal 9, etc.) used by the same specific person.

また、「参加先」は、例えば、図20において、教師T1のアイコンt1、各生徒Sのアイコンが関連付けられたロボットR1(ここでは、ロボットR1のアイコンID)を特定するための情報である。「専用の音声通信相手」は、教師Tが他の生徒には音声を聞こえない状態で音声通信する場合の相手先(ここでは、アイコンID)を特定するための情報である。 "Participation destination" is information for identifying, for example, the icon t1 of teacher T1 and the robot R1 (here, the icon ID of robot R1) associated with the icon of each student S in FIG. 20. "Exclusive voice communication partner" is information for identifying the partner (here, the icon ID) with which teacher T communicates by voice when the voice cannot be heard by other students.

(各機能構成)
送受信部31は、他の端末(装置)とデータ通信を行う。
(Functional configuration)
The transmitting/receiving unit 31 performs data communication with other terminals (devices).

認証部35は、他の端末(装置)のログイン認証等を行う。 The authentication unit 35 performs login authentication for other terminals (devices), etc.

位置設定部36は、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)に基づいて、図15の「仮想空間位置情報」フィールドに、実空間端末位置情報に対応する仮想空間上の位置を示す仮想空間端末(装置)位置情報を記憶して設定する等の処理を行う。また、位置設定部36は、逆に、位置対応情報に基づいて、「実空間位置情報」フィールドに、仮想空間端末(装置)位置情報に対応する実空間上の位置を示す実空間位置情報を記憶して設定する等の処理を行う。 The position setting unit 36 performs processing such as storing and setting, in the "virtual space position information" field of FIG. 15, virtual space terminal (device) position information indicating a position in virtual space corresponding to the real space terminal position information, based on position correspondence information (matching information) indicating the correspondence relationship between positions in real space and positions in virtual space. Conversely, the position setting unit 36 performs processing such as storing and setting, in the "real space position information" field, real space position information indicating a position in real space corresponding to the virtual space terminal (device) position information, based on the position correspondence information.

画像作成部37は、後述の図18の出席登録画像、及び図20等の仮想空間画像を作成する。 The image creation unit 37 creates the attendance registration image shown in FIG. 18 and virtual space images such as FIG. 20, which will be described later.

参加登録部38は、仮想空間の遠隔授業へ、教師T(又は教師Tの通信端末)及び遠隔の生徒S(生徒Sの通信端末)を参加させる登録を行う。 The participation registration unit 38 registers teacher T (or teacher T's communication terminal) and remote student S (student S's communication terminal) to participate in a remote lesson in a virtual space.

なお、通信管理サーバ3は、複数のサーバによって構築されていてもよい。この場合、位置情報管理テーブルの各フィールドは、各サーバの役割に応じて分割して記憶される。 The communication management server 3 may be constructed from multiple servers. In this case, each field of the location information management table is divided and stored according to the role of each server.

<教師端末>
図14に示されているように、教師端末5は、通信部50、送受信部51、受付部52、位置取得部53、及び表示制御部54を有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Teacher's terminal>
14, the teacher terminal 5 has a communication unit 50, a transmission/reception unit 51, a reception unit 52, a position acquisition unit 53, and a display control unit 54. Each of these units is a function or means realized by any of the components shown in FIG. 3 operating in response to an instruction from the CPU 501 in accordance with a program loaded from the EEPROM 504 onto the RAM 503.

通信部50は、近距離通信回路520の処理等により、マイク付きイヤホン6との通信を行う。 The communication unit 50 communicates with the microphone-equipped earphones 6 through processing by the short-range communication circuit 520, etc.

送受信部51は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。 The transmitter/receiver unit 51 communicates data with other terminals (devices) via the communication network 100.

受付部52は、人(教師T等)の操作を受け付ける。 The reception unit 52 receives operations from a person (such as teacher T).

位置取得部53は、GPS受信部511等の処理により、屋外又は屋内の位置を示す位置情報を取得する。 The location acquisition unit 53 acquires location information indicating an outdoor or indoor location through processing by the GPS receiving unit 511, etc.

表示制御部54は、教師端末5のディスプレイ518に対して、各種画像を表示させる。 The display control unit 54 displays various images on the display 518 of the teacher terminal 5.

<ロボット端末>
図14に示されているように、ロボットR(ロボット端末7)は、送受信部71、受付部72、位置取得部73、表示制御部74、及び移動制御部78を有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Robot terminal>
14, the robot R (robot terminal 7) has a transmission/reception unit 71, a reception unit 72, a position acquisition unit 73, a display control unit 74, and a movement control unit 78. Each of these units is a function or means realized by any of the components shown in FIG. 3 operating in response to an instruction from the CPU 501 in accordance with the program loaded from the EEPROM 504 onto the RAM 503.

送受信部71は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。 The transmitter/receiver unit 71 communicates data with other terminals (devices) via the communication network 100.

受付部72は、人(教師T等)の操作を受け付ける。 The reception unit 72 receives operations from a person (such as teacher T).

位置取得部73は、GPS受信部511等の処理により、屋外又は屋内の位置を示す位置情報を取得する。 The location acquisition unit 73 acquires location information indicating an outdoor or indoor location through processing by the GPS receiving unit 511, etc.

表示制御部74は、ロボット端末7のディスプレイ518に対して、各種画像を表示させる。 The display control unit 74 displays various images on the display 518 of the robot terminal 7.

移動制御部78は、通信管理サーバ3からの指示により、車両装置10を駆動させてロボットRを移動するための制御を行う。 The movement control unit 78 performs control to drive the vehicle device 10 and move the robot R in response to instructions from the communication management server 3.

<生徒端末>
図14に示されているように、生徒端末9は、送受信部91、受付部92、及び表示制御部94有している。これら各部は、図3に示されている各構成要素のいずれかが、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Student device>
14, the student terminal 9 has a transmission/reception unit 91, a reception unit 92, and a display control unit 94. Each of these units is a function or means realized by any of the components shown in FIG. 3 operating in response to an instruction from the CPU 501 in accordance with a program loaded from the EEPROM 504 onto the RAM 503.

送受信部71は、通信ネットワーク100を介して、他の端末(装置)とデータ通信を行う。 The transmitter/receiver unit 71 communicates data with other terminals (devices) via the communication network 100.

受付部72は、人(生徒S等)の操作を受け付ける。 The reception unit 72 receives operations from people (such as student S).

表示制御部74は、生徒端末9のディスプレイ518に対して、各種画像を表示させる。 The display control unit 74 displays various images on the display 518 of the student terminal 9.

〔通信システムの処理又は動作〕
続いて、図16乃至図25を用いて、通信システムの処理又は動作について説明する。
[Communication system processing or operation]
Next, the processing or operation of the communication system will be described with reference to FIGS.

<ログイン処理>
まずは、図16を用いて、各端末及びロボットのログイン処理を説明する。図16は、各端末及びロボットのログイン処理を示したシーケンス図である。なお、ロボットRの場合、実際にはロボット端末7がログインを行う。また、ここでは、マイク付きイヤホン6a、教師端末5a、ロボットR1(ロボット端末7a)、通信管理サーバ3、及び生徒端末9fの処理について説明する。
<Login process>
First, the login process of each terminal and robot will be described with reference to Fig. 16. Fig. 16 is a sequence diagram showing the login process of each terminal and robot. In the case of robot R, the robot terminal 7 actually performs the login. Also, the processes of the microphone-equipped earphone 6a, the teacher terminal 5a, the robot R1 (robot terminal 7a), the communication management server 3, and the student terminal 9f will be described.

S11:ロボットR1の受付部72は教師T1からログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部71が通信管理サーバ3に対して、映像音声通信へのログイン要求を送信する。また、このログイン要求には、ロボットR1のログインID及びパスワード等が含まれている。更に、ログイン要求には、ロボットR1の実空間上(ここでは、教室内)の位置を示す実空間装置位置情報も含まれている。ロボットR1の実空間装置位置情報は、ロボットR1の位置取得部73によって取得されたロボットR1の実空間内の位置を示す情報である。これにより、通信管理サーバ3の送受信部31は、ロボットR1からのログイン要求を受信する。 S11: The reception unit 72 of the robot R1 receives a login operation (such as input of a login ID and password) from the teacher T1, and the transmission/reception unit 71 sends a login request for video and audio communication to the communication management server 3. This login request also includes the login ID and password of the robot R1. Furthermore, the login request also includes real-space device position information indicating the position of the robot R1 in real space (here, in the classroom). The real-space device position information of the robot R1 is information indicating the position of the robot R1 in real space acquired by the position acquisition unit 73 of the robot R1. As a result, the transmission/reception unit 31 of the communication management server 3 receives the login request from the robot R1.

S12:通信管理サーバ3では、認証部35が、送受信部31によって処理S11で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。ログイン認証が成功した場合、位置設定部36は、この認証に用いたログインID及びパスワードを含むレコードの「実空間位置情報」フィールドに、処理S11で受信された実空間装置位置情報を記憶する。なお、後述の処理S51が開始される前であれば、実空間装置位置情報の送受信のタイミングは、処理S11に限らずいつでもよい。認証結果は、ロボット端末7aに返信される。 S12: In the communication management server 3, the authentication unit 35 performs login authentication based on whether the set of login ID and password received by the transmission/reception unit 31 in process S11 matches the set of login ID and password managed in the position information management table. If the login authentication is successful, the position setting unit 36 stores the real space device position information received in process S11 in the "real space position information" field of the record that includes the login ID and password used for this authentication. Note that the timing of transmission and reception of the real space device position information is not limited to process S11 and can be any time before the start of process S51 described below. The authentication result is returned to the robot terminal 7a.

S13:ログインの前に、マイク付きイヤホン6aと教師端末a5との間でペアリングを行うことで、マイク付きイヤホン6aを教師端末5aと近距離無線接続する。 S13: Before logging in, pair the microphone-equipped earphones 6a with the teacher terminal a5 to establish a short-range wireless connection between the microphone-equipped earphones 6a and the teacher terminal 5a.

S14:教師端末5aの受付部52は教師T1からログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部51が通信管理サーバ3に対して、仮想空間及び音声通信へのログイン要求を送信する。また、このログイン要求には、教師T1のログインID及びパスワード等が含まれている。更に、ログイン要求には、教師端末5aの実空間上の位置を示す実空間端末位置情報も含まれている。教師端末5aの実空間端末位置情報は、教師端末5aの位置取得部53によって取得された教師端末5aの実空間内(ここでは、教室内)の位置を示す情報である。これにより、通信管理サーバ3の送受信部31は、教師端末5aからのログイン要求を受信する。なお、教師端末5aが移動する度に、教師端末5aから通信管理サーバ3に移動後の実空間端末位置情報が送信される。 S14: The reception unit 52 of the teacher terminal 5a receives a login operation (such as input of a login ID and password) from the teacher T1, and the transmission/reception unit 51 transmits a login request for the virtual space and voice communication to the communication management server 3. This login request also includes the login ID and password of the teacher T1. The login request also includes real-space terminal position information indicating the position of the teacher terminal 5a in the real space. The real-space terminal position information of the teacher terminal 5a is information indicating the position of the teacher terminal 5a in the real space (here, in the classroom) acquired by the position acquisition unit 53 of the teacher terminal 5a. As a result, the transmission/reception unit 31 of the communication management server 3 receives the login request from the teacher terminal 5a. Each time the teacher terminal 5a moves, the real-space terminal position information after the movement is transmitted from the teacher terminal 5a to the communication management server 3.

S15:通信管理サーバ3では、認証部35が、送受信部31によって処理S12で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。ログイン認証が成功した場合、位置設定部36は、この認証に用いたログインID及びパスワードを含むレコードの「実空間位置情報」フィールドに、処理S12で受信された実空間位置情報を記憶する。なお、後述の処理S51が開始される前であれば、実空間端末位置情報の送受信のタイミングは、処理S12に限らずいつでもよい。認証結果は、教師端末5aに返信される。 S15: In the communication management server 3, the authentication unit 35 performs login authentication based on whether the login ID and password pair received by the transmission/reception unit 31 in process S12 matches the login ID and password pair managed in the location information management table. If the login authentication is successful, the location setting unit 36 stores the real-space location information received in process S12 in the "real-space location information" field of the record that includes the login ID and password used for this authentication. Note that the timing of transmission and reception of real-space terminal location information is not limited to process S12 and can be any time before process S51, which will be described later, is started. The authentication result is returned to the teacher terminal 5a.

S16:参加登録部38は、処理S14で受信されたログインIDで特定されるレコードの「参加先」フィールドに、処理S12で登録されたロボットR1のログインID「L31」を登録することで、教師T1はロボットR1が存在する教室に対する遠隔授業に参加する。これにより、教師T1は、実空間の教室の授業に出席すると共に、仮想空間の遠隔授業にも参加する。 S16: The participation registration unit 38 registers the login ID "L31" of the robot R1 registered in process S12 in the "Participation destination" field of the record identified by the login ID received in process S14, and teacher T1 thereby participates in the remote lesson in the classroom in which robot R1 is present. As a result, teacher T1 not only attends the classroom lesson in the real world, but also participates in the remote lesson in the virtual world.

S17:生徒端末9fの受付部92は生徒S6からログイン操作(ログインID及びパスワードの入力等)を受け付け、送受信部91が通信管理サーバ3に対して、通信管理サーバ3のサービスへのログイン要求を送信する。また、このログイン要求には、生徒端末9fのログインID及びパスワード等が含まれている。これにより、通信管理サーバ3の送受信部31は、生徒端末9fからのログイン要求を受信する。 S17: The reception unit 92 of the student terminal 9f receives a login operation (such as input of a login ID and password) from the student S6, and the transmission/reception unit 91 transmits a login request for the communication management server 3's services to the communication management server 3. This login request also includes the login ID and password of the student terminal 9f. As a result, the transmission/reception unit 31 of the communication management server 3 receives the login request from the student terminal 9f.

S18:通信管理サーバ3では、認証部35が、送受信部31によって処理S17で受信されたログインID及びパスワードの組が、位置情報管理テーブルで管理されているログインID及びパスワードの組と一致するか否かによりログイン認証を行う。ログイン認証が成功した場合、位置設定部36は、この認証に用いたログインID及びパスワードを含むレコードの「仮想空間位置情報」フィールドに、予め定められている仮想空間位置情報を登録する。この仮想空間位置情報が予め定められている例として、教室内の生徒の机の位置が固定されているために対応する仮想空間の位置が固定されている場合、授業の前に各生徒Sが自分の席を登録している場合等が考えられる。認証結果は、生徒端末9fに返信される。なお、以降は、上記全てのログイン認証が成功した場合について説明を続ける。 S18: In the communication management server 3, the authentication unit 35 performs login authentication based on whether the login ID and password pair received by the transmission/reception unit 31 in step S17 matches the login ID and password pair managed in the location information management table. If the login authentication is successful, the location setting unit 36 registers predetermined virtual space location information in the "virtual space location information" field of the record containing the login ID and password used for this authentication. Examples of this virtual space location information being predetermined include when the position of the student's desk in the classroom is fixed and therefore the corresponding virtual space position is fixed, or when each student S registers their own seat before class. The authentication result is returned to the student terminal 9f. In the following, the explanation will be continued for the case where all of the above login authentications are successful.

S19:参加登録部38は、処理S17で受信されたログインIDで特定されるレコードの「参加先」フィールドに、処理S12で登録されたロボットR1のログインID「L31」を登録することで、ロボットR1が存在する教室に対する遠隔授業に参加する。なお、図15では、生徒S6だけでなく、生徒端末9eを使用する生徒S5も、ロボットR1が存在する教室に対する遠隔授業に参加する場合が示されている。 S19: The participation registration unit 38 participates in the remote lesson in the classroom in which the robot R1 is located by registering the login ID "L31" of the robot R1 registered in process S12 in the "Participation destination" field of the record identified by the login ID received in process S17. Note that FIG. 15 shows a case in which not only the student S6 but also the student S5 using the student terminal 9e participates in the remote lesson in the classroom in which the robot R1 is located.

<音声通信、映像音声通信、及び出席登録>
続いて、図17及び図18を用いて、音声通信及び映像音声通信の開始処理、並びに出席登録の処理を説明する。図17は、音声通信及び映像音声通信の開始処理、並びに出席登録の処理を示すシーケンスである。
<Audio communication, audio-video communication, and attendance registration>
Next, the process of starting voice communication and audio-video communication and the process of registering attendance will be described with reference to Fig. 17 and Fig. 18. Fig. 17 shows a sequence diagram of the process of starting voice communication and audio-video communication and the process of registering attendance.

S31:通信管理サーバ3の送受信部31は、位置情報管理テーブルを参照し、「参加先」フィールドで、同じロボットR1のログインID「L31」が管理されている教師端末5(ここでは教師端末5a)及び生徒端末9(ここでは生徒端末9e,9f)との間で、音声の通信セッションを確立させる。また、マイク付きイヤホン6と教師端末5aとの間は、上述の処理S13により近距離無線接続が行われているため、マイク付きイヤホン6a、教師端末5a、及び生徒端末9eの間では、音声通信を行うことができる。 S31: The transmitter/receiver 31 of the communication management server 3 references the location information management table and establishes an audio communication session between the teacher terminal 5 (teacher terminal 5a in this case) and the student terminal 9 (student terminals 9e and 9f in this case) in which the login ID "L31" of the same robot R1 is managed in the "Participation Destination" field. In addition, because a short-range wireless connection has been established between the microphone-equipped earphone 6 and the teacher terminal 5a by the above-mentioned process S13, audio communication can be performed between the microphone-equipped earphone 6a, the teacher terminal 5a, and the student terminal 9e.

S32:通信管理サーバ3の送受信部31は、位置情報管理テーブルを参照し、「参加先」フィールドで、ロボットR1のログインID「L31」が管理されている生徒端末9(ここでは生徒端末9e,9f)と、当該ロボットR1との間で、映像及び音声の通信セッションを確立させる。これにより、ロボットR1と生徒端末9e,9fは、通信管理サーバ3を介して、相互に映像音声通信を行うことができる。例えば、ロボットR1が撮影して得た教室の映像及び音声のデータを送信すると、生徒端末9e,9fのディスプレイ518上に教室の映像が表示され、教室内の音声が出力される。一方、生徒端末9e,9fが撮影して得た生徒S5,S6の顔の映像のデータ及び生徒S5,S6の音声のデータを送信すると、ロボットR1ではロボット端末7aのディスプレイ518上に生徒S5,S6の顔の映像が表示され、生徒S5,S6の音声が出力される(図23参照)。 S32: The transmission/reception unit 31 of the communication management server 3 refers to the location information management table, and establishes a video and audio communication session between the robot R1 and the student terminal 9 (here, student terminals 9e and 9f) in which the login ID "L31" of the robot R1 is managed in the "Participation destination" field. This allows the robot R1 and the student terminals 9e and 9f to perform video and audio communication with each other via the communication management server 3. For example, when the robot R1 transmits video and audio data of a classroom, the video of the classroom is displayed on the display 518 of the student terminals 9e and 9f, and audio from within the classroom is output. On the other hand, when the student terminals 9e and 9f transmit data of the video of the faces of students S5 and S6 and the audio data of students S5 and S6, the robot R1 displays the video of the faces of students S5 and S6 on the display 518 of the robot terminal 7a and outputs the audio of students S5 and S6 (see FIG. 23).

S33:教師端末5aの受付部52は、教師T1から出席登録画像の要求を受け付ける。そして、送受信部51は通信管理サーバ3に対して出席登録画像の要求を送信する。これにより、通信管理サーバ3の送受信部31は出席登録画像の要求を受信する。 S33: The reception unit 52 of the teacher terminal 5a receives a request for an attendance registration image from teacher T1. Then, the transmission/reception unit 51 transmits the request for the attendance registration image to the communication management server 3. As a result, the transmission/reception unit 31 of the communication management server 3 receives the request for the attendance registration image.

S34:画像作成部37は、記憶部40に記憶されている座席位置情報を読み出して、出席登録画像を作成する。 S34: The image creation unit 37 reads the seat position information stored in the memory unit 40 and creates an attendance registration image.

S35:送受信部31は、教師端末5aに対して、画像作成部37によって作成された出席登録画像のデータを送信する。これにより、教師端末5aの送受信部51は、出席登録画像のデータを受信する。 S35: The transmitting/receiving unit 31 transmits data of the attendance registration image created by the image creation unit 37 to the teacher terminal 5a. As a result, the transmitting/receiving unit 51 of the teacher terminal 5a receives the data of the attendance registration image.

S36:教師端末5aでは、図18に示すように、表示制御部54が教師端末5aのディスプレイ518上に出席登録画像が示された画面110を表示させる。図18は、生徒の出席登録画像を示す図である。図18には、教室のレイアウトが表示され、予め定められた生徒の机の位置及び生徒名が示されたアイコンα1~α6が表示されている。また、出席登録画像の右下部には、出席を登録するための「登録」ボタン119が表示されている。 S36: As shown in FIG. 18, in the teacher terminal 5a, the display control unit 54 causes a screen 110 showing an attendance registration image to be displayed on the display 518 of the teacher terminal 5a. FIG. 18 is a diagram showing a student attendance registration image. FIG. 18 shows the layout of the classroom, with icons α1 to α6 showing the predetermined positions of student desks and student names. In addition, a "Register" button 119 for registering attendance is displayed in the lower right corner of the attendance registration image.

ここで、受付部52が、教師T1からカーソルc1により各アイコンを選択することで、実空間の教室への出席の結果を受け付ける。図18では、実空間の教室に、生徒S1~S4が出席し、生徒S5,S6が出席していない状態が示されている。そして、受付部52が、教師T1から「登録」ボタンの押下を受け付けると、送受信部51が通信管理サーバ3に対して、教師T1から受け付けた出席を示す出席情報を送信する。この出席情報には、出席した生徒を特定する生徒特定情報が含まれている。生徒特定情報は、生徒名、生徒のログインID、又は生徒のアイコンのアイコンIDである。これにより、通信管理サーバ3の送受信部31は、出席情報を受信する。 Here, the reception unit 52 receives the results of attendance at the classroom in real space by teacher T1 selecting each icon with cursor c1. FIG. 18 shows a state in which students S1 to S4 are attending the classroom in real space, while students S5 and S6 are not. Then, when the reception unit 52 receives teacher T1 pressing the "Register" button, the transmission/reception unit 51 transmits attendance information indicating the attendance received from teacher T1 to the communication management server 3. This attendance information includes student identification information that identifies the student who attended. The student identification information is the student's name, the student's login ID, or the icon ID of the student's icon. As a result, the transmission/reception unit 31 of the communication management server 3 receives the attendance information.

S37:通信管理サーバ3では、位置設定部36が、位置情報管理テーブルにおいて、生徒特定情報で特定されるレコードの「仮想空間位置情報」フィールドに、予め定められている仮想空間位置情報を登録する。この仮想空間位置情報が予め定められている例として、教室内の生徒の机の位置が固定されている場合、授業の前に各生徒が自分の席を登録している場合等が考えられる。 S37: In the communication management server 3, the position setting unit 36 registers predetermined virtual space position information in the "virtual space position information" field of the record in the position information management table that is identified by the student identification information. Examples of this virtual space position information being predetermined include when the positions of students' desks in a classroom are fixed, or when each student registers their own seat before class.

以上により、図2に示すように、生徒S1~S4は実空間の教室の授業に出席し、生徒S5,S6は仮想空間の遠隔授業に参加した状態になる。 As a result, as shown in Figure 2, students S1 to S4 are attending a classroom class in the real world, while students S5 and S6 are participating in a remote class in the virtual world.

<画像空間画像の表示>
続いて、図19乃至図23を用いて、画像空間画像の表示の処理を説明する。図19は、仮想空間画像の表示の処理を示すシーケンスである。
Display of Image Space Images
Next, the process of displaying an image space image will be described with reference to Fig. 19 to Fig. 23. Fig. 19 shows a sequence illustrating the process of displaying a virtual space image.

S51:通信管理サーバ3では、位置設定部36が、実空間上の位置と仮想空間上の位置との対応関係を示す位置対応情報(マッチング情報)に基づき、位置情報管理テーブルにおける教師T1のレコードの「仮想空間位置情報」フィールドに、「実空間位置情報」フィールドに記憶されている実空間端末位置情報に対応する仮想空間端末情報を記憶して設定する。同様に、位置設定部36が、位置対応情報(マッチング情報)に基づき、位置情報管理テーブルにおけるロボットR1のレコードの「仮想空間位置情報」フィールドに、「実空間位置情報」フィールドに記憶されている実空間端末位置情報に対応する仮想空間端末情報を記憶して設定する。これにより、教師T1及びロボットR1の実空間での移動は、仮想空間でのアイコンt1,r1の移動に反映される。更に、本実施形態では、ロボットR1のアイコンr1の仮想空間での移動は、実空間でのロボットR1の移動に反映される。 S51: In the communication management server 3, the position setting unit 36 stores and sets the virtual space terminal information corresponding to the real space terminal position information stored in the "real space position information" field in the "virtual space position information" field of the record of the teacher T1 in the position information management table based on the position correspondence information (matching information) indicating the correspondence between the position in the real space and the position in the virtual space. Similarly, the position setting unit 36 stores and sets the virtual space terminal information corresponding to the real space terminal position information stored in the "real space position information" field in the "virtual space position information" field of the record of the robot R1 in the position information management table based on the position correspondence information (matching information). As a result, the movements of the teacher T1 and the robot R1 in the real space are reflected in the movements of the icons t1 and r1 in the virtual space. Furthermore, in this embodiment, the movement of the icon r1 of the robot R1 in the virtual space is reflected in the movement of the robot R1 in the real space.

また、画像作成部37は、図20に示すように、実空間の教室を模式化したレイアウトマップm1に対して、座席位置情報、及び位置情報管理テーブルで管理されている仮想空間位置情報に基づき、この仮想空間位置情報に対応するアイコン画像をマッピングすることで、仮想空間画像を作成する。 In addition, as shown in FIG. 20, the image creation unit 37 creates a virtual space image by mapping icon images corresponding to the virtual space position information based on the seat position information and the virtual space position information managed in the position information management table onto a layout map m1 that is a schematic representation of a classroom in real space.

S52:送受信部31は、生徒端末9fに対して、画像作成部37によって作成された仮想空間画像のデータを送信する。これにより、生徒端末9fの送受信部91は、仮想空間画像のデータを受信する。 S52: The transmission/reception unit 31 transmits data of the virtual space image created by the image creation unit 37 to the student terminal 9f. As a result, the transmission/reception unit 91 of the student terminal 9f receives the data of the virtual space image.

S53:次に、生徒端末9fでは、表示制御部94がディスプレイ518上に図20に示すような仮想空間画像が示された画面120を表示させる。 S53: Next, on the student terminal 9f, the display control unit 94 causes the display 518 to display a screen 120 showing a virtual space image as shown in FIG. 20.

図20は、教師及びロボットの現在位置を示す各アイコン、各生徒の初期位置を示す各アイコン、並びにロボットからの映像を含む仮想空間画像を示す図である。図20に示すように、仮想空間画像には、実空間上の教室を模式化したレイアウトマップm1、教師T1のアイコンt1、ロボットR1のアイコンr1、各生徒S1~S6のアイコンs1~s6、及び各机D1~D6のアイコンd1~d6が示されている。ここでは、実空間上の現在位置の教師T1のアイコンt1、及び実空間上の現在位置のロボットRのアイコンr1が示されている。また、予め仮想空間上の位置が定められた各アイコンs1~s6,d1~d6が示されている。 Figure 20 shows a virtual space image including icons indicating the current positions of the teacher and robot, icons indicating the initial positions of each student, and video from the robot. As shown in Figure 20, the virtual space image shows a layout map m1 that simplifies a classroom in real space, an icon t1 of teacher T1, an icon r1 of robot R1, icons s1-s6 of each student S1-S6, and icons d1-d6 of each desk D1-D6. Shown here are the icon t1 of teacher T1 at its current position in real space, and the icon r1 of robot R at its current position in real space. Also shown are the icons s1-s6 and d1-d6, whose positions in virtual space have been determined in advance.

更に、画面120内の右側には、別画面(ポップアップ画面等)121として、処理32の映像音声通信によって、ロボットR1から送られて来た現在の実空間の教室の映像が示され、ロボットR1からの音声も出力されている。 Furthermore, on the right side of screen 120, a separate screen (such as a pop-up screen) 121 is displayed, which shows the current image of the classroom in real space sent from robot R1 by the audio-visual communication of process 32, and audio from robot R1 is also being output.

また、教師T1の教師端末5aと、生徒S5の生徒端末9e及び生徒S6の生徒端末9fは、処理S31の音声通信を行うことができる。そのため、教師T1はマイク付きイヤホン6aを用い、生徒S5,S6に対して実空間の教室の様子を説明することができ、生徒S5は生徒端末9eを用い、また生徒S6は生徒端末9fを用い、教師T1に対して実空間の授業に関する質問等を行うことができる。 In addition, teacher terminal 5a of teacher T1 and student terminal 9e of student S5 and student terminal 9f of student S6 can perform voice communication in process S31. Therefore, teacher T1 can use earphones with a microphone 6a to explain the classroom situation in real space to students S5 and S6, and student S5 can use student terminal 9e and student S6 can use student terminal 9f to ask teacher T1 questions about the lesson in real space.

なお、ロボットR1は、映像音声の通信により、教室から遠隔の生徒端末9e,9fに音声のデータを送信することができるが、ロボットR1の周囲の雑音や会話等を収音してしまう。これに対して、上述の映像音声通信を用いる場合、教師T1は、ロボットR1に対して話しかけないで、マイク付きイヤホン6を用いて話すため、生徒S5,S6には、教師T1の声をクリアに聞くことができる。 The robot R1 can transmit audio data from the classroom to the remote student terminals 9e, 9f through audiovisual communication, but this also picks up noise and conversations around the robot R1. In contrast, when using the above-mentioned audiovisual communication, the teacher T1 does not speak to the robot R1, but speaks through the microphone-equipped earphones 6, so that the students S5, S6 can hear the teacher T1's voice clearly.

S54:生徒端末9eでは、受付部92が生徒S6から、図21に示すようにカーソルc2を用いてアイコンr1を移動させる操作を受け付ける。そして、送受信部91は、通信管理サーバ3に対してアイコンr1の移動による変更後の仮想空間位置情報を送信する。この仮想空間位置情報には、ロボットR1のアイコンID「r31」が含まれている。これにより、通信管理サーバ3の送受信部31は、変更後の仮想空間位置情報を受信する。 S54: In the student terminal 9e, the reception unit 92 receives an operation from the student S6 to move the icon r1 using the cursor c2 as shown in FIG. 21. The transmission/reception unit 91 then transmits the changed virtual space position information resulting from the movement of the icon r1 to the communication management server 3. This virtual space position information includes the icon ID "r31" of the robot R1. As a result, the transmission/reception unit 31 of the communication management server 3 receives the changed virtual space position information.

なお、位置設定部36は、位置情報管理テーブルにおいて、処理S54で受信されたアイコンIDに対応する「仮想空間位置情報」フィールドに、変更後の仮想空間位置情報を上書きする。これにより、画像作成部37は、上書きされた変更後の仮想空間位置情報を用いて最新の仮想空間画像を作成する。更に、位置設定部36は、位置対応情報(マッチング情報)を用いて、同じレコードの「実空間位置情報」フィールドに対し、変更後の仮想空間位置情報に対応する変更後の実空間位置情報を上書きする。このように、処理S51~S54が繰り返されることで、生徒端末9eに表示される仮想空間画像が更新される。 The position setting unit 36 overwrites the changed virtual space position information in the "virtual space position information" field in the position information management table that corresponds to the icon ID received in process S54. As a result, the image creation unit 37 creates the latest virtual space image using the overwritten changed virtual space position information. Furthermore, the position setting unit 36 uses the position correspondence information (matching information) to overwrite the changed real space position information that corresponds to the changed virtual space position information in the "real space position information" field of the same record. In this way, processes S51 to S54 are repeated, and the virtual space image displayed on the student terminal 9e is updated.

S55:送受信部31は、ロボットR1に対して、処理S54で上書きされた変更後の実空間位置情報を送信する。これにより、ロボットR1の送受信部71は、変更後の実空間位置情報を受信する。 S55: The transmitter/receiver 31 transmits the changed real-space position information overwritten in step S54 to the robot R1. As a result, the transmitter/receiver 71 of the robot R1 receives the changed real-space position information.

S56:ロボットR1では、移動制御部78が処理S55によって受信された変更後の実空間位置情報に基づいて、この実空間位置情報で示される実空間の教室内の位置に移動するように、車両装置10に対して移動制御する。これにより、図22に示すように、実空間の教室内では、ロボットR1が、生徒S3の近くに移動する。例えば、遠隔授業に参加している生徒S6が、実空間の教室の授業に出席している生徒S3と話し合うような場合、図21に示すように、生徒S6が生徒端末9fの仮想空間画面上でロボットR1のアイコンr1を生徒S3のアイコンs3の近くに移動させる。これにより、図22に示すように、実空間の教室内のロボットRが生徒S3の近くまで移動するため、教室内の生徒S3と遠隔の生徒S6は、ロボットR1を介して話し合うことができる。この場合、図23に示すように、ロボットR1のロボット端末7aには、処理32の映像音声通信よって、遠隔の生徒S5,S6が映し出されているため、生徒S3は、実空間に近い感覚で、生徒S6と話し合うことができる。 S56: In the robot R1, the movement control unit 78 controls the movement of the vehicle device 10 based on the changed real-space position information received in process S55 so that the robot R1 moves to a position in the classroom in the real space indicated by the real-space position information. As a result, as shown in FIG. 22, in the classroom in the real space, the robot R1 moves to the vicinity of the student S3. For example, when a student S6 participating in a remote class wants to talk with a student S3 attending a class in the classroom in the real space, as shown in FIG. 21, the student S6 moves the icon r1 of the robot R1 to the vicinity of the icon s3 of the student S3 on the virtual space screen of the student terminal 9f. As a result, as shown in FIG. 22, the robot R in the classroom in the real space moves to the vicinity of the student S3, so that the student S3 in the classroom and the remote student S6 can talk through the robot R1. In this case, as shown in FIG. 23, the remote students S5 and S6 are displayed on the robot terminal 7a of the robot R1 by the video and audio communication of process 32, so that the student S3 can talk with the student S6 with a feeling close to the real space.

<専用の音声通信>
続いて、図24及び図25を用いて、専用の音声通信を行う処理を説明する。図24は、専用の音声通信を行う処理を示すシーケンス図である。図25は、専用の音声通信を行う相手のアイコンを選択した状態の仮想空間画像を示す図である。
<Dedicated voice communication>
Next, the process of performing dedicated voice communication will be described with reference to Fig. 24 and Fig. 25. Fig. 24 is a sequence diagram showing the process of performing dedicated voice communication. Fig. 25 is a diagram showing a virtual space image in a state where an icon of a party with which to perform dedicated voice communication is selected.

S71:生徒端末9aでは、受付部92が生徒S6から、図25に示すようにカーソルc2を用いて、教師T1のアイコンt1を選択する操作を受け付ける。そして、送受信部91は、通信管理サーバ3に対して、専用の音声セッションの確立要求として、アイコンt1の選択を示す情報を送信する。この情報には、選択した者である生徒S6のアイコンID「s26」及び選択された教師T1のアイコンt1のアイコンID「t11」が含まれている。これにより、通信管理サーバ3の送受信部31は、アイコンの選択を示す情報を受信する。 S71: In the student terminal 9a, the reception unit 92 receives an operation from the student S6 to select the icon t1 of the teacher T1 using the cursor c2 as shown in FIG. 25. The transmission/reception unit 91 then transmits information indicating the selection of the icon t1 to the communication management server 3 as a request to establish a dedicated voice session. This information includes the icon ID "s26" of the student S6 who made the selection and the icon ID "t11" of the icon t1 of the selected teacher T1. As a result, the transmission/reception unit 31 of the communication management server 3 receives the information indicating the selection of the icon.

S72:通信管理サーバ3の送受信部31は、位置情報管理テーブルのアイコンID「t11」のレコードの「専用の音声通信相手」フィールドにログインID「L26」を記憶して管理すると共に、位置情報管理テーブルのアイコンID「s26」のレコードの「専用の音声通信相手」フィールドにログインID「L11」を記憶して管理する。これにより、送受信部91は、専用の音声通信相手として相互に管理しているログインID「L11」が用いられている教師端末5aと、専用の音声通信相手として相互に管理しているログインID「L26」が用いられている生徒端末9fとの間で、専用の音声の通信セッションを確立させる。また、マイク付きイヤホン6aと教師端末5aとの間は、上述の処理S13により近距離無線接続が行われているため、マイク付きイヤホン6a、教師端末5a、及び生徒端末9fの間では、専用の音声通信を行うことができる。これにより、生徒S6は、他の生徒S5等に音声内容を聞かれない状態で、教師T1に相談したり、逆に、教師T1は、他の生徒S5に等に音声内容を聞かれない状態で、生徒S6に回答したりすることができる。 S72: The transmission/reception unit 31 of the communication management server 3 stores and manages the login ID "L26" in the "dedicated voice communication partner" field of the record of the icon ID "t11" in the location information management table, and stores and manages the login ID "L11" in the "dedicated voice communication partner" field of the record of the icon ID "s26" in the location information management table. As a result, the transmission/reception unit 91 establishes a dedicated voice communication session between the teacher terminal 5a, which uses the login ID "L11" that is mutually managed as a dedicated voice communication partner, and the student terminal 9f, which uses the login ID "L26" that is mutually managed as a dedicated voice communication partner. In addition, since the microphone-equipped earphone 6a and the teacher terminal 5a are connected by short-distance wireless connection by the above-mentioned process S13, dedicated voice communication can be performed between the microphone-equipped earphone 6a, the teacher terminal 5a, and the student terminal 9f. This allows student S6 to consult with teacher T1 without the other students S5 and others hearing the audio content, and conversely, teacher T1 can reply to student S6 without the other students S5 and others hearing the audio content.

なお、図25では、生徒S6は教師T1のアイコンt1を選択したが、これに限るものではない。例えば、生徒S6は遠隔の他の生徒S5のアイコンs5を選択して、生徒S5と専用の音声通信による話し合いを行ってもよい。 In FIG. 25, student S6 selects the icon t1 of teacher T1, but this is not limited to this. For example, student S6 may select the icon s5 of another remote student S5 and hold a discussion with student S5 via dedicated voice communication.

また、教師端末5及び生徒端末9のうち少なくとも一方は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)でもよい。ここで、図26を用いて、HMDのハードウェア構成を説明する。図26は、ヘッドマウントディスプレイのハードウェア構成図である。 In addition, at least one of the teacher terminal 5 and the student terminal 9 may be a head mounted display (HMD). Here, the hardware configuration of the HMD will be explained using FIG. 26. FIG. 26 is a hardware configuration diagram of a head mounted display.

図26に示すように、HMDは、コンピュータとして、図26に示されているように、CPU201、ROM202、RAM203、外部機器接続I/F205、ディスプレイ207、操作部208、メディアI/F209、バスライン210、スピーカ212、電子コンパス218、ジャイロセンサ219、加速度センサ220を備えている。 As shown in FIG. 26, the HMD is a computer that includes a CPU 201, a ROM 202, a RAM 203, an external device connection I/F 205, a display 207, an operation unit 208, a media I/F 209, a bus line 210, a speaker 212, an electronic compass 218, a gyro sensor 219, and an acceleration sensor 220.

これらのうち、CPU201は、HMD全体の動作を制御する。ROM202は、IPL等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。 Of these, the CPU 201 controls the operation of the entire HMD. The ROM 202 stores programs used to drive the CPU 201, such as the IPL. The RAM 203 is used as a work area for the CPU 201.

外部機器接続I/F205は、各種の外部機器を接続するためのインタフェースである。この場合の外部機器は、通信管理サーバ3、マイク付きイヤホン6等である。 The external device connection I/F 205 is an interface for connecting various external devices. In this case, the external devices are the communication management server 3, the earphones with microphone 6, etc.

ディスプレイ207は、各種画像を表示する液晶や有機EL(Electro Luminescence)などの表示部の一種である。 The display 207 is a type of display unit, such as a liquid crystal or organic EL (Electro Luminescence) display, that displays various images.

操作部208は、種々の操作ボタンや電源スイッチ、物理ボタン、ユーザの視線を検知して操作する視線操作回路等の各種指示の選択や実行、処理対象の選択、カーソルの移動等を行うための入力手段である。 The operation unit 208 is an input means for selecting and executing various instructions, selecting the processing target, moving the cursor, etc., such as various operation buttons, a power switch, physical buttons, and an eye gaze operation circuit that detects and operates the user's gaze.

メディアI/F209は、フラッシュメモリ等の記録メディア209mに対するデータの読み出し又は書き込み(記憶)を制御する。記録メディア209mには、DVDやBlu-ray Disc(登録商標)等も含まれる。 The media I/F 209 controls the reading and writing (storing) of data to a recording medium 209m such as a flash memory. The recording medium 209m includes DVDs and Blu-ray Discs (registered trademarks).

スピーカ212は、電気信号を物理振動に変えて音楽や音声などの音を生み出す回路である。 Speaker 212 is a circuit that converts electrical signals into physical vibrations to produce sounds such as music and voice.

電子コンパス218は、地球の磁気からHMDの方位を算出し、方位情報を出力する。 The electronic compass 218 calculates the direction of the HMD from the Earth's magnetic field and outputs the direction information.

ジャイロセンサ219は、HMDの移動に伴う角度の変化(roll角、Pitch角、Yaw角)を検出するセンサである。 The gyro sensor 219 is a sensor that detects changes in angle (roll angle, pitch angle, yaw angle) that accompany the movement of the HMD.

加速度センサ220は、三軸方向の加速度を検出するセンサである。 The acceleration sensor 220 is a sensor that detects acceleration in three axial directions.

バスライン210は、CPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The bus line 210 is an address bus, a data bus, etc., for electrically connecting each component such as the CPU 201.

また、この場合、教師端末5及び生徒端末9の各機能構成(図14参照)は、RAM253に記憶されたプログラムに従ったCPU201からの命令によって実現される。 In this case, each functional configuration of the teacher terminal 5 and the student terminal 9 (see FIG. 14) is realized by instructions from the CPU 201 according to the program stored in the RAM 253.

なお、この場合の教師端末5の位置取得部53は、電子コンパス218、ジャイロセンサ219、及び加速度センサ220の処理により、屋内の位置を示す位置情報を取得する。また、位置取得部53が屋外の位置を示す位置情報を取得するために、HMDは図4のGPS受信部511と同様の構成を有していてもよい。更に、教師端末5の通信部50は、外部機器接続I/F205の処理等により、マイク付きイヤホン6との無線通信を行う。 In this case, the position acquisition unit 53 of the teacher terminal 5 acquires position information indicating an indoor position through processing of the electronic compass 218, the gyro sensor 219, and the acceleration sensor 220. In addition, in order for the position acquisition unit 53 to acquire position information indicating an outdoor position, the HMD may have a configuration similar to that of the GPS receiver unit 511 in FIG. 4. Furthermore, the communication unit 50 of the teacher terminal 5 performs wireless communication with the microphone-equipped earphones 6 through processing of the external device connection I/F 205, etc.

〔実施形態の主な効果〕
以上説明したように、本実施形態によれば、図21に示すように、遠隔授業に参加している生徒S6が、仮想空間画像上でロボットR1のアイコンr1を移動させることで、実空間のロボットR1が図2に示す位置から、アイコンr1の移動に応じた図22の位置に移動する。これにより、遠隔授業等のイベントに参加する生徒S6が現場である教室の生徒S3とコミュニケーションを取り易くすることができる。
[Main Effects of the Embodiments]
As described above, according to this embodiment, as shown in Fig. 21, when a student S6 participating in a remote class moves the icon r1 of the robot R1 on the virtual space image, the robot R1 in the real space moves from the position shown in Fig. 2 to the position in Fig. 22 corresponding to the movement of the icon r1. This makes it easier for the student S6 participating in an event such as a remote class to communicate with the student S3 in the classroom where the event is held.

更に、上述のように、教師Tは、ロボットRに対して話しかけないで、マイク付きイヤホン6を用いて、遠隔の生徒Sと会話をすることができるため、遠隔の生徒SはロボットRの周囲の雑音や会話等が混じった音声を聞くのではなく、生徒Sのクリアな音声を聞くことができる。 Furthermore, as described above, the teacher T can talk to the remote student S using the microphone-equipped earphones 6 without speaking directly to the robot R, so that the remote student S can hear the clear voice of the student S, rather than hearing the voice of the robot R mixed with surrounding noise and conversations, etc.

また、図25に示すように、遠隔授業等のイベントに参加している生徒S6が、直接話したい相手(ここでは、教師T1)のアイコンt1を選択することで、処理S31による音声の通信セッションとは別である専用の音声の通信セッションが確立するため(処理S72)、他の生徒S5等には聞かれたくない内容について教師T1と話すことができる。 Also, as shown in FIG. 25, when a student S6 participating in an event such as a distance learning class selects the icon t1 of the person with whom he or she wants to talk directly (here, teacher T1), a dedicated voice communication session separate from the voice communication session by process S31 is established (process S72), and the student S6 can talk to teacher T1 about matters that he or she does not want other students S5, etc. to hear.

〔補足〕
上述の実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU、及び従来の回路モジュール等のデバイスを含む。
〔supplement〕
Each function in the above-described embodiment can be realized by one or more processing circuits. Here, the "processing circuit" in the present embodiment includes a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, and devices such as an ASIC (Application Specific Integrated Circuit), a DSP (digital signal processor), an FPGA (field programmable gate array), a SOC (System on a chip), a GPU, and a conventional circuit module designed to execute each of the above-described functions.

また、上記各プログラムは、(非一時的な)記録媒体に記録されることで、流通されるようにしてもよい。 Furthermore, each of the above programs may be distributed by being recorded on a (non-temporary) recording medium.

各CPU201,301,501,801,1001は、単一であってもよく複数であってもよい。 Each CPU 201, 301, 501, 801, 1001 may be single or multiple.

R ロボット(移動装置の一例)
1 通信システム
3 通信管理サーバ
5 教師端末(他の通信端末の一例)
6 マイク付きイヤホン(音声入出力デバイスの一例)
7 ロボット端末
8 広角撮影装置
9 生徒端末
9e 生徒端末(他の通信端末の一例)
9f 生徒端末(所定の通信端末の一例)
10 車両装置
31 送受信部(送信部の一例、受信部の一例、音声通信確立部の一例、通信確立部の一例)
35 認証部
36 位置設定部
37 画像作成部
38 参加登録部
40 記憶部
R Robot (an example of a moving device)
1 Communication system 3 Communication management server 5 Teacher terminal (an example of another communication terminal)
6. Earphones with a microphone (an example of an audio input/output device)
7 Robot terminal 8 Wide-angle imaging device 9 Student terminal 9e Student terminal (an example of another communication terminal)
9f Student terminal (an example of a predetermined communication terminal)
10 Vehicle device 31 Transmitting/receiving unit (an example of a transmitting unit, an example of a receiving unit, an example of a voice communication establishment unit, an example of a communication establishment unit)
35 Authentication unit 36 Position setting unit 37 Image creation unit 38 Participation registration unit 40 Storage unit

特開2021-136679号公報JP 2021-136679 A

Claims (10)

実空間で音声の入出力が可能であって実空間位置情報で示される位置に自律移動が可能な移動装置と前記実空間の所定の通信端末との間の音声通信を確立する通信確立部と、
前記実空間の人に関するアイコンと、当該実空間の前記移動装置に関するアイコンとを示す仮想空間画像を作成する画像作成部と、
前記所定の通信端末に前記仮想空間画像を送信する送信部と、
前記所定の通信端末から、前記仮想空間画像に対して前記移動装置に関するアイコンの移動に基づく変更後の仮想空間位置情報を受信する受信部と、
を有し、
前記送信部は、前記移動装置に対して、前記変更後の仮想空間位置情報に対応する変更後の実空間位置情報を送信する、
通信管理サーバ。
a communication establishment unit that establishes voice communication between a mobile device capable of inputting and outputting voice in a real space and capable of autonomously moving to a position indicated by real space position information and a predetermined communication terminal in the real space;
an image creation unit that creates a virtual space image showing an icon related to a person in the real space and an icon related to the mobile device in the real space;
A transmission unit that transmits the virtual space image to the predetermined communication terminal;
a receiving unit that receives, from the predetermined communication terminal, virtual space position information after a change based on a movement of an icon related to the moving device with respect to the virtual space image;
having
the transmitting unit transmits, to the mobile device, changed real space position information corresponding to the changed virtual space position information;
Communications management server.
前記通信確立部は、前記音声通信に加えて、前記移動装置と前記所定の通信端末との間の映像通信が可能な映像音声通信を確立し、
前記移動装置は撮影が可能であって、前記移動装置から前記所定の通信端末に前記撮影により得られた映像が送信される、
請求項1に記載の通信管理サーバ。
the communication establishment unit establishes, in addition to the voice communication, a video/audio communication that enables a video communication between the mobile device and the predetermined communication terminal;
The mobile device is capable of taking pictures, and the pictures obtained by taking pictures are transmitted from the mobile device to the predetermined communication terminal.
The communication management server according to claim 1 .
前記所定の通信端末からのログイン要求に対するログインが成功した場合には、前記所定の通信端末を前記移動装置が存在する前記実空間のイベントに対する仮想空間のイベントに参加する登録を行う参加登録部を有する請求項1に記載の通信管理サーバ。 The communication management server according to claim 1, further comprising a participation registration unit that, if a login is successful in response to a login request from the specified communication terminal, registers the specified communication terminal to participate in a virtual space event corresponding to the real space event in which the mobile device exists. 前記画像作成部は、前記参加登録部によって前記仮想空間のイベントに参加する登録が行われた前記所定の通信端末に関するアイコンと、前記実空間の前記イベントに出席した人に関するアイコンを示す前記仮想空間画像を作成する、請求項3に記載の通信管理サーバ。 The communication management server according to claim 3, wherein the image creation unit creates the virtual space image showing icons relating to the specified communication terminals that have been registered by the participation registration unit to participate in the event in the virtual space, and icons relating to people who attended the event in the real space. 前記実空間の前記所定の通信端末と、前記実空間で音声入出力デバイスと音声通信可能な他の通信端末との間の音声通信を確立する音声通信確立部を有する請求項3に記載の通信管理サーバ。 The communication management server according to claim 3, further comprising an audio communication establishment unit that establishes audio communication between the specified communication terminal in the real space and another communication terminal capable of audio communication with an audio input/output device in the real space. 前記画像作成部は、前記実空間の人に関するアイコンとして前記所定の通信端末に関するアイコン及び前記他の通信端末に関するアイコンを示す前記仮想空間画像を作成し、
前記音声通信確立部は、前記所定の通信端末から、当該所定の通信端末に関するアイコンを前記他の通信端末に関するアイコンに関連付ける操作を受け付けることにより、前記所定の通信端末及び前記他の通信端末の間の専用の音声通信を確立する、
請求項5に記載の通信管理サーバ。
the image creation unit creates the virtual space image showing an icon related to the predetermined communication terminal and an icon related to the other communication terminal as icons related to people in the real space;
the voice communication establishment unit accepts an operation from the predetermined communication terminal to associate an icon related to the predetermined communication terminal with an icon related to the other communication terminal, thereby establishing dedicated voice communication between the predetermined communication terminal and the other communication terminal;
The communication management server according to claim 5.
請求項1乃至6のいずれか一項に記載の通信管理サーバと、
前記移動装置と、
を有する通信システム。
A communication management server according to any one of claims 1 to 6;
The moving device;
A communication system having the above configuration.
前記移動装置は、前記通信管理サーバによって確立された映像音声通信により、前記所定の通信端末から送られて来た映像を表示する、請求項7に記載の通信システム。 The communication system according to claim 7, wherein the mobile device displays the video transmitted from the specified communication terminal through the video and audio communication established by the communication management server. 実空間で音声の入出力が可能であって実空間位置情報で示される位置に自律移動が可能な移動装置と前記実空間の所定の通信端末との間の音声通信を確立する通信確立処理と、
前記実空間の人に関するアイコンと、当該実空間の前記移動装置に関するアイコンとを示す仮想空間画像を作成する画像作成処理と、
前記所定の通信端末に前記仮想空間画像を送信する送信処理と、
前記所定の通信端末から、前記仮想空間画像に対して前記移動装置に関するアイコンの移動に基づく変更後の仮想空間位置情報を受信する受信処理と、
を有し、
前記送信処理は、前記移動装置に対して、前記変更後の仮想空間位置情報に対応する変更後の実空間位置情報を送信する処理を含む、
通信管理方法。
a communication establishment process for establishing voice communication between a mobile device capable of inputting and outputting voice in a real space and capable of autonomously moving to a position indicated by the real space position information and a predetermined communication terminal in the real space;
an image creation process for creating a virtual space image showing an icon related to a person in the real space and an icon related to the mobile device in the real space;
a transmission process of transmitting the virtual space image to the predetermined communication terminal;
a receiving process for receiving, from the predetermined communication terminal, virtual space position information after change based on a movement of an icon related to the moving device with respect to the virtual space image;
having
the transmission process includes a process of transmitting, to the mobile device, changed real space position information corresponding to the changed virtual space position information;
How to manage communications.
コンピュータに、請求項9に記載の方法を実行させるプログラム。 A program for causing a computer to execute the method according to claim 9.
JP2023168723A 2022-09-30 2023-09-28 COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM Pending JP2024052610A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022158682 2022-09-30
JP2022158682 2022-09-30

Publications (1)

Publication Number Publication Date
JP2024052610A true JP2024052610A (en) 2024-04-11

Family

ID=90622504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023168723A Pending JP2024052610A (en) 2022-09-30 2023-09-28 COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP2024052610A (en)

Similar Documents

Publication Publication Date Title
JP7322940B2 (en) Image communication system, image communication terminal, image communication method, program, and recording medium
JP7452596B2 (en) Communication terminals, display methods, programs and image communication systems
US10764513B2 (en) Communication terminal, image data communication system, and communication method
US10944798B2 (en) Communication terminal, image communication system, and display control method
JP7400195B2 (en) Image communication system, imaging device, communication terminal, mode switching method, program
US20180097682A1 (en) Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
US10666898B2 (en) Communication management system, communication system, and communication method
JP7192592B2 (en) Imaging device, image communication system, image processing method, program
US11042342B2 (en) Communication terminal, image communication system, display method, and non-transitory recording medium
JP7151316B2 (en) Communication terminal, image communication system, display method, and program
JP2024052610A (en) COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM
JP2018061243A (en) Communication terminal, display method, and program
JP2024052524A (en) COMMUNICATION MANAGEMENT SERVER, COMMUNICATION SYSTEM, COMMUNICATION MANAGEMENT METHOD, AND PROGRAM
US20240112422A1 (en) Communication management server, communication system, and method for managing communication
JP7326789B2 (en) Communication terminal, image communication system, display method, and program
JP7279825B2 (en) Communication terminal, communication system, communication method, display control method and program
JP7354733B2 (en) Communication terminal, image communication system, display method, and program
US11863871B2 (en) Communication terminal, image communication system, and method of displaying image
JP7371369B2 (en) Communication terminals and image communication systems
JP7331405B2 (en) VR system, communication method, and program
JP7279452B2 (en) VR terminal, VR system, display method, and program
JP7006133B2 (en) Communication system and communication method
JP2023134089A (en) Communication device, communication system, display method, and program
JP2023134065A (en) Communication device, communication system, display method, and program
JP2023109839A (en) Communication terminal, communication method, and program