JP2023134045A - Communication apparatus, communication system, display method, and program - Google Patents

Communication apparatus, communication system, display method, and program Download PDF

Info

Publication number
JP2023134045A
JP2023134045A JP2022039375A JP2022039375A JP2023134045A JP 2023134045 A JP2023134045 A JP 2023134045A JP 2022039375 A JP2022039375 A JP 2022039375A JP 2022039375 A JP2022039375 A JP 2022039375A JP 2023134045 A JP2023134045 A JP 2023134045A
Authority
JP
Japan
Prior art keywords
communication device
base
image
communication
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022039375A
Other languages
Japanese (ja)
Inventor
悠貴 堀
Yuki Hori
晨 関屋
Shin Sekiya
貴志 石田
Takashi Ishida
哲史 黒田
Tetsushi Kuroda
克行 鍛冶
Katsuyuki Kaji
良雄 萩野
Yoshio Hagino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022039375A priority Critical patent/JP2023134045A/en
Publication of JP2023134045A publication Critical patent/JP2023134045A/en
Pending legal-status Critical Current

Links

Abstract

To solve the following problem: conventionally, kinematic parallax is proposed in which a video image of a partner located in another place is changed in accordance with a point of view (eye positions) in a person on a real space located in one place, to display the partner with a person size in accordance with a distance on a virtual space, on a display in the one place, thereby allowing users to feel as if they are present in the same room with their partners, however, not all the persons on the virtual space hold a conference, or the like, and some virtual users on the virtual space may feel someone's eyes watching and feel discomfort.SOLUTION: A communication apparatus selectively displays an image of a subject located in another place or a character image related to the subject, in accordance with a distance between one place and the other place on a virtual space.SELECTED DRAWING: Figure 34

Description

本開示内容は、通信装置、通信システム、表示方法、及びプログラムに関する。 The present disclosure relates to a communication device, a communication system, a display method, and a program.

近年、ICT(情報通信技術)を利用し、時間や場所を有効に活用できる柔軟な働き方を行うテレワークが浸透してきた。これにより、ワーク・ライフ・バランスの実現や営業効率の向上及び顧客満足度の向上等を図ることができる。また、テレワークの普及に合わせて、インターネットを介したビデオ(テレビ)会議等のシステムの性能が向上している(図34参照)。 In recent years, telework, which uses ICT (information and communication technology) to enable flexible working styles that allow effective use of time and location, has become widespread. This makes it possible to achieve work-life balance, improve sales efficiency, and improve customer satisfaction. Furthermore, with the spread of telework, the performance of systems such as video (teleconferencing) via the Internet is improving (see FIG. 34).

また、コミュニケーションにおいて、対人間の距離感は、話しやすさや緊張感に影響を与えるため非常に重要である(エドワードホール、かくれた次元、2000、みすず書房)。ところが、ビデオ会議では、現実空間(又は、物理空間)のコミュニケーションのように、対話相手と同じ空間に一緒に居る感じ(以下、「同室感」という。)が得にくいという問題がある。 Furthermore, in communication, the sense of distance between people is very important because it affects the ease of speaking and the sense of tension (Edward Hall, Hidden Dimension, 2000, Misuzu Shobo). However, video conferencing has a problem in that, unlike communication in real space (or physical space), it is difficult to get the feeling of being in the same space as the person with whom you are communicating (hereinafter referred to as a "same-room feeling").

そこで、特許文献1では、一の拠点の現実空間上の人物における視点(眼の位置)に応じて、他の拠点の対話相手の映像を変化させるという運動視差を実現し、仮想空間上の距離に応じた人物サイズで対話相手を一の拠点側のディスプレイ上に表示することで、各利用者に対話相手との同室感を与えることができる技術が開示されている。 Therefore, in Patent Document 1, motion parallax is realized in which the image of the conversation partner at another base is changed according to the viewpoint (eye position) of a person in real space at one base, and the distance in virtual space is A technology has been disclosed that can give each user a feeling of being in the same room as the conversation partner by displaying the conversation partner on a display at one base in a size corresponding to the size of the person.

特許第5833525号公報Patent No. 5833525

しかしながら、仮想空間上の人物の全員が必ずしも会議等を行うとは限らず、仮想空間上にいる仮想の利用者によっては、誰から見られているか分からず、安心感が無いという課題が生じる。 However, not all people in the virtual space necessarily hold a meeting, etc., and some virtual users in the virtual space may not know who is watching them, causing a problem of not feeling secure.

請求項1に係る発明は、他拠点における他の通信装置と通話を行う通信装置であって、前記他の通信装置が前記他拠点の被写体を撮影することで得た当該他拠点の画像データを前記他の通信装置が送信することによって、当該画像データを受信する受信手段と、仮想空間上における自拠点と他拠点の距離に応じて、前記受信された画像データに基づく前記他拠点における被写体の画像と、当該被写体に係るキャラクタ画像とを切り替えて表示する表示制御手段と、を有することを特徴とする通信装置である。 The invention according to claim 1 is a communication device that makes a call with another communication device at another base, the other communication device transmitting image data of the other base obtained by photographing a subject at the other base. A receiving means for receiving the image data transmitted by the other communication device, and a receiver for receiving the image data at the other base based on the received image data according to the distance between the own base and the other base in the virtual space. A communication device characterized by having a display control means that switches and displays an image and a character image related to the subject.

以上説明したように本発明によれば、通信装置は、仮想空間上における自拠点と他拠点の距離に応じて、他拠点における被写体の画像と当該被写体に係るキャラクタ画像とを切り替えて表示するため、仮想空間内にいる仮想の利用者が、誰から見られているか分からず安心感が無いという課題をできるだけ解消することができる。 As explained above, according to the present invention, the communication device switches and displays an image of a subject at another base and a character image related to the subject, depending on the distance between the own base and the other base in the virtual space. , it is possible to eliminate as much as possible the problem that virtual users in a virtual space do not feel safe because they do not know who is watching them.

本発明の実施形態に係る通信システムの概略図である。1 is a schematic diagram of a communication system according to an embodiment of the present invention. 通信管理サーバの電気的なハードウェア構成図である。FIG. 2 is an electrical hardware configuration diagram of a communication management server. 通信装置の電気的なハードウェア構成図である。FIG. 2 is an electrical hardware configuration diagram of a communication device. 通信システムの機能ブロック図である。FIG. 2 is a functional block diagram of a communication system. 通信システムの機能ブロック図である。FIG. 2 is a functional block diagram of a communication system. 通信管理テーブルの概念図である、This is a conceptual diagram of a communication management table. セッション管理テーブルの概念図である。FIG. 3 is a conceptual diagram of a session management table. ディスプレイ管理テーブルの概念図である。FIG. 3 is a conceptual diagram of a display management table. ディスプレイ管理テーブルで管理するデータをディスプレイ上の点で視覚的に示した概念図である。FIG. 2 is a conceptual diagram visually showing data managed by a display management table using points on a display. 選択配置情報管理テーブルの概念図である。FIG. 3 is a conceptual diagram of a selective placement information management table. 固定配置情報管理テーブルの概念図である。FIG. 3 is a conceptual diagram of a fixed placement information management table. 仮想の利用者の最新位置を示した位置管理テーブルの概念図である。FIG. 2 is a conceptual diagram of a location management table showing the latest location of a virtual user. ワールド座標上で仮想参加者の配置位置を示した概念図である。FIG. 2 is a conceptual diagram showing the placement positions of virtual participants on world coordinates. ワールド座標上で仮想参加者の配置位置を示した概念図である。FIG. 2 is a conceptual diagram showing the placement positions of virtual participants on world coordinates. 特定の通信セッションへの参加処理を示したシーケンス図である。FIG. 3 is a sequence diagram showing a process for participating in a specific communication session. 通信装置におけるログイン画面の表示例である。It is a display example of a login screen in a communication device. 位置の特定処理を示したフローチャートである。7 is a flowchart showing a position specifying process. 通信装置における配置位置種類の選択画面を示した図である。FIG. 3 is a diagram illustrating a selection screen for a type of arrangement position in a communication device. 仮想の会社を選択するための選択画面の表示例を示した図である。FIG. 3 is a diagram illustrating a display example of a selection screen for selecting a virtual company. 仮想の部署を選択するための選択画面の表示例を示した図である。FIG. 7 is a diagram illustrating a display example of a selection screen for selecting a virtual department. 仮想の部屋(フロア)を選択するための選択画面の表示例を示した図である。FIG. 6 is a diagram illustrating a display example of a selection screen for selecting a virtual room (floor). ディスプレイ情報の送信処理を示したシーケンス図である。FIG. 3 is a sequence diagram showing display information transmission processing. 所定の通信装置(例えば、通信装置1a)から送信された輝度画像データ、深度画像データ及び音データが他の通信装置に届くまでの処理を示したシーケンス図である。FIG. 2 is a sequence diagram showing processing until luminance image data, depth image data, and sound data transmitted from a predetermined communication device (for example, communication device 1a) reach another communication device. 送信される輝度画像データと深度画像データの概念図である。FIG. 3 is a conceptual diagram of brightness image data and depth image data that are transmitted. 通信装置1dによる画像データ及び音データの受信の処理を示すシーケンス図である。FIG. 2 is a sequence diagram showing a process of receiving image data and sound data by the communication device 1d. 画像表示の処理を示したフローチャートである。7 is a flowchart showing image display processing. 仮想の利用者D1からの距離と表示される画像の例を示した図である。It is a diagram showing an example of a distance from a virtual user D1 and an image to be displayed. ワールド座標系にける物体の位置の算出処理を示すフローチャートである。3 is a flowchart illustrating processing for calculating the position of an object in the world coordinate system. カメラ座標系からモデリング座標系への変換、及びモデリング座標系からワールド座標系への変換の概念図である。It is a conceptual diagram of transformation from a camera coordinate system to a modeling coordinate system, and transformation from a modeling coordinate system to a world coordinate system. モデリング座標系に利用者D1の画像と仮想ディスプレイを配置した概念図である。It is a conceptual diagram in which an image of a user D1 and a virtual display are arranged in a modeling coordinate system. モデリング座標系からワールド座標系への変換を示したイメージ図である。FIG. 3 is an image diagram showing conversion from a modeling coordinate system to a world coordinate system. 利用者D1の通信装置のディスプレイ118に表示された画像を示す図である。It is a figure which shows the image displayed on the display 118 of the user D1's communication device. 利用者D1の通信装置のディスプレイ118に表示された画像を示す図である。It is a figure which shows the image displayed on the display 118 of the user D1's communication device. 従来のビデオ会議の場合のディスプレイにおける表示例である。It is an example of a display on a display in the case of a conventional video conference.

以下、図面を用いて、本発明の実施形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.

〔通信システムの概略〕
本実施形態の通信システムは、仮想空間(「仮想エリア」ともいう)で映像通話を行うたのシステムである。
[Overview of communication system]
The communication system of this embodiment is a system for performing video calls in a virtual space (also referred to as a "virtual area").

まず、図1を用いて、本実施形態の通信システムの構成の概略について説明する。図1は、本発明の実施形態に係る通信システムの構成の概略図である。 First, the outline of the configuration of the communication system of this embodiment will be explained using FIG. 1. FIG. 1 is a schematic diagram of the configuration of a communication system according to an embodiment of the present invention.

図1に示されているように、本実施形態の通信システムは、複数の通信装置1a,1b,1c,1d、及び通信管理サーバ6によって構築され、インターネット等の通信ネットワーク100を介して通信することができる。通信ネットワーク100の接続形態は、無線又は有線のいずれでも良い。 As shown in FIG. 1, the communication system of this embodiment is constructed by a plurality of communication devices 1a, 1b, 1c, 1d and a communication management server 6, and communicates via a communication network 100 such as the Internet. be able to. The connection form of the communication network 100 may be either wireless or wired.

通信装置1a,1b,1c,1dは、ぞれぞれ、拠点A,B,C,Dに配置されている。なお、以降、通信装置1a,1b,1c,1dのうちの任意の通信装置を「通信装置1」と示す。通信装置1は、自拠点の撮影及び集音を行い、他拠点で撮影されることで得られた画像及び他拠点で集音されることで得られた音を出力することができる。通信装置1については、後ほど詳細に説明する。 Communication devices 1a, 1b, 1c, and 1d are located at bases A, B, C, and D, respectively. Note that, hereinafter, any communication device among the communication devices 1a, 1b, 1c, and 1d will be referred to as "communication device 1." The communication device 1 can photograph and collect sound at its own base, and can output images obtained by photographing at another base and sounds obtained by collecting sounds at other bases. The communication device 1 will be explained in detail later.

また、図1は、通信装置1a,1b,1c,1dが、それぞれ、利用者A1,B1,C1,D1によって利用されている場合を示している。例えば、通信装置1aは、自拠点Aの様子を撮影及び録音し、通信ネットワーク100及び通信管理サーバ6を介して、他拠点B,C,Dの通信装置1b,1c,1dに対して、画像データ及び音データを送信する。同様に、通信装置b1,1c,1dは、自拠点の様子を撮影及び録音し、通信ネットワーク100及び通信管理サーバ6を介して、他拠点の通信装置に対して、画像データ及び音データを送信する。 Further, FIG. 1 shows a case where communication devices 1a, 1b, 1c, and 1d are used by users A1, B1, C1, and D1, respectively. For example, the communication device 1a photographs and records the state of its own base A, and transmits the image to the communication devices 1b, 1c, and 1d of other bases B, C, and D via the communication network 100 and the communication management server 6. Send data and sound data. Similarly, the communication devices b1, 1c, and 1d photograph and record the situation at their own base, and transmit image data and sound data to communication devices at other bases via the communication network 100 and the communication management server 6. do.

通信管理サーバ6は、コンピュータによって構成され、通信装置1の通信を管理及び制御したり、送受信される画像データの種類(一般画像と特殊画像の種別)を管理したりする。よって、通信管理サーバは、通信制御サーバでもある。なお、通信管理サーバ6は、単一又は複数のコンピュータによって構成されている。複数のコンピュータによって構成されている場合には、通信管理サーバは、通信管理システム(又は通信制御システム)でもある。 The communication management server 6 is configured by a computer, and manages and controls communication of the communication device 1 and manages the types of image data (general images and special images) to be transmitted and received. Therefore, the communication management server is also a communication control server. Note that the communication management server 6 is configured by a single computer or a plurality of computers. When configured by multiple computers, the communication management server is also a communication management system (or communication control system).

なお、通信装置1には、デジタルテレビ、スマートフォン、スマートウオッチ、カーナビゲーション装置、医療機器等も含まれる。 Note that the communication device 1 also includes a digital television, a smartphone, a smart watch, a car navigation device, a medical device, and the like.

〔ハードウェア構成〕
続いて、図2乃至図3を用いて、本実施形態の通信装置1、及び通信管理サーバ6のハードウェア構成を詳細に説明する。
[Hardware configuration]
Next, the hardware configurations of the communication device 1 and the communication management server 6 of this embodiment will be described in detail using FIGS. 2 and 3.

<通信管理サーバのハードウェア構成>
続いて、図2を用いて、通信管理サーバの電気的なハードウェア構成図について説明する。図2は、通信管理サーバの電気的なハードウェア構成図である。
<Hardware configuration of communication management server>
Next, an electrical hardware configuration diagram of the communication management server will be described using FIG. 2. FIG. 2 is an electrical hardware configuration diagram of the communication management server.

図2に示されているように、通信管理サーバ6は、コンピュータとして、CPU601、ROM602、RAM603、HD604、HDD(Hard Disk Drive)コントローラ605、ディスプレイ606、外部機器接続I/F(Interface)608、ネットワークI/F609、バスライン610、ポインティングデバイス612、メディアI/F614を備えている。 As shown in FIG. 2, the communication management server 6 includes, as a computer, a CPU 601, ROM 602, RAM 603, HD 604, HDD (Hard Disk Drive) controller 605, display 606, external device connection I/F (Interface) 608, It includes a network I/F 609, a bus line 610, a pointing device 612, and a media I/F 614.

これらのうち、CPU601は、通信管理サーバ6全体の動作を制御する。ROM602は、IPL等のCPU601の駆動に用いられるプログラムを記憶する。RAM603は、CPU601のワークエリアとして使用される。HD604は、プログラム等の各種データを記憶する。HDDコントローラ605は、CPU601の制御にしたがってHD604に対する各種データの読み出し又は書き込みを制御する。ディスプレイ606は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F608は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USBメモリやプリンタ等である。ネットワークI/F609は、通信ネットワーク100を利用してデータ通信をするためのインターフェースである。バスライン610は、図2に示されているCPU601等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Among these, the CPU 601 controls the entire operation of the communication management server 6. The ROM 602 stores programs used to drive the CPU 601 such as IPL. RAM 603 is used as a work area for CPU 601. The HD 604 stores various data such as programs. The HDD controller 605 controls reading and writing of various data to the HD 604 under the control of the CPU 601. The display 606 displays various information such as a cursor, menu, window, characters, or images. External device connection I/F 608 is an interface for connecting various external devices. The external device in this case is, for example, a USB memory or a printer. The network I/F 609 is an interface for data communication using the communication network 100. The bus line 610 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 601 shown in FIG. 2.

また、ポインティングデバイス612は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。メディアI/F614は、フラッシュメモリ等の記録メディア613に対するデータの読み出し又は書き込み(記憶)を制御する。記録メディア613には、DVDやBlu-ray Disc(ブルーレイディスク)等も含まれる。 Further, the pointing device 612 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The media I/F 614 controls reading or writing (storage) of data to a recording medium 613 such as a flash memory. The recording media 613 also includes DVDs, Blu-ray Discs, and the like.

<通信装置のハードウェア構成>
続いて、図3を用いて、通信装置の電気的なハードウェア構成図について説明する。図3は、通信装置の電気的なハードウェア構成図である。
<Hardware configuration of communication device>
Next, an electrical hardware configuration diagram of the communication device will be described using FIG. 3. FIG. 3 is an electrical hardware configuration diagram of the communication device.

通信装置1は、例えば、タブレット端末である。図3に示されているように、通信装置1は、CPU101、ROM102、RAM103、EEPROM104、撮影ユニット105、撮像素子I/F106、加速度・方位センサ107、メディアI/F109、GPS受信部111を備えている。 The communication device 1 is, for example, a tablet terminal. As shown in FIG. 3, the communication device 1 includes a CPU 101, a ROM 102, a RAM 103, an EEPROM 104, a photographing unit 105, an image sensor I/F 106, an acceleration/direction sensor 107, a media I/F 109, and a GPS receiving section 111. ing.

これらのうち、CPU101は、通信装置1全体の動作を制御する。ROM102は、CPU101やIPL等のCPU101の駆動に用いられるプログラムを記憶する。RAM103は、CPU101のワークエリアとして使用される。EEPROM104は、CPU101の制御にしたがって、通信装置1用プログラム等の各種データの読み出し又は書き込みを行う。撮像ユニット105は、CPU101の制御に従って被写体(主に自画像)を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F106は、撮像ユニット105の駆動を制御する回路である。加速度・方位センサ107は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F109は、フラッシュメモリ等の記録メディア108に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部111は、GPS衛星からGPS信号を受信する。 Among these, the CPU 101 controls the operation of the communication device 1 as a whole. The ROM 102 stores the CPU 101 and programs used to drive the CPU 101 such as IPL. RAM 103 is used as a work area for CPU 101. The EEPROM 104 reads or writes various data such as programs for the communication device 1 under the control of the CPU 101. The imaging unit 105 is a type of built-in imaging means that images a subject (mainly a self-portrait) and obtains image data under the control of the CPU 101. The imaging device I/F 106 is a circuit that controls driving of the imaging unit 105. The acceleration/direction sensor 107 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect geomagnetism. The media I/F 109 controls reading or writing (storage) of data to a recording medium 108 such as a flash memory. GPS receiving section 111 receives GPS signals from GPS satellites.

また、通信装置1は、遠距離通信回路112、撮像ユニット113、撮像素子I/F114、マイク115、スピーカ116、音入出力I/F117、ディスプレイ118、外部機器接続I/F(Interface)119、近距離通信回路120、近距離通信回路120のアンテナ120a、及びタッチパネル121を備えている。 The communication device 1 also includes a long-distance communication circuit 112, an imaging unit 113, an imaging device I/F 114, a microphone 115, a speaker 116, a sound input/output I/F 117, a display 118, an external device connection I/F (Interface) 119, It includes a short-range communication circuit 120, an antenna 120a of the short-range communication circuit 120, and a touch panel 121.

これらのうち、遠距離通信回路112は、通信ネットワーク100を介して、他の機器と通信する回路である。撮像ユニット113は、CPU101の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種であり、詳細は後述する。撮像素子I/F114は、撮像ユニット113の駆動を制御する回路である。マイク115は、音を電気信号に変える内蔵型の回路である。スピーカ116は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。音入出力I/F117は、CPU101の制御に従ってマイク115及びスピーカ116との間で音信号の入出力を処理する回路である。ディスプレイ118は、被写体の画像や各種アイコン等を表示する液晶や有機EL(Electro Luminescence)などの表示手段の一種である。外部機器接続I/F119は、各種の外部機器を接続するためのインターフェースである。近距離通信回路120は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル121は、利用者がディスプレイ118を押下することで、通信装置1を操作する入力手段の一種である。 Among these, the long-distance communication circuit 112 is a circuit that communicates with other devices via the communication network 100. The imaging unit 113 is a type of built-in imaging means that images a subject and obtains image data under the control of the CPU 101, and will be described in detail later. The imaging device I/F 114 is a circuit that controls driving of the imaging unit 113. Microphone 115 is a built-in circuit that converts sound into electrical signals. The speaker 116 is a built-in circuit that converts electrical signals into physical vibrations to produce sounds such as music and voice. The sound input/output I/F 117 is a circuit that processes input/output of sound signals between the microphone 115 and the speaker 116 under the control of the CPU 101. The display 118 is a type of display means such as a liquid crystal display or an organic EL (Electro Luminescence) display that displays an image of a subject, various icons, and the like. The external device connection I/F 119 is an interface for connecting various external devices. The near field communication circuit 120 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The touch panel 121 is a type of input means by which the user operates the communication device 1 by pressing the display 118.

また、通信装置1は、バスライン110を備えている。バスライン110は、図4に示されているCPU101等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The communication device 1 also includes a bus line 110. The bus line 110 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 101 shown in FIG. 4.

ここで、撮像ユニット113について説明する。撮像ユニット105は、輝度カメラ105a、深度カメラ105b、及びこれらと撮影素子I/Fを電気的に接続するバスライン105eを備えている。これらのうち、輝度カメラ105aは、CCDやCMOS等の撮像素子を用いて、受光した光を電気信号に変換して画像データを得るデバイスである。例えば、RGBカラーカメラが含まれる。 Here, the imaging unit 113 will be explained. The imaging unit 105 includes a brightness camera 105a, a depth camera 105b, and a bus line 105e that electrically connects these to the imaging element I/F. Among these, the brightness camera 105a is a device that converts received light into an electrical signal and obtains image data using an image sensor such as a CCD or CMOS. For example, an RGB color camera is included.

深度カメラ105bは、人や物等の被写体を撮像して、LiDAR(Light Detection And Ranging)によるレーザ方式により、被写体から深度カメラ105bまでの距離を計測することで、深度画像のデータを取得する。深度カメラ105bは、被写体の形状を立体として捉えると共に、人の骨格等のさまざまな動きを検出して、その後の処理にリアルタイムに反映させることができるカメラである。そのため、深度カメラ105bは、レーザ発信機105b1及びレーザ受信機105b2によって構成されている。レーザ発信機113b1は、レーザ光を照射する。レーザ発信機105b1が照射したレーザ光が被写体で反射し、このときの反射光であるレーザ光をレーザ受信機113b2が受光して電気信号に変換し、必要な情報を取り出す。なお、上記では、LiDARにより深度を計測する方式を記載しているが、これに限るものではない。例えば、TOF(Time of Flight)方式により深度を計測する方式を用いてもよい。また、通常のカメラであるRGBカラーカメラによってステレオ計測による方法で深度を計測してもよく、深度を計測する方法については、上記の記載に限られるものではない。 The depth camera 105b acquires depth image data by capturing an image of a subject, such as a person or object, and measuring the distance from the subject to the depth camera 105b using a laser method using LiDAR (Light Detection And Ranging). The depth camera 105b is a camera that can capture the shape of a subject as a three-dimensional object, detect various movements such as a human skeleton, and reflect the detected movements in subsequent processing in real time. Therefore, the depth camera 105b includes a laser transmitter 105b1 and a laser receiver 105b2. The laser transmitter 113b1 emits laser light. The laser beam emitted by the laser transmitter 105b1 is reflected by the object, and the laser receiver 113b2 receives the reflected laser beam, converts it into an electrical signal, and extracts necessary information. Note that although the above describes a method of measuring depth using LiDAR, the method is not limited to this. For example, a method of measuring depth using a TOF (Time of Flight) method may be used. Further, the depth may be measured using a stereo measurement method using an RGB color camera that is a normal camera, and the method of measuring the depth is not limited to the above description.

なお、撮像ユニット113は、輝度カメラ113a、深度カメラ113b、及びこれらと撮影素子I/Fを電気的に接続するバスライン113eを備えている。また、深度カメラ113bは、更に、レーザ発信機113b1及びレーザ受信機113b2を備えている。輝度カメラ113a、深度カメラ113b、バスライン113e、レーザ発信機113b1及びレーザ受信機113b2は、それぞれ、撮影ユニット105において、それぞれ、輝度カメラ105a、深度カメラ105b、バスライン105e、レーザ発信機105b1及びレーザ受信機105b2と同じ構成であるため、これらの説明を省略する。 Note that the imaging unit 113 includes a brightness camera 113a, a depth camera 113b, and a bus line 113e that electrically connects these to the imaging element I/F. Further, the depth camera 113b further includes a laser transmitter 113b1 and a laser receiver 113b2. The brightness camera 113a, the depth camera 113b, the bus line 113e, the laser transmitter 113b1, and the laser receiver 113b2 are the brightness camera 105a, the depth camera 105b, the bus line 105e, the laser transmitter 105b1, and the laser in the photographing unit 105, respectively. Since the configuration is the same as that of the receiver 105b2, a description thereof will be omitted.

なお、上記各プログラムが記憶されたCD-ROM等の記録媒体、並びに、これらプログラムが記憶されたHDは、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。 Note that recording media such as CD-ROMs in which the above programs are stored and HDs in which these programs are stored can both be provided domestically or internationally as program products.

〔実施形態の機能構成〕
次に、図4乃至図14を用いて、本実施形態の機能構成について説明する。図4及び図5は、通信システムの機能ブロック図である。
[Functional configuration of embodiment]
Next, the functional configuration of this embodiment will be explained using FIGS. 4 to 14. 4 and 5 are functional block diagrams of the communication system.

<通信装置の機能構成>
ここで、通信装置1のうち、通信装置1aの機能構成について説明する。
<Functional configuration of communication device>
Here, the functional configuration of the communication device 1a of the communication device 1 will be explained.

図4に示されているように、通信装置1aは、検知部30a、送受信部31a、受付部32a、画像・音処理部33a、表示制御部34a、判断部35a、集音部38a、記憶・読出処理部39a、及び検知部40を有している。これら各部は、図2に示されている各構成要素のいずれかが、EEPROM104からRAM103上に展開された通信装置用のプログラムに従ったCPU101からの命令によって動作することで実現される機能又は手段である。また、通信装置1aは、図2に示されているROM102、RAM103、及びEEPROM104によって構築される記憶部3000aを有している。 As shown in FIG. 4, the communication device 1a includes a detection section 30a, a transmission/reception section 31a, a reception section 32a, an image/sound processing section 33a, a display control section 34a, a judgment section 35a, a sound collection section 38a, a storage It has a read processing section 39a and a detection section 40. Each of these units is a function or means that is realized when any of the components shown in FIG. It is. Furthermore, the communication device 1a has a storage unit 3000a constructed from a ROM 102, a RAM 103, and an EEPROM 104 shown in FIG.

更に、通信装置1aは、CPU101からの命令によって撮影ユニット105を動作させることによって実現される機能として、輝度画像取得部36a、深度画像取得部37a、及び集音部38aを有している。撮影ユニット105によって実現される機能については、破線で囲まれている。
(位置管理テーブル)
記憶部3000aには、位置管理テーブルによって構成されている位置管理DB3007aが構築されている。なお、位置管理DB3007aは、通信管理サーバ6の位置管理DB6007と同じデータ構成を有するため、後述の位置管理DB6007のところで説明する。
Furthermore, the communication device 1a has a brightness image acquisition section 36a, a depth image acquisition section 37a, and a sound collection section 38a as functions realized by operating the photographing unit 105 in accordance with instructions from the CPU 101. Functions realized by the photographing unit 105 are surrounded by broken lines.
(Position management table)
A location management DB 3007a composed of a location management table is constructed in the storage unit 3000a. Note that since the location management DB 3007a has the same data structure as the location management DB 6007 of the communication management server 6, the location management DB 6007 will be explained later.

(通信装置の各機能構成)
次に、図3及び図4を用いて、通信装置1aの各機能構成について更に詳細に説明する。
(Functional configuration of communication device)
Next, each functional configuration of the communication device 1a will be explained in more detail using FIGS. 3 and 4.

通信装置1aの検知部30aは、加速度・方位センサ107に対するCPU101からの命令によって実現され、通信装置1aの移動方向及び回転方向を検知する。 The detection unit 30a of the communication device 1a is realized by a command from the CPU 101 to the acceleration/azimuth sensor 107, and detects the moving direction and rotation direction of the communication device 1a.

送受信部31aは、遠距離通信回路112に対するCPU101の処理によって実現され、通信ネットワーク100を介して、他の装置(例えば、通信管理サーバ6)との間で各種データ(または情報)の送受信を行う。 The transmitting/receiving unit 31a is realized by the processing of the CPU 101 on the long distance communication circuit 112, and transmits and receives various data (or information) to and from other devices (for example, the communication management server 6) via the communication network 100. .

受付部32aは、主に、タッチパネル121に対するCPU101の処理によって実現され、利用者から各種の選択又は入力を受け付ける。 The reception unit 32a is mainly realized by the processing of the CPU 101 on the touch panel 121, and receives various selections or inputs from the user.

画像・音処理部33aは、主に、CPU101の処理によって実現され、各種画像処理及び音処理を行う。例えば、画像・音処理部33aは、生成部としての役割を果たし、輝度画像及び深度画像のデータに基づき仮想空間上における被写体の3次元物体を生成する。 The image/sound processing section 33a is mainly realized by the processing of the CPU 101, and performs various image processing and sound processing. For example, the image/sound processing unit 33a plays a role as a generation unit and generates a three-dimensional object of a subject in virtual space based on data of a luminance image and a depth image.

表示制御部34aは、主に、CPU101の処理によって実現され、各ディスプレイ118に、各種画像を表示させる。 The display control unit 34a is mainly realized by the processing of the CPU 101, and causes each display 118 to display various images.

判断部35aは、主に、CPU101の処理によって実現され、各種判断を行う。 The determining unit 35a is mainly realized by the processing of the CPU 101, and performs various determinations.

輝度画像取得部36aは、主に、輝度カメラ105aに対するCPU101の処理によって実現され、被写体を撮影することで、輝度画像のデータを取得する。ここでは、輝度画像と記載しているが、深度画像との対比のために用いている用語であり、輝度画像は、輝度情報のみを含む画像ではなく、色情報も有している。 The brightness image acquisition unit 36a is mainly realized by the processing of the CPU 101 for the brightness camera 105a, and acquires brightness image data by photographing a subject. Here, although it is described as a brightness image, this is a term used for comparison with a depth image, and a brightness image is not an image containing only brightness information, but also has color information.

深度画像取得部37aは、主に、深度カメラ105bに対するCPU101の処理によって実現され、被写体を撮影することで、深度画像のデータを取得する。 The depth image acquisition unit 37a is mainly realized by the processing of the CPU 101 for the depth camera 105b, and acquires depth image data by photographing a subject.

集音部38aは、主に、マイク115に対するCPU101の処理によって実現され、集音して、音のデータを取得する。 The sound collection unit 38a is mainly realized by the processing of the CPU 101 for the microphone 115, and collects sound to obtain sound data.

記憶・読出処理部39aは、主に、CPU101の処理によって実現され、記憶部3000aに、各種データ(または情報)を記憶したり、記憶部3000aから各種データ(または情報)を読み出したりする。 The storage/read processing unit 39a is mainly realized by the processing of the CPU 101, and stores various data (or information) in the storage unit 3000a and reads various data (or information) from the storage unit 3000a.

なお、通信装置1b、1c、1dは、通信装置1aと同様の機能、記憶部、及びデータベースを有している。また、通信装置1b,1c,1dの機能は、それぞれ実質的にPC3b,3c,3dによって実現されている。図4及び図5では、通信装置1aにおける送受信部31aが、通信装置1bにおける送受信部31bに対応するように、符号の末尾が、aからそれぞれb,c,dに変わるだけであるため、これらの説明を省略する。 Note that the communication devices 1b, 1c, and 1d have the same functions, storage units, and databases as the communication device 1a. Further, the functions of the communication devices 1b, 1c, and 1d are substantially realized by the PCs 3b, 3c, and 3d, respectively. In FIGS. 4 and 5, the end of the code is only changed from a to b, c, and d so that the transmitting/receiving section 31a in the communication device 1a corresponds to the transmitting/receiving section 31b in the communication device 1b. The explanation of is omitted.

<通信管理サーバの機能構成>
次に、図2及び図4を用いて、通信管理サーバ6の機能構成について説明する。
<Functional configuration of communication management server>
Next, the functional configuration of the communication management server 6 will be explained using FIGS. 2 and 4.

図4に示されているように、通信管理サーバ6は、送受信部61、判断部65、作成部66、及び記憶・読出処理部69を有している。これら各部は、図2に示されている各構成要素のいずれかが、HD604からRAM603上に展開された通信管理(制御)用のプログラムに従ったCPU601からの命令によって動作することで実現される機能又は手段である。また、通信管理サーバ6は、図2に示されているROM602、RAM603、及びHD604によって構築される記憶部6000を有している。 As shown in FIG. 4, the communication management server 6 includes a transmitting/receiving section 61, a determining section 65, a creating section 66, and a storage/reading processing section 69. Each of these units is realized by one of the components shown in FIG. 2 operating in accordance with an instruction from the CPU 601 according to a communication management (control) program expanded from the HD 604 onto the RAM 603. It is a function or means. Further, the communication management server 6 has a storage unit 6000 constructed by a ROM 602, a RAM 603, and an HD 604 shown in FIG.

(通信管理テーブル)
図6は、通信管理テーブルを示す概念図である。記憶部6000には、図6に示されているような通信管理テーブルによって構成されている通信管理DB6001が構築されている。この通信管理テーブルでは、通信管理サーバ6によって管理される全ての通信装置1の各接続IDに対して、パスワード、IPアドレス及び利用者の名前が関連付けられて管理される。例えば、図6で示されている通信管理テーブルにおいて、通信装置1aの接続IDは「01aa」で、パスワードは「aaaa」で、IPアドレスはIPv4として「1.2.1.3」で、名前が「Hanako R」であることが示されている。なお、IPアドレスは、簡易的に示されている。また、IPアドレスは、IPv4ではなくIPv6であってもよい。また、IPアドレスでなく、ドメイン名(電子メールやホームページのアドレスとして使われている名称を示すような文字列)であってもよい。
(Communication management table)
FIG. 6 is a conceptual diagram showing the communication management table. In the storage unit 6000, a communication management DB 6001 is constructed, which includes a communication management table as shown in FIG. In this communication management table, each connection ID of all the communication devices 1 managed by the communication management server 6 is managed in association with a password, an IP address, and a user name. For example, in the communication management table shown in FIG. 6, the connection ID of the communication device 1a is "01aa", the password is "aaaa", the IP address is "1.2.1.3" as IPv4, and the name is shown to be "Hanako R". Note that the IP address is shown simply. Further, the IP address may be IPv6 instead of IPv4. Furthermore, instead of an IP address, it may be a domain name (a character string indicating a name used as an e-mail or home page address).

(セッション管理テーブル)
図7は、セッション管理テーブルを示す概念図である。記憶部6000には、図7に示されているようなセッション管理テーブルによって構成されているセッション管理DB6002が構築されている。このセッション管理テーブルでは、セッションID、及び同じ通信セッションの映像通話に参加した通信装置の接続IDが関連付けて記憶されて管理されている。このうち、セッションIDは、映像通話を実現する通信セッションを識別するためのセッション識別情報の一例であり、仮想の会議室等の仮想のエリア毎に生成される。セッションIDをミィーティングIDとして代替することができてもよい。ミィーティングIDは、ミィーティング(2人以上の話合う事)を通信管理サーバで管理するための識別子を示めしている。
(Session management table)
FIG. 7 is a conceptual diagram showing the session management table. A session management DB 6002 configured by a session management table as shown in FIG. 7 is constructed in the storage unit 6000. In this session management table, session IDs and connection IDs of communication devices that have participated in video calls in the same communication session are stored and managed in association with each other. Among these, the session ID is an example of session identification information for identifying a communication session for realizing a video call, and is generated for each virtual area such as a virtual conference room. It may be possible to substitute the session ID as the meeting ID. The meeting ID indicates an identifier for managing a meeting (a discussion between two or more people) on the communication management server.

(ディスプレイ管理テーブル)
図8は、ディスプレイ管理テーブルを示す概念図である。記憶部6000には、図8に示されているようなディスプレイ管理テーブルによって構成されているディスプレイ管理DB6004が構築されている。このディスプレイ管理テーブルでは、ディスプレイのGUID(Globally Unique Identifier)のベンダIDとプロダクトID、現実空間上(リアル座標系)のディスプレイの縦と横のサイズ(各隅の位置)及び解像度、並びに仮想空間上(モデリング座標系)のディスプレイの各隅の位置が関連付けて記憶されて管理されている。なお、リアル座標系は、現実の世界である3次元の世界の任意の位置を基準とした座標系を示している。
(Display management table)
FIG. 8 is a conceptual diagram showing the display management table. A display management DB 6004 configured by a display management table as shown in FIG. 8 is constructed in the storage unit 6000. This display management table includes the vendor ID and product ID of the GUID (Globally Unique Identifier) of the display, the vertical and horizontal sizes (positions of each corner) and resolution of the display in real space (real coordinate system), and the display in virtual space. The positions of each corner of the display (modeling coordinate system) are stored and managed in association with each other. Note that the real coordinate system refers to a coordinate system based on an arbitrary position in a three-dimensional world that is the real world.

ここで、図9を用いて、ディスプレイ管理テーブルで管理するデータで示される位置をディスプレイ上の点で視覚的に説明する。図9は、ディスプレイ管理テーブルで管理するデータで示される位置をディスプレイ上の点で視覚的に示した概念図である。 Here, using FIG. 9, positions indicated by data managed in the display management table will be visually explained using points on the display. FIG. 9 is a conceptual diagram visually showing the positions indicated by the data managed in the display management table as points on the display.

例えば、ディスプレイのGUIDが「vid_10ca&pid_0001」の場合、物理空間上(リアル座標系)のディスプレイ118のぞれぞれの四隅の位置を示す点が示されている。同じく通信装置のGUIDが「vid_10ca&pid_0001」の場合、仮想空間上(モデリング座標系)のディスプレイの四隅の位置を示す点が示されている。 For example, when the GUID of the display is "vid_10ca&pid_0001", points indicating the positions of each of the four corners of the display 118 in physical space (real coordinate system) are shown. Similarly, when the GUID of the communication device is "vid_10ca&pid_0001", points indicating the positions of the four corners of the display in the virtual space (modeling coordinate system) are shown.

また、ディスプレイのGUIDが「vid_11ca&pid_0010」の場合、物理空間上(リアル座標系)の通信装置1の1つのディスプレイのぞれぞれの四隅の位置を示す点が示されている。同じく通信装置1のGUIDが「vid_11ca&pid_0010」の場合、仮想空間上(モデリング座標系)通信装置1の1つのディスプレイの四隅の位置を示す点が示されている。 Further, when the GUID of the display is "vid_11ca&pid_0010", points indicating the positions of each of the four corners of one display of the communication device 1 in physical space (real coordinate system) are shown. Similarly, when the GUID of the communication device 1 is “vid_11ca&pid_0010”, points indicating the positions of the four corners of one display of the communication device 1 in the virtual space (modeling coordinate system) are shown.

更に、ディスプレイのGUIDが「vid_12ca&pid_0100」の場合、物理空間上(リアル座標系)の一般のノートPCの1つのディスプレイのぞれぞれの四隅の位置を示す点が示されている。同じくディスプレイのGUIDが「vid_12ca&pid_0100」の場合、仮想空間上(モデリング座標系)のノートPCの1つのディスプレイの四隅の位置を示す点が示されている。 Further, when the GUID of the display is "vid_12ca&pid_0100", points indicating the positions of each of the four corners of one display of a general notebook PC in physical space (real coordinate system) are shown. Similarly, when the GUID of the display is "vid_12ca&pid_0100", points indicating the positions of the four corners of one display of the notebook PC in the virtual space (modeling coordinate system) are shown.

(選択配置情報管理テーブル)
図10は、選択配置情報管理テーブルを示す概念図である。記憶部6000には、図10に示されているような選択配置情報管理テーブルによって構成されている選択配置情報管理DB6005が構築されている。この選択配置情報管理テーブルでは、レコード毎に選択配置情報を構成し、整理番号(NO)、会社名、この会社の部署名、この部署の部屋(フロア)が関連付けて管理されている。
また、各部屋には、セッションID(コミュニケーションID)、及びModel座標からWorld座標への変換パラメータが関連付けて管理されている。この場合の変換パラメータは、仮想の特定の利用者が仮想の部屋(フロア)に入るときの特定の位置を示している。例えば、仮想の特定の利用者自身の仮想の机(椅子)が置いてある位置である。なお、選択配置情報管理DB6005のセッションID(コミュニケーションID)、は、上述のセッション管理DB6002の「セッションID(コミュニケーションID)」の項目(属性)と同じ概念であるため、説明を省略する。
(Selection placement information management table)
FIG. 10 is a conceptual diagram showing the selected placement information management table. In the storage unit 6000, a selective placement information management DB 6005 is constructed, which is constituted by a selective placement information management table as shown in FIG. In this selective placement information management table, selective placement information is configured for each record, and the reference number (NO), company name, department name of this company, and room (floor) of this department are managed in association.
Furthermore, each room is managed in association with a session ID (communication ID) and conversion parameters from Model coordinates to World coordinates. The conversion parameter in this case indicates a specific position when a virtual specific user enters the virtual room (floor). For example, it is the position where the virtual desk (chair) of a specific virtual user is placed. Note that the session ID (communication ID) of the selected placement information management DB 6005 has the same concept as the item (attribute) of the "session ID (communication ID)" of the session management DB 6002 described above, so the explanation will be omitted.

(固定配置情報管理テーブル)
図11は、固定配置情報管理テーブルを示す概念図である。記憶部6000には、図11に示されているような固定配置情報管理テーブルによって構成されている固定配置情報管理DB6006が構築されている。この固定配置情報管理テーブルでは、レコード毎に固定配置情報を構成し、通信装置の接続ID、セッションID(コミュニケーションID)、及びModel座標からWorld座標への変換パラメータが関連付けて管理されている。この場合の変換パラメータは、仮想の所定(任意)の利用者が仮想の部屋(フロア)に入るときの特定の位置を示している。例えば、仮想の部屋の入口等である。なお、固定配置情報管理DB6006のセッションID(コミュニケーションID)、は、上述のセッション管理DB6002の「セッションID(コミュニケーションID)」の項目(属性)と同じ概念であるため、説明を省略する。
(Fixed placement information management table)
FIG. 11 is a conceptual diagram showing the fixed placement information management table. In the storage unit 6000, a fixed placement information management DB 6006 is constructed, which is composed of a fixed placement information management table as shown in FIG. In this fixed location information management table, fixed location information is configured for each record, and a connection ID of a communication device, a session ID (communication ID), and a conversion parameter from Model coordinates to World coordinates are managed in association with each other. The conversion parameter in this case indicates a specific position when a virtual predetermined (arbitrary) user enters the virtual room (floor). For example, it is the entrance of a virtual room. Note that the session ID (communication ID) of the fixed placement information management DB 6006 has the same concept as the item (attribute) of the "session ID (communication ID)" of the above-mentioned session management DB 6002, so a description thereof will be omitted.

(位置管理テーブル)
図12は、仮想の利用者の最新位置を示した位置管理テーブルの概念図である。記憶部6000には、図12に示されているような位置管理テーブルによって構成されている位置管理DB6007が構築されている。上述の選択配置情報管理DB6005及び固定配置情報管理DB6006が静的なデータベースなのに対して、位置管理DB6007は動的なデータベースである。また、位置管理DB6007は、選択配置情報管理DB6005及び固定配置情報管理DB6006で管理されているデータをコピーする。
(Position management table)
FIG. 12 is a conceptual diagram of a location management table showing the latest location of a virtual user. In the storage unit 6000, a location management DB 6007 is constructed, which is composed of a location management table as shown in FIG. While the above-mentioned selective placement information management DB 6005 and fixed placement information management DB 6006 are static databases, the location management DB 6007 is a dynamic database. Further, the location management DB 6007 copies data managed by the selective placement information management DB 6005 and the fixed placement information management DB 6006.

位置管理テーブルでは、通信装置の接続ID、セッションID(コミュニケーションID)、Model座標系からWorld座標系への変換パラメータ、及び移動ベクトルが関連付けて管理されている。この場合の変換パラメータは、選択配置情報管理DB6005で管理されている各変換パラメータのうちで特定の変換パラメータをコピーして管理されるか、又は固定配置情報管理DB6006で管理されている各変換パラメータのうちで特定の変換パラメータをコピーして管理される。後述の図19において、「選択配置」ボタンb1が選択された場合には、選択配置情報管理DB6005で管理されている特定の変換パラメータを位置管理DB6007にコピーする。また、後述の図18において、「固定配置」ボタンb2が選択された場合には、固定配置情報管理DB6006で管理されている特定の変換パラメータを位置管理DB6007にコピーする。更に、これらの場合、コピーして管理される特定の変換パラメータと一緒に、ログインしている通信装置の接続ID及びセッションIDもコピーする。 In the position management table, a connection ID of a communication device, a session ID (communication ID), a conversion parameter from a Model coordinate system to a World coordinate system, and a movement vector are managed in association with each other. In this case, the conversion parameters are managed by copying specific conversion parameters from among the conversion parameters managed in the selected placement information management DB 6005, or each conversion parameter managed in the fixed placement information management DB 6006. Managed by copying certain conversion parameters. In FIG. 19, which will be described later, when the "selected placement" button b1 is selected, specific conversion parameters managed in the selected placement information management DB 6005 are copied to the location management DB 6007. Further, in FIG. 18, which will be described later, when the "fixed placement" button b2 is selected, specific conversion parameters managed in the fixed placement information management DB 6006 are copied to the location management DB 6007. Furthermore, in these cases, the connection ID and session ID of the logged-in communication device are also copied, along with the specific conversion parameters that are copied and managed.

更に、位置管理テーブルでは、接続ID毎、つまり仮想の利用者毎に、仮想の利用者が上記コピーして管理された位置から仮想空間内の移動した位置までを示すための移動ベクトルも管理されている。 Furthermore, in the position management table, a movement vector is also managed for each connection ID, that is, for each virtual user, to indicate the position to which the virtual user has moved from the copied and managed position to the position to which the virtual user has moved within the virtual space. ing.

Model座標(モデリング座標)系から(World座標)ワールド座標系への変換パラメータは、後述の図32に示されているように、物体を第1の仮想空間上のモデリング座標系から第2の仮想空間上のワールド座標系へ変換する場合に用いられる変換パラメータを示す。 The conversion parameters from the Model coordinate (modeling coordinate) system to the world coordinate system (World coordinate) are used to transform an object from the modeling coordinate system in the first virtual space to the second virtual space, as shown in FIG. Indicates the conversion parameters used when converting to the world coordinate system in space.

なお、コンピュータグラフィックス(CG)で描く仮想世界は、世界の基準となる1つの座標系を設ける。これをワールド座標系(World coordinate system)と呼ぶ。物体の形像を直接ワールド座標系で与えると、物体がワールド座標系内で移動するごとに、物体の形状を定義しなおさなければならない。そこで、コンピュータグラフィックスの3次元画像で物体の形状を決定する(モデリングという)座標系を定めている。この座標系をモデリング座標系(Modeling coordinate system)という。 Note that a virtual world drawn using computer graphics (CG) has one coordinate system that serves as a reference for the world. This is called the world coordinate system. If the shape of an object is given directly in the world coordinate system, the shape of the object must be redefined each time the object moves within the world coordinate system. Therefore, a coordinate system (called modeling) has been established to determine the shape of an object using three-dimensional computer graphics images. This coordinate system is called a modeling coordinate system.

ここで、別の表現によって、ワールド座標とモデリング座標とを説明する。ワールド座標系は、コンピュータグラフィックスで表示する物体は空間全体を表す座標系を示す。空間の中での物体の位置を示すための座標系で、物体の配置や移動を扱うために用いられる。各立体がどのような位置、向きで置かれているかを記述することができる。全てワールド座標系という一つの大きな空間で,最初から全ての物体をこの座標系上で定義したのでは表示処理の扱いが困難となる.そのため、空間中に配置される個々の立体の形状や変形を扱うためにモデリング座標が用いられる。立体のいずれかの頂点や近傍などに原点を取り、立体を構成する点や線、面などの位置や向きなどを記述する。個々のモデリング座標系で自由に定義された表示物体を全て統一されたワールド座標系上に配置し、グラフィックス空間、又は仮想的な3次元世界を作成することができる。 Here, world coordinates and modeling coordinates will be explained using different expressions. The world coordinate system is a coordinate system in which objects displayed in computer graphics represent the entire space. A coordinate system that indicates the position of an object in space, and is used to handle the placement and movement of objects. It is possible to describe the position and orientation of each solid. Everything is in one big space called the world coordinate system, and if all objects are defined on this coordinate system from the beginning, it will be difficult to handle the display process.Therefore, the shape and deformation of each solid placed in the space will be difficult. Modeling coordinates are used to handle the The origin is set at one of the vertices or the vicinity of the solid, and the positions and orientations of the points, lines, surfaces, etc. that make up the solid are described. Display objects freely defined in individual modeling coordinate systems can all be placed on a unified world coordinate system to create a graphics space or a virtual three-dimensional world.

ここで、図13及び図14を用いて、仮想空間内での仮想の利用者の移動について説明する。図13及び図14は、ワールド座標上で仮想の参加者の配置位置を示した概念図である。図13では、仮想の利用者D1が特定の部屋(フロア)に入った時点の各仮想の利用者の位置を示している。図14は、仮想の利用者D1が特定の部屋(フロア)に入った後、矢印方向に異動した状態を示している。 Here, the movement of a virtual user within the virtual space will be explained using FIGS. 13 and 14. 13 and 14 are conceptual diagrams showing the placement positions of virtual participants on world coordinates. FIG. 13 shows the positions of each virtual user at the time when the virtual user D1 enters a specific room (floor). FIG. 14 shows a state in which the virtual user D1 enters a specific room (floor) and then moves in the direction of the arrow.

図13では、仮想の利用者A1,B1,C1,D1は、それぞれ、参加者位置a11,a12,a13,a14に位置している。また、同様に、仮想のディスプレイの位置d11~d15は、それぞれ、主催者位置a11、参加者位置a12、参加者位置a13、参加者位置a14、及び傍観者位置a15に合わせて配置されている。この状態では、位置管理DB6007の移動ベクトル欄には何ら管理されていない(又は、「0」として管理されている。
このような状態で、図14に示されているように、仮想の利用者D1が仮想の利用者A1の近距離の正面に移動すると、位置管理DB6007の移動ベクトル欄には移動の方向と移動の大きさ(距離)を示す移動ベクトルが管理される。
In FIG. 13, virtual users A1, B1, C1, and D1 are located at participant positions a11, a12, a13, and a14, respectively. Similarly, the virtual display positions d11 to d15 are arranged in accordance with the organizer position a11, participant position a12, participant position a13, participant position a14, and bystander position a15, respectively. In this state, nothing is managed in the movement vector column of the position management DB 6007 (or it is managed as "0").
In this state, as shown in FIG. 14, when the virtual user D1 moves to the front of the virtual user A1 at a short distance, the movement vector column of the position management DB 6007 shows the direction of movement and the movement. A movement vector indicating the size (distance) of is managed.

なお、上述のように、位置管理DB3007a~3007dは、位置管理DB6007と同様のデータ構成を有しているため、説明を省略する。 Note that, as described above, the location management DBs 3007a to 3007d have the same data structure as the location management DB 6007, so a description thereof will be omitted.

(通信管理サーバの各機能構成)
次に、図2及び図4を用いて、通信管理サーバ6の各機能構成について更に詳細に説明する。
(Functional configuration of communication management server)
Next, each functional configuration of the communication management server 6 will be described in more detail using FIGS. 2 and 4.

通信管理サーバ6の送受信部61は、ネットワークI/F609に対するCPU601の処理によって実現され、通信ネットワーク100を介して、他の装置(例えば、通信装置1、)との間で各種データ(または情報)の送受信を行う。 The transmission/reception unit 61 of the communication management server 6 is realized by the processing of the CPU 601 on the network I/F 609, and exchanges various data (or information) with other devices (for example, the communication device 1) via the communication network 100. Send and receive.

判断部65は、主に、CPU601の処理によって実現され、各種判断を行う。 The determining unit 65 is mainly realized by the processing of the CPU 601, and performs various determinations.

作成部66は、主にCPU601の処理によって実現され、画像データIDを作成する。 The creation unit 66 is mainly realized by the processing of the CPU 601, and creates an image data ID.

記憶・読出処理部69は、主に、図2に示されているHD604及びHD605に対するCPU601の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。 The storage/read processing unit 69 is mainly realized by the processing of the CPU 601 on the HD 604 and HD 605 shown in FIG. (or information).

〔実施形態の処理又は動作〕
続いて、図15乃至図34を用いて、本実施形態の処理又は動作について説明する。
[Processing or operation of embodiment]
Next, the processing or operation of this embodiment will be described using FIGS. 15 to 34.

<映像通話への参加>
まず、図15乃至図23を用いて、特定の通信セッション(仮想空間)への参加処理について説明する。図15は、特定の通信セッションへの参加処理を示したシーケンス図である。図16は、通信装置におけるログイン画面の表示例である。
<Participation in video call>
First, a process for participating in a specific communication session (virtual space) will be described using FIGS. 15 to 23. FIG. 15 is a sequence diagram showing a process for participating in a specific communication session. FIG. 16 is a display example of a login screen in a communication device.

まず、拠点Aの利用者(例えば、利用者A1)は、表示制御部34aがディスプレイ118上に表示するログイン画面において、自己の接続ID及びパスワードを入力し、「OK」ボタンを押下すると、受付部32aが接続ID及びパスワードを受け付け、送受信部31aが通信管理サーバ6に対して、ログイン要求を送信する(S21)。このログイン要求には、接続ID、パスワード、及び送信元(通信装置1a)のIPアドレスが含まれている。これにより、通信管理サーバ6の送受信部61は、ログイン要求を受信する。 First, the user of base A (for example, user A1) enters his or her own connection ID and password on the login screen displayed on the display 118 by the display control unit 34a, and presses the "OK" button. The unit 32a accepts the connection ID and password, and the transmitting/receiving unit 31a transmits a login request to the communication management server 6 (S21). This login request includes a connection ID, a password, and the IP address of the sender (communication device 1a). Thereby, the transmitting/receiving unit 61 of the communication management server 6 receives the login request.

次に、通信管理サーバ6の記憶・読出処理部69は、ログイン要求に含まれている接続ID及びパスワードを検索キーとして、通信管理DB6001(図6参照)を検索し、同一の接続ID及び同一のパスワードの組が管理されているかを判断することによって認証を行う(S22)。ここでは、記憶・読出処理部69によって、同一の接続ID及び同一のパスワードが管理されているものとして、続けて説明する。この場合、記憶・読出処理部69は、ステップS21で受信された送信元のIPアドレスを、認証に使った接続ID及びパスワードの組のレコードに追記する。 Next, the storage/read processing unit 69 of the communication management server 6 searches the communication management DB 6001 (see FIG. 6) using the connection ID and password included in the login request as a search key, and searches for the same connection ID and the same password. Authentication is performed by determining whether the set of passwords is managed (S22). Here, the explanation will be continued assuming that the same connection ID and the same password are managed by the storage/read processing unit 69. In this case, the storage/read processing unit 69 adds the sender's IP address received in step S21 to the record of the connection ID and password pair used for authentication.

次に、記憶・読出処理部69は、選択配置情報管理DB6005から全ての選択配置情報を読み出すと共に、固定配置情報管理DB6006から通信装置1aの接続IDを含む特定の固定配置情報を読み出す(S23)。そして、送受信部61は、通信装置1aに対して、認証が成功した旨の応答を送信する(S24)。この応答には、上記読み出された全ての選択配置情報及び通信装置1aに係る固定配置情報が含まれている。これにより、通信装置1aの送受信部11aは、応答を受信する。 Next, the storage/read processing unit 69 reads out all selected placement information from the selected placement information management DB 6005, and reads specific fixed placement information including the connection ID of the communication device 1a from the fixed placement information management DB 6006 (S23). . Then, the transmitting/receiving unit 61 transmits a response to the communication device 1a indicating that the authentication was successful (S24). This response includes all of the selected placement information read above and the fixed placement information regarding the communication device 1a. Thereby, the transmitting/receiving unit 11a of the communication device 1a receives the response.

次に、通信装置1aは、受信した選択配置情報及び固定配置情報(通信装置1aのみ)に基づいて、仮想の利用者A1の仮想空間上での位置を特定する処理を実行する。ここで、図17乃至図21を用いて、ステップS25の処理を詳細に説明する。図17は、位置の特定処理を示したフローチャートである。図18は、通信装置における配置位置種類の選択画面を示した図である。図19は、仮想の会社を選択するための選択画面の表示例を示した図である。図20は、仮想の部署を選択するための選択画面の表示例を示した図である。図21は、仮想の部屋(フロア)を選択するための選択画面の表示例を示した図である。 Next, the communication device 1a executes a process of specifying the position of the virtual user A1 in the virtual space based on the received selective placement information and fixed placement information (only the communication device 1a). Here, the process of step S25 will be explained in detail using FIGS. 17 to 21. FIG. 17 is a flowchart showing the position specifying process. FIG. 18 is a diagram showing a selection screen for the type of placement position in the communication device. FIG. 19 is a diagram showing a display example of a selection screen for selecting a virtual company. FIG. 20 is a diagram showing a display example of a selection screen for selecting a virtual department. FIG. 21 is a diagram showing a display example of a selection screen for selecting a virtual room (floor).

まず、図18に示すように、表示制御部34aは、選択配置情報に基づいて、通信装置1aのディスプレイ118上に、配置の種類を選択するための選択画面を表示する(S180)。この選択画面には、「選択配置」ボタンb1、及び「固定配置」ボタンb2が表示されている。「選択配置」ボタンb1は、利用者A1等が複数の仮想空間上の所望の部屋を選択して入る場合に押下するためのボタンである「固定配置」ボタンb2は、利用者A1等が予め定められている仮想空間上の個人の席付近に入る場合の押下するためのボタンである。 First, as shown in FIG. 18, the display control unit 34a displays a selection screen for selecting the type of arrangement on the display 118 of the communication device 1a based on the selected arrangement information (S180). This selection screen displays a "select placement" button b1 and a "fixed placement" button b2. The "select placement" button b1 is a button for user A1 etc. to press when selecting and entering a desired room in multiple virtual spaces.The "fixed placement" button b2 is a button for user A1 etc. to press in advance This is a button to be pressed when entering the vicinity of an individual's seat in a predetermined virtual space.

次に、利用者A1は、いずれかのボタンb1、b2を押下することで、受付部32aは選択を受け付ける(S181)。 Next, the user A1 presses either button b1 or b2, and the reception unit 32a accepts the selection (S181).

次に、判断部35aは、「選択配置」ボタンb1が押下されたと判断した場合(S182;YES)、表示制御部34aは、選択配置情報に基づいて、図19に示されているように、ディスプレイ118上に、訪問する会社を選択するための会社選択画面を表示する(S183)。この会社選択画面には、複数の会社のそれぞれを示す「会社」ボタンb11,b12,b13が表示されている。なお、「会社」ボタンは、いくつ表示されていてもよい。 Next, when the determining unit 35a determines that the “selected layout” button b1 has been pressed (S182; YES), the display control unit 34a, as shown in FIG. 19, based on the selected layout information. A company selection screen for selecting a company to visit is displayed on the display 118 (S183). This company selection screen displays "company" buttons b11, b12, and b13 indicating each of a plurality of companies. Note that any number of "company" buttons may be displayed.

ここで、利用者A1が所望のボタン(ここでは、「AA会社」ボタンb11)を押下すると、受付部32aは会社の選択を受け付ける(S184)。これにより、表示制御部34aは、選択配置情報に基づいて、図20に示されているように、ディスプレイ118上に、訪問する部署を選択するための部署選択画面を表示する(S185)。この部署選択画面には、複数の部署のそれぞれを示す「部署」ボタンb111,b112,b113が表示されている。なお、「部署」ボタンは、いくつ表示されていてもよい。 Here, when the user A1 presses a desired button (here, the "AA company" button b11), the reception unit 32a accepts the selection of the company (S184). Thereby, the display control unit 34a displays a department selection screen for selecting a department to visit on the display 118, as shown in FIG. 20, based on the selection arrangement information (S185). On this department selection screen, "Department" buttons b111, b112, and b113 indicating each of a plurality of departments are displayed. Note that any number of "department" buttons may be displayed.

ここで、利用者A1が所望のボタン(ここでは、「AA1本部」ボタンb111)を押下すると、受付部32aは部署の選択を受け付ける(S186)。これにより、表示制御部34aは、選択配置情報に基づいて、図21に示されているように、ディスプレイ118上に、訪問する部屋を選択するための部屋選択画面を表示する(S187)。この部署選択画面には、複数の部屋(フロア)のそれぞれを示す「部屋」ボタンb1111,b1112,b1113が表示されている。なお、「部屋」ボタンは、いくつ表示されていてもよい。 Here, when the user A1 presses a desired button (here, the "AA1 Headquarters" button b111), the reception unit 32a accepts the selection of the department (S186). Thereby, the display control unit 34a displays a room selection screen for selecting a room to visit on the display 118, as shown in FIG. 21, based on the selected arrangement information (S187). This department selection screen displays "room" buttons b1111, b1112, and b1113 indicating each of a plurality of rooms (floors). Note that any number of "room" buttons may be displayed.

ここで、利用者A1が所望のボタン(ここでは、「AA1本部」ボタンb111)を押下すると、受付部32aは部署の選択を受け付ける(S186)。これにより、表示制御部34aは、図21に示されているように、ディスプレイ118上に、訪問する部屋を選択するための部屋選択画面を表示する(S187)。この部署選択画面には、複数の部屋(フロア)のそれぞれを示す「部屋」ボタンb1111,b1112,b1113が表示されている。なお、「部屋」ボタンは、いくつ表示されていてもよい。 Here, when the user A1 presses a desired button (here, the "AA1 Headquarters" button b111), the reception unit 32a accepts the selection of the department (S186). Thereby, the display control unit 34a displays a room selection screen for selecting a room to visit on the display 118, as shown in FIG. 21 (S187). This department selection screen displays "room" buttons b1111, b1112, and b1113 indicating each of a plurality of rooms (floors). Note that any number of "room" buttons may be displayed.

ここで、利用者A1が所望のボタン(ここでは、「AA11室」ボタンb1111)を押下すると、受付部32aは部屋の選択を受け付ける(S188)。これにより、後述のステップS26によって、選択された部屋を示す位置情報が送信される。 Here, when the user A1 presses a desired button (here, the "AA11 room" button b1111), the reception unit 32a accepts the selection of the room (S188). As a result, position information indicating the selected room is transmitted in step S26, which will be described later.

一方、上記ステップS182によって、判断部35aは、「選択配置」ボタンb1が押下されなかった(つまり、「固定配置」ボタンb2が押下された)と判断した場合(S182;NO)、後述のステップS26によって、特定の仮想の部屋の自分の席周辺の位置を示す固定の位置情報が送信される。 On the other hand, if the determining unit 35a determines in step S182 that the "select placement" button b1 has not been pressed (that is, the "fixed placement" button b2 has been pressed) (S182; NO), the determination unit 35a performs the steps described below. In S26, fixed position information indicating the position around the user's seat in a specific virtual room is transmitted.

続いて、図15に戻り、送受信部31aは、通信管理サーバ6に対して、仮想空間への参加要求を送信する(ステップS26)。この参加要求には、ステップS25で選択を受け付けられたボタンに係る位置情報が含まれる。この位置情報には、選択された部屋に入るための通信セッションを示すセッションID、送信元(ここでは、通信装置1a)の接続ID、及び、ステップS24で受信された選択配置情報又は固定配置情報に含まれる変換パラメータのうち、ステップS25で選択された部屋の特定の位置を示すための変換パラメータが含まれている。これにより、通信管理サーバ6の送受信部51は、参加要求を受信する。 Next, returning to FIG. 15, the transmitting/receiving unit 31a transmits a request to participate in the virtual space to the communication management server 6 (step S26). This participation request includes position information related to the button whose selection was accepted in step S25. This location information includes a session ID indicating a communication session for entering the selected room, a connection ID of the transmission source (here, the communication device 1a), and the selected placement information or fixed placement information received in step S24. Among the conversion parameters included in , a conversion parameter for indicating the specific position of the room selected in step S25 is included. Thereby, the transmitting/receiving unit 51 of the communication management server 6 receives the participation request.

次に、記憶・読出処理部69は、セッション管理DB6002(図7参照)に対して、仮想空間への参加処理を行う(S27)。具体的には、記憶・読出処理部69は、セッション管理DB6002において、ステップS26で受信されたセッションIDと同じセッションIDのレコードに対して、ステップS26で受信された通信装置1aの接続IDを関連付けて管理する。 Next, the storage/read processing unit 69 performs virtual space participation processing on the session management DB 6002 (see FIG. 7) (S27). Specifically, the storage/read processing unit 69 associates the connection ID of the communication device 1a received in step S26 with the record having the same session ID as the session ID received in step S26 in the session management DB 6002. management.

次に、記憶・読出処理部69は、上記ステップS27で管理された接続IDに関連付けられているセッションIDと同じセッションIDに関連付けれている他の接続IDを読み出す(S28)。そして、記憶・読出処理部69は、位置管理DB6007に対して、ステップS26で受信された通信装置1aの接続IDを含む位置情報、及びステップS28で読み出した他の接続IDを含む位置情報を、それぞれ新たなレコードで登録する(S29)。 Next, the storage/read processing unit 69 reads out other connection IDs associated with the same session ID as the session ID associated with the connection ID managed in step S27 (S28). Then, the storage/read processing unit 69 sends the location information including the connection ID of the communication device 1a received in step S26 and the location information including other connection IDs read out in step S28 to the location management DB 6007. Each new record is registered (S29).

次に、送受信部61は、通信装置1aに対して、上記ステップS26の参加要求に対する参加要求応答を送信する(S30)。この参加要求応答には、上記同じセッションIDに関連付けられている全ての接続IDを含む位置情報が含まれている。これにより、通信装置1aの送受信部31aは、参加要求応答を受信する。そして、通信装置1aでは、記憶・読出処理部39aが、位置管理DB3007aに、ステップS30で受信された全ての位置情報を管理することで、位置管理DB3007aの内容を更新する(S31)。 Next, the transmitting/receiving unit 61 transmits a participation request response to the participation request in step S26 above to the communication device 1a (S30). This participation request response includes location information including all connection IDs associated with the same session ID. Thereby, the transmitting/receiving unit 31a of the communication device 1a receives the participation request response. Then, in the communication device 1a, the storage/read processing unit 39a updates the contents of the location management DB 3007a by managing all the location information received in step S30 in the location management DB 3007a (S31).

また同様に、送受信部61は、通信装置1bに対して、通信装置1aと同じ通信セッションに参加している通信装置1bに対して参加情報を送信する(S32)。この参加情報には、上記同じセッションIDに関連付けられている全ての接続IDを含む位置情報が含まれている。これにより、通信装置1bの送受信部31bは、参加情報を受信する。そして、通信装置1bでは、記憶・読出処理部39bが、位置管理DB3007bに、ステップS32で受信された全ての位置情報を管理することで、位置管理DB3007bの内容を更新する(S33)。なお、通信装置1aと同じ通信セッションに参加している通信装置1b以外の通信装置に対してもステップS32と同様の処理が行われ、通信装置1b以外の通信装置においてもステップS33と同様の処理が行われる。 Similarly, the transmitting/receiving unit 61 transmits participation information to the communication device 1b that is participating in the same communication session as the communication device 1a (S32). This participation information includes location information including all connection IDs associated with the same session ID. Thereby, the transmitter/receiver 31b of the communication device 1b receives the participation information. Then, in the communication device 1b, the storage/read processing unit 39b updates the contents of the location management DB 3007b by managing all the location information received in step S32 in the location management DB 3007b (S33). Note that the same process as step S32 is performed for communication devices other than the communication device 1b participating in the same communication session as the communication device 1a, and the same process as step S33 is performed for communication devices other than the communication device 1b. will be held.

なお、上記では、図18示されている各選択ボタンb1,b2等の選択後、図19乃至図図21に示されているボタンの選択が合計3回行われるが、これに限るものではない。例えば、図18において、会社、部署、部屋のうち少なくとも2つを含むボタンにより選択回数を減らすようにしてもよい。 In addition, in the above, after the selection buttons b1, b2, etc. shown in FIG. 18 are selected, the buttons shown in FIGS. 19 to 21 are selected a total of three times, but the selection is not limited to this. . For example, in FIG. 18, the number of selections may be reduced by buttons that include at least two of the company, department, and room.

<ディスプレイ情報の送信処理>
続いて、図22を用いて、ディスプレイ情報の送信処理について説明する。図22は、ディスプレイ情報の送信処理を示したシーケンス図である。
<Display information transmission process>
Next, display information transmission processing will be described using FIG. 22. FIG. 22 is a sequence diagram showing display information transmission processing.

まず、通信装置1aの送受信部31aは、通信管理サーバ6に対して、情報追加要求を送信する(S41)。この情報追加要求には、送信元である自装置(通信装置1a)の接続ID、及びディスプレイ情報が含まれている。これにより、通信管理サーバ6の送受信部61は、情報追加要求を受信する。 First, the transmitting/receiving unit 31a of the communication device 1a transmits an information addition request to the communication management server 6 (S41). This information addition request includes the connection ID of the sending device (communication device 1a) and display information. Thereby, the transmitting/receiving unit 61 of the communication management server 6 receives the information addition request.

次に、通信管理サーバ6の記憶・読出処理部69は、ステップS41によって受信された接続IDを検索キーとして、セッション管理DB6002(図7参照)を検索することにより、対応するセッションIDを読み出す(S42)。 Next, the storage/read processing unit 69 of the communication management server 6 reads the corresponding session ID by searching the session management DB 6002 (see FIG. 7) using the connection ID received in step S41 as a search key. S42).

更に、記憶・読出処理部69は、ディスプレイ管理DB6004(図8参照)に、1レコードのデータであるディスプレイ情報を記憶する(S43)。これにより、各通信装置1のディスプレイ情報を一元管理することができる。 Further, the storage/read processing unit 69 stores display information, which is one record of data, in the display management DB 6004 (see FIG. 8) (S43). Thereby, the display information of each communication device 1 can be centrally managed.

また、通信管理サーバ6は、同じ通信セッションに参加している通信装置がある場合、この通信装置に対して、通信装置1aの画像データID、接続ID、及びディスプレイ情報を伝えることで、情報共有する必要がある。そこで、通信管理サーバ6の送受信部61は、通信装置1aと同じ通信セッションに参加している他の通信装置(例えば、通信装置1b)に対して、情報追加通知を送信する(S48)。この情報追加通知には、画像データID、並びに、ステップS41で受信された送信元である通信装置1aの接続ID及びディプレイ情報が含まれている。これにより、通信装置1bの送受信部11bは、情報追加通知を受信する。 Furthermore, if there is a communication device participating in the same communication session, the communication management server 6 transmits the image data ID, connection ID, and display information of the communication device 1a to this communication device, thereby sharing information. There is a need to. Therefore, the transmitting/receiving unit 61 of the communication management server 6 transmits an information addition notification to another communication device (for example, the communication device 1b) participating in the same communication session as the communication device 1a (S48). This information addition notification includes the image data ID, and the connection ID and display information of the communication device 1a that is the transmission source received in step S41. Thereby, the transmitting/receiving unit 11b of the communication device 1b receives the information addition notification.

以上より、同じ通信セッションの仮想空間に参加した全ての通信装置は、他の通信装置の情報追加情報を共有することができる。 As described above, all communication devices that have participated in the virtual space of the same communication session can share additional information of other communication devices.

<画像データ及び音データの送信>
続いて、図23乃至図24を用いて、画像データ及び音データの送信処理について説明する。図23は、所定の通信装置(例えば、通信装置1a)から送信された輝度画像データ、深度画像データ及び音データが他の通信装置に届くまでの処理を示したシーケンス図である。図24は、送信される輝度画像データと深度画像データの概念図である。
<Transmission of image data and sound data>
Next, the image data and sound data transmission process will be explained using FIGS. 23 and 24. FIG. 23 is a sequence diagram illustrating processing until brightness image data, depth image data, and sound data transmitted from a predetermined communication device (for example, communication device 1a) reach another communication device. FIG. 24 is a conceptual diagram of brightness image data and depth image data to be transmitted.

まず、図23を用いて、通信装置1aから通信管理サーバ6を介して、複数の他の通信装置1b,1c,1dに画像データ(ここでは、輝度画像データ及び深度画像データ)並びに音データを送信する場合の処理について説明する。 First, using FIG. 23, image data (in this case, brightness image data and depth image data) and sound data are transmitted from the communication device 1a to a plurality of other communication devices 1b, 1c, and 1d via the communication management server 6. The process for sending will be explained.

まず、通信装置1aは、拠点Aで撮影及び集音を開始することで、輝度画像取得部36aが輝度画像データを取得し、深度画像取得部37aが深度画像データを取得し、集音部38aが音データを取得する(S101)。この場合、通信装置1aは、動画撮影を行うが、静止画撮影であってもよい。 First, the communication device 1a starts photographing and collecting sound at base A, so that the brightness image acquisition unit 36a acquires brightness image data, the depth image acquisition unit 37a acquires depth image data, and the sound collection unit 38a acquires sound data (S101). In this case, the communication device 1a shoots a moving image, but it may also shoot a still image.

次に、通信装置1aでは、記憶・読出処理部39aは、位置管理DB3007aに対して自装置(通信装置1a)の移動ベクトルの更新を行う(S102)。そして、通信装置1aの送受信部31aは、通信管理サーバ6に対して、画像データ(輝度画像データ、深度画像データ)及び音データに加え、送信元としての通信装置1aの接続IDを送信する(S103)。この場合、画像データには、自装置から送信する画像を識別するための画像データID、及びステップ102で更新された移動ベクトルTaaが含まれている。これにより、通信管理サーバ6の送受信部61は、画像データ(輝度画像データ、深度画像データ、及び画像データID、移動ベクトルTaa)、音データ、並びに送信元である通信装置1aの接続IDを受信する。 Next, in the communication device 1a, the storage/read processing unit 39a updates the movement vector of the own device (communication device 1a) in the position management DB 3007a (S102). Then, the transmitting/receiving unit 31a of the communication device 1a transmits the connection ID of the communication device 1a as the transmission source, in addition to image data (luminance image data, depth image data) and sound data, to the communication management server 6 ( S103). In this case, the image data includes an image data ID for identifying the image transmitted from the device itself, and the movement vector Taa updated in step 102. As a result, the transmission/reception unit 61 of the communication management server 6 receives the image data (luminance image data, depth image data, image data ID, movement vector Taa), sound data, and the connection ID of the communication device 1a that is the transmission source. do.

ここで、図3及び図24を用いて、送信される輝度画像データと深度画像データについて説明する。図3では、自画像撮り用の撮影ユニット105が設けられているため、画像データには、輝度画像Lc1のデータ及び深度画像Dc1のデータが含まれる。輝度画像Lc1及び深度画像Dc1のデータは、撮影ユニット105によって取得されたデータである。 Here, the transmitted luminance image data and depth image data will be explained using FIGS. 3 and 24. In FIG. 3, since the photographing unit 105 for taking self-portraits is provided, the image data includes data of the luminance image Lc1 and data of the depth image Dc1. The data of the brightness image Lc1 and the depth image Dc1 are data acquired by the photographing unit 105.

例えば、輝度画像Lc1及び深度画像Dc1のデータの解像度は、それぞれ4Kであるが、図24に示されているように、送信元の通信装置1は、合計2のデータを1つの画像データに圧縮して合成することで、この1つの画像データの解像度が4Kになる。なお、4Kは一例であり、HD、FHD、8K等であってもよい。 次に、図23に戻り、通信管理サーバ6では、記憶・読出処理部69aは、位置管理DB6007に対して通信装置1aの移動ベクトルの更新を行う(S104)。そして、通信管理サーバ6の送受信部61は、セッション管理DB6002(図7参照)を利用することで、通信装置1aと同じ通信セッションの映像通話に参加している他の各通信装置1b~1dに対して、画像データ(輝度画像データ、深度画像データ、画像データID、移動ベクトルTaa)、音データ、並びに送信元である通信装置1aの接続IDを送信する(S105,S107,S109)。これにより、各通信装置1b,1c,1dの送受信部31b,31c,31dは、画像データ(輝度画像データ、深度画像データ、、画像データID、移動ベクトルTaa)、音データ、並びに送信元である通信装置1aの接続IDを受信する。 For example, the data resolution of the luminance image Lc1 and the depth image Dc1 is each 4K, but as shown in FIG. 24, the transmission source communication device 1 compresses a total of 2 data into one image data. By combining these images, the resolution of this single image data becomes 4K. Note that 4K is an example, and HD, FHD, 8K, etc. may also be used. Next, returning to FIG. 23, in the communication management server 6, the storage/read processing unit 69a updates the movement vector of the communication device 1a in the position management DB 6007 (S104). Then, by using the session management DB 6002 (see FIG. 7), the transmitting/receiving unit 61 of the communication management server 6 communicates with each of the other communication devices 1b to 1d participating in the video call in the same communication session as the communication device 1a. In response, image data (luminance image data, depth image data, image data ID, movement vector Taa), sound data, and the connection ID of the communication device 1a that is the transmission source are transmitted (S105, S107, S109). As a result, the transmitting/receiving units 31b, 31c, and 31d of each of the communication devices 1b, 1c, and 1d transmit image data (luminance image data, depth image data, image data ID, movement vector Taa), sound data, and transmission sources. Receive the connection ID of the communication device 1a.

そして、各通信装置1b,1c,1dでは、記憶・読出処理部39b,c,dが、それぞれ位置管理DB3007b,c,dに、通信装置1aの移動ベクトルの更新を行う(S106,S108,S110)。 Then, in each communication device 1b, 1c, 1d, the storage/read processing unit 39b, c, d updates the movement vector of the communication device 1a in the position management DB 3007b, c, d, respectively (S106, S108, S110 ).

<画像データ及び音データの受信>
続いて、図25乃至図33を用いて、画像データ及び音データの受信の処理について説明する。図25は、通信装置1dによる画像データ及び音データの受信の処理を示すシーケンス図である。
<Receiving image data and sound data>
Next, the process of receiving image data and sound data will be described using FIGS. 25 to 33. FIG. 25 is a sequence diagram showing the process of receiving image data and sound data by the communication device 1d.

図25に示されているように、通信装置1aでは、記憶・読出処理部39aが位置管理DB3007aに対して自装置(通信装置1a)の移動ベクトルの更新を行う(S121)。このステップS121の処理は、図23のステップS102と同じである。 As shown in FIG. 25, in the communication device 1a, the storage/read processing unit 39a updates the movement vector of the own device (communication device 1a) in the position management DB 3007a (S121). The process in step S121 is the same as step S102 in FIG. 23.

次に、送受信部31aは、通信管理サーバ6に対して、画像データ(輝度画像データ、深度画像データ、画像データID、移動ベクトルTaa)、音データ、及び送信元としての通信装置1aの接続IDを送信する(S122)。これにより、通信管理サーバ6の送受信部61は、画像データ、音データ、及び通信装置1aの接続IDを受信する。このステップS122処理は、図23のステップS103と同じである。そして、通信管理サーバ6では、記憶・読出処理部69aは、位置管理DB6007に対して通信装置1aの移動ベクトルの更新を行う(S123)。このステップS123の処理は、図23のステップS104と同じである。 Next, the transmitting/receiving unit 31a sends image data (luminance image data, depth image data, image data ID, movement vector Taa), sound data, and the connection ID of the communication device 1a as the transmission source to the communication management server 6. (S122). Thereby, the transmitting/receiving unit 61 of the communication management server 6 receives the image data, the sound data, and the connection ID of the communication device 1a. This step S122 processing is the same as step S103 in FIG. Then, in the communication management server 6, the storage/read processing unit 69a updates the movement vector of the communication device 1a in the position management DB 6007 (S123). The process in step S123 is the same as step S104 in FIG. 23.

次に、通信管理サーバ6の送受信部61は、セッション管理DB6002(図7参照)を利用することで、通信装置1aと同じ通信セッションの映像通話に参加している他の通信装置1dに対して、画像データ(輝度画像データ、深度画像データ、画像データID、移動ベクトルTaa)、音データ、並びに送信元である通信装置1aの接続IDを送信する(S124)。これにより、通信装置1dの送受信部31dは、画像データ、音データ、並びに通信装置1aの接続IDを受信する。この処理は、図23のステップS109と同じである。 Next, by using the session management DB 6002 (see FIG. 7), the transmitting/receiving unit 61 of the communication management server 6 communicates with the other communication device 1d participating in the video call in the same communication session as the communication device 1a. , image data (luminance image data, depth image data, image data ID, movement vector Taa), sound data, and the connection ID of the communication device 1a that is the transmission source (S124). Thereby, the transmitting/receiving unit 31d of the communication device 1d receives the image data, the sound data, and the connection ID of the communication device 1a. This process is the same as step S109 in FIG.

同様に、通信装置1dの送受信部31dは、通信管理サーバ6から、通信装置1bの画像データ(輝度画像データ、深度画像データ、画像データID、移動ベクトルTab)、音データ、及び送信元としての通信装置1bの接続IDを受信する(S125)。また、通信装置1dの送受信部31dは、通信管理サーバ6から、通信装置1cの画像データ(輝度画像データ、深度画像データ、画像データID、移動ベクトルTac)、音データ、及び送信元としての通信装置1cの接続IDを受信する(S126)。 Similarly, the transmitting/receiving unit 31d of the communication device 1d receives image data (luminance image data, depth image data, image data ID, movement vector Tab), sound data, and a transmission source of the communication device 1b from the communication management server 6. The connection ID of the communication device 1b is received (S125). Further, the transmitting/receiving unit 31d of the communication device 1d receives from the communication management server 6 image data (luminance image data, depth image data, image data ID, movement vector Tac) of the communication device 1c, sound data, and communication as a transmission source. The connection ID of the device 1c is received (S126).

続いて、通信装置1dでは、画像・音処理部33dが、ステップS124~S125及び、図22のステップS44と同様に受信した情報追加通知によって受信された各データに基づいて、画像表示及び音出力の処理を行う(S127)。この場合、音出力は、各音データ(電気信号)を振動に変換する一般的な処理であるため、図26を用いて、画像表示の処理について詳細に説明する。 Next, in the communication device 1d, the image/sound processing unit 33d performs image display and sound output based on each data received in steps S124 to S125 and the information addition notification received similarly to step S44 in FIG. The following process is performed (S127). In this case, since the sound output is a general process of converting each sound data (electrical signal) into vibration, the image display process will be described in detail using FIG. 26.

<画像表示の処理>
図26は、画像表示の処理を示したフローチャートである。
<Image display processing>
FIG. 26 is a flowchart showing image display processing.

まず、記憶・読出処理部39dは、図25のステップS124~S126によって受信された接続IDを検索キーとして、位置管理DB3007dを検索することで、この接続IDを含む全ての位置情報(セッションIDを除く)を読み出す(S201)。そして、画像・音処理部33dは、ステップS201で読み出された自装置(通信装置1d)の利用者D1の仮想空間上での位置と、ステップS201で読み出された他の通信装置1a,1b,1cの利用者A1,B1,C1の仮想空間上でのそれぞれの位置との距離を計測する(S202)。 First, the storage/read processing unit 39d searches the location management DB 3007d using the connection ID received in steps S124 to S126 in FIG. ) is read out (S201). Then, the image/sound processing unit 33d stores the position of the user D1 in the virtual space of the own device (communication device 1d) read out in step S201, the position of the other communication device 1a read out in step S201, The distances between 1b and 1c and the respective positions of users A1, B1, and C1 on the virtual space are measured (S202).

ここで、図27を用いて、仮想の利用者Dと距離との関係を説明する。図27は、仮想の利用者D1からの距離と表示される画像の例を示した図である。なお、表示される画像は、後ほど説明する。図27に示されているように、仮想の利用者Dから近い位置との距離が第1の距離で、遠い位置との距離が第2の距離である。 Here, the relationship between the virtual user D and the distance will be explained using FIG. 27. FIG. 27 is a diagram showing an example of the distance from the virtual user D1 and the displayed image. Note that the displayed images will be explained later. As shown in FIG. 27, the distance from the virtual user D to a nearby position is the first distance, and the distance from the far position is the second distance.

そして、図26に戻り、距離が第1の距離未満の場合(S203;第1の距離未満)、ステップS204の処理に進む。また、距離が第2の距離以上の場合(S203;第2の距離以上)、ステップS211の処理に進む。更に、距離が第1の距離以上で第2の距離未満の場合(S213;第1の距離以上、第2の距離未満)、ステップS213の処理に進む。 Then, returning to FIG. 26, if the distance is less than the first distance (S203; less than the first distance), the process proceeds to step S204. Furthermore, if the distance is equal to or greater than the second distance (S203; equal to or greater than the second distance), the process proceeds to step S211. Further, if the distance is greater than or equal to the first distance and less than the second distance (S213; greater than or equal to the first distance and less than the second distance), the process proceeds to step S213.

(第1の距離未満の場合の表示処理)
ここで、第1の距離未満の場合の表示処理について説明する。
(Display processing when the distance is less than the first distance)
Here, display processing when the distance is less than the first distance will be explained.

((ワールド座標系にける物体の位置の算出処理))
最初に、通信装置1dは、ワールド座標系における物体の位置を算出する(S204)。ここで、図28乃至図31を用いて、画像種類が輝度・深度画像の場合の表示処理を詳細に説明する。図28は、ワールド座標系にける物体の位置の算出処理を示すフローチャートである。
((Calculation process of object position in world coordinate system))
First, the communication device 1d calculates the position of the object in the world coordinate system (S204). Here, display processing when the image type is a brightness/depth image will be described in detail using FIGS. 28 to 31. FIG. 28 is a flowchart showing the process of calculating the position of an object in the world coordinate system.

まず、画像・音処理部33dが、仮想空間上(モデリング座標系)における自拠点を含めた各拠点の輝度画像データ及び深度画像データに基づいて、物体の画像を3次元化する(S221)。 First, the image/sound processing unit 33d converts an image of an object into three dimensions based on the brightness image data and depth image data of each base including the own base in the virtual space (modeling coordinate system) (S221).

ここで、図29を用いて、物体の画像の3次元化を説明する。図29は、カメラ座標系からモデリング座標系への変換、及びモデリング座標系からワールド座標系への変換の概念図である。なお、カメラ座標系は、現実の世界である3次元の世界を物理的なカメラを原点として投影面における世界の見え方を定める座標系である。リアル座標で与えられる座標を、カメラの座標系で見た座標系に変換する必要ある。 Here, using FIG. 29, three-dimensionalization of an image of an object will be explained. FIG. 29 is a conceptual diagram of the conversion from the camera coordinate system to the modeling coordinate system and the conversion from the modeling coordinate system to the world coordinate system. Note that the camera coordinate system is a coordinate system that determines how the world looks on a projection plane, with the physical camera as the origin in the three-dimensional world that is the real world. It is necessary to convert the coordinates given in real coordinates to the coordinate system seen in the camera's coordinate system.

現実空間の複数の拠点の利用者の画像を仮想の会議室等の1つの仮想空間に登場させるため、画像・音処理部33dは、各拠点の現実空間の物体を、一旦、個別に第1の仮想空間としてのモデリング座標系(Modeling Coordinate System)で定義することで3次元化し、その後に、各物体の画像を1つのワールド座標系(World Coordinate System)で定義する必要がある。 In order to cause images of users at multiple bases in real space to appear in one virtual space such as a virtual conference room, the image/sound processing unit 33d first individually converts objects in the real space of each base to the first It is necessary to make it three-dimensional by defining it in a modeling coordinate system (Modeling Coordinate System) as a virtual space, and then define the image of each object in one world coordinate system (World Coordinate System).

そのため、まず、画像・音処理部33dは、図24に示されているようにカメラ座標系(Camera Coordinate System)にて定義された輝度画像Lc1及び深度画像Dc1等の5つの組の画像を、(式1)を利用して、1つの第1の仮想空間上(モデリング座標系)に変換することで、3次元化を行う。図29では、物体として利用者A1が表されている。この場合、モデリング座標系における利用者A1の画像は、図29の拡大図evに示されているように、多数の点の集合によって示される。本実施形態では、5台の輝度深度撮影デバイス5a~5eによって5アングルにより撮影されているため、利用者A1の画像は、多数の点が重なった集合体として表される。このようにして、利用者A1,B1,C1,D1がそれぞれ独立して別々のモデリング座標系で定義される(3次元化される)。 Therefore, first, the image/sound processing unit 33d processes five sets of images, such as the luminance image Lc1 and the depth image Dc1, defined in the camera coordinate system as shown in FIG. Three-dimensionalization is performed by converting onto one first virtual space (modeling coordinate system) using (Equation 1). In FIG. 29, user A1 is represented as an object. In this case, the image of user A1 in the modeling coordinate system is represented by a set of many points, as shown in the enlarged view ev of FIG. In this embodiment, since images are taken from five angles by five brightness depth photographing devices 5a to 5e, the image of user A1 is represented as a collection of many overlapping points. In this way, users A1, B1, C1, and D1 are each independently defined in separate modeling coordinate systems (3-dimensionalized).

Figure 2023134045000002
Figure 2023134045000002

なお、ベクトルPは射影行列であり、ベクトルP-1は、カメラ座標系からリアル座標系へ変換するための行列である。ベクトルMは、リアル座標系からモデリング座標系へ変換するための行列である。この出力値は、モデリング座標系の点(座標)及び色情報を示す。 Note that the vector P is a projection matrix, and the vector P-1 is a matrix for converting from the camera coordinate system to the real coordinate system. Vector M is a matrix for converting from the real coordinate system to the modeling coordinate system. This output value indicates the point (coordinates) of the modeling coordinate system and color information.

次に、図28に戻り、記憶・読出処理部39dは、記憶部3000dに記憶されている自装置(通信装置1d)のディスプレイ情報を読み出す(S222)。そして、画像・音処理部33dが、ディスプレイ情報における「仮想空間上(モデリング座標系)のディスプレイの各隅の位置の情報」に基づいて、モデリング座標系に自拠点の仮想ディスプレイ(仮想スクリーンともいう)ddを配置する(S223)。図30は、モデリング座標系に利用者D1の画像と仮想ディスプレイを配置した概念図である。例えば、画像・音処理部33dは、図30に示されているように、自拠点の利用者D1の画像に対して更に仮想ディスプレイddを配置(定義)する。 Next, returning to FIG. 28, the storage/read processing unit 39d reads out the display information of the own device (communication device 1d) stored in the storage unit 3000d (S222). The image/sound processing unit 33d then displays the virtual display (also referred to as a virtual screen) of its own base in the modeling coordinate system based on "information on the position of each corner of the display in the virtual space (modeling coordinate system)" in the display information. ) dd is placed (S223). FIG. 30 is a conceptual diagram in which the image of the user D1 and the virtual display are arranged in the modeling coordinate system. For example, as shown in FIG. 30, the image/sound processing unit 33d further arranges (defines) a virtual display dd on the image of the user D1 at its own location.

また、図28に戻り、記憶・読出処理部39dは、位置管理DB3007d(図12参照)から、同じ通信セッションの映像通話に参加中の利用者(通信装置)の接続IDに関連付けられている「モデリング座標系からワールド座標系への変換パラメータ」及び「移動ベクトル」を読み出す(S224)。そして、画像・音処理部33dは、各物体の画像と自拠点の仮想ディスプレイを、仮想空間上においてモデリング座標系からワールド座標系にモデリング変換する(S225)。 Returning to FIG. 28, the storage/read processing unit 39d also retrieves, from the location management DB 3007d (see FIG. 12), " ``Conversion parameters from modeling coordinate system to world coordinate system'' and ``movement vector'' are read out (S224). Then, the image/sound processing unit 33d performs modeling conversion of the image of each object and the virtual display of its own base from the modeling coordinate system to the world coordinate system in the virtual space (S225).

ここで、再び図29を用いて、モデリング座標系からワールド座標系への変換を説明する。 Here, the conversion from the modeling coordinate system to the world coordinate system will be explained using FIG. 29 again.

画像・音処理部33dは、図29に示されているように、モデリング座標系の利用者A1の画像を、(式2)を利用して、1つの共通の第2の仮想空間上(ワールド座標系)にモデリング変換(Modeling Transformation)する。なお、モデリング変換は、モデリング座標系上で定義された表示物体をワールド座標系上に配置するための変換処理であり、表示物体の拡大縮小、回転、せん断及び平行移動という四つの変換処理の組み合わせを示す。 As shown in FIG. 29, the image/sound processing unit 33d converts the image of the user A1 in the modeling coordinate system onto a common second virtual space (world) using (Equation 2). Modeling Transformation to (coordinate system). Modeling transformation is a transformation process to place a display object defined on a modeling coordinate system on a world coordinate system, and is a combination of four transformation processes: scaling, rotation, shearing, and parallel translation of a display object. shows.

Figure 2023134045000003
Figure 2023134045000003

なお、ベクトルWは、モデリング座標系からワールド座標系へ変換するための行列である。この出力値は、ワールド座標系の点(座標)及び色情報を示す。 Note that the vector W is a matrix for converting from the modeling coordinate system to the world coordinate system. This output value indicates a point (coordinates) in the world coordinate system and color information.

図31は、モデリング座標系からワールド座標系への変換を示したイメージ図である。図31に示されているように、画像・音処理部33dは、各モデリング座標系のA1,B1,C1,D1の画像及び自拠点の仮想ディスプレイdd4を、1つの共通のワールド座標系にモデリング変換する。これにより、各拠点の利用者A1,B1,C1,D1の画像が、共通の通信セッションの映像通話に参加することができる。 FIG. 31 is an image diagram showing the conversion from the modeling coordinate system to the world coordinate system. As shown in FIG. 31, the image/sound processing unit 33d models the images A1, B1, C1, D1 of each modeling coordinate system and the virtual display dd4 of its own base into one common world coordinate system. Convert. Thereby, images of users A1, B1, C1, and D1 at each base can participate in a video call of a common communication session.

((利用者が見える画像の表示))
続いて、図26に戻り、利用者D1が通信装置1で見ることができる画像を表示する処理を説明する。
((Displaying images visible to the user))
Next, returning to FIG. 26, the process of displaying an image that the user D1 can view on the communication device 1 will be described.

図26に示されているように、画像・音処理部33aが、輝度画像取得部36dによって取得された輝度画像データ及び深度画像取得部37dによって取得された輝度画像データに基づき、利用者D1の目、鼻、肩等の骨格情報を検出する(S204)。 As shown in FIG. 26, the image/sound processing section 33a uses the luminance image data acquired by the luminance image acquisition section 36d and the luminance image data acquired by the depth image acquisition section 37d to Skeletal information such as eyes, nose, shoulders, etc. is detected (S204).

次に、画像・音処理部33aが、骨格情報の両目の中心を視点位置として、この視点位置に基づき、図31の中央部に示されているようなワールド座標系における利用者D1が仮想ディスプレイddによって見ることができる他の利用者A1等の画像を作成する(S205)。換言すると、画像・音処理部33aは、ワールド座標系の表示物体を視点位置に基づき仮想ディスプレイddに表示される画像に変換する。この変換は、ワールド座標系から視点座標系への変換を意味し、視野変換と呼ばれる。視点座標系は、仮想空間上でのカメラの位置(視点)を原点とし、利用者が見たい方向(被写体が存在する方向)に広がっている座標系である。 Next, the image/sound processing unit 33a sets the center of both eyes of the skeleton information as a viewpoint position, and based on this viewpoint position, the user D1 in the world coordinate system as shown in the center of FIG. An image of another user A1 etc. that can be viewed using dd is created (S205). In other words, the image/sound processing unit 33a converts the display object in the world coordinate system into an image displayed on the virtual display dd based on the viewpoint position. This transformation means transformation from the world coordinate system to the viewpoint coordinate system, and is called visual field transformation. The viewpoint coordinate system is a coordinate system that has its origin at the position of the camera (viewpoint) in virtual space and extends in the direction the user wants to view (the direction in which the subject exists).

ワールド座標系において、視点から仮想ディスプレイdd上の画素に向かうレイトレーシング(Ray Tracing)法によるレイ(ray)とポリゴン(3Dモデルを構成する仮想的な三角形や多角形等)との交点を計算する。このレイは、画像方向から視点に向かう光線を、視点から逆にたどるものである。この方法は、光線追跡法とよばれ、視線を逆に辿ることから、視線逆探索法とも呼ばれる。そして、視点に最も近い交点、すなわちレイと最初に交差する物体(コンピュータグラフィックスの分野では、上記「ポリゴン」と呼ばれる)を求め、その物体の色で仮想ディスプレイ上の画素を塗る。レイと交差する物体(ポリゴン)が存在しない場合には、画素に対して背景色を塗る。この処理を仮想ディスプレイdd全体の画素に対して行うことにより仮想ディスプレイddに表示される画像が作成される。 In the world coordinate system, calculate the intersection of a ray directed from the viewpoint to a pixel on the virtual display dd using the ray tracing method and a polygon (virtual triangle, polygon, etc. that makes up the 3D model) . This ray is a ray that travels from the image direction toward the viewpoint and traces it back from the viewpoint. This method is called the ray tracing method, and is also called the reverse line-of-sight search method because it traces the line of sight in the opposite direction. Then, it finds the intersection closest to the viewpoint, that is, the object that first intersects with the ray (in the field of computer graphics, it is called the above-mentioned "polygon"), and paints the pixels on the virtual display with the color of that object. If there is no object (polygon) that intersects with the ray, paint the pixel with the background color. By performing this process on the pixels of the entire virtual display dd, an image displayed on the virtual display dd is created.

なお、光線追跡法以外にも、Zバッファ法などが存在し、仮想ディスプレイddで表示される画像を作成する方法は、上記方法に限定されるものではない。 In addition to the ray tracing method, there are other methods such as the Z buffer method, and the method for creating an image displayed on the virtual display dd is not limited to the above method.

次に、画像・音処理部33aは、上記作成した仮想空間上(ワールド座標系)の画像を現実空間上の通信装置1dのディスプレイ118上に表示するための画像に変換する(S206)。そして、表示制御部34dは、現実空間上の通信装置1dのディスプレイ118上に、ステップS206で変換した後の画像を表示する(S207)。この場合、ディスプレイ118に画像が表示される空間は2次元平面画像であり、解像度は、コンピュータの性能、特にビデオボード(又はグラフィックスボード)に搭載されている表示メモリなどのデバイスに依存するため、デバイス座標系と呼ばれる。 Next, the image/sound processing unit 33a converts the image in the virtual space (world coordinate system) created above into an image to be displayed on the display 118 of the communication device 1d in the real space (S206). Then, the display control unit 34d displays the image converted in step S206 on the display 118 of the communication device 1d in the real space (S207). In this case, the space in which the image is displayed on the display 118 is a two-dimensional plane image, and the resolution depends on the performance of the computer, especially devices such as display memory installed on the video board (or graphics board). , called the device coordinate system.

(第2の距離以上の場合の表示処理)
次に、第2の距離以上の場合の表示処理について説明する。
(Display processing when the distance is greater than or equal to the second distance)
Next, display processing when the distance is greater than or equal to the second distance will be described.

記憶・読出処理部39dは、記憶部3000dから、予め記憶されているアイコンのデータを読み出す。なお、アイコンは、キャラクタ画像の一例である。キャラクタ画像には、アバターも含まれる。 The storage/reading processing unit 39d reads pre-stored icon data from the storage unit 3000d. Note that the icon is an example of a character image. Character images also include avatars.

次に、画像・音処理部33dは、仮想の利用者D1と計測の対象となった他の仮想の利用者との距離に応じてアイコンの大きさを変更する。例えば、図27に示されているように、仮想の利用者Dから第2の距離以上において、近い場合にアイコン大C1に変更し、次に遠い場合にアイコン中C2に変更し、更に遠い場合にアイコン小C3に変更する。ここでは、三段階の変更を示しているが、何段階の変更を行ってもよい。そして、ステップS212の処理後、上記ステップS205の処理に進む。 Next, the image/sound processing unit 33d changes the size of the icon according to the distance between the virtual user D1 and another virtual user who is the object of measurement. For example, as shown in FIG. 27, at a second distance or more from the virtual user D, if it is close, the icon is changed to large C1, if it is further away, the icon is changed to medium C2, and if it is further away Change the icon to small C3. Although three stages of change are shown here, changes may be made in any number of stages. After the process in step S212, the process proceeds to step S205.

(第1の距離以上で第2の距離未満場合の表示処理)
次に、第1の距離以上で第2の距離未満場合の表示処理について説明する。この場合、画像・音処理部33aは、図24に示されるような合計10個の画像のうち、仮想の利用者D1と計測の対象となった他の仮想の利用者の正面となる輝度画像Lcのみで平面画像を作成する(S213)。例えば、図27に示されているように、仮想の利用者Dから第1の距離以上で第2の距離未満においては、平面画像Bが作成される。そして、ステップS213の処理後、上記ステップS205の処理に進む。
(Display processing when the first distance is greater than or equal to the second distance)
Next, display processing when the distance is greater than or equal to the first distance and less than the second distance will be described. In this case, the image/sound processing unit 33a selects a luminance image in front of the virtual user D1 and the other virtual user targeted for measurement, out of a total of 10 images as shown in FIG. A planar image is created using only Lc (S213). For example, as shown in FIG. 27, a plane image B is created at a distance greater than or equal to the first distance and less than the second distance from the virtual user D. After the process in step S213, the process proceeds to step S205.

<画像の表示例>
続いて、図32及び図33を用いて、図26におけるステップS207による様々な表示例を説明する。
<Image display example>
Next, various display examples in step S207 in FIG. 26 will be explained using FIGS. 32 and 33.

(会議の参加者(利用者D1)に見せる表示例)
((初期表示))
図32は、利用者D1の通信装置のディスプレイ118に表示された画像を示す図である。また、図32は、図13に示されている仮想参加者の配置位置に基づいた表示例である。図32に示されいるように、仮想空間上(ここでは、ワールド座標系)において、利用者D1の視線の向こうには、右斜め前の少し奥に利用者A1の平面画像、左斜め前の更に奥に利用者B1の正面を示すアイコン大、真正面の一番奥に利用者C1の背面を示すアイコン小が位置している。また、各利用者の名前も表示されている。この名前は、通信管理DB6001に管理されている名前の情報によって表示される。この名前の情報は、接続IDと共に通信管理サーバ6から予め各通信装置1に送信されている。なお、仮想空間上(ワールド座標系)の1つの位置に、原則として一人の利用者しか存在しない。
(Example of display shown to conference participants (user D1))
((Initial display))
FIG. 32 is a diagram showing an image displayed on the display 118 of the communication device of the user D1. Further, FIG. 32 is a display example based on the arrangement positions of the virtual participants shown in FIG. 13. As shown in FIG. 32, in the virtual space (here, the world coordinate system), beyond the line of sight of the user D1, there is a plane image of the user A1 diagonally in front of the right and a little further back; Furthermore, a large icon showing the front of the user B1 is located at the back, and a small icon showing the back of the user C1 is located at the farthest back directly in front. The name of each user is also displayed. This name is displayed using name information managed in the communication management DB 6001. This name information is sent in advance to each communication device 1 from the communication management server 6 along with the connection ID. Note that, in principle, only one user exists at one position in the virtual space (world coordinate system).

このように、表示制御部34dは、通信装置1dのディスプレイ118上に、利用者A1,B1,C1に係る各種画像を合成した合成画像を表示させる。 In this way, the display control unit 34d causes the display 118 of the communication device 1d to display a composite image obtained by combining various images of the users A1, B1, and C1.

((移動後表示))
続いて、利用者D1が現実空間上でマウス13等を操作することで、図14に示されているように、仮想空間上で仮想の利用者D1が仮想の利用者A1の近くまで移動した場合の表示について、図33を用いて説明する。図33は、利用者D1の通信装置のディスプレイ118に表示された画像を示す図である。
((Displayed after moving))
Next, as the user D1 operates the mouse 13 or the like in the real space, the virtual user D1 moves close to the virtual user A1 in the virtual space, as shown in FIG. The display in this case will be explained using FIG. 33. FIG. 33 is a diagram showing an image displayed on the display 118 of the communication device of the user D1.

図33に示されいるように、仮想空間上(ここでは、ワールド座標系)において、利用者D1の視線の向こうには、真正面の近傍に利用者の立体画像、左斜め前の少し奥に利用者B1の平面画像、少し左斜め前の更に奥に利用者C1背面を示すアイコン中が位置している。このように、表示制御部34dは、通信装置1dのディスプレイ118上に、利用者A1,B1,C1に係る各種画像を合成した合成画像を表示させる。 As shown in FIG. 33, in the virtual space (here, the world coordinate system), beyond the line of sight of the user D1, there is a 3D image of the user in the immediate vicinity, and a 3D image of the user is located diagonally to the left and a little further back. In the plane image of user B1, an icon indicating the back of user C1 is located slightly diagonally to the left and further back. In this way, the display control unit 34d causes the display 118 of the communication device 1d to display a composite image obtained by combining various images of the users A1, B1, and C1.

〔実施形態の主な効果〕
以上説明したように本実施形態によれば、表示制御部34dは、仮想空間上における自拠点と他拠点の距離に応じて、送受信部31dで受信された画像データに基づく他拠点における被写体の画像と、この被写体に係るキャラクタ画像とを切り替えて表示する。これにより、仮想空間内にいる仮想の利用者C1等が、誰から見られているか分からず安心感が無いという課題をできるだけ解消することができる。
[Main effects of the embodiment]
As described above, according to the present embodiment, the display control unit 34d displays an image of the subject at the other base based on the image data received by the transmitting/receiving unit 31d, depending on the distance between the own base and the other base in the virtual space. and a character image related to this subject are displayed while being switched. This makes it possible to eliminate as much as possible the problem that the virtual user C1 and the like in the virtual space do not feel safe because they do not know who is watching them.

また、表示制御部34dは、仮想空間上における自拠点と他拠点の距離に応じて、送受信部31っで受信された輝度画像のデータに基づく他拠点における被写体の平面画像と、同じく受信された輝度画像及び深度画像のデータに基づく他拠点における被写体の立体画像とを切り替えて表示する。これにより、利用者D1は、名前を忘れたが顔を覚えている利用者が仮想空間内に参加していることや、利用者の表情を把握することができる。また、仮想空間上で利用者D1と他の利用者(例えば、図34の利用者A1)の距離がかなり近くなると、平面画像から立体画像に変わるため、コミュニケーションを行う利用者と同室感を得ることできる。 The display control unit 34d also displays a planar image of the subject at another base based on the brightness image data received by the transmitting/receiving unit 31, and a flat image of the subject at the other base based on the data of the brightness image received by the transmitting/receiving unit 31, depending on the distance between the own base and the other base in the virtual space. A stereoscopic image of a subject at another base based on brightness image and depth image data is switched and displayed. This allows the user D1 to know that a user whose name he has forgotten but whose face he remembers is participating in the virtual space, and to understand the facial expressions of the users. Furthermore, when the distance between user D1 and another user (for example, user A1 in FIG. 34) becomes quite close in the virtual space, the two-dimensional image changes to a three-dimensional image, giving the user a feeling of being in the same room as the user with whom they are communicating. I can do that.

また、表示制御部34dは、仮想空間上における自拠点と他拠点の間の距離に応じて、複数サイズのキャラクタ画像を切り替えて表示する。更に、表示制御部34dは、仮想空間上における自拠点と他拠点の間の距離が短くなるにつれて、キャラクタ画像のサイズを大きくして表示する。これにより、利用者D1にとっては、利用者がアイコンで表示される場合であっても、仮想の利用者に近づいたことが分かる。なお、利用者D1は、アイコンで示される仮想の利用者の表情を把握することができないが、表示される名前で誰が仮想空間上に存在するかを把握することができる。 Further, the display control unit 34d switches and displays character images of a plurality of sizes depending on the distance between the own base and other bases in the virtual space. Further, the display control unit 34d increases the size of the character image and displays it as the distance between the own base and other bases in the virtual space becomes shorter. As a result, the user D1 knows that he has approached the virtual user even if the user is displayed as an icon. Note that although the user D1 cannot grasp the facial expressions of the virtual users indicated by the icons, he can grasp who exists in the virtual space from the displayed names.

〔補足〕
上記通信管理サーバ6は、単純に「サーバ」と呼んでも良い。通信管理サーバ6は、クラウドコンピューティング(Cloud Computing)の形態で提供されてもよい。クラウドコンピューティングとは、インターネットなどのコンピュータネットワークを経由して、コンピュータ資源をサービスの形で提供する利用形態を示し、提供されるコンピュータ資源がサーバである。提供するサービスの形態は、SaaS(Software as a Service)、PaaS(Platform as a Service)、HaaSまたはIaaS(Hardware / Infrastructure as a Service)等あるが、サービスの提供形態は、制限されない。
〔supplement〕
The communication management server 6 may be simply called a "server". The communication management server 6 may be provided in the form of cloud computing. Cloud computing refers to a usage form in which computer resources are provided in the form of services via a computer network such as the Internet, and the provided computer resources are servers. The forms of services provided include SaaS (Software as a Service), PaaS (Platform as a Service), HaaS, and IaaS (Hardware/Infrastructure as a Service), but the form of service provision is not limited.

更に、上記実施形態では、図29に示されているように、各通信装置1が、各拠点の現実空間の物体を、一旦、個別に第1の仮想空間としてのモデリング座標系で定義することで3次元化し、その後に各物体の画像を1つのワールド座標系に変換させているが、これに限るものではない。例えば、通信管理サーバ6が、各拠点の現実空間の物体を、一旦、個別に第1の仮想空間としてのモデリング座標系で定義することで3次元化し、その後に各物体の画像を1つのワールド座標系に変換させてもよい。この場合、通信管理サーバ6は、ワールド座標系に変換後の画像データを各拠点の通信装置1に送信する。即ち、第1の通信装置(例えば、通信装置1d)と、第2の通信装置(例えば、通信装置1a)と、サーバ(例えば、通信管理サーバ6)とを備える通信システムは、第1の通信装置で撮影した画像データと第2の通信装置で撮影した画像データを用いて、仮想空間上の第1の通信装置における被写体の位置と仮想空間上の第2通信装置における被写体の位置との変更可能な位置関係に応じて生成された表示画像を提供する提供手段と、前記提供手段で提供された表示画像を表示する表示制御手段とを備える。 Furthermore, in the above embodiment, as shown in FIG. 29, each communication device 1 once individually defines objects in the real space of each base in the modeling coordinate system as the first virtual space. Although the images of each object are converted into three-dimensional images using a single world coordinate system, the present invention is not limited to this. For example, the communication management server 6 converts the objects in the real space of each base into three-dimensional objects by individually defining them in the modeling coordinate system as the first virtual space, and then converts the images of each object into one world. It may also be converted into a coordinate system. In this case, the communication management server 6 transmits the image data converted into the world coordinate system to the communication device 1 at each base. That is, a communication system including a first communication device (for example, communication device 1d), a second communication device (for example, communication device 1a), and a server (for example, communication management server 6) is configured to Changing the position of the subject in the first communication device in virtual space and the position of the subject in the second communication device in virtual space using image data captured by the device and image data captured by the second communication device. The apparatus includes a providing means for providing a display image generated according to possible positional relationships, and a display control means for displaying the display image provided by the providing means.

上記実施形態で説明した各CPUは、1つの装置に複数設けられていてもよい。 A plurality of CPUs described in the above embodiments may be provided in one device.

また、上記実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU(Graphics Processing Unit)や従来の回路モジュール等のデバイスを含むものとする。 Furthermore, each function of the above embodiments can be realized by one or more processing circuits. Here, the term "processing circuit" as used herein refers to a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function explained above. It includes devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array), SOC (System on a chip), GPU (Graphics Processing Unit), and conventional circuit modules.

更に、各通信装置1a~1d、及び通信管理サーバ6との間の通信において、他のサーバやルータ等がデータを中継してもよい。 Furthermore, in communication between each of the communication devices 1a to 1d and the communication management server 6, other servers, routers, etc. may relay data.

1a 通信装置(他の通信装置の一例、第1の他の通信装置の一例)
1b 通信装置(他の通信装置の一例、第2の他の通信装置の一例)
1c 通信装置(他の通信装置の一例)
1d 通信装置(自装置の一例)
118 ディスプレイ(表示手段の一例)
6 通信管理サーバ
31d 送受信部(送信手段の一例、受信手段の一例、第2の受信手段の一例)
32d 受付部(受付手段の一例)
34d 表示制御部(表示制御手段の一例)
61 送受信部(第1の受信手段の一例)
1a Communication device (an example of another communication device, an example of the first other communication device)
1b Communication device (an example of another communication device, an example of a second other communication device)
1c Communication device (an example of other communication device)
1d Communication device (an example of own device)
118 Display (an example of display means)
6 Communication management server 31d Transmitting/receiving unit (an example of a transmitting means, an example of a receiving means, an example of a second receiving means)
32d Reception department (an example of reception means)
34d Display control unit (an example of display control means)
61 Transmitting/receiving unit (an example of first receiving means)

Claims (8)

他拠点における他の通信装置と通話を行う通信装置であって、
前記他の通信装置が前記他拠点の被写体を撮影することで得た当該他拠点の画像データを前記他の通信装置が送信することによって、当該画像データを受信する受信手段と、
仮想空間上における自拠点と他拠点の距離に応じて、前記受信された画像データに基づく前記他拠点における被写体の画像と、当該被写体に係るキャラクタ画像とを切り替えて表示する表示制御手段と、
を有することを特徴とする通信装置。
A communication device that makes a call with another communication device at another base,
Receiving means for receiving image data by the other communication device transmitting image data of the other base obtained by the other communication device photographing a subject at the other base;
a display control means for switching and displaying an image of a subject at the other base based on the received image data and a character image related to the subject according to a distance between the own base and the other base in a virtual space;
A communication device comprising:
請求項1に記載の通信装置において、
前記画像データは、前記他の通信装置が現実空間上の前記他拠点における被写体を撮影することで得た当該他拠点の輝度画像及び深度画像のデータであり、
前記表示制御手段は、前記仮想空間上における自拠点と他拠点の距離に応じて、前記受信された輝度画像のデータに基づく前記他拠点における被写体の平面画像と、前記受信された輝度画像及び深度画像のデータに基づく前記他拠点における被写体の立体画像とを切り替えて表示することを特徴とする通信装置。
The communication device according to claim 1,
The image data is data of a brightness image and a depth image of the other base obtained by the other communication device photographing a subject at the other base in real space,
The display control means displays a planar image of the object at the other base based on data of the received brightness image, and the received brightness image and depth, according to the distance between the own base and the other base in the virtual space. A communication device that switches between displaying a stereoscopic image of a subject at the other location based on image data.
前記表示制御手段は、前記仮想空間上における自拠点と他拠点の間の距離に応じて、複数サイズの前記キャラクタ画像を切り替えて表示することを特徴とする請求項1又は2に記載の通信装置。 The communication device according to claim 1 or 2, wherein the display control means switches and displays the character images of a plurality of sizes depending on the distance between the own base and another base in the virtual space. . 前記仮想空間上における自拠点と他拠点の間の距離が短くなるにつれて、前記キャラクタ画像のサイズを大きくして表示することを特徴とする請求項3に記載の通信装置。 4. The communication device according to claim 3, wherein the size of the character image is increased and displayed as the distance between the own base and the other base in the virtual space becomes shorter. 前記キャラクタ画像は、アバター又はアイコンであることを特徴とする請求項1乃至4のいずれか一項に記載の通信装置。 5. The communication device according to claim 1, wherein the character image is an avatar or an icon. 他拠点における他の通信装置と通信を行う通信装置と、当該通信装置と通信可能な通信管理サーバとを備える通信システムであって、
前記通信管理サーバは、
前記他の通信装置が前記他拠点の被写体を撮影することで得た当該他拠点の画像データを前記他の通信装置が送信した当該画像データを受信する第1の受信手段と、
前記画像データを前記通信装置に送信する送信手段と、
を備え、
前記通信装置は、
前記サーバから前記画像データを受信する第2の受信手段と、
仮想空間上における自拠点と前記他拠点の距離に応じて、受信された前記画像データに基づく前記他拠点における被写体の画像と、当該被写体に係るキャラクタ画像とを切り替えて表示する表示制御手段と、
を有することを特徴とする通信システム。
A communication system comprising a communication device that communicates with another communication device at another base, and a communication management server capable of communicating with the communication device, the communication system comprising:
The communication management server includes:
a first receiving unit that receives image data of the other base obtained by the other communication device photographing a subject at the other base, and the image data transmitted by the other communication device;
transmitting means for transmitting the image data to the communication device;
Equipped with
The communication device includes:
second receiving means for receiving the image data from the server;
a display control means for switching and displaying an image of a subject at the other base based on the received image data and a character image related to the subject according to a distance between the own base and the other base in a virtual space;
A communication system comprising:
他拠点における他の通信装置と通話を行う通信装置が実行する表示方法であって、
前記他の通信装置が前記他拠点の被写体を撮影することで得た当該他拠点の画像データを前記他の通信装置が送信することによって、当該画像データを受信する受信ステップと、
仮想空間上における自拠点と他拠点の距離に応じて、前記受信された画像データに基づく前記他拠点における被写体の画像と、当該被写体に係るキャラクタ画像とを切り替えて表示する表示制御ステップと、
を実行することを特徴とする表示方法。
A display method executed by a communication device that makes a call with another communication device at another base,
a receiving step in which the other communication device transmits image data of the other base obtained by photographing a subject at the other base, and thereby receives the image data;
a display control step of switching and displaying an image of a subject at the other base based on the received image data and a character image related to the subject, depending on a distance between the own base and the other base in a virtual space;
A display method characterized by performing.
コンピュータに、請求項7に記載の方法を実行させるプログラム。 A program that causes a computer to execute the method according to claim 7.
JP2022039375A 2022-03-14 2022-03-14 Communication apparatus, communication system, display method, and program Pending JP2023134045A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022039375A JP2023134045A (en) 2022-03-14 2022-03-14 Communication apparatus, communication system, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022039375A JP2023134045A (en) 2022-03-14 2022-03-14 Communication apparatus, communication system, display method, and program

Publications (1)

Publication Number Publication Date
JP2023134045A true JP2023134045A (en) 2023-09-27

Family

ID=88143459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022039375A Pending JP2023134045A (en) 2022-03-14 2022-03-14 Communication apparatus, communication system, display method, and program

Country Status (1)

Country Link
JP (1) JP2023134045A (en)

Similar Documents

Publication Publication Date Title
CN109891365B (en) Virtual reality and cross-device experience
JP5784818B2 (en) Anchoring virtual images to the real world surface in augmented reality systems
US20120192088A1 (en) Method and system for physical mapping in a virtual world
JP2023134045A (en) Communication apparatus, communication system, display method, and program
CN113508354A (en) Representation of a display environment
Pereira et al. Hybrid Conference Experiences in the ARENA
JP2023092729A (en) Communication device, communication system, display method, and program
JP2023134065A (en) Communication device, communication system, display method, and program
JP2023134089A (en) Communication device, communication system, display method, and program
JP7029118B2 (en) Image display method, image display system, and image display program
JP2023134220A (en) Communication system, communication management server, communication management method, and program
WO2024057650A1 (en) Electronic device
WO2023043607A1 (en) Aligning scanned environments for multi-user communication sessions

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231024