JP7006356B2 - Communication terminals, communication systems, communication methods, and programs - Google Patents

Communication terminals, communication systems, communication methods, and programs Download PDF

Info

Publication number
JP7006356B2
JP7006356B2 JP2018027274A JP2018027274A JP7006356B2 JP 7006356 B2 JP7006356 B2 JP 7006356B2 JP 2018027274 A JP2018027274 A JP 2018027274A JP 2018027274 A JP2018027274 A JP 2018027274A JP 7006356 B2 JP7006356 B2 JP 7006356B2
Authority
JP
Japan
Prior art keywords
image
communication
display
communication terminal
restriction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018027274A
Other languages
Japanese (ja)
Other versions
JP2019145959A (en
Inventor
健一郎 森田
毅史 本間
洋平 大村
拓也 曽根田
久実子 吉田
貴文 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018027274A priority Critical patent/JP7006356B2/en
Publication of JP2019145959A publication Critical patent/JP2019145959A/en
Priority to JP2022000825A priority patent/JP7279825B2/en
Application granted granted Critical
Publication of JP7006356B2 publication Critical patent/JP7006356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示内容は、通信端末、通信システム、通信方法、及びプログラムに関する。 The present disclosure relates to communication terminals, communication systems, communication methods, and programs.

インターネット等の通信ネットワークを介して、遠隔地との間で遠隔会議を行う会議システムが普及している。この会議システムにおいては、遠隔会議を行う出席者等の当事者の一方がいる会議室において、遠隔会議システムの通信端末を用いて会議の当事者などの会議室の画像および発言などの音声を撮影および収集し、これらをデジタルデータに変換して相手方の通信端末に送信している。これにより、相手方の会議室のディスプレイに画像表示およびスピーカにより音声出力して、映像通話(ビデオ通話)を行なうことができるため、実際の会議に近い状態で遠隔地間の会議を行う技術が知られている(特許文献1参照)。 A conference system for conducting a remote conference with a remote location via a communication network such as the Internet has become widespread. In this conference system, in a conference room where one of the parties such as attendees who hold a remote conference is present, the communication terminal of the remote conference system is used to capture and collect images and voices of the conference room such as the parties to the conference. However, these are converted into digital data and transmitted to the other party's communication terminal. As a result, it is possible to make a video call (video call) by displaying an image on the display of the other party's conference room and outputting voice through a speaker. (See Patent Document 1).

また、通信端末に全天球パノラマ画像をリアルタイムに取得可能な撮影装置を接続し、この撮影装置から取得された全天球(パノラマ)画像を相手方の各通信端末に配信し、相手方の各通信端末において、全天球画像から矩形の平面画像に逐次画像変換処理を行ってディスプレイ等に表示する技術が知られている(特許文献2参照)。 In addition, a photographing device capable of acquiring a spherical panoramic image in real time is connected to a communication terminal, and the spherical (panoramic) image acquired from this photographing device is distributed to each communication terminal of the other party, and each communication of the other party is performed. A technique is known in a terminal that sequentially performs image conversion processing from a spherical image to a rectangular plane image and displays it on a display or the like (see Patent Document 2).

更に、普段勤務しているオフィス(居室)に通信端末と画像データをリアルタイムに取得可能なデバイスを配置し、遠隔勤務している従業員が自宅等に配置した通信端末との間で接続を確立することでオフィスの状況を常に把握したり、同時にオフィスからも遠隔勤務している従業員の状態を常に把握したりできるようにするシステムが知られている(特許文献3参照)。 Furthermore, a communication terminal and a device capable of acquiring image data in real time are placed in the office (living room) where the employee normally works, and a connection is established between the communication terminal placed at home by an employee who works remotely. There is known a system that makes it possible to constantly grasp the situation of the office and at the same time always grasp the state of employees who work remotely from the office (see Patent Document 3).

ところが、送受信される画像データが全天球画像データの場合、全天球画像データの受信側の拠点は送信側の拠点を広範囲に表示することができるため、送信側の拠点における機密性が高いものまで表示してしまう。そこで、従来、送信側の拠点において、パノラマ画像などの広範囲を撮影した画像の中から、セキュリティ等の観点から送信又は表示したくない禁止領域を指定し、表示可能領域内で出来るだけ広範囲の画像を表示するための方法が開示されている(特許文献4参照)。 However, when the transmitted / received image data is spherical image data, the base on the receiving side of the spherical image data can display the base on the transmitting side in a wide range, so that the base on the transmitting side is highly confidential. Even things are displayed. Therefore, conventionally, from the images taken over a wide range such as panoramic images at the base on the transmitting side, a prohibited area that is not to be transmitted or displayed from the viewpoint of security etc. is specified, and the widest possible image within the viewable area. Is disclosed (see Patent Document 4).

しかしながら、従来の方法では、画像データの受信側の拠点では、大雑把でもよいので、送信側の拠点全体の状況を把握したいというニーズに対応することができないという課題が生じる。 However, in the conventional method, since the base on the receiving side of the image data may be rough, there arises a problem that the need for grasping the situation of the entire base on the transmitting side cannot be met.

請求項1に係る発明は、他の通信端末が受信するように、全天球画像のデータを送信する通信端末であって、前記他の通信端末が前記全天球画像を表示する場合に表示領域を前記全天球画像の一部の所定領域内に制限するための表示制限パラメータを、前記他の通信端末が受信するように送信する送信手段を有し、前記送信手段は、前記他の通信端末が受信するように、前記表示領域の制限を解除する旨の指示を示す表示制限解除指示情報を送信する通信端末である。 The invention according to claim 1 is a communication terminal that transmits data of an all-sky image so that another communication terminal can receive the data, and is displayed when the other communication terminal displays the all-sky image. The transmission means has a transmission means for transmitting a display limiting parameter for limiting a region to a predetermined region of a part of the whole celestial sphere image so that the other communication terminal can receive the region, and the transmission means has the other transmission means. It is a communication terminal that transmits display restriction release instruction information indicating an instruction to release the restriction of the display area so that the communication terminal receives.

以上説明したように本発明によれば、画像データの受信側の拠点では、大雑把でもよいので、送信側の拠点全体の状況を把握したいというニーズに対応することができるという効果を奏する。 As described above, according to the present invention, since the base on the receiving side of the image data may be rough, it is possible to meet the needs of grasping the situation of the entire base on the transmitting side.

(a)は撮影装置の左側面図であり、(b)は撮影装置の正面図であり、(c)は撮影装置の平面図である。(A) is a left side view of the photographing device, (b) is a front view of the photographing device, and (c) is a plan view of the photographing device. 撮影装置の使用イメージ図である。It is a use image figure of a photographing apparatus. (a)は撮影装置で撮影された半球画像(前)、(b)は撮影装置で撮影された半球画像(後)、(c)はメルカトル図法により表された画像を示した図である。(A) is a hemispherical image (front) taken by the photographing device, (b) is a hemispherical image (rear) taken by the photographing device, and (c) is a diagram showing an image represented by the Mercator projection. (a)メルカトル画像で球を被う状態を示した概念図、(b)全天球パノラマ画像を示した図である。(A) A conceptual diagram showing a state of covering a sphere in a Mercator image, and (b) a diagram showing a panoramic image of an omnidirectional sphere. 全天球パノラマ画像を3次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。It is a figure which showed the position of the virtual camera and a predetermined area when the whole celestial sphere panoramic image is made into a three-dimensional three-dimensional sphere. (a)は図5の立体斜視図、(b)は通信端末のディスプレイに所定領域の画像が表示されたている状態を示す図、(c)は図6(b)の一部領域を拡大した場合の新たな所定領域画像を表わす図である。(A) is a three-dimensional perspective view of FIG. 5, (b) is a diagram showing a state in which an image of a predetermined area is displayed on the display of a communication terminal, and (c) is an enlarged part of the area of FIG. 6 (b). It is a figure which shows the new predetermined area image at the time of this. 所定領域情報と所定領域Tの画像との関係を示した図である。It is a figure which showed the relationship between the predetermined area information and the image of a predetermined area T. 球座標による3次元ユークリッド空間内の点を示した図である。It is a figure which showed the point in 3D Euclidean space by spherical coordinates. 本発明の実施形態に係る画像通信システムの概略図である。It is a schematic diagram of the image communication system which concerns on embodiment of this invention. 撮影装置のハードウェア構成図である。It is a hardware block diagram of a photographing apparatus. ビデオ会議端末のハードウェア構成図である。It is a hardware configuration diagram of a video conference terminal. 通信管理システム及びPCのハードウェア構成図である。It is a hardware block diagram of a communication management system and a PC. スマートフォンのハードウェア構成図である。It is a hardware configuration diagram of a smartphone. 画像通信システムの機能ブロック図である。It is a functional block diagram of an image communication system. 画像種類管理テーブルを示す概念図である。It is a conceptual diagram which shows the image type management table. 撮影装置管理テーブルを示す概念図である。It is a conceptual diagram which shows the photographing apparatus management table. 表示制限管理テーブルを示す概念図である。It is a conceptual diagram which shows the display restriction management table. 表示被制限管理テーブルを示す概念図である。It is a conceptual diagram which shows the display restriction management table. セッション管理テーブルを示す概念図である。It is a conceptual diagram which shows the session management table. 画像種類管理テーブルを示す概念図である。It is a conceptual diagram which shows the image type management table. 全表示制限管理テーブルを示す概念図である。It is a conceptual diagram which shows the all display restriction management table. 特定の通信セッションへの参加処理を示したシーケンス図である。It is a sequence diagram which showed the participation process to a specific communication session. 通信セッション(仮想の会議室)の選択画面を示した図である。It is a figure which showed the selection screen of a communication session (virtual conference room). 画像種類情報の管理処理を示すシーケンス図である。It is a sequence diagram which shows the management process of image type information. 映像通話における画像データの通信処理を示すシーケンス図である。It is a sequence diagram which shows the communication process of the image data in a video call. 所定領域画像の作成処理を示したフローチャートである。It is a flowchart which showed the creation process of the predetermined area image. (a)は撮影装置1aを利用しない場合を示し、(b)は撮影装置1aを利用する場合を示している。(A) shows the case where the photographing apparatus 1a is not used, and (b) shows the case where the photographing apparatus 1a is used. 拠点Bにおける映像通話の画面例を示し、(a)は、撮影装置1a,1bから送られて来た画像データから、全天球パノラマ画像の作成及び所定領域画像の作成をせずに、そのまま表示する場合を示し、図28(b)は、撮影装置1a,1bから送られて来た画像データから、全天球パノラマ画像の作成及び所定領域画像の作成をした場合を示している。An example of a screen of a video call at the base B is shown, and (a) is as it is without creating a spherical panoramic image and a predetermined area image from the image data sent from the photographing devices 1a and 1b. A display case is shown, and FIG. 28B shows a case where an omnidirectional panoramic image and a predetermined area image are created from the image data sent from the photographing devices 1a and 1b. 表示制限パラメータを設定する処理を示すシーケンス図である。It is a sequence diagram which shows the process of setting a display restriction parameter. 被制限側の要求により、表示制限パラメータの設定を解除する処理を示すシーケンス図である。It is a sequence diagram which shows the process of canceling the setting of a display restriction parameter by the request of the restricted side. 制限側の要求により、表示制限パラメータの設定を解除する処理を示すシーケンス図である。It is a sequence diagram which shows the process of canceling the setting of a display restriction parameter by the request of the restriction side. 通知画面を含む映像通話の画面例である。This is an example of a video call screen including a notification screen. 承認要求画面を含む映像通話の画面例である。This is an example of a video call screen including an approval request screen. 「表示制限の解除」ボタンを含む映像通話の画面例である。This is an example of a video call screen including a "release restriction" button. 制限側の指示により、表示制限パラメータの設定を変更する処理を示すシーケンス図である。It is a sequence diagram which shows the process of changing the setting of a display restriction parameter by the instruction of the restriction side. 変更画面を含む映像通話の画面例である。This is a screen example of a video call including a change screen.

以下、図面を用いて、本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<<実施形態の概略>>
<全天球パノラマ画像の生成方法>
図1乃至図8を用いて、全天球パノラマ画像の生成方法について説明する。
<< Outline of Embodiment >>
<How to generate a panoramic image of the whole celestial sphere>
A method of generating a spherical panoramic image will be described with reference to FIGS. 1 to 8.

まず、図1を用いて、撮影装置1の外観を説明する。撮影装置1は、全天球(360°)パノラマ画像の元になる撮影画像を得るためのデジタルカメラである。なお、図1(a)は撮影装置の左側面図であり、図1(b)は撮影装置の正面図であり、図1(c)は撮影装置の平面図である。 First, the appearance of the photographing apparatus 1 will be described with reference to FIG. The photographing device 1 is a digital camera for obtaining a captured image that is the basis of a panoramic image of an omnidirectional (360 °) panorama. 1 (a) is a left side view of the photographing device, FIG. 1 (b) is a front view of the photographing device, and FIG. 1 (c) is a plan view of the photographing device.

図1(a)に示されているように、撮影装置1は、人間が片手で持つことができる大きさである。また、図1(a),図1(b),図1(c)に示されているように、撮影装置1の上部には、正面側(前側)に撮像素子103a及び背面側(後側)に撮像素子103bが設けられている。これら撮像素子(画像センサ)103a,103bは、半球画像(画角180°以上)の撮影が可能な光学部材(例えば、後述する魚眼レンズ102a,102b)と併せて用いられる。また、図1(b)に示されているように、撮影装置1の正面側と反対側の面には、シャッターボタン等の操作部115が設けられている。 As shown in FIG. 1 (a), the photographing device 1 has a size that a human can hold with one hand. Further, as shown in FIGS. 1 (a), 1 (b), and 1 (c), the image sensor 103a and the back side (rear side) are on the front side (front side) of the upper part of the photographing apparatus 1. ) Is provided with an image pickup device 103b. These image pickup elements (image sensors) 103a and 103b are used together with an optical member (for example, fisheye lenses 102a and 102b described later) capable of capturing a hemispherical image (angle of view of 180 ° or more). Further, as shown in FIG. 1B, an operation unit 115 such as a shutter button is provided on the surface of the photographing device 1 opposite to the front side.

次に、図2を用いて、撮影装置1の使用状況を説明する。なお、図2は、撮影装置の使用イメージ図である。撮影装置1は、図2に示されているように、例えば、ユーザが手に持ってユーザの周りの被写体を撮影するために用いられる。この場合、図1に示されている撮像素子103a及び撮像素子103bによって、それぞれユーザの周りの被写体が撮像されることで、2つの半球画像を得ることができる。 Next, the usage status of the photographing apparatus 1 will be described with reference to FIG. Note that FIG. 2 is an image diagram of the use of the photographing apparatus. As shown in FIG. 2, the photographing device 1 is used, for example, for the user to hold the image in his / her hand and photograph a subject around the user. In this case, two hemispherical images can be obtained by taking an image of a subject around the user by the image sensor 103a and the image sensor 103b shown in FIG. 1, respectively.

次に、図3及び図4を用いて、撮影装置1で撮影された画像から全天球パノラマ画像が作成されるまでの処理の概略を説明する。なお、図3(a)は撮影装置で撮影された半球画像(前側)、図3(b)は撮影装置で撮影された半球画像(後側)、図3(c)はメルカトル図法により表された画像(以下、「メルカトル画像」という)を示した図である。図4(a)はメルカトル画像で球を被う状態を示した概念図、図4(b)は全天球パノラマ画像を示した図である。 Next, the outline of the process from the image taken by the photographing apparatus 1 to the creation of the spherical panoramic image will be described with reference to FIGS. 3 and 4. 3 (a) is a hemispherical image (front side) taken by the photographing device, FIG. 3 (b) is a hemispherical image (rear side) taken by the photographing device, and FIG. 3 (c) is represented by the Mercator projection. It is a figure which showed the image (hereinafter, referred to as "Mercator image"). FIG. 4A is a conceptual diagram showing a state of covering a sphere in a Mercator image, and FIG. 4B is a diagram showing a panoramic image of an omnidirectional sphere.

図3(a)に示されているように、撮像素子103aによって得られた画像は、後述の魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図3(b)に示されているように、撮像素子103bによって得られた画像は、後述の魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮影装置1によって合成され、図3(c)に示されているように、メルカトル画像が作成される。 As shown in FIG. 3A, the image obtained by the image pickup device 103a is a hemispherical image (front side) curved by the fisheye lens 102a described later. Further, as shown in FIG. 3B, the image obtained by the image pickup device 103b is a hemispherical image (rear side) curved by the fisheye lens 102b described later. Then, the hemispherical image (front side) and the hemispherical image (rear side) inverted by 180 degrees are combined by the photographing apparatus 1, and a Mercator image is created as shown in FIG. 3 (c).

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図4(a)に示されているように、メルカトル画像が球面を覆うように貼り付けられ、図4(b)に示されているような全天球パノラマ画像が作成される。このように、全天球パノラマ画像は、メルカトル画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2-Dimensions)および3D(3-Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。なお、全天球パノラマ画像は、静止画であっても動画であってもよい。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 4 (a), the Mercator image is pasted so as to cover the spherical surface, and in FIG. 4 (b). An omnidirectional panoramic image as shown is created. In this way, the spherical panoramic image is represented as an image in which the Mercator image faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The spherical panoramic image may be a still image or a moving image.

以上のように、全天球パノラマ画像は、球面を覆うように貼り付けられた画像であるため、人間が見ると違和感を持ってしまう。そこで、全天球パノラマ画像の一部の所定領域(以下、「所定領域画像」という)を湾曲の少ない平面画像として表示することで、人間に違和感を与えない表示をすることができる。これに関して、図5及び図6を用いて説明する。 As described above, since the spherical panoramic image is an image pasted so as to cover the spherical surface, it gives a sense of discomfort to humans. Therefore, by displaying a part of the predetermined area of the spherical panoramic image (hereinafter referred to as “predetermined area image”) as a flat image with less curvature, it is possible to display the image without giving a sense of discomfort to humans. This will be described with reference to FIGS. 5 and 6.

なお、図5は、全天球パノラマ画像を三次元の立体球とした場合の仮想カメラ及び所定領域の位置を示した図である。仮想カメラICは、三次元の立体球として表示されている全天球パノラマ画像に対して、その画像を見るユーザの視点の位置に相当するものである。また、図6(a)は図5の立体斜視図、図6(b)はディスプレイに表示された場合の所定領域画像を表す図、図6(c)は図6(b)の一部領域を拡大した場合の新たな所定領域画像を表わす図である。 Note that FIG. 5 is a diagram showing the positions of a virtual camera and a predetermined area when the panoramic image of the whole celestial sphere is a three-dimensional three-dimensional sphere. The virtual camera IC corresponds to the position of the viewpoint of the user who sees the panoramic image of the whole celestial sphere displayed as a three-dimensional three-dimensional sphere. 6 (a) is a three-dimensional perspective view of FIG. 5, FIG. 6 (b) is a diagram showing a predetermined area image when displayed on a display, and FIG. 6 (c) is a partial area of FIG. 6 (b). It is a figure which shows the new predetermined area image at the time of enlarging.

図6(a)では、図4に示されている全天球パノラマ画像が、三次元の立体球CSで表わされている。このように生成された全天球パノラマ画像が、立体球CSであるとすると、図5に示されているように、仮想カメラICが全天球パノラマ画像の外部に位置している。全天球パノラマ画像における所定領域Tは、仮想カメラICの撮影領域であり、全天球パノラマ画像を含む三次元の仮想空間における仮想カメラICの撮影方向と画角を示す所定領域情報によって特定される。 In FIG. 6A, the spherical panoramic image shown in FIG. 4 is represented by a three-dimensional three-dimensional sphere CS. Assuming that the spherical panoramic image generated in this way is a three-dimensional sphere CS, the virtual camera IC is located outside the spherical panoramic image as shown in FIG. The predetermined area T in the spherical panoramic image is a shooting area of the virtual camera IC, and is specified by predetermined area information indicating the shooting direction and angle of view of the virtual camera IC in the three-dimensional virtual space including the spherical panoramic image. To.

そして、図6(a)に示されている所定領域Tの画像である所定領域画像は、図6(b)に示されているように、所定のディスプレイに、仮想カメラICの撮影領域の画像として表示される。図6(b)に示されている画像は、初期設定(デフォルト)された所定領域情報(表示パラメータ)によって表された所定領域画像である。以下では、仮想カメラICの撮影方向(ea,aa)と画角(α)を用いて説明する。 Then, as shown in FIG. 6B, the predetermined area image, which is the image of the predetermined area T shown in FIG. 6A, is an image of the photographing area of the virtual camera IC on the predetermined display. Is displayed as. The image shown in FIG. 6B is a predetermined area image represented by the initial setting (default) predetermined area information (display parameter). Hereinafter, the shooting direction (ea, aa) and the angle of view (α) of the virtual camera IC will be described.

図7を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図7は、所定領域情報と所定領域Tの画像の関係との関係を示した図である。図7に示されているように、「ea」はelevation angle、「aa」はazimuth angle、「α」は画角(Angle)を示す。即ち、撮影方向(ea,aa)で示される仮想カメラICの注視点が、仮想カメラICの撮影領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像CEにおける所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図7では、一般的に以下の(式1)で示される三角関数が成り立つ。 The relationship between the predetermined area information and the image of the predetermined area T will be described with reference to FIG. 7. Note that FIG. 7 is a diagram showing the relationship between the predetermined area information and the image of the predetermined area T. As shown in FIG. 7, “ea” indicates an elevation angle, “aa” indicates an azimuth angle, and “α” indicates an angle of view (Angle). That is, the posture of the virtual camera IC is changed so that the gazing point of the virtual camera IC indicated by the shooting direction (ea, aa) becomes the center point CP of the predetermined area T which is the shooting area of the virtual camera IC. Become. The predetermined region image Q is an image of the predetermined region T in the spherical image CE. f is the distance from the virtual camera IC to the center point CP. L is the distance between an arbitrary vertex of the predetermined region T and the center point CP (2L is a diagonal line). Then, in FIG. 7, the trigonometric function generally represented by the following (Equation 1) holds.

Lf=tan(α/2)・・・(式1)
また、図6(b)に示されている所定領域画像の一部領域を拡大すると、図6(c)に示されているように、新たな所定領域画像が表示される。
Lf = tan (α / 2) ... (Equation 1)
Further, when a part of the predetermined area image shown in FIG. 6B is enlarged, a new predetermined area image is displayed as shown in FIG. 6C.

図8は、球座標による3次元ユークリッド空間内の点を示した図である。中心点CPを球面極座標系で表現したときの位置座標を(r、θ、φ)とする。(r、θ、φ)は、それぞれ動径、極角、方位角である。動径rは、全天球パノラマ画像を含む三次元の仮想空間の原点から中心点CPまでの距離であるため、fに等しい。図8は、これらの関係を表した図である。以降、仮想カメラICの位置座標(r,θ、φ)を用いて説明する。 FIG. 8 is a diagram showing points in a three-dimensional Euclidean space based on spherical coordinates. Let (r, θ, φ) be the position coordinates when the center point CP is expressed in a spherical polar coordinate system. (R, θ, φ) are the radius, the polar angle, and the azimuth, respectively. The radius r is equal to f because it is the distance from the origin of the three-dimensional virtual space including the spherical panoramic image to the center point CP. FIG. 8 is a diagram showing these relationships. Hereinafter, the description will be made using the position coordinates (r, θ, φ) of the virtual camera IC.

<画像通信システムの概略>
続いて、図9を用いて、本実施形態の画像通信システムの構成の概略について説明する。図9は、本実施形態の画像通信システムの構成の概略図である。
<Outline of image communication system>
Subsequently, with reference to FIG. 9, the outline of the configuration of the image communication system of the present embodiment will be described. FIG. 9 is a schematic diagram of the configuration of the image communication system of the present embodiment.

図9に示されているように、本実施形態の画像通信システムは、撮影装置1a,1b、ビデオ会議端末3、通信管理システム5、PC(Personal Computer)7、撮影装置8、及びスマートフォン9によって構成され、インターネット等の通信ネットワーク100を介して通信することができる。通信ネットワーク100の接続形態は、無線又は有線のいずれでも良い。 As shown in FIG. 9, the image communication system of the present embodiment is equipped with an imaging device 1a, 1b, a video conference terminal 3, a communication management system 5, a PC (Personal Computer) 7, an imaging device 8, and a smartphone 9. It is configured and can communicate via a communication network 100 such as the Internet. The connection form of the communication network 100 may be either wireless or wired.

これらのうち、撮影装置1a,1bは、上述のように、被写体や風景等を撮影して全天球パノラマ画像の元になる2つの半球画像を得るための特殊なデジタルカメラである。一方、撮影装置8は、被写体や風景等を撮影して一般の平面画像を得るための一般のデジタルカメラである。 Of these, the photographing devices 1a and 1b are special digital cameras for photographing a subject, a landscape, and the like to obtain two hemispherical images that are the basis of a spherical panoramic image, as described above. On the other hand, the photographing device 8 is a general digital camera for photographing a subject, a landscape, and the like to obtain a general planar image.

ビデオ会議端末3は、ビデオ会議専用の端末であり、USB(Universal Serial Bus)ケーブル等の有線ケーブルを介して映像通話(ビデオ通話)の画像をディスプレイ4に表示する。ビデオ会議端末3は、通常は後述のカメラ312で撮影するが、撮影装置1aを取り付けるクレードル2aに有線ケーブルで接続されると、撮影装置1aが優先され、全天球パノラマ画像の元になる2つの半球画像を得ることができる。有線ケーブルを利用する場合、クレードル2aは、撮影装置1aとビデオ会議端末3との間の通信を行なうだけでなく、撮影装置1aに電源供給及び撮影装置1aを支える役割を果たす。なお、ここでは、撮影装置1a、クレードル2a、ビデオ会議端末3、及びディスプレイ4は、同じ拠点である拠点Aに置かれている。また、拠点Aには、4人の利用者A1,A2,A3,A4が、映像通話に参加している。 The video conference terminal 3 is a terminal dedicated to video conference, and displays an image of a video call (video call) on the display 4 via a wired cable such as a USB (Universal Serial Bus) cable. The video conference terminal 3 normally shoots with the camera 312 described later, but when the video conference terminal 3 is connected to the cradle 2a to which the shooting device 1a is attached with a wired cable, the shooting device 1a has priority and becomes the source of the spherical panoramic image2. Two hemispherical images can be obtained. When a wired cable is used, the cradle 2a not only communicates between the photographing device 1a and the video conference terminal 3, but also plays a role of supplying power to the photographing device 1a and supporting the photographing device 1a. Here, the photographing device 1a, the cradle 2a, the video conference terminal 3, and the display 4 are located at the same base A. In addition, four users A1, A2, A3, and A4 are participating in the video call at the base A.

通信管理システム5は、ビデオ会議端末3、PC7、及びスマートフォン9の通信を管理したり、送受信される画像データの種類(一般画像と特殊画像の種別)を管理したりする。ここでは、特殊画像は全天球パノラマ画像である。なお、通信管理システム5は、ビデオ通信のサービスを行なうサービス会社等に設置されている。また、通信管理システム5は、単一のコンピュータによって構築されてもよいし、各部(機能、手段、又は記憶部)を分割して任意に割り当てられた複数のコンピュータによって構築されていてもよい。 The communication management system 5 manages the communication of the video conference terminal 3, the PC 7, and the smartphone 9, and manages the types of image data (general image and special image types) to be transmitted and received. Here, the special image is a spherical panoramic image. The communication management system 5 is installed in a service company or the like that provides a video communication service. Further, the communication management system 5 may be constructed by a single computer, or may be constructed by a plurality of computers arbitrarily assigned by dividing each unit (function, means, or storage unit).

PC7は、撮影装置8が取り付けられることで、映像通話が可能となる。なお、ここでは、PC7、及び撮影装置8は、同じ拠点である拠点Cに置かれている。また、拠点Cには、1人の利用者Cが映像通話に参加している。 By attaching the photographing device 8 to the PC 7, a video call can be made. Here, the PC 7 and the photographing apparatus 8 are located at the base C, which is the same base. Further, at the base C, one user C participates in a video call.

スマートフォン9は、自装置に設けられた後述のディスプレイ917に映像通話の画像を表示する。スマートフォン9は、通常は自装置に設けられた後述のCMOS(Complementary Metal Oxide Semiconductor)センサ905等で撮影するが、Wi-Fi(Wireless Fidelity)やBluetooth(登録商標)等の無線通信技術を利用して、撮影装置1bで得られた全天球パノラマ画像の元になる2つの半球画像データを取得することができる。無線通信技術を利用する場合、クレードル2bは、撮影装置1bに電源供給と撮影装置1bを支えるだけの役割を果たす。なお、ここでは、撮影装置1b、クレードル2b、及びスマートフォン9は、同じ拠点である拠点Bに置かれている。また、拠点Bには、2人の利用者B1,B2が、映像通話に参加している。 The smartphone 9 displays an image of a video call on a display 917, which will be described later, provided in the own device. The smartphone 9 normally shoots with a CMOS (Complementary Metal Oxide Semiconductor) sensor 905 or the like, which will be described later, provided in its own device, but uses wireless communication technology such as Wi-Fi (Wireless Fidelity) or Bluetooth (registered trademark). Therefore, it is possible to acquire two hemispherical image data that are the basis of the all-sky panoramic image obtained by the photographing apparatus 1b. When using wireless communication technology, the cradle 2b serves only to supply power to the photographing device 1b and support the photographing device 1b. Here, the photographing device 1b, the cradle 2b, and the smartphone 9 are located at the base B, which is the same base. In addition, two users B1 and B2 are participating in the video call at the base B.

また、ビデオ会議端末3、PC7、及びスマートフォン9は、通信端末の一例である。各通信端末には、OpenGL ESがインストールされており、全天球パノラマ画像の一部の領域を示す所定領域情報を作成したり、他の通信端末から送られて来た全天球パノラマ画像から所定領域画像を作成したりすることができる。 Further, the video conference terminal 3, the PC 7, and the smartphone 9 are examples of communication terminals. OpenGL ES is installed in each communication terminal, and it is possible to create predetermined area information indicating a part of the spherical panoramic image, or from the spherical panoramic image sent from another communication terminal. A predetermined area image can be created.

なお、図9に示す各端末、装置、利用者の配置は一例であり、他の例であってもよい。例えば、拠点Cで、撮影装置8に代えて、全天球パノラマ画像に係る撮影が可能な撮影装置を利用者してもよい。また、通信端末には、デジタルテレビ、スマートウオッチ、カーナビゲーション装置等も含まれる。また、以降、撮影装置1a,1bのうち任意の撮影装置を表す場合には、「撮影装置1」として表す。 The arrangement of each terminal, device, and user shown in FIG. 9 is an example, and may be another example. For example, at the base C, instead of the photographing device 8, a photographing device capable of photographing a spherical panoramic image may be used. The communication terminal also includes a digital television, a smart watch, a car navigation device, and the like. Further, hereinafter, when any imaging device among the imaging devices 1a and 1b is represented, it is referred to as “photographing device 1”.

<<実施形態のハードウェア構成>>
次に、図10乃至図13を用いて、本実施形態の撮影装置1、ビデオ会議端末3、通信管理システム5、PC7、及びスマートフォン9のハードウェア構成を詳細に説明する。なお、撮影装置8は、一般のカメラであるため、詳細な説明は省略する。
<< Hardware configuration of the embodiment >>
Next, the hardware configurations of the photographing device 1, the video conference terminal 3, the communication management system 5, the PC 7, and the smartphone 9 of the present embodiment will be described in detail with reference to FIGS. 10 to 13. Since the photographing device 8 is a general camera, detailed description thereof will be omitted.

<撮影装置1のハードウェア構成>
まず、図10を用いて、撮影装置1のハードウェア構成を説明する。図10は、撮影装置1のハードウェア構成図である。以下では、撮影装置1は、2つの撮像素子を使用した全天球(全方位)撮影装置とするが、撮像素子は2つ以上いくつでもよい。また、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位撮影ユニットを取り付けることで、実質的に撮影装置1と同じ機能を有するようにしてもよい。
<Hardware configuration of shooting device 1>
First, the hardware configuration of the photographing apparatus 1 will be described with reference to FIG. FIG. 10 is a hardware configuration diagram of the photographing device 1. In the following, the photographing device 1 is an omnidirectional (omnidirectional) photographing device using two image pickup elements, but the number of image pickup elements may be two or more. Further, the device does not necessarily have to be a device dedicated to omnidirectional shooting, and by attaching a retrofit omnidirectional shooting unit to a normal digital camera, smartphone, or the like, it may have substantially the same function as the shooting device 1. ..

図10に示されているように、撮影装置1は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、マイク108、音処理ユニット109、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、及びアンテナ117aによって構成されている。 As shown in FIG. 10, the photographing apparatus 1 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a microphone 108, a sound processing unit 109, a CPU (Central Processing Unit) 111, and a ROM (Read Only Memory). ) 112, SRAM (Static Random Access Memory) 113, DRAM (Dynamic Random Access Memory) 114, operation unit 115, network I / F 116, communication unit 117, and antenna 117a.

このうち、撮像ユニット101は、各々半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、魚眼レンズ102a,102bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Of these, the image pickup unit 101 is a wide-angle lens (so-called fisheye lens) 102a, 102b each having an angle of view of 180 ° or more for forming a hemispherical image, and two image pickups provided corresponding to each wide-angle lens. It includes elements 103a and 103b. The image pickup elements 103a and 103b are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) sensors and CCD (Charge Coupled Device) sensors that convert optical images from fisheye lenses 102a and 102b into image data of electrical signals and output them. It has a timing generation circuit that generates a horizontal or vertical sync signal, a pixel clock, and the like, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.

撮像ユニット101の撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。一方、撮像ユニット101の撮像素子103a,103bは、撮像制御ユニット105とは別に、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111と接続される。さらに、バス110には、ROM112、SRAM113、DRAM114、操作部115、ネットワークI/F116、通信部117、及び電子コンパス118なども接続される。 The image pickup elements 103a and 103b of the image pickup unit 101 are each connected to the image processing unit 104 by a parallel I / F bus. On the other hand, the image pickup elements 103a and 103b of the image pickup unit 101 are connected by a serial I / F bus (I2C bus or the like) separately from the image pickup control unit 105. The image processing unit 104 and the image pickup control unit 105 are connected to the CPU 111 via the bus 110. Further, a ROM 112, a SRAM 113, a DRAM 114, an operation unit 115, a network I / F 116, a communication unit 117, an electronic compass 118, and the like are also connected to the bus 110.

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図3(c)に示されているようなメルカトル画像のデータを作成する。 The image processing unit 104 takes in the image data output from the image pickup elements 103a and 103b through the parallel I / F bus, performs predetermined processing on each image data, and then synthesizes these image data. , Create mercatle image data as shown in FIG. 3 (c).

撮像制御ユニット105は、一般に撮像制御ユニット105をマスタデバイス、撮像素子103a,103bをスレーブデバイスとして、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The image pickup control unit 105 generally uses the image pickup control unit 105 as a master device and the image pickup elements 103a and 103b as slave devices, and sets commands and the like in the register group of the image pickup elements 103a and 103b by using the I2C bus. Necessary commands and the like are received from the CPU 111. Further, the image pickup control unit 105 also uses the I2C bus to take in the status data and the like of the register group of the image pickup elements 103a and 103b and send them to the CPU 111.

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮影装置1によっては、ディスプレイ(例えば、ビデオ会議端末3のディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the image pickup control unit 105 instructs the image pickup devices 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Depending on the photographing device 1, it may have a preview display function by a display (for example, the display of the video conference terminal 3) or a function corresponding to a moving image display. In this case, the image data is continuously output from the image pickup devices 103a and 103b at a predetermined frame rate (frames / minute).

また、撮像制御ユニット105は、後述するように、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮影装置1には表示部(ディスプレイ)が設けられていないが、表示部を設けてもよい。 Further, as will be described later, the image pickup control unit 105 also functions as a synchronization control means for synchronizing the output timings of the image data of the image pickup elements 103a and 103b in cooperation with the CPU 111. In the present embodiment, the photographing apparatus 1 is not provided with a display unit, but a display unit may be provided.

マイク108は、音を音(信号)データに変換する。音処理ユニット109は、マイク108から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。 The microphone 108 converts sound into sound (signal) data. The sound processing unit 109 takes in the sound data output from the microphone 108 through the I / F bus and performs predetermined processing on the sound data.

CPU111は、撮影装置1の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像のデータを記憶する。 The CPU 111 controls the overall operation of the photographing apparatus 1 and executes necessary processing. The ROM 112 stores various programs for the CPU 111. The SRAM 113 and the DRAM 114 are work memories, and store programs executed by the CPU 111, data in the middle of processing, and the like. In particular, the DRAM 114 stores image data during processing by the image processing unit 104 and data of processed Mercator images.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。ユーザは操作ボタンを操作することで、種々の撮影モードや撮影条件などを入力する。 The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel having both display and operation functions, and the like. By operating the operation buttons, the user inputs various shooting modes and shooting conditions.

ネットワークI/F116は、SDカード等の外付けのメディアやパーソナルコンピュータなどとのインターフェース回路(USBI/F等)の総称である。また、ネットワークI/F116としては、無線、有線を問わない。DRAM114に記憶されたメルカトル画像のデータは、このネットワークI/F116を介して外付けのメディアに記録されたり、必要に応じてネットワークI/F116を介してビデオ会議端末3等の外部装置に送信されたりする。 Network I / F116 is a general term for interface circuits (USB I / F, etc.) with external media such as SD cards and personal computers. The network I / F116 may be wireless or wired. The Mercator image data stored in the DRAM 114 is recorded on an external medium via the network I / F 116, or transmitted to an external device such as a video conference terminal 3 via the network I / F 116 as needed. Or something.

通信部117は、撮影装置1に設けられたアンテナ117aを介して、Wi-FiやNFC(Near Field Communication)等の近距離無線技術によって、ビデオ会議端末3等の外部装置と通信を行う。この通信部117によっても、メルカトル画像のデータをビデオ会議端末3の外部装置に送信することができる。 The communication unit 117 communicates with an external device such as a video conference terminal 3 by a short-range wireless technology such as Wi-Fi or NFC (Near Field Communication) via an antenna 117a provided in the photographing device 1. The communication unit 117 can also transmit the Mercator image data to the external device of the video conference terminal 3.

電子コンパス118は、地球の磁気から撮影装置1の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifに沿った関連情報(メタデータ)の一例であり、撮影画像の画像補正等の画像処理に利用される。なお、関連情報には、画像の撮影日時、及び画像データのデータ容量の各データも含まれている。 The electronic compass 118 calculates the direction and tilt (Roll rotation angle) of the photographing device 1 from the magnetism of the earth, and outputs the direction / tilt information. This orientation / tilt information is an example of related information (metadata) along with Exif, and is used for image processing such as image correction of a captured image. The related information also includes the shooting date and time of the image and the data capacity of the image data.

<ビデオ会議端末のハードウェア構成>
次に、図11を用いて、ビデオ会議端末3のハードウェア構成を説明する。図11は、ビデオ会議端末のハードウェア構成図である。図11に示されているように、ビデオ会議端末3は、CPU301、ROM302、RAM303、フラッシュメモリ304、SSD305、メディアI/F307、操作ボタン308、電源スイッチ309、バスライン310、ネットワークI/F311、カメラ312、撮像素子I/F313、マイク314、スピーカ315、音入出力I/F316、ディスプレイI/F317、外部機器接続I/F318、近距離通信回路319、近距離通信回路319のアンテナ319aを備えている。
<Hardware configuration of video conference terminal>
Next, the hardware configuration of the video conference terminal 3 will be described with reference to FIG. FIG. 11 is a hardware configuration diagram of the video conference terminal. As shown in FIG. 11, the video conferencing terminal 3 includes a CPU 301, a ROM 302, a RAM 303, a flash memory 304, an SSD 305, a media I / F 307, an operation button 308, a power switch 309, a bus line 310, and a network I / F 311. It is equipped with a camera 312, an image pickup element I / F313, a microphone 314, a speaker 315, a sound input / output I / F316, a display I / F317, an external device connection I / F318, a short-range communication circuit 319, and an antenna 319a of the short-range communication circuit 319. ing.

これらのうち、CPU301は、ビデオ会議端末3全体の動作を制御する。ROM302は、IPL(Initial Program Loader)等のCPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。フラッシュメモリ304は、通信用プログラム、画像データ、及び音データ等の各種データを記憶する。SSD(Solid State Drive)305は、CPU301の制御にしたがってフラッシュメモリ304に対する各種データの読み出し又は書き込みを制御する。なお、SSDに代えてHDDを用いてもよい。メディアI/F307は、フラッシュメモリ等の記録メディア306に対するデータの読み出し又は書き込み(記憶)を制御する。操作ボタン308は、ビデオ会議端末3の宛先を選択する場合などに操作されるボタンである。電源スイッチ309は、ビデオ会議端末3の電源のON/OFFを切り換えるためのスイッチである。 Of these, the CPU 301 controls the operation of the entire video conference terminal 3. The ROM 302 stores a program used for driving the CPU 301 such as an IPL (Initial Program Loader). The RAM 303 is used as a work area of the CPU 301. The flash memory 304 stores various data such as a communication program, image data, and sound data. The SSD (Solid State Drive) 305 controls reading or writing of various data to the flash memory 304 according to the control of the CPU 301. An HDD may be used instead of the SSD. The media I / F 307 controls reading or writing (storage) of data to the recording medium 306 such as a flash memory. The operation button 308 is a button operated when selecting a destination of the video conference terminal 3. The power switch 309 is a switch for switching ON / OFF of the power of the video conference terminal 3.

また、ネットワークI/F311は、インターネット等の通信ネットワーク100を利用してデータ通信をするためのインターフェースである。カメラ312は、CPU301の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F313は、カメラ312の駆動を制御する回路である。マイク314は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F316は、CPU301の制御に従ってマイク314及びスピーカ315との間で音信号の入出力を処理する回路である。ディスプレイI/F317は、CPU301の制御に従って外付けのディスプレイ320に画像データを送信する回路である。外部機器接続I/F318は、各種の外部機器を接続するためのインターフェースである。近距離通信回路319は、NFC(登録商標)、Bluetooth(登録商標)等の通信回路である。 Further, the network I / F311 is an interface for performing data communication using a communication network 100 such as the Internet. The camera 312 is a kind of built-in imaging means for capturing an image of a subject and obtaining image data under the control of the CPU 301. The image sensor I / F 313 is a circuit that controls the drive of the camera 312. The microphone 314 is a kind of built-in sound collecting means for inputting voice. The sound input / output I / F 316 is a circuit that processes sound signal input / output between the microphone 314 and the speaker 315 under the control of the CPU 301. The display I / F 317 is a circuit that transmits image data to the external display 320 according to the control of the CPU 301. The external device connection I / F318 is an interface for connecting various external devices. The short-range communication circuit 319 is a communication circuit such as NFC (registered trademark) and Bluetooth (registered trademark).

また、バスライン310は、図11に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the bus line 310 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 301 shown in FIG.

ディスプレイ4は、被写体の画像や操作用アイコン等を表示する液晶や有機ELによって構成された表示手段の一種である。また、ディスプレイ4は、ケーブル4cによってディスプレイI/F317に接続される。このケーブル4cは、アナログRGB(VGA)信号用のケーブルであってもよいし、コンポーネントビデオ用のケーブルであってもよいし、HDMI(High-Definition Multimedia Interface)(登録商標)やDVI(Digital Video Interactive)信号用のケーブルであってもよい。 The display 4 is a kind of display means composed of a liquid crystal display or an organic EL for displaying an image of a subject, an operation icon, and the like. Further, the display 4 is connected to the display I / F317 by the cable 4c. The cable 4c may be a cable for analog RGB (VGA) signals, a cable for component video, HDMI (High-Definition Multimedia Interface) (registered trademark), or DVI (Digital Video). It may be a cable for Interactive) signals.

なお、カメラ312は、レンズや、光を電荷に変換して被写体の画像(映像)を電子化する固体撮像素子を含み、固体撮像素子として、CMOSセンサや、CCDセンサ等が用いられる。外部機器接続I/F318には、USB(Universal Serial Bus)ケーブル等によって、外付けカメラ、外付けマイク、及び外付けスピーカ等の外部機器がそれぞれ接続可能である。外付けカメラが接続された場合には、CPU301の制御に従って、内蔵型のカメラ312に優先して、外付けカメラが駆動する。同じく、外付けマイクが接続された場合や、外付けスピーカが接続された場合には、CPU301の制御に従って、それぞれが内蔵型のマイク314や内蔵型のスピーカ315に優先して、外付けマイクや外付けスピーカが駆動する。 The camera 312 includes a lens and a solid-state image sensor that converts light into a charge to digitize an image (video) of the subject, and a CMOS sensor, a CCD sensor, or the like is used as the solid-state image sensor. External devices such as an external camera, an external microphone, and an external speaker can be connected to the external device connection I / F318 by a USB (Universal Serial Bus) cable or the like. When an external camera is connected, the external camera is driven in preference to the built-in camera 312 according to the control of the CPU 301. Similarly, when an external microphone is connected or an external speaker is connected, the external microphone or the external speaker is given priority over the built-in microphone 314 and the built-in speaker 315 according to the control of the CPU 301. The external speaker is driven.

また、記録メディア306は、ビデオ会議端末3に対して着脱自在な構成となっている。また、CPU301の制御にしたがってデータの読み出し又は書き込みを行う不揮発性メモリであれば、フラッシュメモリ304に限らず、EEPROM(Electrically Erasable and Programmable ROM)等を用いてもよい。 Further, the recording medium 306 has a structure that can be attached to and detached from the video conference terminal 3. Further, as long as it is a non-volatile memory that reads or writes data under the control of the CPU 301, not only the flash memory 304 but also an EEPROM (Electrically Erasable and Programmable ROM) or the like may be used.

<通信管理システム、PCのハードウェア構成>
次に、図12を用いて、通信管理システム5及びPC7のハードウェア構成を説明する。図12は、通信管理システム及びPCのハードウェア構成図である。なお、通信管理システム5及びPC7は、ともにコンピュータで同じ構成を有しているため、以下では、通信管理システム5の構成について説明し、PC7の構成の説明は省略する。
<Communication management system, PC hardware configuration>
Next, the hardware configurations of the communication management system 5 and the PC 7 will be described with reference to FIG. FIG. 12 is a hardware configuration diagram of a communication management system and a PC. Since both the communication management system 5 and the PC 7 have the same computer configuration, the configuration of the communication management system 5 will be described below, and the description of the configuration of the PC 7 will be omitted.

通信管理システム5は、通信管理システム5全体の動作を制御するCPU501、IPL等のCPU501の駆動に用いられるプログラムを記憶したROM502、CPU501のワークエリアとして使用されるRAM503、通信管理システム5用のプログラム等の各種データを記憶するHD504、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御するHDD(Hard Disk Drive)505、フラッシュメモリ等の記録メディア506に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ507、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示するディスプレイ508、通信ネットワーク100を利用してデータ通信するためのネットワークI/F509、文字、数値、各種指示などの入力のための複数のキーを備えたキーボード511、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行うマウス512、着脱可能な記録媒体の一例としてのCD-RW(Compact Disc-ReWritable)513に対する各種データの読み出し又は書き込みを制御するCD-RWドライブ514、及び、上記各構成要素を図12に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン510を備えている。 The communication management system 5 includes a CPU 501 that controls the operation of the entire communication management system 5, a ROM 502 that stores a program used for driving the CPU 501 such as an IPL, a RAM 503 that is used as a work area of the CPU 501, and a program for the communication management system 5. HD504 that stores various data such as, HDD (Hard Disk Drive) 505 that controls reading or writing of various data to HD504 according to the control of CPU501, reading or writing (storage) of data to recording media 506 such as flash memory. Media drive 507 to control, display 508 that displays various information such as cursors, menus, windows, characters, or images, network I / F 509 for data communication using communication network 100, characters, numerical values, various instructions, etc. A keyboard 511 equipped with multiple keys for inputting data, a mouse 512 for selecting and executing various instructions, selecting processing targets, moving the cursor, etc., and a CD-RW (Compact Disc) as an example of a removable recording medium. -ReWritable) CD-RW drive 514 that controls reading or writing of various data to 513, and an address bus, data bus, etc. for electrically connecting each of the above components as shown in FIG. It is equipped with a bus line 510.

<スマートフォンのハードウェア構成>
次に、図13を用いて、スマートフォンのハードウェアについて説明する。図13は、スマートフォンのハードウェア構成図である。図13に示されているように、スマートフォン9は、CPU901、ROM902、RAM903、EEPROM904、CMOSセンサ905、加速度・方位センサ906、メディアI/F908、GPS受信部909を備えている。
<Smartphone hardware configuration>
Next, the hardware of the smartphone will be described with reference to FIG. FIG. 13 is a hardware configuration diagram of a smartphone. As shown in FIG. 13, the smartphone 9 includes a CPU 901, a ROM 902, a RAM 903, an EEPROM 904, a CMOS sensor 905, an acceleration / direction sensor 906, a media I / F 908, and a GPS receiving unit 909.

これらのうち、CPU901は、スマートフォン9全体の動作を制御する。ROM902は、IPL等のCPU901の駆動に用いられるプログラムを記憶する。RAM903は、CPU901のワークエリアとして使用される。EEPROM904は、CPU901の制御にしたがって、スマートフォン用プログラム等の各種データの読み出し又は書き込みを行う。CMOS(Complementary Metal Oxide Semiconductor)センサ905は、CPU901の制御に従って被写体(主に自画像)を撮像し画像データを得る。加速度・方位センサ906は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F908は、フラッシュメモリ等の記録メディア907に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部909は、GPS衛星からGPS信号を受信する。 Of these, the CPU 901 controls the operation of the entire smartphone 9. The ROM 902 stores a program used to drive the CPU 901 such as an IPL. The RAM 903 is used as a work area for the CPU 901. The EEPROM 904 reads or writes various data such as a smartphone program according to the control of the CPU 901. The CMOS (Complementary Metal Oxide Semiconductor) sensor 905 captures a subject (mainly a self-portrait) according to the control of the CPU 901 and obtains image data. The acceleration / orientation sensor 906 is a variety of sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect the geomagnetism. The media I / F908 controls reading or writing (storage) of data to a recording medium 907 such as a flash memory. The GPS receiving unit 909 receives a GPS signal from a GPS satellite.

また、スマートフォン9は、遠距離通信回路911、カメラ912、撮像素子I/F913、マイク914、スピーカ915、音入出力I/F916、ディスプレイ917、外部機器接続I/F918、近距離通信回路919、近距離通信回路919のアンテナ919a、及びタッチパネル921を備えている。 Further, the smartphone 9 includes a long-distance communication circuit 911, a camera 912, an image pickup element I / F 913, a microphone 914, a speaker 915, a sound input / output I / F 916, a display 917, an external device connection I / F 918, and a short-range communication circuit 919. It includes an antenna 919a of the short-range communication circuit 919 and a touch panel 921.

これらのうち、遠距離通信回路911は、通信ネットワーク100を介して、他の機器と通信する回路である。カメラ912は、CPU901の制御に従って被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F913は、カメラ912の駆動を制御する回路である。マイク914は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F916は、CPU901の制御に従ってマイク914及びスピーカ915との間で音信号の入出力を処理する回路である。ディスプレイ917は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F918は、各種の外部機器を接続するためのインターフェースである。近距離通信回路919は、NFCやfBluetooth等の通信回路である。タッチパネル921は、利用者がディスプレイ917を押下することで、スマートフォン9を操作する入力手段の一種である。 Of these, the telecommunications circuit 911 is a circuit that communicates with other devices via the communication network 100. The camera 912 is a kind of built-in image pickup means for capturing an image of a subject and obtaining image data under the control of the CPU 901. The image sensor I / F 913 is a circuit that controls the drive of the camera 912. The microphone 914 is a kind of built-in sound collecting means for inputting voice. The sound input / output I / F 916 is a circuit that processes sound signal input / output between the microphone 914 and the speaker 915 under the control of the CPU 901. The display 917 is a kind of display means such as a liquid crystal display or an organic EL for displaying an image of a subject, various icons, and the like. The external device connection I / F 918 is an interface for connecting various external devices. The short-range communication circuit 919 is a communication circuit such as NFC or fBluetooth. The touch panel 921 is a kind of input means for operating the smartphone 9 by the user pressing the display 917.

また、スマートフォン9は、バスライン910を備えている。バスライン910は、CPU901等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the smartphone 9 is provided with a bus line 910. The bus line 910 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 901.

なお、上記各プログラムが記憶されたCD-ROM等の記録媒体、並びに、これらプログラムが記憶されたHDは、いずれもプログラム製品(Program Product)として、国内又は国外へ提供されることができる。 A recording medium such as a CD-ROM in which each of the above programs is stored, and an HD in which these programs are stored can be provided as a program product in Japan or abroad.

<<実施形態の機能構成>>
次に、図14乃至図20を用いて、本実施形態の機能構成について説明する。図14は、本実施形態の画像通信システムの一部を構成する、撮影装置1a,1b、ビデオ会議端末3、通信管理システム5、PC7、及びスマートフォン9の各機能ブロック図である。
<< Functional configuration of the embodiment >>
Next, the functional configuration of this embodiment will be described with reference to FIGS. 14 to 20. FIG. 14 is a functional block diagram of the photographing devices 1a and 1b, the video conference terminal 3, the communication management system 5, the PC 7, and the smartphone 9, which form a part of the image communication system of the present embodiment.

<撮影装置1aの機能構成>
図14に示されているように、撮影装置1aは、受付部12a、撮像部13a、集音部14a、通信部18a、及び記憶・読出部19aを有している。これら各部は、図10に示されている各構成要素のいずれかが、SRAM113からDRAM114上に展開された撮影装置用のプログラムに従ったCPU111からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of imaging device 1a>
As shown in FIG. 14, the photographing apparatus 1a includes a receiving unit 12a, an imaging unit 13a, a sound collecting unit 14a, a communication unit 18a, and a storage / reading unit 19a. Each of these parts is a function or means realized by operating any of the components shown in FIG. 10 by a command from the CPU 111 according to a program for a photographing apparatus developed on the DRAM 114 from the SRAM 113. Is.

また、撮影装置1は、図10に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000aを有している。記憶部1000aには、自装置のGUID(Globally Unique Identifier)が記憶されている。 Further, the photographing apparatus 1 has a storage unit 1000a constructed by the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG. The storage unit 1000a stores the GUID (Globally Unique Identifier) of the own device.

(撮影装置1aの各機能構成)
次に、図10及び図14を用いて、撮影装置1aの各機能構成について更に詳細に説明する。
(Each function configuration of the photographing device 1a)
Next, each functional configuration of the photographing apparatus 1a will be described in more detail with reference to FIGS. 10 and 14.

撮影装置1aの受付部12aは、主に、図10に示されている操作部115及びCPU111の処理によって実現され、利用者からの操作入力を受け付ける。 The reception unit 12a of the photographing apparatus 1a is realized mainly by the processing of the operation unit 115 and the CPU 111 shown in FIG. 10, and receives the operation input from the user.

撮像部13aは、主に、図10に示されている撮像ユニット101、画像処理ユニット104、及び撮像制御ユニット105、並びにCPU111の処理によって実現され、風景等を撮像し、撮影画像データを得る。 The image pickup unit 13a is realized mainly by the processing of the image pickup unit 101, the image processing unit 104, the image pickup control unit 105, and the CPU 111 shown in FIG. 10, and images a landscape or the like to obtain photographed image data.

集音部14aは、図10に示されているマイク108及び音処理ユニット109、並びにCPU111の処理によって実現され、撮影装置1の周囲の音を集音する。 The sound collecting unit 14a is realized by the processing of the microphone 108, the sound processing unit 109, and the CPU 111 shown in FIG. 10, and collects the sound around the photographing device 1.

通信部18aは、主に、CPU111の処理によって実現され、ビデオ会議端末3の通信部38と、NFC規格、BlueTooth、Wi-Fi等による近距離無線通信技術によって通信することができる。 The communication unit 18a is mainly realized by the processing of the CPU 111, and can communicate with the communication unit 38 of the video conference terminal 3 by the short-range wireless communication technology based on the NFC standard, BlueTooth, Wi-Fi, or the like.

記憶・読出部19aは、主に、図10に示されているCPU111の処理によって実現され、記憶部1000aに各種データ(または情報)を記憶したり、記憶部1000aから各種データ(または情報)を読み出したりする。 The storage / reading unit 19a is mainly realized by the processing of the CPU 111 shown in FIG. 10, and stores various data (or information) in the storage unit 1000a or stores various data (or information) from the storage unit 1000a. Read it out.

<撮影装置1bの各機能構成>
撮影装置1bは、受付部12b、撮像部13b、集音部14b、通信部18b、及び記憶・読出部19bを有している。これらは、それぞれ、撮影装置1aにおける受付部12a、撮像部13a、集音部14a、通信部18a、及び記憶・読出部19aと同様の機能を有するため、説明を省略する。また、撮影装置1は、図10に示されているROM112、SRAM113、及びDRAM114によって構築される記憶部1000bを有している。記憶部1000bには、自装置のGUIDが記憶されている。
<Each functional configuration of the photographing device 1b>
The photographing apparatus 1b has a receiving unit 12b, an imaging unit 13b, a sound collecting unit 14b, a communication unit 18b, and a storage / reading unit 19b. Since each of these has the same functions as the reception unit 12a, the image pickup unit 13a, the sound collection unit 14a, the communication unit 18a, and the storage / reading unit 19a in the photographing apparatus 1a, the description thereof will be omitted. Further, the photographing apparatus 1 has a storage unit 1000b constructed by the ROM 112, the SRAM 113, and the DRAM 114 shown in FIG. The GUID of the own device is stored in the storage unit 1000b.

<ビデオ会議端末3の機能構成>
図14に示されているように、ビデオ会議端末3は、送受信部31、受付部32、画像・音処理部33、表示制御部34、判断部35、作成部36、通信部38、及び記憶・読出部39を有している。これら各部は、図11に示されている各構成要素のいずれかが、フラッシュメモリ304からRAM303上に展開されたビデオ会議端末3用プログラムに従ったCPU301からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of video conference terminal 3>
As shown in FIG. 14, the video conference terminal 3 includes a transmission / reception unit 31, a reception unit 32, an image / sound processing unit 33, a display control unit 34, a determination unit 35, a creation unit 36, a communication unit 38, and a storage unit. -Has a reading unit 39. Each of these parts is realized by operating any of the components shown in FIG. 11 by a command from the CPU 301 according to the program for the video conference terminal 3 developed on the RAM 303 from the flash memory 304. A function or means.

また、ビデオ会議端末3は、図11に示されているROM302、RAM303、及びフラッシュメモリ304によって構築される記憶部3000を有している。この記憶部3000には、画像種類管理DB3001、撮影装置管理DB3002、表示制限管理DB3003、及び表示被制限管理DB3004が構築されている。これらのうち、画像種類管理DB3001は、図15に示されている画像種類管理テーブルによって構成されている。撮影装置管理DB3002は、図16に示される撮影装置管理テーブルによって構成されている。表示制限管理DB3003は、図17に示されている表示制限管理テーブルによって構成されている。表示被制限管理DB3004は、図18に示される表示被制限管理テーブルによって構成されている。 Further, the video conference terminal 3 has a storage unit 3000 constructed by the ROM 302, the RAM 303, and the flash memory 304 shown in FIG. The storage unit 3000 is constructed with an image type management DB 3001, a photographing device management DB 3002, a display restriction management DB 3003, and a display restriction management DB 3004. Of these, the image type management DB 3001 is configured by the image type management table shown in FIG. The photographing apparatus management DB 3002 is configured by the photographing apparatus management table shown in FIG. The display restriction management DB 3003 is configured by the display restriction management table shown in FIG. The display restricted management DB 3004 is configured by the display restricted management table shown in FIG.

(画像種類管理テーブル)
図15は、画像種類管理テーブルを示す概念図である。この画像種類管理テーブルでは、画像データID、送信元端末の宛先の一例であるIPアドレス、及びソース名が関連付けて記憶されて管理されている。これらのうち、画像データIDは、ビデオ通信を行なう際の画像データを識別するための画像データ識別情報の一例である。同じ送信元端末から送信される画像データには、同じ画像データIDが付加されている。これにより、送信先端末(受信側の通信端末)は、受信した画像データの送信元端末を特定することができる。送信元端末のIPアドレスは、関連付けられている画像データIDで示される画像データを送信する通信端末のIPアドレスを示す。ソース名は、関連付けられている画像データIDで示される画像データを出力する撮影装置を特定するための名称であり、画像種類情報の一例である。このソース名は、所定の名称の命名規則に従って、ビデオ会議端末3等の各通信端末によって作成された名称である。
(Image type management table)
FIG. 15 is a conceptual diagram showing an image type management table. In this image type management table, an image data ID, an IP address as an example of a destination of a source terminal, and a source name are stored and managed in association with each other. Of these, the image data ID is an example of image data identification information for identifying image data when performing video communication. The same image data ID is added to the image data transmitted from the same source terminal. As a result, the destination terminal (communication terminal on the receiving side) can specify the source terminal of the received image data. The IP address of the source terminal indicates the IP address of the communication terminal that transmits the image data indicated by the associated image data ID. The source name is a name for specifying a photographing device that outputs image data indicated by the associated image data ID, and is an example of image type information. This source name is a name created by each communication terminal such as a video conference terminal 3 according to a naming convention of a predetermined name.

例えば、IPアドレスがそれぞれ「1.2.1.3」、「1.2.2.3」、「1.3.1.3」の3つの通信端末は、それぞれ、画像データID「RS001」、「RS002」、「RS003」によって示される画像データを送信していることが表されている。更に、各通信端末のソース名によって示される画像の種類は、「Video_Theta」、「Video」、「Video_Theta」であり、これらは順に画像種類が「特殊画像」、「一般画像」、「特殊画像」である旨を示している。なお、特殊画像は、ここでは、全天球パノラマ画像である。 For example, each of the three communication terminals having IP addresses of "1.2.1.3", "1.2.2.3", and "1.3.1.3" has an image data ID "RS001". , "RS002", "RS003" indicates that the image data indicated by "RS002" is being transmitted. Furthermore, the types of images indicated by the source name of each communication terminal are "Video_Theta", "Video", and "Video_Theta", and these image types are "special image", "general image", and "special image" in that order. It shows that it is. The special image is a spherical panoramic image here.

なお、画像データ以外のデータについても、画像データIDと関連付けて管理してもよい。画像データ以外のデータは、例えば、音データ、画面共有時の資料データである。 Data other than image data may also be managed in association with the image data ID. The data other than the image data are, for example, sound data and material data at the time of screen sharing.

(撮影装置管理テーブル)
図16は、撮影装置管理テーブルを示す概念図である。この撮影装置管理テーブルでは、全天球パノラマ画像の元になる2つの半球画像を得ることができる撮影装置のGUIDのうちのベンダIDとプロダクトIDが記憶されて管理されている。GUIDとしては、例えば、USBデバイスで利用されるベンダーID(VID)とプロダクトID(PID)が利用できる。このベンダIDとプロダクトIDは、ビデオ会議端末等の通信端末の工場出荷時から記憶されているが、工場出荷後に追加で記憶してもよい。
(Shooting device management table)
FIG. 16 is a conceptual diagram showing a photographing apparatus management table. In this photographing apparatus management table, the vendor ID and the product ID among the GUIDs of the photographing apparatus capable of obtaining the two hemispherical images which are the sources of the spherical panoramic images are stored and managed. As the GUID, for example, a vendor ID (VID) and a product ID (PID) used in a USB device can be used. The vendor ID and the product ID are stored from the factory shipment of a communication terminal such as a video conference terminal, but may be additionally stored after the factory shipment.

(表示制限管理テーブル)
図17は、表示制限管理テーブルを示す概念図である。この表示制限管理テーブルでは、全天球パノラマ画像の元になる2つの半球画像のデータの送信先の通信端末(送信先端末)のIPアドレス毎に、所定領域画像の表示の制限を与えている内容を示す表示制限パラメータを管理している。具体的に、表示制限パラメータは、図7及び図8に示されている、動径(r)、極角(θ)、方位角(φ)、及び視野角(α)の各要素に対して制限を与える内容を示している。例えば、IPアドレスが「1.3.1.2」の通信端末に対しては、視野角αが120°を超えなければならない(120°以下にはできない)ように設定した内容が管理されている。
(Display restriction management table)
FIG. 17 is a conceptual diagram showing a display restriction management table. In this display restriction management table, restrictions on the display of a predetermined area image are given for each IP address of the communication terminal (destination terminal) of the destination of the data of the two hemispherical images that are the source of the spherical panoramic image. It manages display restriction parameters that indicate the contents. Specifically, the display limiting parameters are set for each element of the moving diameter (r), the polar angle (θ), the azimuth angle (φ), and the viewing angle (α) shown in FIGS. 7 and 8. Shows the content that gives restrictions. For example, for a communication terminal with an IP address of "1.3.1.2", the contents set so that the viewing angle α must exceed 120 ° (cannot be 120 ° or less) are managed. There is.

(表示被制限管理テーブル)
図18は、表示制限管理テーブルを示す概念図である。この表示被制限管理テーブルでは、全天球パノラマ画像の元になる2つの半球画像のデータの送信元の通信端末(送信元端末)のIPアドレス毎に、自端末(ビデオ会議端末3)が所定領域画像の表示の制限が与えられている(受けている)内容を示す表示制限パラメータを管理している。この表示制限パラメータは、表示制限管理テーブルで管理されている表示制限パラメータと同様である。
(Display restricted management table)
FIG. 18 is a conceptual diagram showing a display restriction management table. In this display restricted management table, the own terminal (video conference terminal 3) is predetermined for each IP address of the communication terminal (source terminal) of the source of the data of the two hemispherical images that are the source of the panoramic image of the whole sky. It manages the display restriction parameter that indicates the content to which the display restriction of the area image is given (received). This display limit parameter is the same as the display limit parameter managed in the display limit management table.

(ビデオ会議端末の各機能構成)
次に、図11及び図14を用いて、ビデオ会議端末3の各機能構成について更に詳細に説明する。
(Each function configuration of the video conference terminal)
Next, each functional configuration of the video conference terminal 3 will be described in more detail with reference to FIGS. 11 and 14.

ビデオ会議端末3の送受信部31は、主に、図11に示されているネットワークI/F311及びCPU301の処理によって実現され、通信ネットワーク100を介して、通信管理システム5と各種データ(または情報)の送受信を行う。 The transmission / reception unit 31 of the video conference terminal 3 is realized mainly by the processing of the network I / F311 and the CPU 301 shown in FIG. 11, and is realized by the communication management system 5 and various data (or information) via the communication network 100. Send and receive.

受付部32は、主に操作ボタン308及びCPU301による処理によって実現され、利用者から各種の選択又は入力を受け付ける。また、操作ボタン308だけでなく、他の入力手段としてタッチパネル等を用いてもよい。 The reception unit 32 is realized mainly by processing by the operation buttons 308 and the CPU 301, and receives various selections or inputs from the user. Further, not only the operation button 308 but also a touch panel or the like may be used as another input means.

画像・音処理部33は、図11に示されているCPU301からの命令によって実現され、カメラ312が被写体を撮像して得た画像データに対して画像処理を行なう。また、画像・音処理部33は、マイク314によって利用者の音声が音声信号に変換された後、この音声信号に係る音データに対して音声処理を行なう。 The image / sound processing unit 33 is realized by a command from the CPU 301 shown in FIG. 11, and performs image processing on the image data obtained by the camera 312 taking an image of the subject. Further, the image / sound processing unit 33 performs voice processing on the sound data related to the voice signal after the user's voice is converted into a voice signal by the microphone 314.

更に、画像・音処理部33は、表示制御部34がディスプレイ4に画像を表示させるため、ソース名等の画像種類情報に基づき、他の通信端末から受信された画像データに対して画像処理を行なう。具体的には、画像種類情報が特殊画像である旨を示す場合には、画像・音処理部33は、画像データ(例えば、図3(a),(b)に示されているような各半球画像のデータ)に基づいて、図4(b)に示されているような全天球パノラマ画像データに変換することで全天球パノラマ画像データを作成し、更に、図6(b)に示されているような所定領域画像を作成する。また、画像・音処理部33は、他の通信端末から通信管理システム5を介して受信された音データに係る音声信号をスピーカ315に出力し、スピーカ315から音声を出力させる。 Further, in the image / sound processing unit 33, since the display control unit 34 displays the image on the display 4, the image processing unit 33 performs image processing on the image data received from another communication terminal based on the image type information such as the source name. Do it. Specifically, when the image type information indicates that the image is a special image, the image / sound processing unit 33 uses the image data (for example, as shown in FIGS. 3A and 3B). Based on the hemispherical image data), the all-sky panorama image data is created by converting to the all-sky panorama image data as shown in FIG. 4 (b), and further, in FIG. 6 (b). Create a predetermined area image as shown. Further, the image / sound processing unit 33 outputs a sound signal related to sound data received from another communication terminal via the communication management system 5 to the speaker 315, and outputs the sound from the speaker 315.

表示制御部34は、主にディスプレイI/F317及びCPU301の処理によって実現され、ディスプレイ4に各種画像や文字等を表示させるための制御を行う。 The display control unit 34 is realized mainly by the processing of the display I / F 317 and the CPU 301, and controls the display 4 to display various images, characters, and the like.

判断部35は、主にCPU301の処理によって実現され、例えば、撮影装置1aから受信された画像データに係る画像種類を判断する。 The determination unit 35 is realized mainly by the processing of the CPU 301, and determines, for example, the image type related to the image data received from the photographing apparatus 1a.

作成部36は、主にCPU301の処理によって実現され、判断部35によって、一般画像又は特殊画像(ここでは、全天球パノラマ画像)と判断された結果に基づき、上述の命名規則に従って、画像種類情報の一例であるソース名を作成する。例えば、判断部35が、一般画像であると判断した場合には、作成部36は、一般画像である旨を示すソース名「Video」を作成する。一方、判断部35が、特殊画像であると判断した場合には、作成部36は、特殊画像である旨を示すソース名「Video_Theta」を作成する。 The creation unit 36 is realized mainly by the processing of the CPU 301, and based on the result determined by the determination unit 35 as a general image or a special image (here, a spherical panoramic image), the image type is according to the above-mentioned naming convention. Create a source name that is an example of information. For example, when the determination unit 35 determines that the image is a general image, the creation unit 36 creates a source name "Video" indicating that the image is a general image. On the other hand, when the determination unit 35 determines that the image is a special image, the creation unit 36 creates a source name "Video_Theta" indicating that the image is a special image.

通信部38は、主に、近距離通信回路319、アンテナ318a、及びCPU301の処理によって実現され、撮影装置1aの通信部18aと、NFC、BlueTooth、Wi-Fi等による近距離無線技術によって通信することができる。なお、通信部38と送受信部31とは通信ユニットを別個に有する構成で説明したが、共用構成であってもよい。 The communication unit 38 is mainly realized by processing the short-range communication circuit 319, the antenna 318a, and the CPU 301, and communicates with the communication unit 18a of the photographing device 1a by short-range wireless technology using NFC, BlueTooth, Wi-Fi, or the like. be able to. Although the communication unit 38 and the transmission / reception unit 31 have been described with a configuration in which the communication unit is separately provided, a shared configuration may be used.

記憶・読出部39は、主に、図11に示されているCPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。 The storage / reading unit 39 is mainly realized by the processing of the CPU 301 shown in FIG. 11, and stores various data (or information) in the storage unit 3000 or stores various data (or information) from the storage unit 3000. Read it out.

<通信管理システムの機能構成>
次に、図12及び図14を用いて、通信管理システム5の各機能構成について詳細に説明する。通信管理システム5は、送受信部51、判断部55、生成部56、及び記憶・読出部59を有している。これら各部は、図12に示されている各構成要素のいずれかが、HD504からRAM503上に展開された通信管理システム5用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of communication management system>
Next, each functional configuration of the communication management system 5 will be described in detail with reference to FIGS. 12 and 14. The communication management system 5 has a transmission / reception unit 51, a determination unit 55, a generation unit 56, and a storage / reading unit 59. Each of these parts has a function realized by operating any of the components shown in FIG. 12 by an instruction from the CPU 501 according to the program for the communication management system 5 developed on the RAM 503 from the HD 504. It is a means.

また、通信管理システム5は、図12に示されているRAM503、及びHD504によって構築される記憶部5000を有している。この記憶部5000には、セッション管理DB5001、画像種類管理DB5002、及び全表示制限管理DB5003が構築されている。このうち、セッション管理DB5001は、図19に示されているセッション管理テーブルによって構成されている。画像種類管理DB5002は、図20に示される画像種類管理テーブルによって構成されている。全表示制限管理DB5003は、図25に示されている全表示制限管理テーブルによって構成されている。 Further, the communication management system 5 has a RAM 503 shown in FIG. 12 and a storage unit 5000 constructed by the HD 504. A session management DB 5001, an image type management DB 5002, and a total display restriction management DB 5003 are constructed in the storage unit 5000. Of these, the session management DB 5001 is configured by the session management table shown in FIG. The image type management DB 5002 is configured by the image type management table shown in FIG. The full display limit management DB 5003 is configured by the full display limit management table shown in FIG. 25.

(セッション管理テーブル)
図19は、セッション管理テーブルを示す概念図である。このセッション管理テーブルでは、セッションID、及び参加した通信端末のIPアドレスが関連付けて記憶されて管理されている。このうち、セッションIDは、映像通話を実現する通信セッションを識別するためのセッション識別情報の一例であり、仮想の会議室ごとに生成される。セッションIDは、ビデオ会議端末3等の各通信端末でも管理されており、各通信端末において通信セッションの選択の際に利用される。参加した通信端末のIPアドレスは、関連付けられているセッションIDで示される仮想の会議室に参加した通信端末のIPアドレスを示している。
(Session management table)
FIG. 19 is a conceptual diagram showing a session management table. In this session management table, the session ID and the IP address of the participating communication terminal are stored and managed in association with each other. Of these, the session ID is an example of session identification information for identifying a communication session that realizes a video call, and is generated for each virtual conference room. The session ID is also managed by each communication terminal such as the video conference terminal 3, and is used when selecting a communication session in each communication terminal. The IP address of the participating communication terminal indicates the IP address of the communication terminal that participated in the virtual conference room indicated by the associated session ID.

(画像種類管理テーブル)
図20は、画像種類管理テーブルを示す概念図である。図20に示されている画像種類管理テーブルは、図15に示されている画像種類管理テーブルで管理されている各情報に加え、セッション管理テーブルで管理されているセッションIDと同じセッションIDが関連付けて管理されている。ここでは、同じセッションID「se101」で示される仮想の会議室には、IPアドレスがそれぞれ「1.2.1.3」、「1.2.2.3」、「1.3.1.3」の3つの通信端末が参加していることが示されている。なお、通信管理システム5において、ビデオ会議端末3等の通信端末で管理される、画像データID、送信元端末のIPアドレス、及び画像種類情報を同じものを管理するのは、新たな通信端末が仮想の会議室に入る場合等に、既に映像通話中の通信端末と新たに参加した通信端末に、画像種類情報等を送信するためである。これにより、既に映像通話中の通信端末と新たに参加した通信端末との間で、画像種類情報等の送受信を行なう必要がない。
(Image type management table)
FIG. 20 is a conceptual diagram showing an image type management table. In the image type management table shown in FIG. 20, in addition to each information managed in the image type management table shown in FIG. 15, the same session ID as the session ID managed in the session management table is associated with each other. Is managed. Here, in the virtual conference room represented by the same session ID "se101", the IP addresses are "1.2.1.3", "1.2.2.3", and "1.3.1.", Respectively. It is shown that the three communication terminals of "3" are participating. In the communication management system 5, the new communication terminal manages the same image data ID, source terminal IP address, and image type information managed by the communication terminal such as the video conference terminal 3. This is to transmit image type information and the like to a communication terminal that is already in a video call and a newly joined communication terminal when entering a virtual conference room. As a result, it is not necessary to send and receive image type information and the like between the communication terminal already in the video call and the newly joined communication terminal.

(全表示制限管理テーブル)
図21は、全表示制限管理テーブルを示す概念図である。この全表示制限管理テーブルは、表示制限テーブル(図17参照)及び表示被制限テーブル(図18参照)を融合したテーブルである。即ち、全表示制限管理テーブルでは、全天球パノラマ画像の元になる2つの半球画像のデータの送信元の通信端末(送信元端末)のIPアドレス及び送信先の通信端末(送信先端末)のIPアドレス毎に、所定領域画像の表示の制限を与えている内容を示す表示制限パラメータを管理している。これにより、通信管理システム5は、画像データの送信元が各送信先にどのような制限を加えているかを管理することができる。
(All display limit management table)
FIG. 21 is a conceptual diagram showing a total display restriction management table. This all display restriction management table is a table in which a display restriction table (see FIG. 17) and a display restricted table (see FIG. 18) are fused. That is, in the all display restriction management table, the IP address of the source communication terminal (source terminal) and the destination communication terminal (destination terminal) of the data of the two hemispherical images that are the source of the panoramic image of the whole sky. A display restriction parameter indicating the content that restricts the display of a predetermined area image is managed for each IP address. Thereby, the communication management system 5 can manage what kind of restriction the transmission source of the image data imposes on each transmission destination.

(通信管理システムの各機能構成)
次に、図12及び図14を用いて、通信管理システム5の各機能構成について詳細に説明する。
(Each function configuration of communication management system)
Next, each functional configuration of the communication management system 5 will be described in detail with reference to FIGS. 12 and 14.

通信管理システム5の送受信部51は、主に、図12に示されているネットワークI/F509及びCPU501の処理によって実現され、通信ネットワーク100を介してビデオ会議端末3、又はPC7と各種データ(または情報)の送受信を行う。 The transmission / reception unit 51 of the communication management system 5 is mainly realized by the processing of the network I / F 509 and the CPU 501 shown in FIG. 12, and the video conference terminal 3 or the PC 7 and various data (or various data) are realized via the communication network 100. Information) is sent and received.

判断部55は、主にCPU501の処理によって実現され、各種判断を行なう。 The determination unit 55 is realized mainly by the processing of the CPU 501, and makes various determinations.

生成部56は、主にCPU501の処理によって実現され、画像データIDを生成する。 The generation unit 56 is realized mainly by the processing of the CPU 501, and generates an image data ID.

記憶・読出部59は、主に、図12に示されているHDD505、及びCPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。 The storage / reading unit 59 is mainly realized by the processing of the HDD 505 and the CPU 501 shown in FIG. 12, and can store various data (or information) in the storage unit 5000 or various data (or information) from the storage unit 5000. Information) is read out.

<PCの機能構成>
次に、図12及び図14を用いて、PC7の機能構成について詳細に説明する。PC7は、基本的にビデオ会議端末3と同じ機能を有している。即ち、図14に示されているように、PC7は、送受信部71、受付部72、画像・音処理部73、表示制御部74、判断部75、作成部76、通信部78、及び記憶・読出部79を有している。これら各部は、図12に示されている各構成要素のいずれかが、HD504からRAM503上に展開されたPC7用プログラムに従ったCPU501からの命令によって動作することで実現される機能又は手段である。
<PC function configuration>
Next, the functional configuration of the PC 7 will be described in detail with reference to FIGS. 12 and 14. The PC 7 basically has the same function as the video conference terminal 3. That is, as shown in FIG. 14, the PC 7 includes a transmission / reception unit 71, a reception unit 72, an image / sound processing unit 73, a display control unit 74, a judgment unit 75, a creation unit 76, a communication unit 78, and a storage unit. It has a reading unit 79. Each of these parts is a function or means realized by operating any of the components shown in FIG. 12 by an instruction from the CPU 501 according to a program for PC7 developed on the RAM 503 from the HD 504. ..

また、PC7は、図12に示されているROM502、RAM503、及びHD504によって構築される記憶部7000を有している。この記憶部7000には、画像種類管理DB7001、及び撮影装置管理DB7002が構築されている。なお、画像種類管理DB7001、及び撮影装置管理DB7002は、それぞれ画像種類管理DB3001、及び撮影装置管理DB3002と同じ構成であるため説明を省略する。 Further, the PC 7 has a storage unit 7000 constructed by the ROM 502, the RAM 503, and the HD 504 shown in FIG. An image type management DB 7001 and a photographing device management DB 7002 are constructed in the storage unit 7000. Since the image type management DB 7001 and the photographing device management DB 7002 have the same configuration as the image type management DB 3001 and the photographing device management DB 3002, respectively, the description thereof will be omitted.

(PCの各機能構成)
PC7の送受信部71は、主に、図12に示されているネットワークI/F509及びCPU501の処理によって実現され、送受信部31と同様の機能を実現する。
(Each function configuration of PC)
The transmission / reception unit 71 of the PC 7 is mainly realized by the processing of the network I / F 509 and the CPU 501 shown in FIG. 12, and realizes the same functions as the transmission / reception unit 31.

受付部72は、主にキーボード511、マウス512及びCPU501の処理によって実現され、受付部32と同様の機能を実現する。画像・音処理部73は、主にCPU501からの命令によって実現され、画像・音処理部33と同様の機能を実現する。表示制御部74は、主にCPU501の処理によって実現され、表示制御部34と同様の機能を実現する。判断部75は、主にCPU501の処理によって実現され、判断部35と同様の機能を実現する。作成部76は、主にCPU501の処理によって実現され、作成部36と同様の機能を実現する。通信部78は、主に、CPU501の処理によって実現され、通信部38と同様の機能を実現する。記憶・読出部79は、CPU501の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。 The reception unit 72 is realized mainly by processing the keyboard 511, the mouse 512, and the CPU 501, and realizes the same functions as the reception unit 32. The image / sound processing unit 73 is realized mainly by a command from the CPU 501, and realizes the same function as the image / sound processing unit 33. The display control unit 74 is realized mainly by the processing of the CPU 501, and realizes the same function as the display control unit 34. The determination unit 75 is realized mainly by the processing of the CPU 501, and realizes the same function as the determination unit 35. The creating unit 76 is realized mainly by the processing of the CPU 501, and realizes the same function as the creating unit 36. The communication unit 78 is mainly realized by the processing of the CPU 501, and realizes the same function as the communication unit 38. The storage / reading unit 79 is realized by the processing of the CPU 501, stores various data (or information) in the storage unit 7000, and reads various data (or information) from the storage unit 7000.

<スマートフォンの機能構成>
次に、図13及び図14を用いて、スマートフォン9の機能構成について詳細に説明する。スマートフォン9は、基本的にビデオ会議端末3と同じ機能を有している。即ち、図14に示されているように、スマートフォン9は、送受信部91、受付部92、画像・音処理部93、表示制御部94、判断部95、作成部96、通信部98、及び記憶・読出部99を有している。これら各部は、図13に示されている各構成要素のいずれかが、EEPROM904からRAM903上に展開されたスマートフォン9用プログラムに従ったCPU901からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of smartphone>
Next, the functional configuration of the smartphone 9 will be described in detail with reference to FIGS. 13 and 14. The smartphone 9 basically has the same function as the video conference terminal 3. That is, as shown in FIG. 14, the smartphone 9 has a transmission / reception unit 91, a reception unit 92, an image / sound processing unit 93, a display control unit 94, a judgment unit 95, a creation unit 96, a communication unit 98, and a storage unit. -Has a reading unit 99. Each of these parts is a function or means realized by operating any of the components shown in FIG. 13 by a command from the CPU 901 according to the program for the smartphone 9 developed on the RAM 903 from the EEPROM 904. be.

また、スマートフォン9は、図13に示されているROM902、RAM903、及びEEPROM904によって構築される記憶部9000を有している。この記憶部9000には、画像種類管理DB9001、及び撮影装置管理DB9002が構築されている。なお、画像種類管理DB9001、及び撮影装置管理DB9002は、それぞれ画像種類管理DB3001、及び撮影装置管理DB3002と同じ構成であるため説明を省略する。 Further, the smartphone 9 has a storage unit 9000 constructed by the ROM 902, the RAM 903, and the EEPROM 904 shown in FIG. An image type management DB 9001 and a photographing device management DB 9002 are constructed in the storage unit 9000. Since the image type management DB 9001 and the photographing device management DB 9002 have the same configuration as the image type management DB 3001 and the photographing device management DB 3002, respectively, the description thereof will be omitted.

(スマートフォンの各機能構成)
スマートフォン9の送受信部91は、主に、図13に示されている遠距離通信回路911及びCPU901の処理によって実現され、送受信部31と同様の機能を実現する。
(Each function configuration of smartphone)
The transmission / reception unit 91 of the smartphone 9 is mainly realized by the processing of the long-distance communication circuit 911 and the CPU 901 shown in FIG. 13, and realizes the same function as the transmission / reception unit 31.

受付部92は、主にタッチパネル921及びCPU901の処理によって実現され、受付部32と同様の機能を実現する。 The reception unit 92 is realized mainly by the processing of the touch panel 921 and the CPU 901, and realizes the same function as the reception unit 32.

画像・音処理部93は、主にCPU901からの命令によって実現され、画像・音処理部33と同様の機能を実現する。 The image / sound processing unit 93 is realized mainly by a command from the CPU 901, and realizes the same function as the image / sound processing unit 33.

表示制御部94は、主にCPU901の処理によって実現され、表示制御部34と同様の機能を実現する。 The display control unit 94 is realized mainly by the processing of the CPU 901, and realizes the same function as the display control unit 34.

判断部95は、主にCPU901の処理によって実現され、判断部35と同様の機能を実現する。 The determination unit 95 is mainly realized by the processing of the CPU 901, and realizes the same function as the determination unit 35.

作成部96は、主にCPU901の処理によって実現され、作成部36と同様の機能を実現する。 The creating unit 96 is realized mainly by the processing of the CPU 901, and realizes the same function as the creating unit 36.

通信部98は、主に、CPU901の処理によって実現され、通信部38と同様の機能を実現する。 The communication unit 98 is mainly realized by the processing of the CPU 901, and realizes the same function as the communication unit 38.

記憶・読出部99は、CPU901の処理によって実現され、記憶部9000に各種データ(または情報)を記憶したり、記憶部9000から各種データ(または情報)を読み出したりする。 The storage / reading unit 99 is realized by the processing of the CPU 901, stores various data (or information) in the storage unit 9000, and reads various data (or information) from the storage unit 9000.

<<実施形態の処理又は動作>>
<参加の処理>
続いて、図22乃至図27を用いて、本実施形態の処理又は動作について説明する。まず、図22及び図23を用いて、特定の通信セッションへの参加処理について説明する。図22は、特定の通信セッションへの参加処理を示したシーケンス図である。図23は、通信セッション(仮想の会議室)の選択画面を示した図である。
<< Processing or operation of the embodiment >>
<Participation processing>
Subsequently, the process or operation of the present embodiment will be described with reference to FIGS. 22 to 27. First, the process of participating in a specific communication session will be described with reference to FIGS. 22 and 23. FIG. 22 is a sequence diagram showing a process of participating in a specific communication session. FIG. 23 is a diagram showing a selection screen of a communication session (virtual conference room).

まず、拠点Aの利用者(例えば、利用者A1)が、ビデオ会議端末3において、通信セッション(仮想の会議室)の選択画面の表示を行なう操作をすると、受付部32が選択画面を表示する操作を受け付け、表示制御部34がディスプレイ4に、図23に示されているような選択画面を表示する(ステップS21)。この選択画面には、選択対象である各仮想の会議室R1,R2,R3等を示す選択ボタンb1,b2,b3等が表示されている。また、各選択ボタンb1等には、各セッションIDが関連付けられている。 First, when the user of the base A (for example, the user A1) operates to display the selection screen of the communication session (virtual conference room) on the video conference terminal 3, the reception unit 32 displays the selection screen. Upon receiving the operation, the display control unit 34 displays the selection screen as shown in FIG. 23 on the display 4 (step S21). On this selection screen, selection buttons b1, b2, b3 and the like indicating each virtual conference room R1, R2, R3 and the like to be selected are displayed. Further, each session ID is associated with each selection button b1 and the like.

ここで、利用者A1が仮想の会議室の所望の選択ボタン(ここでは選択ボタンb1)を選択すると、受付部32は、通信セッションの選択を受け付ける(ステップS22)。そして、送受信部31は、通信管理システム5に対して、仮想の会議室への参加要求を送信する(ステップS23)。この参加要求には、ステップS22で選択を受け付けられた通信セッションを示すセッションID、及び要求元端末であるビデオ会議端末3のIPアドレスが含まれている。これにより、通信管理システム5の送受信部51は、参加要求を受信する。 Here, when the user A1 selects a desired selection button (here, selection button b1) in the virtual conference room, the reception unit 32 accepts the selection of the communication session (step S22). Then, the transmission / reception unit 31 transmits a request for participation in the virtual conference room to the communication management system 5 (step S23). The participation request includes a session ID indicating the communication session whose selection has been accepted in step S22, and the IP address of the video conference terminal 3 which is the requesting terminal. As a result, the transmission / reception unit 51 of the communication management system 5 receives the participation request.

次に、記憶・読出部99は、セッション管理DB5001(図19参照)において、ステップS23で受信されたセッションIDと同じセッションIDのレコードにおける参加端末IPアドレスのフィールドに、ステップS23で受信されたIPアドレスを追加することで、通信セッションへの参加処理を行なう(ステップS24)。そして、送受信部51は、ビデオ会議端末3に対して、参加要求応答を送信する(ステップS25)。この参加要求応答には、ステップS23によって受信されたセッションID、及び参加処理結果が含まれている。これにより、ビデオ会議端末3の送受信部31は、参加要求応答を受信する。以降、参加処理が成功した場合について説明する。 Next, in the session management DB 5001 (see FIG. 19), the storage / reading unit 99 enters the IP received in step S23 in the field of the participating terminal IP address in the record having the same session ID as the session ID received in step S23. By adding the address, the process of joining the communication session is performed (step S24). Then, the transmission / reception unit 51 transmits a participation request response to the video conference terminal 3 (step S25). The participation request response includes the session ID received in step S23 and the participation processing result. As a result, the transmission / reception unit 31 of the video conference terminal 3 receives the participation request response. Hereinafter, the case where the participation process is successful will be described.

<画像種類情報の管理処理>
続いて、図24を用いて、画像種類情報の管理処理を説明する。図24は、画像種類情報の管理処理を示すシーケンス図である。
<Image type information management process>
Subsequently, the image type information management process will be described with reference to FIG. 24. FIG. 24 is a sequence diagram showing a management process of image type information.

まず、拠点Aの利用者(例えば、利用者A1)が、ビデオ会議端末3に、撮影装置1aが取り付けられた状態のクレードル2aのUSBケーブルを接続すると、撮影装置1aの記憶・読出部19aが記憶部1000aに記憶されている自装置(撮影装置1a)のGUIDを読み出し、通信部18aがビデオ会議端末3の通信部38に対して自装置のGUIDを送信する(ステップS51)。これにより、ビデオ会議端末3の通信部38は、撮影装置1aのGUIDを受信する。 First, when the user of the base A (for example, the user A1) connects the USB cable of the cradle 2a with the photographing device 1a attached to the video conference terminal 3, the storage / reading unit 19a of the photographing device 1a is connected. The GUID of the own device (shooting device 1a) stored in the storage unit 1000a is read out, and the communication unit 18a transmits the GUID of the own device to the communication unit 38 of the video conference terminal 3 (step S51). As a result, the communication unit 38 of the video conference terminal 3 receives the GUID of the photographing device 1a.

次に、ビデオ会議端末3の判断部35は、撮影装置管理DB3002(図16参照)において、ステップS51によって受信されたGUID中のベンダID及びプロダクトIDと、同じベンダID及びプロダクトIDが管理されているか否かを判断することで、画像種類を判断する(ステップS52)。具体的には、撮影装置管理DB3002において、同じベンダID及びプロダクトIDが管理されている場合には、判断部35は、撮影装置1aが特殊画像(ここでは、全天球パノラマ画像)を撮影する撮影装置であると判断する。これに対して、撮影装置管理DB3002において、同じベンダID及びプロダクトIDが管理されていない場合には、判断部35は、撮影装置1aが一般画像を撮影する撮影装置であると判断する。 Next, the determination unit 35 of the video conference terminal 3 manages the vendor ID and product ID in the GUID received in step S51 and the same vendor ID and product ID in the photographing device management DB 3002 (see FIG. 16). The image type is determined by determining whether or not the image is present (step S52). Specifically, when the same vendor ID and product ID are managed in the photographing device management DB 3002, the determination unit 35 captures a special image (here, a spherical panoramic image) by the photographing device 1a. Judge that it is a photographing device. On the other hand, when the same vendor ID and product ID are not managed in the photographing device management DB 3002, the determination unit 35 determines that the photographing device 1a is a photographing device for capturing a general image.

次に、記憶・読出部39は、画像種類管理DB3001(図15参照)に対して、送信元端末である自端末(ビデオ会議端末3)のIPアドレスと、ステップS52で判断された判断結果である画像種類情報とを関連付けて記憶する(ステップS53)。この状態では、画像データIDは関連付けられていない。画像種類情報は、例えば、所定の命名規則に従って定められたソース名や、画像種類(一般画像、特殊画像)である。 Next, the storage / reading unit 39 uses the IP address of the own terminal (video conference terminal 3), which is the source terminal, and the determination result determined in step S52 for the image type management DB 3001 (see FIG. 15). It is stored in association with a certain image type information (step S53). In this state, the image data ID is not associated. The image type information is, for example, a source name defined according to a predetermined naming convention or an image type (general image, special image).

次に、送受信部31は、通信管理システム5に対して、画像種類情報の追加要求を送信する(ステップS54)。この画像種類情報の追加要求には、ステップS53で記憶した送信元端末である自端末のIPアドレス、及び画像種類情報が含まれている。これにより、通信管理システム5の送受信部51は、画像種類情報の追加要求を受信する。 Next, the transmission / reception unit 31 transmits a request for adding image type information to the communication management system 5 (step S54). The request for adding the image type information includes the IP address of the own terminal, which is the source terminal stored in step S53, and the image type information. As a result, the transmission / reception unit 51 of the communication management system 5 receives the request for adding the image type information.

次に、通信管理システム5の記憶・読出部59は、ステップS54によって受信された送信元端末のIPアドレスを検索キーとして、セッション管理DB5001(図19参照)を検索することにより、対応するセッションIDを読み出す(ステップS55)。 Next, the storage / reading unit 59 of the communication management system 5 searches the session management DB 5001 (see FIG. 19) using the IP address of the source terminal received in step S54 as a search key, and thereby corresponds to the corresponding session ID. Is read (step S55).

次に、生成部56は、固有の画像データIDを生成する(ステップS56)。そして、記憶・読出部59は、画像種類管理DB5002(図20参照)に、新たなレコードとして、ステップS55で読み出されたセッションID、ステップS56で生成された画像データID、並びに、ステップS54で受信された送信元端末のIPアドレス及び画像種類情報を関連付けて記憶する(ステップS57)。そして、送受信部51は、ビデオ会議端末3に対して、ステップS56で生成された画像データIDを送信する。これにより、ビデオ会議端末3の送受信部31は、画像データIDを受信する(ステップS58)。 Next, the generation unit 56 generates a unique image data ID (step S56). Then, the storage / reading unit 59 registers the session ID read in step S55, the image data ID generated in step S56, and the image data ID in step S54 as new records in the image type management DB 5002 (see FIG. 20). The received IP address of the source terminal and the image type information are associated and stored (step S57). Then, the transmission / reception unit 51 transmits the image data ID generated in step S56 to the video conference terminal 3. As a result, the transmission / reception unit 31 of the video conference terminal 3 receives the image data ID (step S58).

次に、ビデオ会議端末3の記憶・読出部39は、画像種類管理DB3001(図15参照)に、上記ステップS53で記憶しておいた送信元端末である自端末(ビデオ会議端末3)のIPアドレス及び画像種類情報に関連づけて、ステップS58で受信された画像データIDを記憶する(ステップS59)。 Next, the storage / reading unit 39 of the video conference terminal 3 stores the IP of the own terminal (video conference terminal 3), which is the source terminal stored in the image type management DB 3001 (see FIG. 15), in the image type management DB 3001 (see FIG. 15). The image data ID received in step S58 is stored in association with the address and the image type information (step S59).

一方、通信管理システム5の送受信部51は、他の通信端末であるスマートフォン9に対して、画像種類情報の追加通知を送信する(ステップS60)。この画像種類情報の追加通知には、ステップS56で生成された画像データID、並びに、ステップS53で記憶された送信元端末である自端末(ビデオ会議端末3)のIPアドレス及び画像種類情報が含まれている。これにより、スマートフォン9の送受信部91は、画像種類情報の追加通知を受信する。なお、送受信部51の送信先は、セッション管理DB5001(図19参照)で、ビデオ会議端末3のIPアドレスと同じセッションIDに関連付けられている他のIPアドレスである。即ち、送信先は、ビデオ会議端末3と同じ仮想の会議室に入っている他の通信端末である。 On the other hand, the transmission / reception unit 51 of the communication management system 5 transmits an additional notification of image type information to the smartphone 9 which is another communication terminal (step S60). The additional notification of the image type information includes the image data ID generated in step S56, and the IP address and image type information of the own terminal (video conference terminal 3) which is the source terminal stored in step S53. It has been. As a result, the transmission / reception unit 91 of the smartphone 9 receives the additional notification of the image type information. The transmission destination of the transmission / reception unit 51 is the session management DB 5001 (see FIG. 19), and is another IP address associated with the same session ID as the IP address of the video conference terminal 3. That is, the transmission destination is another communication terminal in the same virtual conference room as the video conference terminal 3.

次に、スマートフォン9の記憶・読出部99は、画像種類管理DB9001(図15参照)に、新たなレコードとして、ステップS60で受信された、画像データID、送信元端末のIPアドレス、及び画像種類情報を関連付けて記憶する(ステップS61)。同じように、他の通信端末であるPC7にも画像種類情報の追加通信が送信され、PC7でも、画像種類管理DB7001(図15参照)に記憶される。以上より、各通信端末では、各画像種類管理DB3001,7001,9001で同じ情報を共有することができる。 Next, the storage / reading unit 99 of the smartphone 9 has the image data ID, the IP address of the source terminal, and the image type received in step S60 as a new record in the image type management DB 9001 (see FIG. 15). Information is associated and stored (step S61). Similarly, the additional communication of the image type information is transmitted to the PC 7 which is another communication terminal, and is stored in the image type management DB 7001 (see FIG. 15) in the PC 7. From the above, each communication terminal can share the same information in each image type management DB 3001,7001,9001.

<画像データの通信処理>
図25乃至図28を用いて、映像通話における画像データの通信処理について説明する。図25は、映像通話における画像データの通信処理を示すシーケンス図である。
<Communication processing of image data>
25 to 28 will be used to describe communication processing of image data in a video call. FIG. 25 is a sequence diagram showing communication processing of image data in a video call.

まず、撮影装置1aの通信部18aからビデオ会議端末3の通信部38に対して、被写体や風景等を撮影して得た画像データを送信する(ステップS71)。この場合、撮影装置1aは全天球パノラマ画像の元になる2つの半球画像を得ることができる装置であるため、図3(a)、(b)に示されているように、画像データは、2つの半球画像のデータによって構成されている。これにより、ビデオ会議端末3の通信部38は、画像データを受信する。 First, the image data obtained by photographing a subject, a landscape, or the like is transmitted from the communication unit 18a of the photographing apparatus 1a to the communication unit 38 of the video conference terminal 3 (step S71). In this case, since the photographing device 1a is a device capable of obtaining two hemispherical images that are the basis of the spherical panoramic image, the image data is as shown in FIGS. 3 (a) and 3 (b). It is composed of data from two hemispherical images. As a result, the communication unit 38 of the video conference terminal 3 receives the image data.

次に、ビデオ会議端末3の送受信部31は、通信管理システム5に対して、撮影装置1aから送られてきた画像データを送信する(ステップS72)。この送信には、送信対象である画像データを識別するための画像データIDが含まれている。また、送信元であるビデオ会議端末3のIPアドレスも送信される。これにより、通信管理システム5の送受信部51は、画像データ、画像データID及びIPアドレスを受信する。 Next, the transmission / reception unit 31 of the video conference terminal 3 transmits the image data sent from the photographing device 1a to the communication management system 5 (step S72). This transmission includes an image data ID for identifying the image data to be transmitted. In addition, the IP address of the video conference terminal 3 which is the transmission source is also transmitted. As a result, the transmission / reception unit 51 of the communication management system 5 receives the image data, the image data ID, and the IP address.

次に、通信管理システム5の送受信部51は、スマートフォン9に対して、ビデオ会議端末3から送られてきた画像データを送信する(ステップS73)。この送信には、送信対象である画像データを識別するための画像データIDが含まれている。送信元であるビデオ会議端末3のIPアドレスも送信される。これにより、スマートフォン9の送受信部51は、画像データ、画像データID及びIPアドレスを受信する。 Next, the transmission / reception unit 51 of the communication management system 5 transmits the image data sent from the video conference terminal 3 to the smartphone 9 (step S73). This transmission includes an image data ID for identifying the image data to be transmitted. The IP address of the video conference terminal 3 that is the source is also transmitted. As a result, the transmission / reception unit 51 of the smartphone 9 receives the image data, the image data ID, and the IP address.

次に、スマートフォン9では、記憶・読出部99が、ステップS73によって受信された画像データIDを検索キーとして、画像種類管理DB9001(図15参照)を検索することにより、対応する画像種類情報(ソース名)を読み出す(ステップS74)。そして、スマートフォン9は、所定領域画像の作成処理を行う(ステップS75)。ここで、図26を用いて、ステップS75の処理を詳細に説明する。図26は、所定領域画像の作成処理を示したフローチャートである。 Next, in the smartphone 9, the storage / reading unit 99 searches the image type management DB 9001 (see FIG. 15) using the image data ID received in step S73 as a search key, thereby performing the corresponding image type information (source). First name) is read (step S74). Then, the smartphone 9 performs a process of creating a predetermined area image (step S75). Here, the process of step S75 will be described in detail with reference to FIG. 26. FIG. 26 is a flowchart showing a process of creating a predetermined area image.

まず、スマートフォン9の判断部95は、ステップS74によって読み出された画像種類情報に基づいて、ステップS73によって受信された画像データの画像種類が特殊画像(ここでは、全天球パノラマ画像)であるかを判断する(ステップS71-1)。そして、特殊画像である場合には(YES)、記憶・読出部99が送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレスを検索キーとして、対応する表示制限パラメータを検索する(ステップS71-2)。 First, in the determination unit 95 of the smartphone 9, the image type of the image data received in step S73 is a special image (here, a spherical panoramic image) based on the image type information read out in step S74. (Step S71-1). Then, in the case of a special image (YES), the storage / reading unit 99 searches for the corresponding display restriction parameter using the IP address of the source communication terminal (here, the video conference terminal 3) as a search key (YES). Step S71-2).

次に、判断部95は、表示制限パラメータがあるか、即ち、表示制限を受けているかを判断する(ステップS71-3)。そして、表示制限を受けている場合には(YES)、更に、判断部95は、表示制限パラメータがデフォルトの表示パラメータよりも表示サイズが制限されているかを判断する(ステップS71-4)。判断部95が、制限されていると判断した場合には(YES)、画像・音処理部93は、ステップS73によって受信された画像データから全天球パノラマ画像を作成し、更に表示制限パラメータに基づいて所定領域画像を作成する(ステップS71-5)。この場合、画像・音処理部93は、特殊画像である旨(Video_Theta)を示す画像種類情報に基づいて、後述の全天球パノラマ画像であることを示すアイコン191を所定領域画像に合成する。 Next, the determination unit 95 determines whether or not there is a display restriction parameter, that is, whether or not the display is restricted (step S71-3). Then, when the display is restricted (YES), the determination unit 95 further determines whether the display restriction parameter is restricted in display size more than the default display parameter (step S71-4). If the determination unit 95 determines that the restriction is made (YES), the image / sound processing unit 93 creates an omnidirectional panoramic image from the image data received in step S73, and further sets it as a display restriction parameter. Based on this, a predetermined area image is created (step S71-5). In this case, the image / sound processing unit 93 synthesizes the icon 191 indicating that the image is a spherical panoramic image, which will be described later, into the predetermined area image based on the image type information indicating that the image is a special image (Video_Theta).

一方、ステップS71-3において、判断部95が、表示制限を受けていないと判断した場合(NO)、及び、ステップS71-4において、判断部95が、制限されていないと判断した場合(NO)、画像・音処理部93は、ステップS73によって受信された画像データから全天球パノラマ画像を作成し、更にデフォルトの表示パラメータに基づいて所定領域画像を作成する(ステップS71-6)。この場合、画像・音処理部93は、特殊画像である旨(Video_Theta)を示す画像種類情報に基づいて、後述の全天球パノラマ画像であることを示すアイコン191を所定領域画像に合成する。 On the other hand, in step S71-3, when the determination unit 95 determines that the display is not restricted (NO), and in step S71-4, the determination unit 95 determines that the display is not restricted (NO). ), The image / sound processing unit 93 creates a spherical panoramic image from the image data received in step S73, and further creates a predetermined area image based on the default display parameters (step S71-6). In this case, the image / sound processing unit 93 synthesizes the icon 191 indicating that the image is a spherical panoramic image, which will be described later, into the predetermined area image based on the image type information indicating that the image is a special image (Video_Theta).

また、上記ステップS71-1において、判断部95が、画像データの画像種類が特殊画像でないと判断した場合には(NO)、ステップS71の処理が終了する。 If the determination unit 95 determines in step S71-1 that the image type of the image data is not a special image (NO), the process of step S71 ends.

次に、図25に戻って、表示制御部94は、スマートフォン9のディスプレイ917に、アイコン191を含む所定領域画像を表示する(ステップS76)。なお、画像種類情報が一般画像である旨(Video)を示す場合には、画像・音処理部93は、ステップS73によって受信された画像データから全天球パノラマ画像を作成せず、表示制御部94は、アイコン191が含まれていない一般画像を表示する。 Next, returning to FIG. 25, the display control unit 94 displays a predetermined area image including the icon 191 on the display 917 of the smartphone 9 (step S76). When the image type information indicates that the image is a general image (Video), the image / sound processing unit 93 does not create an all-sky panorama image from the image data received in step S73, and the display control unit 93. 94 displays a general image that does not include the icon 191.

続いて、図27を用いて、映像通話の状態を説明する。図27は、映像通話の状態を示したイメージ図である。このうち、図27(a)は、撮影装置1aを利用しない場合を示し、図27(b)は、撮影装置1aを利用する場合を示している。 Subsequently, the state of the video call will be described with reference to FIG. 27. FIG. 27 is an image diagram showing a state of a video call. Of these, FIG. 27A shows a case where the photographing device 1a is not used, and FIG. 27B shows a case where the photographing device 1a is used.

まず、図27(a)に示されているように、撮影装置1aを利用しないで、ビデオ会議端末3に予め設けられたカメラ312(図11参照)を利用する場合、画角が水平125度で垂直70度であるため、ビデオ会議端末3を各利用者A1等が映る机の端に置かなければならない。このため、各利用者A1等は、ビデオ会議端末3側を向いて話さなければならない。また、各利用者A1等がビデオ会議端末3の方を向くため、ディスプレイ4もビデオ会議端末3の側に置くことになる。これにより、ビデオ会議端末3から離れた利用者A2,A4は、マイク314(図11参照)から離れているため、比較的大きな声で話さないといけないし、ディスプレイ4の表示内容が見えづらい。 First, as shown in FIG. 27 (a), when the camera 312 (see FIG. 11) provided in advance in the video conference terminal 3 is used without using the photographing device 1a, the angle of view is 125 degrees horizontally. Since it is 70 degrees vertically, the video conference terminal 3 must be placed at the edge of the desk on which each user A1 or the like is displayed. Therefore, each user A1 or the like must face the video conference terminal 3 side and speak. Further, since each user A1 or the like faces the video conference terminal 3, the display 4 is also placed on the side of the video conference terminal 3. As a result, the users A2 and A4 away from the video conference terminal 3 have to speak in a relatively loud voice because they are away from the microphone 314 (see FIG. 11), and it is difficult to see the display contents of the display 4.

これに対して、図27(b)に示されているように、撮影装置1aを利用する場合には、全天球パノラマ画像の元になる2つの半球画像を得ることができるため、ビデオ会議端末3及びディスプレイ4は、比較的、机の中央に置くことができる。これにより、各利用者A1等は、マイク314に近いため、比較的小声で話すことができ、ディスプレイ4の表示内容も見えやすくなる。 On the other hand, as shown in FIG. 27 (b), when the photographing device 1a is used, two hemispherical images that are the basis of the spherical panoramic image can be obtained, so that a video conference can be obtained. The terminal 3 and the display 4 can be placed relatively in the center of the desk. As a result, since each user A1 or the like is close to the microphone 314, he / she can speak in a relatively low voice, and the display contents of the display 4 can be easily seen.

続いて、図28を用いて、拠点Bにおけるディスプレイ917の表示例を説明する。図28は、拠点Bにおける映像通話の画面例を示す。このうち、図28(a)は、ビデオ会議端末3(撮影装置1a)及び撮影装置1bから送られて来た画像データから、全天球パノラマ画像及び所定領域画像の作成をせずに、そのまま表示する場合、並びにPC7(撮影装置8)から送られて来た画像データをそのまま表示する場合を示している。図28(b)は、ビデオ会議端末3(撮影装置1a)及び撮影装置1bから送られて来た画像データから、全天球パノラマ画像の作成及び所定領域画像の作成をした場合、並びにPC7(撮影装置8)から送られて来た画像データをそのまま表示する場合を示している。なお、ディスプレイ917の左上側の表示領域には拠点Aの画像が表示され、右上側の表示領域には拠点B(自拠点)の画像が表示され、左下側の表示領域には拠点Cの画像が表示されている。また、この例では3拠点の同時映像通話を行なっているため、右下側の表示領域には何も表示されていない。 Subsequently, a display example of the display 917 at the base B will be described with reference to FIG. 28. FIG. 28 shows a screen example of a video call at the base B. Of these, FIG. 28A shows the spherical panoramic image and the predetermined area image as they are without creating the spherical panoramic image and the predetermined area image from the image data sent from the video conference terminal 3 (shooting device 1a) and the shooting device 1b. It shows the case of displaying and the case of displaying the image data sent from the PC 7 (shooting device 8) as it is. FIG. 28B shows a case where a spherical panoramic image is created and a predetermined area image is created from the image data sent from the video conference terminal 3 (shooting device 1a) and the shooting device 1b, and PC7 ( The case where the image data sent from the photographing apparatus 8) is displayed as it is is shown. The image of the base A is displayed in the display area on the upper left side of the display 917, the image of the base B (own base) is displayed in the display area on the upper right side, and the image of the base C is displayed in the display area on the lower left side. Is displayed. Further, in this example, since simultaneous video calls are being made at three bases, nothing is displayed in the display area on the lower right side.

全天球パノラマ画像の撮影が可能な撮影装置1a,1bから送られて来た画像データをそのまま表示すると、図28(a)に示されているように表示される。これは、左上側のA拠点と右上側のB拠点(自拠点)が、それぞれ図3(a),(b)に示されているように、前側の半球画像と後側の半球画像として表示されている。 When the image data sent from the photographing devices 1a and 1b capable of capturing the spherical panoramic image is displayed as it is, it is displayed as shown in FIG. 28 (a). This is because the A base on the upper left side and the B base on the upper right side (own base) are displayed as a front hemisphere image and a rear hemisphere image, respectively, as shown in FIGS. 3 (a) and 3 (b), respectively. Has been done.

これに対して、画像・音処理部93が、全天球パノラマ画像の元になる2つの半球画像を得ることができる撮影装置1a,1bから送られて来た画像データから、全天球パノラマ画像を作成し、更に所定領域画像を作成すると、図28(b)に示されているように、平面画像である所定領域画像が表示される。なお、拠点Cには、一般画像を得る撮影装置8が備えられているため、図28(a),(b)のいずれも、一般画像が表示されている。 On the other hand, the image / sound processing unit 93 uses the image data sent from the photographing devices 1a and 1b capable of obtaining the two hemispherical images that are the basis of the panoramic panoramic image. When an image is created and a predetermined area image is further created, a predetermined area image which is a plane image is displayed as shown in FIG. 28 (b). Since the base C is provided with a photographing device 8 for obtaining a general image, the general image is displayed in both FIGS. 28 (a) and 28 (b).

更に、拠点A、及び拠点B(自拠点)の画像の各左上には、全天球パノラマ画像であることを示すアイコン191が表示されている。なお、アイコン191の表示位置は、左上ではなく、右上、左下、及び右下等、どこでもよい。また、アイコン191の種類は図28(b)に限らない。また、アイコン191ではなく、「全天球画像」等の文字であってもよく、アイコンと文字の組み合わせであってもよい。図28(b)に示されているように、拠点Bの表示領域についても、同様にアイコン192が表示されている。 Further, an icon 191 indicating that the image is a spherical panoramic image is displayed at the upper left of each of the images of the base A and the base B (own base). The display position of the icon 191 may be anywhere, such as upper right, lower left, and lower right, instead of the upper left. Further, the type of the icon 191 is not limited to FIG. 28 (b). Further, instead of the icon 191 it may be a character such as "omnidirectional image", or it may be a combination of an icon and a character. As shown in FIG. 28B, the icon 192 is similarly displayed in the display area of the base B.

また、利用者は、同じ全天球パノラマ画像における所定領域画像に係る所定領域を変更することができる。即ち、利用者B1,B2は、スマートフォン9のタッチパネル921に対して指を接して移動させることにより、受付部92が指の移動を受け付け、表示制御部94は、所定領域画像をずらしたり、回転したり、縮小したり、拡大したりすることができる。これにより、図28(b)に示されているように、初期設定(デフォルト)で拠点Aの一部の利用者A1,A2しか表示されていない場合であっても、所定領域画像をずらして利用者A4,A3を表示することができる。 In addition, the user can change the predetermined area related to the predetermined area image in the same spherical panoramic image. That is, the users B1 and B2 touch the touch panel 921 of the smartphone 9 to move the finger, so that the reception unit 92 accepts the movement of the finger, and the display control unit 94 shifts or rotates the predetermined area image. Can be scaled, scaled down, or scaled up. As a result, as shown in FIG. 28 (b), even if only some users A1 and A2 of the base A are displayed by the initial setting (default), the predetermined area image is shifted. Users A4 and A3 can be displayed.

<表示制限パラメータの設定処理>
続いて、図29を用いて、表示制限パラメータを設定する処理について説明する。図29は、表示制限パラメータを設定する処理を示すシーケンス図である。
<Display restriction parameter setting process>
Subsequently, the process of setting the display restriction parameter will be described with reference to FIG. 29. FIG. 29 is a sequence diagram showing a process of setting display restriction parameters.

まず、送信元の通信端末(ここでは、ビデオ会議端末3)では、利用者A1等が操作ボタン308を利用して、表示制限パラメータの初期値の設定を行と、受付部32が、初期値を受け付ける(ステップS101)。例えば、初期値としては、α(視野角)>120°とし、拡大状態表示しか許可しない状態が挙げられる。次に、記憶・読出部99が、表示制限管理DB3003に初期値の表示制限パラメータを記憶する(ステップS102)。その後、ビデオ会議端末3は、会議に参加している全ての拠点の通信端末に対して、初期値の表示制限パラメータを通知するため、送受信部31が、通信管理システム5に対して、表示制限の設定を示す表示制限設定情報を送信する(ステップS103)。この表示制限設定情報には、送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレス、送信先の通信端末のIPアドレスのリスト、及びステップS101で設定された表示制限パラメータが含まれている。IPアドレスのリストには、会議に参加中の自端末(ここでは、ビデオ会議端末)以外の全ての通信端末(ここでは、PC7、スマートフォン9)のIPアドレスが含まれている。これにより、通信管理システム5の送受信部51は、表示制限設定情報を受信する。 First, in the transmission source communication terminal (here, the video conference terminal 3), the user A1 or the like uses the operation button 308 to set the initial value of the display restriction parameter, and the reception unit 32 sets the initial value. Is accepted (step S101). For example, the initial value is α (viewing angle)> 120 °, and only the enlarged state display is permitted. Next, the storage / reading unit 99 stores the initial value display restriction parameter in the display restriction management DB 3003 (step S102). After that, the video conference terminal 3 notifies the communication terminals of all the bases participating in the conference of the display restriction parameter of the initial value, so that the transmission / reception unit 31 displays the display restriction to the communication management system 5. Display restriction setting information indicating the setting of is transmitted (step S103). The display restriction setting information includes the IP address of the source communication terminal (here, the video conference terminal 3), the list of the IP addresses of the destination communication terminals, and the display restriction parameters set in step S101. ing. The list of IP addresses includes the IP addresses of all communication terminals (here, PC7, smartphone 9) other than the own terminal (here, a video conference terminal) participating in the conference. As a result, the transmission / reception unit 51 of the communication management system 5 receives the display restriction setting information.

次に、通信管理システム5では、記憶・読出部99が、全表示制限管理DB5003に対して、図21に示されているように、ステップS103で受信された送信元の通信端末のIPアドレス及び送信先の通信端末のIPアドレス毎に、表示制限パラメータを記憶する(ステップS105)。この場合、同じ送信元の通信端末のIPアドレス及び送信先の通信端末のIPアドレスの組に対して既に表示制限パラメータが記憶されている場合には、記憶・読出部99は上書き更新する。 Next, in the communication management system 5, the storage / reading unit 99 tells the all display restriction management DB 5003 the IP address of the transmission source communication terminal received in step S103 and the IP address of the communication terminal received in step S103, as shown in FIG. The display restriction parameter is stored for each IP address of the destination communication terminal (step S105). In this case, if the display restriction parameter is already stored for the set of the IP address of the communication terminal of the same source and the IP address of the communication terminal of the destination, the storage / reading unit 99 overwrites and updates.

次に、通信管理システム5の送受信部51は、スマートフォン9に対して表示制限の設定を示す表示制限設定情報を送信する(ステップS106)。この表示制限設定情報には、送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレス、及びステップS101で設定された表示制限パラメータが含まれている。これにより、スマートフォン9の送受信部91は、表示制限設定情報を受信する。そして、スマートフォン9では、記憶・読出部99が、ステップS105で受信された送信元の通信端末のIPアドレス及び表示制限パラメータを関連付けて、表示被制限管理DB9004に記憶する(ステップS106)。これにより、スマートフォン9で、ビデオ会議端末3から要求された表示制限パラメータの設定が完了する。 Next, the transmission / reception unit 51 of the communication management system 5 transmits the display restriction setting information indicating the display restriction setting to the smartphone 9 (step S106). The display restriction setting information includes the IP address of the communication terminal of the transmission source (here, the video conference terminal 3) and the display restriction parameter set in step S101. As a result, the transmission / reception unit 91 of the smartphone 9 receives the display restriction setting information. Then, in the smartphone 9, the storage / reading unit 99 associates the IP address of the communication terminal of the transmission source received in step S105 with the display restriction parameter, and stores the IP address and the display restriction parameter in the display restricted management DB 9004 (step S106). As a result, the setting of the display restriction parameter requested from the video conference terminal 3 is completed on the smartphone 9.

また同様に、通信管理システム5の送受信部51は、PC7に対して表示制限の設定を示す表示制限設定情報を送信する(ステップS107)。この表示制限設定情報には、送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレス、及びステップS101で設定された表示制限パラメータが含まれている。これにより、PC7の送受信部71は、表示制限設定情報を受信する。そして、PC7では、記憶・読出部79が、ステップS107で受信された送信元の通信端末のIPアドレス及び表示制限パラメータを関連付けて、表示被制限管理DB7004に記憶する(ステップS108)。これにより、PC7で、ビデオ会議端末3から要求された表示制限パラメータの設定が完了する。 Similarly, the transmission / reception unit 51 of the communication management system 5 transmits the display restriction setting information indicating the display restriction setting to the PC 7 (step S107). The display restriction setting information includes the IP address of the communication terminal of the transmission source (here, the video conference terminal 3) and the display restriction parameter set in step S101. As a result, the transmission / reception unit 71 of the PC 7 receives the display restriction setting information. Then, in the PC 7, the storage / reading unit 79 associates the IP address of the communication terminal of the transmission source received in step S107 with the display restriction parameter, and stores the IP address and the display restriction parameter in the display restricted management DB 7004 (step S108). As a result, the setting of the display restriction parameter requested from the video conference terminal 3 is completed on the PC 7.

以上により、表示制限パラメータの設定処理が終了する。 This completes the display restriction parameter setting process.

<表示制限パラメータの設定解除処理(被制限側)>
続いて、図30を用いて、被制限側の要求により、表示制限パラメータの設定を解除する処理について説明する。図30は、被制限側の要求により、表示制限パラメータの設定を解除する処理を示すシーケンス図である。
<Display restriction parameter setting cancellation process (restricted side)>
Subsequently, with reference to FIG. 30, a process of canceling the setting of the display restriction parameter according to the request of the restricted side will be described. FIG. 30 is a sequence diagram showing a process of canceling the setting of the display restriction parameter at the request of the restricted side.

例えば、被制限側のスマートフォン9の利用者が、ビデオ会議端末3から制限されている表示制限パラメータを解除したい場合、スマートフォン9の利用者が表示制限の解除のための操作を行うと、スマートフォン9の受付部92が表示制限の解除を受け付ける(ステップ121)。例えば、スマートフォン9の利用者B1は、図28(b)に示されている画面において、表示制限を解除して欲しい映像の表示領域(ここでは、利用者A1等が映し出されている左上の表示領域)をダブルタップする。 For example, when the user of the restricted smartphone 9 wants to release the display restriction parameter restricted from the video conference terminal 3, when the user of the smartphone 9 performs an operation for releasing the display restriction, the smartphone 9 The reception unit 92 of the above accepts the cancellation of the display restriction (step 121). For example, the user B1 of the smartphone 9 displays the display area of the image (here, the user A1 and the like are projected on the upper left) of the image to be released from the display restriction on the screen shown in FIG. 28 (b). Double tap the area).

次に、送受信部91は、通信管理システム5に対して、表示制限の解除の要求を示す表示制限解除要求情報を送信する(ステップS122)。この表示制限解除要求情報には、要求元の通信端末(ここでは、スマートフォン9)のIPアドレス、及び要求先の通信端末(ここでは、ビデオ会議端末3)のIPアドレスが含まれている。なお、要求元の通信端末は、表示制限の設定を受け付けた送信先の通信端末である。また、要求先の通信端末は、表示制限の設定を行った送信元の通信端末である。これにより、通信管理システム5の送受信部51は、表示制限解除要求情報を受信する。そして、送受信部51は、ビデオ会議端末3に対して、ステップS122で受信した表示制限解除要求情報を送信する(ステップS123)。この表示制限解除要求情報には、ステップS122で受信された要求元の通信端末(ここでは、スマートフォン9)のIPアドレスが含まれている。これにより、ビデオ会議端末3の送受信部31は、表示制限解除要求情報を受信する。 Next, the transmission / reception unit 91 transmits the display restriction release request information indicating the request for release of the display restriction to the communication management system 5 (step S122). The display restriction release request information includes the IP address of the request source communication terminal (here, the smartphone 9) and the IP address of the request destination communication terminal (here, the video conference terminal 3). The requesting communication terminal is a destination communication terminal that has received the display restriction setting. Further, the communication terminal of the request destination is the communication terminal of the transmission source for which the display restriction is set. As a result, the transmission / reception unit 51 of the communication management system 5 receives the display restriction release request information. Then, the transmission / reception unit 51 transmits the display restriction release request information received in step S122 to the video conference terminal 3 (step S123). The display restriction release request information includes the IP address of the requesting communication terminal (here, the smartphone 9) received in step S122. As a result, the transmission / reception unit 31 of the video conference terminal 3 receives the display restriction release request information.

次に、ビデオ会議端末3は、表示制限の一時的な解除の処理を実行する(ステップS124)。例えば、記憶・読出部39が、ステップS123で受信された要求元(送信先)の通信端末(ここでは、スマートフォン9)のIPアドレスを検索キーとして表示制限管理DB3003を検索することにより、対応する表示制限パラメータを一時的に削除する。なお、この場合、画像・音処理部33は、利用者A1等に表示制限の解除が要求された旨を通知すべく、通知音を出力したり、又は図32に示されているように通知画面351を表示させたりしてもよい。図32は、通知画面を含む映像通話の画面例である。また、ビデオ会議端末3は、通知音を出力して一定時間(例えば10秒)後、自動的に、記憶・読出部39が表示制限パラメータを一時的に削除してもよい。また、一時的に削除された表示制限パラメータは、削除から所定時間(例えば、10分)後に復活したり、表示制限を指示した送信元の通信端末からの復活指示により復活する。 Next, the video conference terminal 3 executes a process of temporarily releasing the display restriction (step S124). For example, the storage / reading unit 39 searches the display restriction management DB 3003 using the IP address of the communication terminal (here, the smartphone 9) of the request source (destination) received in step S123 as a search key. Temporarily remove display restriction parameters. In this case, the image / sound processing unit 33 outputs a notification sound or notifies the user A1 or the like that the display restriction is requested to be released, or as shown in FIG. 32. The screen 351 may be displayed. FIG. 32 is a screen example of a video call including a notification screen. Further, the video conference terminal 3 may output the notification sound for a certain period of time (for example, 10 seconds), and then the storage / reading unit 39 may automatically delete the display restriction parameter temporarily. Further, the temporarily deleted display restriction parameter is restored after a predetermined time (for example, 10 minutes) from the deletion, or is restored by the restoration instruction from the communication terminal of the transmission source instructing the display restriction.

また、ステップS124の処理として、表示制御部34が、図33に示されているように、要求先の通信端末(ここでは、ビデオ会議端末3)の利用者A1等に、表示制限の解除の承認を要求するための承認要求画面352を表示してもよい。図33は、承認要求画面を含む映像通話の画面例である。

この承認要求画面352には、承認する場合に押下される「はい」ボタンと、承認しない場合に押下される「いいえ」ボタンが含まれている。そして、承認する場合には、記憶・読出部39が、ステップS123で受信された要求元(送信先)の通信端末(ここでは、スマートフォン9)のIPアドレスを検索キーとして表示制限管理DB3003を検索することにより、対応する表示制限パラメータを一時的に削除する。一方、承認しない場合には、送受信部31が、通信管理システム5を介して、要求元の通信端末(ここでは、スマートフォン9)に対して、承認しない旨(否認する旨)の通知を行う。
Further, as the process of step S124, as shown in FIG. 33, the display control unit 34 releases the display restriction to the user A1 or the like of the request destination communication terminal (here, the video conference terminal 3). The approval request screen 352 for requesting approval may be displayed. FIG. 33 is a screen example of a video call including an approval request screen.

The approval request screen 352 includes a "yes" button that is pressed when approving and a "no" button that is pressed when not approving. Then, when approving, the storage / reading unit 39 searches the display restriction management DB 3003 using the IP address of the communication terminal (here, the smartphone 9) of the request source (destination) received in step S123 as a search key. By doing so, the corresponding display restriction parameter is temporarily deleted. On the other hand, if it is not approved, the transmission / reception unit 31 notifies the requesting communication terminal (here, the smartphone 9) of disapproval (denial) via the communication management system 5.

次に、ビデオ会議端末3の送受信部31は、通信管理システム5に対して、表示制限の解除が完了した旨を示す表示制限解除指示情報を送信する(ステップS125)。この表示制限解除指示情報には、自端末(ここでは、ビデオ会議端末3)である要求先(送信元)の通信端末のIPアドレス、及び要求元(送信先)端末IPアドレスが含まれている。これにより、通信管理システム5の送受信部51は、表示制限解除指示情報を受信する。 Next, the transmission / reception unit 31 of the video conference terminal 3 transmits the display restriction release instruction information indicating that the display restriction release is completed to the communication management system 5 (step S125). The display restriction release instruction information includes the IP address of the communication terminal of the request destination (source) which is the own terminal (here, the video conference terminal 3) and the IP address of the request source (destination) terminal. .. As a result, the transmission / reception unit 51 of the communication management system 5 receives the display restriction release instruction information.

次に、通信管理システム5では、記憶・読出部59が、ステップS125で受信された両IPアドレスの組を検索キーとして、全表示制限管理DB5003を検索し、対応する表示制限パラメータを一時的に削除することで、制限解除の処理を行う(ステップS126)。そして、送受信部51は、スマートフォン9に対して、表示制限の解除が完了した旨を示す表示制限解除指示情報を送信する。この表示制限解除指示情報には、ステップS125で受信された要求先(送信元)の通信端末のIPアドレスが含まれている。これにより、スマートフォン9の送受信部91は、表示制限解除指示情報を受信する。 Next, in the communication management system 5, the storage / reading unit 59 searches the all display restriction management DB 5003 using the set of both IP addresses received in step S125 as a search key, and temporarily sets the corresponding display restriction parameter. By deleting it, the restriction release process is performed (step S126). Then, the transmission / reception unit 51 transmits the display restriction release instruction information indicating that the display restriction release is completed to the smartphone 9. The display restriction release instruction information includes the IP address of the communication terminal of the request destination (source) received in step S125. As a result, the transmission / reception unit 91 of the smartphone 9 receives the display restriction release instruction information.

次に、スマートフォン9は、表示制限の解除の処理を行う(ステップS128)。例えば、記憶・読出部99が、ステップS127で受信された要求先(送信元)の通信端末(ここでは、ビデオ会議端末3)のIPアドレスを検索キーとして表示被制限管理DB3004を検索することにより、対応する表示制限パラメータを一時的に削除する。これにより、スマートフォン9では、図26に示されているステップ71-3において、表示制限を受けていないと判断され、画像・音処理部93は、利用者B1,B2の操作に従って、ディスプレイ917上に所定領域画像を表示させることができる。 Next, the smartphone 9 performs a process of canceling the display restriction (step S128). For example, the storage / reading unit 99 searches the display restricted management DB 3004 using the IP address of the communication terminal (here, the video conference terminal 3) of the request destination (source) received in step S127 as a search key. , Temporarily remove the corresponding display restriction parameter. As a result, it is determined that the smartphone 9 is not subject to display restrictions in step 71-3 shown in FIG. 26, and the image / sound processing unit 93 is displayed on the display 917 according to the operations of the users B1 and B2. Can display a predetermined area image.

以上により、表示制限パラメータの設定解除処理(被制限側)が終了する。 As a result, the display restriction parameter setting cancellation process (restricted side) is completed.

<表示制限パラメータの設定解除処理(制限側)>
続いて、図35を用いて、制限側の指示により、表示制限パラメータの設定を個別に解除する処理について説明する。図31は、制限側の要求により、表示制限パラメータの設定を解除する処理を示すシーケンス図である。
<Display restriction parameter setting cancellation process (restriction side)>
Subsequently, with reference to FIG. 35, a process of individually canceling the setting of the display restriction parameter according to the instruction on the restriction side will be described. FIG. 31 is a sequence diagram showing a process of canceling the setting of the display restriction parameter at the request of the restriction side.

例えば、表示制御部34は、映像通話中に、図34に示されているように、「表示制限の解除」ボタン361,362を表示しておく。そして、制限側のビデオ会議端末3の利用者A1等が、拠点B、Cのうち拠点Bに対してのみ、表示制限を解除したい場合、利用者A1等が「表示制限の解除」ボタン361を押下すると、ビデオ会議端末3の受付部32が拠点Bに対する表示制限の解除を受け付ける(ステップ201)。これにより、記憶・読出部39は、選択された拠点Bの通信端末のIPアドレスを検索キーとして表示制限管理DB3003を検索することにより、対応する表示制限パラメータを一時的に削除することで、表示制限の解除を行う(ステップS202)。そして、ビデオ会議端末3は、会議に参加している拠点Bの通信端末(ここでは、スマートフォン9)に対して、表示制限の解除を通知するため、送受信部31が、通信管理システム5に対して、表示制限の解除を示す表示制限解除情報を送信する(ステップS203)。この表示制限解除情報には、送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレス、及び表示解除の宛先である送信先の通信端末のIPアドレスが含まれている。これにより、通信管理システム5の送受信部51は、表示制限解除情報を受信する。 For example, the display control unit 34 displays the "release restriction release" buttons 361 and 362 during a video call, as shown in FIG. 34. Then, when the user A1 or the like of the video conference terminal 3 on the restricted side wants to cancel the display restriction only for the base B among the bases B and C, the user A1 and the like presses the "release restriction" button 361. When pressed, the reception unit 32 of the video conference terminal 3 accepts the release of the display restriction on the base B (step 201). As a result, the storage / reading unit 39 searches the display restriction management DB 3003 using the IP address of the communication terminal of the selected base B as a search key, and temporarily deletes the corresponding display restriction parameter to display the image. The restriction is released (step S202). Then, the video conference terminal 3 notifies the communication terminal (here, the smartphone 9) of the base B participating in the conference of the release of the display restriction, so that the transmission / reception unit 31 informs the communication management system 5. Then, the display restriction release information indicating the release of the display restriction is transmitted (step S203). The display restriction release information includes the IP address of the communication terminal of the transmission source (here, the video conference terminal 3) and the IP address of the communication terminal of the transmission destination to which the display is released. As a result, the transmission / reception unit 51 of the communication management system 5 receives the display restriction release information.

次に、通信管理システム5では、記憶・読出部99が、全表示制限管理DB5003に対して、ステップS203で受信された送信元の通信端末のIPアドレス及び送信先の通信端末のIPアドレスの組に対応する表示制限パラメータを一時的に削除することで、制限解除処理を行う(ステップS204)。 Next, in the communication management system 5, the storage / reading unit 99 sets the IP address of the transmission source communication terminal and the IP address of the transmission destination communication terminal received in step S203 for the all display restriction management DB 5003. The restriction release process is performed by temporarily deleting the display restriction parameter corresponding to (step S204).

次に、通信管理システム5の送受信部51は、スマートフォン9に対して表示制限の解除を示す表示制限解除情報を送信する(ステップS205)。この表示制限解除情報には、表示制限の解除元である送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレスが含まれている。これにより、スマートフォン9の送受信部91は、表示制限解除情報を受信する。そして、スマートフォン9では、記憶・読出部99が、ステップS205で受信された送信元の通信端末のIPアドレスを検索キーとして表示被制限管理DB9004を検索することにより、対応する表示制限パラメータを一時的に削除する制限解除の処理を行う(ステップS206)。これにより、スマートフォン9では、ビデオ会議端末3から要求された表示制限が解除され、PC7では、解除されない状態になり、表示制限パラメータの設定解除処理(制限側)が終了する。 Next, the transmission / reception unit 51 of the communication management system 5 transmits the display restriction release information indicating the release of the display restriction to the smartphone 9 (step S205). The display restriction release information includes the IP address of the transmission source communication terminal (here, the video conference terminal 3) that is the display restriction release source. As a result, the transmission / reception unit 91 of the smartphone 9 receives the display restriction release information. Then, in the smartphone 9, the storage / reading unit 99 temporarily searches the display restricted management DB 9004 using the IP address of the transmission source communication terminal received in step S205 as a search key to temporarily set the corresponding display restriction parameter. The process of releasing the restriction to be deleted is performed (step S206). As a result, the display restriction requested from the video conference terminal 3 is released on the smartphone 9, and the display restriction is not released on the PC 7, and the display restriction parameter setting release process (restricted side) is completed.

<表示制限パラメータの設定変更処理(制限側)>
続いて、図35を用いて、制限側の指示により、表示制限パラメータの設定を解除する処理について説明する。図35は、制限側の指示により、表示制限パラメータの設定を変更する処理を示すシーケンス図である。
<Display restriction parameter setting change processing (restriction side)>
Subsequently, with reference to FIG. 35, a process of canceling the setting of the display restriction parameter according to the instruction on the restriction side will be described. FIG. 35 is a sequence diagram showing a process of changing the setting of the display restriction parameter according to the instruction on the restriction side.

図36は、変更画面を含む映像通話の画面例である。例えば、映像通話中に利用者A1による操作ボタン308の操作により、表示制御部34は、図36に示されているように、表示制限の変更画面371を表示しておく。そして、利用者A1が、拠点B、Cのそれぞれに対して、操作ボタン308の操作によって、表示制限するか又は表示制限しないかを選択し、「OK」ボタンを押下すると、ビデオ会議端末3の受付部32が拠点ごとに表示制限の有無を受け付ける(ステップS221)。ここでは、拠点Bに対しては表示制限することとし、拠点Cに対しては表示制限しないこととした場合を示している。これにより、記憶・読出部39は、選択された拠点Cの通信端末のIPアドレスを検索キーとして表示制限管理DB3003を検索することにより、対応する表示制限パラメータを一時的に削除することで、表示制限の有無の一括変更を行う(ステップS222)。なお、拠点Bは、表示制限が継続されるため、記憶・読出部39は、拠点Bの表示制限パラメータを一時的に削除せずに維持したままとする。 FIG. 36 is a screen example of a video call including a change screen. For example, by operating the operation button 308 by the user A1 during a video call, the display control unit 34 displays the display restriction change screen 371 as shown in FIG. 36. Then, when the user A1 selects whether to restrict the display or not to restrict the display for each of the bases B and C by operating the operation button 308, and presses the "OK" button, the video conference terminal 3 The reception unit 32 receives whether or not there is a display restriction for each base (step S221). Here, the case where the display is restricted to the base B and the display is not restricted to the base C is shown. As a result, the storage / reading unit 39 searches the display restriction management DB 3003 using the IP address of the communication terminal of the selected base C as a search key, thereby temporarily deleting the corresponding display restriction parameter and displaying the display. The presence or absence of restrictions is collectively changed (step S222). Since the display restriction of the base B is continued, the storage / reading unit 39 keeps the display restriction parameter of the base B without temporarily deleting it.

次に、送受信部31が、通信管理システム5に対して、表示制限の変更を示す表示制限変更情報を送信する(ステップS223)。この表示制限変更情報には、送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレス、表示制限の変更の宛先である送信先の通信端末のIPアドレスを含むIPアドレスのリスト、表示制限を解除する旨の指示を示す表示制限解除指示情報、及び表示制限を再設定する旨の指示を示す表示制限再設定指示情報が含まれている。この場合、送信先の通信端末のIPアドレス毎に、表示制限解除指示情報又は表示制限再設定指示情報が関連付けられている。これにより、通信管理システム5の送受信部51は、表示制限変更情報を受信する。 Next, the transmission / reception unit 31 transmits the display restriction change information indicating the change of the display restriction to the communication management system 5 (step S223). This display restriction change information includes a list of IP addresses including the IP address of the source communication terminal (here, the video conference terminal 3) and the IP address of the destination communication terminal to which the display restriction is changed, and display. It contains display restriction release instruction information indicating an instruction to release the restriction, and display restriction reset instruction information indicating an instruction to reset the display restriction. In this case, the display restriction release instruction information or the display restriction reset instruction information is associated with each IP address of the transmission destination communication terminal. As a result, the transmission / reception unit 51 of the communication management system 5 receives the display restriction change information.

次に、通信管理システム5では、表示制限解除指示情報に関連付けられている送信先の通信端末に対しては、記憶・読出部99が、全表示制限管理DB5003に対して、ステップS223で受信された送信元の通信端末のIPアドレス及び送信先の通信端末のIPアドレスの組に対応する表示制限パラメータを一時的に削除することで、制限変更処理を行う(ステップS224)。なお、表示制限解除指示情報に関連付けられている送信先の通信端末に対しては、記憶・読出部99が、全表示制限管理DB5003に対して、表示制限パラメータを一時的に削除せずに維持したままとする。 Next, in the communication management system 5, the storage / reading unit 99 is received in step S223 for the all display restriction management DB 5003 for the communication terminal of the destination associated with the display restriction release instruction information. The restriction change process is performed by temporarily deleting the display restriction parameter corresponding to the set of the IP address of the communication terminal of the transmission source and the IP address of the communication terminal of the transmission destination (step S224). For the transmission destination communication terminal associated with the display restriction release instruction information, the storage / reading unit 99 maintains the display restriction parameter for all display restriction management DB 5003 without temporarily deleting it. Leave it as it is.

次に、通信管理システム5の送受信部51は、スマートフォン9に対して表示制限の再設定を指示する旨を含む表示制限変更情報を送信する(ステップS225)。この表示制限設定情報には、送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレスが含まれている。これにより、スマートフォン9の送受信部91は、表示制限変更情報を受信する。そして、スマートフォン9では、記憶・読出部99が、表示被制限管理DB9004において、ステップS205で受信された送信元の通信端末のIPアドレスに対して、表示制限パラメータを再設定する処理を行う(ステップS226)。なお、再設定の場合、通信管理システム5は、通信端末に対して、表示制限変更情報を送信しなくてもよい。 Next, the transmission / reception unit 51 of the communication management system 5 transmits display restriction change information including instructing the smartphone 9 to reset the display restriction (step S225). The display restriction setting information includes the IP address of the communication terminal (here, the video conference terminal 3) of the transmission source. As a result, the transmission / reception unit 91 of the smartphone 9 receives the display restriction change information. Then, in the smartphone 9, the storage / reading unit 99 performs a process of resetting the display restriction parameter for the IP address of the transmission source communication terminal received in step S205 in the display restriction management DB 9004 (step). S226). In the case of resetting, the communication management system 5 does not have to transmit the display restriction change information to the communication terminal.

また、通信管理システム5の送受信部51は、PC7に対して表示制限の解除を指示する旨を含む表示制限変更情報を送信する(ステップS227)。この表示制限変更情報には、表示制限の解除元である送信元の通信端末(ここでは、ビデオ会議端末3)のIPアドレスが含まれている。これにより、PC7の送受信部71は、表示制限変更情報を受信する。そして、PC7では、記憶・読出部79が、ステップS227で受信された送信元の通信端末のIPアドレスを検索キーとして表示被制限管理DB7004を検索することにより、対応する表示制限パラメータを一時的に削除する制限解除の処理を行う(ステップS228)。これにより、PC7では、ビデオ会議端末3から指示された表示制限が解除され、表示制限パラメータの設定変更処理(制限側)が終了する。 Further, the transmission / reception unit 51 of the communication management system 5 transmits display restriction change information including instructing the PC 7 to release the display restriction (step S227). The display restriction change information includes the IP address of the communication terminal (here, the video conference terminal 3) of the transmission source that is the release source of the display restriction. As a result, the transmission / reception unit 71 of the PC 7 receives the display restriction change information. Then, in the PC 7, the storage / reading unit 79 temporarily searches the display restricted management DB 7004 using the IP address of the communication terminal of the transmission source received in step S227 as a search key to temporarily set the corresponding display restriction parameter. The process of releasing the restriction to be deleted is performed (step S228). As a result, in the PC 7, the display restriction instructed by the video conference terminal 3 is released, and the display restriction parameter setting change process (restriction side) ends.

<<本実施形態の主な効果>>
以上説明したように本実施形態によれば、ビデオ会議端末3等の通信端末は、画像データと共に送られて来る画像データIDに基づき、対応する画像種類情報によって、全天球パノラマ画像を作成し、更に所定領域画像を作成することができる。これにより、図28(a)に示されているように、前側の半球画像と後側の半球画像を表示してしまうことを防止することができるという効果を奏する。
<< Main effects of this embodiment >>
As described above, according to the present embodiment, the communication terminal such as the video conferencing terminal 3 creates an all-sky panoramic image based on the image data ID sent together with the image data and the corresponding image type information. Further, a predetermined area image can be created. This has the effect of preventing the front hemisphere image and the rear hemisphere image from being displayed, as shown in FIG. 28 (a).

また、通信端末は、他の通信端末からの要求で表示制限を解除したり(ステップS121~S128参照)、自端末から積極的に特定の他の通信端末に対して表示制限を解除したり(ステップS201~S206)、自端末から積極的に各他の通信端末に対して表示制限を再設定(若しくは維持)又は解除したりする(ステップS221~S228)。これにより、表示制限と解除を柔軟に行うことができるため、一旦表示制限を受けた他の通信端末側の利用者が、通信端末の拠点を大雑把に把握したい場合には表示制限を解除することで対応することが出来る。 In addition, the communication terminal may release the display restriction at the request of another communication terminal (see steps S121 to S128), or positively release the display restriction from the own terminal to a specific other communication terminal (see steps S121 to S128). Steps S201 to S206), the display restriction is positively reset (or maintained) or canceled from the own terminal for each other communication terminal (steps S221 to S228). As a result, display restrictions and cancellations can be flexibly performed, so if a user on the other communication terminal side who has received display restrictions wants to roughly grasp the base of the communication terminal, the display restrictions should be released. Can be handled with.

1a 撮影装置
1b 撮影装置
3 ビデオ会議端末(通信端末の一例)
5 通信管理システム
7 PC(通信端末の一例)
8 撮影装置
9 スマートフォン(通信端末の一例)
31 送受信部(送信手段の一例、受信手段の一例)
32 受付部(受付手段の一例)
34 表示制御部(表示制御手段の一例)
71 送受信部(送信手段の一例、受信手段の一例)
72 受付部(受付手段の一例)
74 表示制御部(表示制御手段の一例)
91 送受信部(送信手段の一例、受信手段の一例)
92 受付部(受付手段の一例)
94 表示制御部(表示制御手段の一例)
1a Imaging device 1b Imaging device 3 Video conference terminal (example of communication terminal)
5 Communication management system 7 PC (example of communication terminal)
8 Shooting device 9 Smartphone (example of communication terminal)
31 Transmitter / receiver (example of transmission means, example of reception means)
32 Reception Department (an example of reception means)
34 Display control unit (an example of display control means)
71 Transmitter / receiver (example of transmitting means, example of receiving means)
72 Reception Department (an example of reception means)
74 Display control unit (an example of display control means)
91 Transmitter / receiver (example of transmission means, example of reception means)
92 Reception Department (Example of reception means)
94 Display control unit (an example of display control means)

特開2012-178135号公報Japanese Unexamined Patent Publication No. 2012-178135 特開2011-223076号公報Japanese Unexamined Patent Publication No. 2011-22307 特開2002-034009号公報Japanese Unexamined Patent Publication No. 2002-034009 特開2001‐148850号公報Japanese Unexamined Patent Publication No. 2001-148850

Claims (10)

他の通信端末が受信するように、全天球画像のデータを送信する通信端末であって、
前記他の通信端末が前記全天球画像を表示する場合に表示領域を前記全天球画像の一部の所定領域内に制限するための表示制限パラメータを、前記他の通信端末が受信するように送信する送信手段を有し、
前記送信手段は、前記他の通信端末が受信するように、前記表示領域の制限を解除する旨の指示を示す表示制限解除指示情報を送信する通信端末。
A communication terminal that transmits spherical image data so that other communication terminals can receive it.
When the other communication terminal displays the spherical image, the other communication terminal receives a display restriction parameter for limiting the display area to a predetermined area of a part of the spherical image. Has a means of transmission to send to
The transmission means is a communication terminal that transmits display restriction release instruction information indicating an instruction to release the restriction of the display area so that the other communication terminal can receive the information.
請求項1に記載の通信端末であって、更に、
前記他の通信端末から送信され、前記表示領域の制限を解除する旨の要求を示す表示制限解除要求情報を受信する受信手段を有し、
前記送信手段は、前記他の通信端末が受信するように、前記表示制限解除指示情報を送信する通信端末。
The communication terminal according to claim 1, further
It has a receiving means for receiving display restriction release request information transmitted from the other communication terminal and indicating a request to release the restriction of the display area.
The transmission means is a communication terminal that transmits the display restriction release instruction information so that the other communication terminal can receive the information.
請求項2に記載の通信端末であって、更に、
前記表示領域の制限を解除する旨を所定の表示手段に表示させる表示制御手段を有し、
前記送信手段は、前記表示制限解除要求情報の受信に応じて、前記表示制限解除指示情報を送信する通信端末。
The communication terminal according to claim 2, further
It has a display control means for displaying to a predetermined display means that the limitation of the display area is released.
The transmission means is a communication terminal that transmits the display restriction release instruction information in response to the reception of the display restriction release request information.
請求項2に記載の通信端末であって、更に、
前記表示制限解除要求情報に係る要求を承認するか否かの選択を示す承認要求画面を所定の表示手段に表示させる表示制御手段を有し、
前記承認する選択が行われた場合には、前記送信手段は、前記表示制限解除指示情報を送信する通信端末。
The communication terminal according to claim 2, further
It has a display control means for displaying an approval request screen indicating selection of whether or not to approve the request related to the display restriction release request information on a predetermined display means.
When the approval selection is made, the transmission means is a communication terminal that transmits the display restriction release instruction information.
請求項1に記載の通信端末であって、更に、
複数の他の通信端末のそれぞれに対して、前記表示領域の制限の解除を受け付ける受付手段と、
前記受付手段によって前記解除が受け付けられた特定の他の通信端末が受信するように、前記送信手段は、前記表示制限解除指示情報を送信する通信端末。
The communication terminal according to claim 1, further
A reception means for accepting the release of the restriction on the display area for each of the plurality of other communication terminals,
The transmission means is a communication terminal that transmits the display restriction release instruction information so that the specific other communication terminal whose cancellation is accepted by the reception means receives the information.
請求項1に記載の通信端末であって、更に、
複数の他の通信端末のそれぞれに対して、前記表示領域の制限の解除又は非解除を受け付ける受付手段と、
前記受付手段によって受け付けられた複数の他の通信端末のうち、前記解除を受け付けた特定の他の通信端末が受信するように、前記送信手段は、前記表示制限解除指示情報を送信する通信端末
The communication terminal according to claim 1, further
A reception means that accepts the release or non-release of the restriction on the display area for each of the plurality of other communication terminals.
Among the plurality of other communication terminals accepted by the reception means, the transmission means is a communication terminal that transmits the display restriction release instruction information so that the specific other communication terminal that has received the cancellation receives the reception.
請求項1乃至6のいずれか一項に記載の通信端末と、
前記通信端末及び前記他の通信端末の通信を中継する通信管理システムと、
を有する通信システム。
The communication terminal according to any one of claims 1 to 6 and the communication terminal.
A communication management system that relays the communication of the communication terminal and the other communication terminals,
Communication system with.
前記他の通信端末は、
前記通信管理システムを介して前記通信端末に対し、前記表示領域の制限を解除する旨の要求を示す表示制限解除要求情報を送信し、
前記通信端末から前記通信管理システムを介して、前記表示領域の制限を解除する旨の指示を示す表示制限解除指示情報を受信する
請求項7に記載の通信システム。
The other communication terminals are
Display restriction release request information indicating a request to release the restriction on the display area is transmitted to the communication terminal via the communication management system.
The communication system according to claim 7, wherein the communication system receives display restriction release instruction information indicating an instruction to release the restriction of the display area from the communication terminal via the communication management system.
他の通信端末が受信するように、全天球画像のデータを送信する通信端末が実行する通信方法であって、
前記通信端末は、
前記他の通信端末が前記全天球画像を表示する場合に表示領域を前記全天球画像の一部の所定領域内に制限するための表示制限パラメータを、前記他の通信端末が受信するように送信し、
前記他の通信端末が受信するように、前記表示領域の制限を解除する旨の指示を示す表示制限解除指示情報を送信する通信方法。
It is a communication method executed by a communication terminal that transmits spherical image data so that other communication terminals receive it.
The communication terminal is
When the other communication terminal displays the spherical image, the other communication terminal receives a display restriction parameter for limiting the display area to a predetermined area of a part of the spherical image. Send to
A communication method for transmitting display restriction release instruction information indicating an instruction to release the restriction of the display area so that the other communication terminal can receive the information.
コンピュータに、請求項9に記載の方法を実行させるためのプログラム。 A program for causing a computer to perform the method according to claim 9.
JP2018027274A 2018-02-19 2018-02-19 Communication terminals, communication systems, communication methods, and programs Active JP7006356B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018027274A JP7006356B2 (en) 2018-02-19 2018-02-19 Communication terminals, communication systems, communication methods, and programs
JP2022000825A JP7279825B2 (en) 2018-02-19 2022-01-06 Communication terminal, communication system, communication method, display control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018027274A JP7006356B2 (en) 2018-02-19 2018-02-19 Communication terminals, communication systems, communication methods, and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022000825A Division JP7279825B2 (en) 2018-02-19 2022-01-06 Communication terminal, communication system, communication method, display control method and program

Publications (2)

Publication Number Publication Date
JP2019145959A JP2019145959A (en) 2019-08-29
JP7006356B2 true JP7006356B2 (en) 2022-01-24

Family

ID=67772705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018027274A Active JP7006356B2 (en) 2018-02-19 2018-02-19 Communication terminals, communication systems, communication methods, and programs

Country Status (1)

Country Link
JP (1) JP7006356B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021214818A1 (en) * 2020-04-20 2021-10-28 サンリット・シードリングス株式会社 Image generation device and event providing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165840A (en) 2013-02-27 2014-09-08 Brother Ind Ltd Terminal device, program, and information processing device
JP2017083661A (en) 2015-10-28 2017-05-18 株式会社リコー Communication system, communication device, communication method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08237532A (en) * 1995-02-27 1996-09-13 Canon Inc Remote control system for camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165840A (en) 2013-02-27 2014-09-08 Brother Ind Ltd Terminal device, program, and information processing device
JP2017083661A (en) 2015-10-28 2017-05-18 株式会社リコー Communication system, communication device, communication method, and program

Also Published As

Publication number Publication date
JP2019145959A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
JP7322940B2 (en) Image communication system, image communication terminal, image communication method, program, and recording medium
JP6756269B2 (en) Communication terminals, image communication systems, communication methods, and programs
US10721116B2 (en) Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
JP6907861B2 (en) Communication terminals, image communication systems, display methods, and programs
JP7164831B2 (en) Communication management system, communication system, communication method, and program
JP6805861B2 (en) Image processing equipment, image processing system, image processing method and program
JP7095361B2 (en) Communication terminals, image communication systems, display methods, and programs
US10944798B2 (en) Communication terminal, image communication system, and display control method
JP2019054322A (en) Communication terminal, image communication system, communication method, and program
JP7017045B2 (en) Communication terminal, display method, and program
JP7006356B2 (en) Communication terminals, communication systems, communication methods, and programs
JP7151316B2 (en) Communication terminal, image communication system, display method, and program
JP7279825B2 (en) Communication terminal, communication system, communication method, display control method and program
JP6992338B2 (en) Communication system, communication management method, program, system and communication method
JP7354733B2 (en) Communication terminal, image communication system, display method, and program
JP2023109839A (en) Communication terminal, communication method, and program
JP7210892B2 (en) Communication terminal, image communication system, display method, and program
JP7371369B2 (en) Communication terminals and image communication systems
JP7205323B2 (en) Communication terminal, image communication system, display method, and program
JP7326789B2 (en) Communication terminal, image communication system, display method, and program
JP2021176221A (en) Communication terminal, communication system, communication method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220