JP2020134632A - Image adjustment system, image adjustment device, and image adjustment method - Google Patents

Image adjustment system, image adjustment device, and image adjustment method Download PDF

Info

Publication number
JP2020134632A
JP2020134632A JP2019025769A JP2019025769A JP2020134632A JP 2020134632 A JP2020134632 A JP 2020134632A JP 2019025769 A JP2019025769 A JP 2019025769A JP 2019025769 A JP2019025769 A JP 2019025769A JP 2020134632 A JP2020134632 A JP 2020134632A
Authority
JP
Japan
Prior art keywords
image
user
captured
display device
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019025769A
Other languages
Japanese (ja)
Inventor
崇 日昔
Takashi Hiseki
崇 日昔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019025769A priority Critical patent/JP2020134632A/en
Priority to PCT/JP2020/004700 priority patent/WO2020166492A1/en
Publication of JP2020134632A publication Critical patent/JP2020134632A/en
Priority to US17/361,767 priority patent/US11985298B2/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image adjustment system capable of easily correcting the horizontality or zenith of an image.SOLUTION: An image adjustment system 401 includes a camera 402, an image adjustment device 410, an image display device 404, and a controller 405. The image adjustment device 410 includes an image generation part 412 and an image processing part 411. The image processing part 411 acquires a spherical image VSS4 from the image generation part 412 by the instruction information NN4 of the controller 405, displays it on the image display device 404, and adjusts a photographed image IM41 displayed on the image display device 404 according to the rotation of the spherical image VSS4, to adjust a synthetic image CM4b according to the adjusted photographed image IM41 and synthesize the adjusted synthetic image CM4b in the position of the second camera 4022 of the photographed image IM41 by the positional information of first and second cameras 4021 and 4022, when the second camera 4022 among the plurality of cameras 402 is included in the photographed image IM41.SELECTED DRAWING: Figure 14

Description

本発明は、画像調整システム、画像調整装置、及び画像調整方法に関する。 The present invention relates to an image adjustment system, an image adjustment device, and an image adjustment method.

近年、画像表示装置としてヘッドマウントディスプレイが注目されている。ヘッドマウントディスプレイは、使用者の頭部に装着された状態で画像を表示することにより、使用者は仮想空間に入り込んだような感覚(没入感)を得ることができる。特許文献1に記載されているように、ヘッドマウントディスプレイは、外部のカメラで撮影した画像をネックワークを介して表示することができる。 In recent years, a head-mounted display has attracted attention as an image display device. By displaying an image while the head-mounted display is attached to the user's head, the user can obtain a feeling of entering a virtual space (immersive feeling). As described in Patent Document 1, the head-mounted display can display an image taken by an external camera via a neckwork.

特開2005−56295号公報Japanese Unexamined Patent Publication No. 2005-56295

しかし、従来のヘッドマウントディスプレイでは、表示される画像によっては画像の水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、表示される画像が使用者の重力感覚と一致しないため、使用者は違和感を覚える。 However, with a conventional head-mounted display, it is difficult to detect the horizontal direction of an image depending on the displayed image, and the horizontal direction may be detected incorrectly. In addition, the horizontal or zenith designation may shift due to problems such as system synchronization. If the horizontal direction of the image is detected incorrectly, or if the horizontal or zenith designation is incorrect, the displayed image does not match the user's sense of gravity, and the user feels uncomfortable.

本発明は、画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、画像の水平または天頂を簡便に補正することができる画像調整システム、画像調整装置、及び画像調整方法を提供することを目的とする。 The present invention provides an image adjustment system, an image adjustment device, and an image that can easily correct the horizontal or zenith of an image when the horizontal direction of the image is incorrectly detected or the horizontal or zenith is not specified. The purpose is to provide an adjustment method.

本発明は、複数のカメラと、前記複数のカメラのうちの第1のカメラが撮影した撮影画像を調整する画像調整装置と、前記画像調整装置により調整された前記撮影画像を表示する画像表示装置と、前記画像調整装置へ指示情報を出力するコントローラとを備え、前記画像調整装置は、球面状画像、及び、前記撮影画像と合成される合成画像を生成する画像生成部と、前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する画像処理部とを有する画像調整システムを提供する。 The present invention includes a plurality of cameras, an image adjusting device that adjusts a captured image captured by the first camera among the plurality of cameras, and an image display device that displays the captured image adjusted by the image adjusting device. The image adjusting device includes a controller that outputs instruction information to the image adjusting device, and the image adjusting device has an image generation unit that generates a spherical image and a composite image that is combined with the captured image, and the instruction information. Based on this, the spherical image generated by the image generation unit is acquired and displayed on the image display device, and the spherical image is rotated based on the instruction information so as to correspond to the rotation of the spherical image. The captured image displayed on the image display device is adjusted, the composite image is adjusted in correspondence with the adjusted captured image, and the second camera of the plurality of cameras is reflected in the captured image. If so, the composite image adjusted based on the position information of the first camera and the position information of the second camera is placed at the position where the second camera of the captured image is projected. Provided is an image adjustment system having an image processing unit for associating and synthesizing.

本発明は、球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成する画像生成部と、コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第1のカメラが映っている位置に対応させて合成する画像処理部とを備える画像調整装置を提供する。 The present invention is based on an image generator that generates a spherical image and a composite image that is combined with a captured image captured by a camera and displayed on an image display device, and instruction information acquired from a controller. The spherical image generated by the generation unit is acquired and displayed on an image display device, the spherical image is rotated based on the instruction information, and the spherical image is photographed by the first camera among the plurality of cameras. The captured image displayed on the image display device is adjusted in correspondence with the rotation of the spherical image, the composite image is adjusted in correspondence with the adjusted captured image, and the captured image is combined with the plurality of cameras. When the second camera is shown, the composite image adjusted based on the position information of the first camera and the position information of the second camera is used as the second image of the captured image. Provided is an image adjusting device including an image processing unit that synthesizes images corresponding to the position in which the camera of 1 is projected.

本発明は、画像処理部がコントローラから指示情報を取得し、前記画像処理部が前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、画像表示装置が前記球面状画像を表示し、前記画像処理部が前記指示情報に基づいて前記球面状画像を回転させ、前記画像処理部が複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、前記画像処理部が前記画像生成部で生成され、前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記画像処理部が、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する画像調整方法を提供する。 In the present invention, the image processing unit acquires instruction information from the controller, the image processing unit acquires a spherical image generated by the image generation unit based on the instruction information, and the image display device acquires the spherical image. Is displayed, the image processing unit rotates the spherical image based on the instruction information, and the image processing unit is photographed by the first camera among the plurality of cameras and displayed on the image display device. The captured image is adjusted in correspondence with the rotation of the spherical image, and the composite image generated by the image processing unit and combined with the captured image displayed on the image display device is generated. When the image processing unit adjusts the composite image in correspondence with the adjusted captured image and the second camera among the plurality of cameras is reflected in the captured image, the above-mentioned The image processing unit corresponds the adjusted composite image based on the position information of the first camera and the position information of the second camera to the position where the second camera is reflected in the captured image. To provide an image adjustment method for compositing.

本発明の画像調整システム、画像調整装置、及び画像調整方法によれば、画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、画像の水平または天頂を簡便に補正することができる。 According to the image adjustment system, the image adjustment device, and the image adjustment method of the present invention, the horizontal or zenith of the image can be easily adjusted when the horizontal direction of the image is incorrectly detected or the horizontal or zenith is not specified. It can be corrected.

第1及び第2実施形態の画像調整システムを示す構成図である。It is a block diagram which shows the image adjustment system of 1st and 2nd Embodiment. 球面状画像と使用者との関係を示す図である。It is a figure which shows the relationship between a spherical image and a user. 第1実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 1st Embodiment. 第1実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 1st Embodiment. 撮影画像の水平面と合成画像の水平面との関係を示す図である。It is a figure which shows the relationship between the horizontal plane of a photographed image, and the horizontal plane of a composite image. 第2実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 2nd Embodiment. 第2実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 2nd Embodiment. 第2実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 2nd Embodiment. 撮影画像の水平面と合成画像の水平面との関係を示す図である。It is a figure which shows the relationship between the horizontal plane of a photographed image, and the horizontal plane of a composite image. 第3実施形態の画像調整システムを示す構成図である。It is a block diagram which shows the image adjustment system of 3rd Embodiment. 使用者が画像表示装置を見ているときの使用者と他の使用者に対応する合成画像との位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship between a user and a composite image corresponding to another user when the user is looking at an image display device. 使用者が画像表示装置を見ているときの使用者と他の使用者に対応する合成画像との位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship between a user and a composite image corresponding to another user when the user is looking at an image display device. 第3実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 3rd Embodiment. 第3実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 3rd Embodiment. 第4実施形態の画像調整システムを示す構成図である。It is a block diagram which shows the image adjustment system of 4th Embodiment. 第3実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 3rd Embodiment. 第3実施形態の画像調整方法の一例を示すフローチャートである。It is a flowchart which shows an example of the image adjustment method of 3rd Embodiment. 複数のカメラと他の使用者に対応する合成画像との位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship between a plurality of cameras and a composite image corresponding to another user.

[第1実施形態]
図1を用いて、第1実施形態の画像調整システムの構成例を説明する。画像調整システム101は、カメラ102と、通信部103と、画像表示装置104と、コントローラ105と、画像調整装置110と、サーバ106とを備える。画像調整装置110は、画像処理部111と、画像生成部112と、通信部113とを有する。
[First Embodiment]
A configuration example of the image adjustment system of the first embodiment will be described with reference to FIG. The image adjustment system 101 includes a camera 102, a communication unit 103, an image display device 104, a controller 105, an image adjustment device 110, and a server 106. The image adjusting device 110 includes an image processing unit 111, an image generation unit 112, and a communication unit 113.

カメラ102は、360度の範囲を撮影できる全方位カメラ(360度カメラ)である。通信部103と通信部113とはネットワークを介して接続されている。画像調整装置110は、カメラ102が撮影した撮影画像IM1を、通信部103及び113とネットワークとを介して取得することができる。 The camera 102 is an omnidirectional camera (360 degree camera) capable of photographing a range of 360 degrees. The communication unit 103 and the communication unit 113 are connected via a network. The image adjusting device 110 can acquire the captured image IM1 captured by the camera 102 via the communication units 103 and 113 and the network.

画像調整装置110としてコンピュータ機器を用いてもよい。画像処理部111及び画像生成部112としてCPUを用いてもよい。画像生成部112及び通信部113は、画像調整装置110の外部に設けられていてもよい。 A computer device may be used as the image adjusting device 110. A CPU may be used as the image processing unit 111 and the image generation unit 112. The image generation unit 112 and the communication unit 113 may be provided outside the image adjusting device 110.

サーバ106は、ネットワークと通信部103とを介してカメラ102と接続し、ネットワークと通信部113とを介して画像調整装置110と接続する。サーバ106がカメラ102が撮影した撮影画像IM1を通信部103及びネットワークを介して取得し、画像調整装置110がサーバ106から撮影画像IM1をネットワーク及び通信部113を介して取得してもよい。 The server 106 connects to the camera 102 via the network and the communication unit 103, and connects to the image adjusting device 110 via the network and the communication unit 113. The server 106 may acquire the captured image IM1 captured by the camera 102 via the communication unit 103 and the network, and the image adjusting device 110 may acquire the captured image IM1 from the server 106 via the network and the communication unit 113.

画像調整装置110が取得した撮影画像IM1は、画像処理部111へ入力される。画像処理部111は、撮影画像IM1を解析することにより、撮影画像IM1における水平方向を認識する。画像処理部111は、撮影画像IM1を解析することにより、撮影画像IM1における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。画像調整装置110は、撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像表示装置104へ出力する。 The captured image IM1 acquired by the image adjusting device 110 is input to the image processing unit 111. The image processing unit 111 recognizes the horizontal direction in the captured image IM1 by analyzing the captured image IM1. The image processing unit 111 may recognize the vertical direction in the captured image IM1 or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM1. The image adjusting device 110 corrects the distortion of the captured image IM1, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the image display device 104.

サーバ106は、カメラ102が撮影した撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像調整装置110へ出力してもよい。画像表示装置104は、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を表示する。 The server 106 corrects the distortion of the captured image IM1 captured by the camera 102, executes image processing such as adjusting the level of the captured image IM1, and outputs the image-processed captured image IM1 to the image adjusting device 110. You may. The image display device 104 displays the captured image IM1 image-processed by the image adjustment device 110 or the server 106.

画像表示装置104は、例えばヘッドマウントディスプレイである。コントローラ105は、例えばVR(Virtual Reality)等に用いられるグローブ型コントローラである。 The image display device 104 is, for example, a head-mounted display. The controller 105 is a globe-type controller used for, for example, VR (Virtual Reality).

図2は、画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている状態を模式的に示している。図2に示す符号ZEは天頂を示している。カメラ102の天頂と使用者USの天頂とは一致していることが望ましい。使用者USは、その頭部に画像表示装置104を装着することにより、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を見ることができる。 FIG. 2 schematically shows a state in which the image display device 104 is attached to the head of the user US and the controller 105 is attached to the hand of the user US. The symbol ZE shown in FIG. 2 indicates the zenith. It is desirable that the zenith of the camera 102 and the zenith of the user US coincide with each other. By attaching the image display device 104 to its head, the user US can see the captured image IM1 image-processed by the image adjustment device 110 or the server 106.

画像表示装置104は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN1を生成する。画像処理部111は、画像表示装置104から姿勢情報PN1を取得する。即ち、画像処理部111は、画像表示装置104の姿勢に基づいて姿勢情報PN1を取得することになる。画像処理部111は、姿勢情報PN1に基づいて、カメラ102が撮影した撮影画像IM1から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置104に表示する。 The image display device 104 generates posture information PN1 based on the direction in which the user US is facing, the posture of the user US, and the like when the image display device 104 is attached to the head of the user US. The image processing unit 111 acquires the posture information PN1 from the image display device 104. That is, the image processing unit 111 acquires the posture information PN1 based on the posture of the image display device 104. Based on the posture information PN1, the image processing unit 111 displays an image of a region corresponding to a state such as the direction in which the user US is facing and the posture of the user US from the captured image IM1 taken by the camera 102. Displayed on the device 104.

コントローラ105は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢、または、使用者USの指の動きまたは姿勢等の状態に基づいて指示情報NN1を生成する。以下、手または指を、単に手と略記する。画像処理部111は、コントローラ105から指示情報NN1を取得する。画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている撮影画像IM1を変化させたり調整したりすることができる。 The controller 105 generates instruction information NN1 based on the movement or posture of the hand of the user US or the movement or posture of the finger of the user US when the controller 105 is attached to the hand of the user US. .. Hereinafter, the hand or finger is simply abbreviated as a hand. The image processing unit 111 acquires the instruction information NN1 from the controller 105. The image processing unit 111 can change or adjust the captured image IM1 displayed on the image display device 104 based on the instruction information NN1.

画像生成部112は、撮影画像IM1と合成されるCG(Computer Graphics)である合成画像CM1を生成する。合成画像CM1は、例えばアバター等のキャラクタの画像である。画像生成部112は、合成画像CM1を内蔵メモリまたは外部のメモリに保存する。画像処理部111は、画像生成部112で生成された合成画像CM1を取得し、通信部113とネットワークとを介してサーバ106へ出力してもよい。 The image generation unit 112 generates a composite image CM1 which is CG (Computer Graphics) combined with the captured image IM1. The composite image CM1 is an image of a character such as an avatar. The image generation unit 112 stores the composite image CM1 in the internal memory or an external memory. The image processing unit 111 may acquire the composite image CM1 generated by the image generation unit 112 and output it to the server 106 via the communication unit 113 and the network.

サーバ106は、合成画像CM1を画像表示装置104または使用者USと対応付けて内蔵メモリまたは外部のメモリに保存する。画像処理部111は、指示情報NN1に基づいて、画像生成部112またはサーバ106から合成画像CM1を取得し、画像表示装置104に表示されている撮影画像IM1に合成画像CM1を合成する。従って、画像表示装置104は、カメラ102が撮影した撮影画像IM1と、画像生成部112またはサーバ106から取得されて撮影画像IM1と合成された合成画像CM1とを表示することができる。 The server 106 stores the composite image CM1 in the built-in memory or an external memory in association with the image display device 104 or the user US. The image processing unit 111 acquires the composite image CM1 from the image generation unit 112 or the server 106 based on the instruction information NN1, and synthesizes the composite image CM1 with the captured image IM1 displayed on the image display device 104. Therefore, the image display device 104 can display the captured image IM1 captured by the camera 102 and the composite image CM1 acquired from the image generation unit 112 or the server 106 and combined with the captured image IM1.

画像生成部112は、CGである球面により構成された仮想画像である球面状画像VSS1を生成する。画像生成部112は、球面状画像VSS1を内蔵メモリまたは外部のメモリに保存する。画像処理部111は、指示情報NN1に基づいて、画像生成部112で生成された球面状画像VSS1を取得し、画像表示装置104に表示する。 The image generation unit 112 generates a spherical image VSS1 which is a virtual image composed of a spherical surface which is CG. The image generation unit 112 stores the spherical image VSS1 in the built-in memory or an external memory. The image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 based on the instruction information NN1 and displays it on the image display device 104.

図2は、画像表示装置104が使用者USの頭部に装着された状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときの使用者USのイメージを模式的に示している。 FIG. 2 shows an image of the user US when the user US sees the spherical image VSS1 displayed on the image display device 104 in a state where the image display device 104 is attached to the head of the user US. It is shown schematically.

画像表示装置104が使用者USの頭部に装着されている状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときに、球面状画像VSS1は、使用者US及び画像表示装置104の周囲に配置され、かつ、使用者USの手が球面状画像VSS1に届く範囲に表示されるように設定されている。使用者USは、コントローラ105が装着されている手を、画像表示装置104に表示されている球面状画像VSS1に対応する位置に移動させることにより、使用者USの手が球面状画像VSS1に接触しているように感じる。 When the user US sees the spherical image VSS1 displayed on the image display device 104 in a state where the image display device 104 is attached to the head of the user US, the spherical image VSS1 is the user. It is arranged around the US and the image display device 104, and is set so that the hand of the user US is displayed within the reach of the spherical image VSS1. The user US moves the hand on which the controller 105 is attached to a position corresponding to the spherical image VSS1 displayed on the image display device 104, so that the hand of the user US comes into contact with the spherical image VSS1. I feel like I'm doing it.

コントローラ105は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部111は、指示情報NN1に基づいて、使用者USの手が球面状画像VSS1に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS1に接触する感覚を実感として得ることができる。 The controller 105 may have an actuator arranged at a portion that comes into contact with the hand of the user US. The image processing unit 111 operates the actuator when it is determined that the hand of the user US has moved to the position corresponding to the spherical image VSS1 based on the instruction information NN1. When the actuator applies pressure to the hand of the user US, the user US can actually feel the hand touching the spherical image VSS1.

球面状画像VSS1が画像表示装置104に表示されている状態において、使用者USが、コントローラ105が装着されている手を任意の方向へ移動させた場合、画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている球面状画像VSS1と撮影画像IM1とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the user US moves the hand on which the controller 105 is attached in an arbitrary direction while the spherical image VSS1 is displayed on the image display device 104, the image processing unit 111 displays the instruction information NN1. Based on this, image processing is performed so that the spherical image VSS1 and the captured image IM1 displayed on the image display device 104 move according to the moving direction, moving speed, and moving destination position of the hand of the user US. To execute.

使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS1を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS1を回転させることができる。画像処理部111は、球面状画像VSS1の回転に対応させて撮影画像IM1を移動させる。 The user US can rotate the spherical image VSS1 in an arbitrary direction and at an arbitrary speed by moving the hand in an arbitrary direction and at an arbitrary speed to an arbitrary position. it can. That is, the user US can rotate the spherical image VSS1 by the movement of his / her hand. The image processing unit 111 moves the captured image IM1 in correspondence with the rotation of the spherical image VSS1.

画像処理部111は、使用者USが球面状画像VSS1を回転させる前の天頂ZEが、使用者USが球面状画像VSS1を回転させることによって球面状画像VSS1の座標上のどの位置へ移動したかを判定することができる。画像処理部111は、球面状画像VSS1の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS1を回転させる前と回転させた後との球面状画像VSS1の変化量を算出する。 The image processing unit 111 indicates to which position on the coordinates of the spherical image VSS1 the zenith ZE before the user US rotates the spherical image VSS1 moves by rotating the spherical image VSS1 by the user US. Can be determined. The image processing unit 111 is a spherical image before and after the user US rotates the spherical image VSS1 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS1. The amount of change in VSS1 is calculated.

球面状画像VSS1の変化量とは、球面状画像VSS1において、X軸を回転軸とした回転量(回転角度)と、Y軸を回転軸とした回転量(回転角度)と、Z軸を回転軸とした回転量(回転角度)とが合成された球面状画像VSS1の回転量(回転角度)に相当する。画像処理部111は、球面状画像VSS1の変化量を補正値CV1として保存する。即ち、補正値CV1は、球面状画像VSS1の回転方向と、天頂ZEの移動量または移動角度(球面状画像VSS1の回転角度)に基づいて算出されることになる。 The amount of change in the spherical image VSS1 is the amount of rotation (rotation angle) with the X-axis as the rotation axis, the amount of rotation (rotation angle) with the Y-axis as the rotation axis, and the rotation of the Z-axis in the spherical image VSS1. The amount of rotation (rotation angle) as the axis corresponds to the amount of rotation (rotation angle) of the spherical image VSS1 synthesized. The image processing unit 111 stores the amount of change in the spherical image VSS1 as the correction value CV1. That is, the correction value CV1 is calculated based on the rotation direction of the spherical image VSS1 and the movement amount or movement angle of the zenith ZE (rotation angle of the spherical image VSS1).

画像処理部111は、使用者USが球面状画像VSS1を回転させた後の天頂ZEの球面状画像VSS1上の座標を補正値CV1として保存してもよい。画像処理部111は、補正値CV1を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV1を通信部113及びネットワークを介してサーバ106へ出力してもよい。サーバ106は、補正値CV1を画像表示装置104または使用者USと関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 111 may save the coordinates on the spherical image VSS1 of the zenith ZE after the user US rotates the spherical image VSS1 as the correction value CV1. The image processing unit 111 may store the correction value CV1 in the built-in memory or an external memory, or may output the correction value CV1 to the server 106 via the communication unit 113 and the network. The server 106 associates the correction value CV1 with the image display device 104 or the user US and stores it in the internal memory or an external memory.

画像処理部111は、撮影画像IM1の水平方向を検出する。しかし、画像処理部111は、撮影画像IM1によってはその水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。撮影画像IM1の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、画像表示装置104に表示される撮影画像IM1が使用者USの重力感覚と一致しないため、使用者USは違和感を覚える。 The image processing unit 111 detects the horizontal direction of the captured image IM1. However, it is difficult for the image processing unit 111 to detect the horizontal direction depending on the captured image IM1, and the horizontal direction may be erroneously detected. In addition, the horizontal or zenith designation may shift due to problems such as system synchronization. If the horizontal direction of the captured image IM1 is incorrectly detected, or if the horizontal or zenith designation is deviated, the captured image IM1 displayed on the image display device 104 does not match the gravitational sensation of the user US, so that the user US I feel uncomfortable.

図3及び図4に示すフローチャートを用いて、第1実施形態の画像調整方法の一例を説明する。具体的には、撮影画像IM1及び合成画像CM1の水平を調整する方法の一例について説明する。画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている。画像表示装置104には撮影画像IM1及び合成画像CM1が表示されている。この時点で、合成画像CM1は表示されていなくてもよい。 An example of the image adjustment method of the first embodiment will be described with reference to the flowcharts shown in FIGS. 3 and 4. Specifically, an example of a method of adjusting the horizontal of the captured image IM1 and the composite image CM1 will be described. The image display device 104 is attached to the head of the user US, and the controller 105 is attached to the hand of the user US. The captured image IM1 and the composite image CM1 are displayed on the image display device 104. At this point, the composite image CM1 may not be displayed.

使用者USが画像表示装置104に表示されている撮影画像IM1が水平でないと判断した場合、図3において、使用者USがコントローラ105を操作することにより、画像処理部111は、ステップS101にて、画像表示装置104に設定画面を表示させる。 When the user US determines that the captured image IM1 displayed on the image display device 104 is not horizontal, in FIG. 3, when the user US operates the controller 105, the image processing unit 111 moves to step S101. , The image display device 104 is made to display the setting screen.

使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部111は、ステップS102にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部111は、撮影画像IM1の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user US operates the controller 105 to select a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 111 selects the item selected in step S102. The process is shifted to the corresponding predetermined process mode. When the horizontal adjustment item is selected, the image processing unit 111 shifts the processing to the processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM1.

画像処理部111は、ステップS103にて、画像生成部112で生成された球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1と球面状画像VSS1と合成画像CM1とが混合して表示される。使用者USが撮影画像IM1が水平となるように球面状画像VSS1を回転させることにより、画像処理部111は、ステップS104にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている撮影画像IM1を移動させる。使用者USは撮影画像IM1が水平になるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。 In step S103, the image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 and displays it on the image display device 104. The captured image IM1, the spherical image VSS1, and the composite image CM1 are mixed and displayed on the image display device 104. When the user US rotates the spherical image VSS1 so that the captured image IM1 is horizontal, the image processing unit 111 causes the image display device 104 to correspond to the rotation of the spherical image VSS1 in step S104. The displayed captured image IM1 is moved. The user US may perform the operation of rotating the spherical image VSS1 a plurality of times until the captured image IM1 becomes horizontal.

使用者USは撮影画像IM1が水平になったと判断した場合にコントローラ105を操作することにより、画像処理部111は、ステップS105にて、球面状画像VSS1の表示を終了させ、画像表示装置104に設定画面を表示させる。画像表示装置104に表示されている撮影画像IM1を水平にすることにより、カメラ102の天頂と使用者USの天頂とを一致させることができる。 When the user US determines that the captured image IM1 is horizontal, the image processing unit 111 ends the display of the spherical image VSS1 in step S105 by operating the controller 105, and causes the image display device 104 to display the spherical image VSS1. Display the setting screen. By leveling the captured image IM1 displayed on the image display device 104, the zenith of the camera 102 and the zenith of the user US can be matched.

使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部111は、ステップS106にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部111は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。 When the user US operates the controller 105 and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 111 corresponds to the selected item in step S106. The processing is shifted to the predetermined processing mode. When the end item is selected, the image processing unit 111 shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.

画像処理部111は、ステップS107にて、球面状画像VSS1が回転する前と後との回転量(回転角度)を、球面状画像VSS1の変化量として取得する。画像処理部111は、ステップS108にて、球面状画像VSS1の変化量を補正値CV1として保存し、処理を終了する。 In step S107, the image processing unit 111 acquires the amount of rotation (rotation angle) before and after the spherical image VSS1 rotates as the amount of change in the spherical image VSS1. In step S108, the image processing unit 111 saves the amount of change in the spherical image VSS1 as the correction value CV1 and ends the processing.

図3のステップS101〜S108において合成画像CM1が表示されていない場合、使用者USがコントローラ105を操作することにより、画像調整装置110(具体的には画像処理部111)は、画像生成部112で生成された合成画像CM1を取得し、画像表示装置104に表示されている撮影画像IM1に合成して表示させることができる。 When the composite image CM1 is not displayed in steps S101 to S108 of FIG. 3, when the user US operates the controller 105, the image adjusting device 110 (specifically, the image processing unit 111) causes the image generation unit 112. The composite image CM1 generated in the above can be acquired, combined with the captured image IM1 displayed on the image display device 104, and displayed.

図5は、使用者USによって水平調整された撮影画像IM1の水平面PHP1と、画像処理部111が画像生成部112から取得した合成画像CM1の水平面SHP1との関係を模式的に示している。撮影画像IM1の水平面PHP1と合成画像CM1の水平面SHP1とがずれていると、使用者USは違和感を覚える。 FIG. 5 schematically shows the relationship between the horizontal plane PHP1 of the captured image IM1 horizontally adjusted by the user US and the horizontal plane SHP1 of the composite image CM1 acquired by the image processing unit 111 from the image generation unit 112. If the horizontal plane PHP1 of the captured image IM1 and the horizontal plane SHP1 of the composite image CM1 are out of alignment, the user US feels uncomfortable.

図4において、画像処理部111は、ステップS111にて、撮影画像IM1が水平調整されたか否かを判定する。画像処理部111は、球面状画像VSS1が回転された履歴または補正値CV1等に基づいて、撮影画像IM1が水平調整されたか否かを判定することができる。 In FIG. 4, the image processing unit 111 determines in step S111 whether or not the captured image IM1 has been horizontally adjusted. The image processing unit 111 can determine whether or not the captured image IM1 has been horizontally adjusted based on the history of rotation of the spherical image VSS1 or the correction value CV1 or the like.

ステップS111において撮影画像IM1が水平調整された(YES)と判定された場合、画像処理部111は、ステップS112にて、保存されている補正値CV1を取得する。画像処理部111は、ステップS113にて、補正値CV1に基づいて合成画像CM1の座標軸を回転させ、合成画像CM1の水平面SHP1を撮影画像IM1の水平面PHP1と一致させる。画像処理部111は、ステップS114にて、合成画像CM1を、補正された水平面SHP1に基づいて演算処理し、画像調整する。 When it is determined in step S111 that the captured image IM1 is horizontally adjusted (YES), the image processing unit 111 acquires the stored correction value CV1 in step S112. In step S113, the image processing unit 111 rotates the coordinate axes of the composite image CM1 based on the correction value CV1 to match the horizontal plane SHP1 of the composite image CM1 with the horizontal plane PHP1 of the captured image IM1. In step S114, the image processing unit 111 performs arithmetic processing on the composite image CM1 based on the corrected horizontal plane SHP1 to adjust the image.

画像処理部111は、ステップS115にて、画像調整された合成画像CM1を撮影画像IM1と合成して画像表示装置104に表示させる。ステップS111において撮影画像IM1が水平調整されていない(NO)と判定された場合、画像処理部111は、処理をステップS115へ移行させる。 In step S115, the image processing unit 111 combines the image-adjusted composite image CM1 with the captured image IM1 and displays it on the image display device 104. When it is determined in step S111 that the captured image IM1 is not horizontally adjusted (NO), the image processing unit 111 shifts the processing to step S115.

第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法では、画像表示装置104に球面状画像VSS1を表示させる。第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ105を操作して球面状画像VSS1を回転させることにより、画像表示装置104に表示されている撮影画像IM1を水平になるように調整することができる。 In the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, the spherical image VSS1 is displayed on the image display device 104. According to the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, it is used when the horizontal direction of the captured image IM1 is erroneously detected or the horizontal or zenith ZE designation is deviated. The person US can adjust the captured image IM1 displayed on the image display device 104 so as to be horizontal by operating the controller 105 to rotate the spherical image VSS1.

従って、第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM1の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, when the horizontal direction of the captured image IM1 is erroneously detected, or when the horizontal or zenith designation is deviated, The user US can easily correct the horizontal or zenith of the captured image IM1.

第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、補正値CV1が保存されている場合、画像処理部111は、補正値CV1を読み出し、カメラ102が撮影した撮影画像IM1を補正値CV1に基づいて画像調整し、画像表示装置104に表示することができる。 According to the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, when the correction value CV1 is stored, the image processing unit 111 reads out the correction value CV1 and the camera 102 takes a picture. The captured image IM1 can be image-adjusted based on the correction value CV1 and displayed on the image display device 104.

第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法では、撮影画像IM1が水平調整された場合、補正値CV1に基づいて合成画像CM1の座標軸を回転させ、合成画像CM1の水平面SHP1を撮影画像IM1の水平面PHP1と一致させる。第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1と合成画像CM1とを、使用者USが違和感を覚えることなく、画像表示装置104に表示することができる。 In the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, when the captured image IM1 is horizontally adjusted, the coordinate axes of the composite image CM1 are rotated based on the correction value CV1 to rotate the composite image CM1. The horizontal plane SHP1 is made to match the horizontal plane PHP1 of the captured image IM1. According to the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, the captured image IM1 and the composite image CM1 are displayed on the image display device 104 without the user US feeling uncomfortable. be able to.

[第2実施形態]
図1を用いて、第2実施形態の画像調整システムの構成例を説明する。画像調整システム201は、カメラ202と、通信部203と、画像表示装置204と、コントローラ205と、画像調整装置210と、サーバ206とを備える。画像調整装置210は、画像処理部211と、画像生成部212と、通信部213とを有する。
[Second Embodiment]
A configuration example of the image adjustment system of the second embodiment will be described with reference to FIG. The image adjustment system 201 includes a camera 202, a communication unit 203, an image display device 204, a controller 205, an image adjustment device 210, and a server 206. The image adjusting device 210 includes an image processing unit 211, an image generation unit 212, and a communication unit 213.

カメラ202、通信部203、画像表示装置204、コントローラ205、画像調整装置210、及びサーバ206は、第1実施形態のカメラ102、通信部103、画像表示装置104、コントローラ105、画像調整装置110、及びサーバ106に相当する。画像処理部211、画像生成部212、及び通信部213は、第1実施形態の画像処理部111、画像生成部112、及び通信部113に相当する。 The camera 202, the communication unit 203, the image display device 204, the controller 205, the image adjustment device 210, and the server 206 are the camera 102, the communication unit 103, the image display device 104, the controller 105, and the image adjustment device 110 of the first embodiment. And the server 106. The image processing unit 211, the image generation unit 212, and the communication unit 213 correspond to the image processing unit 111, the image generation unit 112, and the communication unit 113 of the first embodiment.

画像調整装置210は、カメラ202が撮影した撮影画像IM2を、通信部203及び213とネットワークとを介して取得することができる。サーバ206がカメラ202が撮影した撮影画像IM2を通信部203及びネットワークを介して取得し、画像調整装置210がサーバ206から撮影画像IM2をネットワーク及び通信部213を介して取得してもよい。 The image adjusting device 210 can acquire the captured image IM2 captured by the camera 202 via the communication units 203 and 213 and the network. The server 206 may acquire the captured image IM2 captured by the camera 202 via the communication unit 203 and the network, and the image adjusting device 210 may acquire the captured image IM2 from the server 206 via the network and the communication unit 213.

画像調整装置210が取得した撮影画像IM2は、画像処理部211へ入力される。画像処理部211は、撮影画像IM2を解析することにより、撮影画像IM2における水平方向を認識する。画像処理部211は、撮影画像IM2を解析することにより、撮影画像IM2における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。画像調整装置210は、撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像表示装置204へ出力する。 The captured image IM2 acquired by the image adjusting device 210 is input to the image processing unit 211. The image processing unit 211 recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2. The image processing unit 211 may recognize the vertical direction in the captured image IM2, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM2. The image adjusting device 210 corrects the distortion of the captured image IM2, executes image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image display device 204.

サーバ206は、カメラ202が撮影した撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像調整装置210へ出力してもよい。画像表示装置204は、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を表示する。使用者USは、その頭部に画像表示装置204を装着することにより、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を見ることができる。 The server 206 corrects the distortion of the captured image IM2 captured by the camera 202, executes image processing such as adjusting the level of the captured image IM2, and outputs the image-processed captured image IM2 to the image adjusting device 210. You may. The image display device 204 displays the captured image IM2 image-processed by the image adjustment device 210 or the server 206. By attaching the image display device 204 to the head of the user US, the user US can see the captured image IM2 image-processed by the image adjusting device 210 or the server 206.

画像表示装置204は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN2を生成する。画像処理部211は、画像表示装置204から姿勢情報PN2を取得する。即ち、画像処理部211は、画像表示装置204の姿勢に基づいて姿勢情報PN2を取得することになる。画像処理部211は、姿勢情報PN2に基づいて、カメラ202が撮影した撮影画像IM2から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置204に表示する。 The image display device 204 generates posture information PN2 based on the direction in which the user US is facing, the posture of the user US, and the like when the image display device 204 is attached to the head of the user US. The image processing unit 211 acquires the posture information PN2 from the image display device 204. That is, the image processing unit 211 acquires the posture information PN2 based on the posture of the image display device 204. Based on the posture information PN2, the image processing unit 211 displays an image of a region corresponding to a state such as the direction in which the user US is facing and the posture of the user US from the captured image IM2 taken by the camera 202. Displayed on device 204.

コントローラ205は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢等の状態に基づいて指示情報NN2を生成する。画像処理部211は、コントローラ205から指示情報NN2を取得する。画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている撮影画像IM2を変化させたり調整したりすることができる。 The controller 205 generates instruction information NN2 based on a state such as the movement or posture of the user US's hand while it is attached to the user US's hand. The image processing unit 211 acquires the instruction information NN2 from the controller 205. The image processing unit 211 can change or adjust the captured image IM2 displayed on the image display device 204 based on the instruction information NN2.

画像生成部212は、撮影画像IM2と合成されるCGである合成画像CM2を生成する。合成画像CM2は、例えばアバター等のキャラクタの画像である。画像生成部212は、合成画像CM2を内蔵メモリまたは外部のメモリに保存する。画像処理部211は、画像生成部212で生成された合成画像CM2を取得し、通信部213とネットワークとを介してサーバ206へ出力してもよい。サーバ206は、合成画像CM2を画像表示装置204または使用者USと対応付けて内蔵メモリまたは外部のメモリに保存する。 The image generation unit 212 generates a composite image CM2 which is a CG to be combined with the captured image IM2. The composite image CM2 is an image of a character such as an avatar. The image generation unit 212 stores the composite image CM2 in the internal memory or an external memory. The image processing unit 211 may acquire the composite image CM2 generated by the image generation unit 212 and output it to the server 206 via the communication unit 213 and the network. The server 206 stores the composite image CM2 in the built-in memory or an external memory in association with the image display device 204 or the user US.

画像処理部211は、指示情報NN2に基づいて、画像生成部212またはサーバ206から合成画像CM2を取得し、画像表示装置204に表示されている撮影画像IM2に合成画像CM2を合成する。従って、画像表示装置204は、カメラ202が撮影した撮影画像IM2と、画像生成部212またはサーバ206から取得されて撮影画像IM2と合成された合成画像CM2とを表示することができる。 The image processing unit 211 acquires the composite image CM2 from the image generation unit 212 or the server 206 based on the instruction information NN2, and synthesizes the composite image CM2 with the captured image IM2 displayed on the image display device 204. Therefore, the image display device 204 can display the captured image IM2 captured by the camera 202 and the composite image CM2 acquired from the image generation unit 212 or the server 206 and combined with the captured image IM2.

画像生成部212は、CGである球面により構成された仮想画像である球面状画像VSS2を生成する。画像生成部212は、球面状画像VSS2を内蔵メモリまたは外部のメモリに保存する。画像処理部211は、指示情報NN2に基づいて、画像生成部212で生成された球面状画像VSS2を取得し、画像表示装置204に表示する。 The image generation unit 212 generates a spherical image VSS2 which is a virtual image composed of a spherical surface which is CG. The image generation unit 212 stores the spherical image VSS2 in the built-in memory or an external memory. The image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 based on the instruction information NN2 and displays it on the image display device 204.

球面状画像VSS2は、第1実施形態の球面状画像VSS1に相当する。使用者USは、コントローラ205が装着されている手を、画像表示装置204に表示されている球面状画像VSS2に対応する位置に移動させることにより、使用者USの手が球面状画像VSS2に接触しているように感じる。 The spherical image VSS2 corresponds to the spherical image VSS1 of the first embodiment. The user US moves the hand on which the controller 205 is attached to a position corresponding to the spherical image VSS2 displayed on the image display device 204, so that the hand of the user US comes into contact with the spherical image VSS2. I feel like I'm doing it.

コントローラ205は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部211は、指示情報NN2に基づいて、使用者USの手が球面状画像VSS2に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS2に接触する感覚を実感として得ることができる。 In the controller 205, the actuator may be arranged at a portion that comes into contact with the hand of the user US. The image processing unit 211 operates the actuator when it is determined that the hand of the user US has moved to the position corresponding to the spherical image VSS2 based on the instruction information NN2. When the actuator applies pressure to the hand of the user US, the user US can actually feel the hand touching the spherical image VSS2.

球面状画像VSS2が画像表示装置204に表示されている状態において、使用者USが、コントローラ205が装着されている手を任意の方向へ移動させた場合、画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている球面状画像VSS2と撮影画像IM2とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the user US moves the hand on which the controller 205 is mounted in an arbitrary direction while the spherical image VSS2 is displayed on the image display device 204, the image processing unit 211 displays the instruction information NN2. Based on this, image processing is performed so that the spherical image VSS2 and the captured image IM2 displayed on the image display device 204 move according to the moving direction, moving speed, and moving destination position of the hand of the user US. To execute.

使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS2を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS2を回転させることができる。画像処理部211は、球面状画像VSS2の回転に対応させて撮影画像IM2を移動させる。 The user US can rotate the spherical image VSS2 in an arbitrary direction and at an arbitrary speed by moving the hand in an arbitrary direction and at an arbitrary speed to an arbitrary position. it can. That is, the user US can rotate the spherical image VSS2 by the movement of his / her hand. The image processing unit 211 moves the captured image IM2 in correspondence with the rotation of the spherical image VSS2.

画像処理部211は、使用者USが球面状画像VSS2を回転させる前の天頂ZEが、使用者USが球面状画像VSS2を回転させることによって球面状画像VSS2の座標上のどの位置へ移動したかを判定することができる。画像処理部211は、球面状画像VSS2の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS2を回転させる前と回転させた後との球面状画像VSS2の変化量を算出する。球面状画像VSS2の変化量は、第1実施形態の球面状画像VSS1の変化量に相当する。 The image processing unit 211 indicates to which position on the coordinates of the spherical image VSS2 the zenith ZE before the user US rotates the spherical image VSS2 has moved by rotating the spherical image VSS2 by the user US. Can be determined. The image processing unit 211 is a spherical image before and after the user US rotates the spherical image VSS2 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS2. Calculate the amount of change in VSS2. The amount of change in the spherical image VSS2 corresponds to the amount of change in the spherical image VSS1 of the first embodiment.

画像処理部211は、球面状画像VSS2の変化量を補正値CV2として保存する。補正値CV2は、第1実施形態の補正値CV1に相当する。画像処理部211は、使用者USが球面状画像VSS2を回転させた後の天頂ZEの球面状画像VSS2上の座標を補正値CV2として保存してもよい。画像処理部211は、補正値CV2を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV2を通信部213及びネットワークを介してサーバ206へ出力してもよい。サーバ206は、補正値CV2を画像表示装置204または使用者USと関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 211 saves the amount of change in the spherical image VSS2 as the correction value CV2. The correction value CV2 corresponds to the correction value CV1 of the first embodiment. The image processing unit 211 may save the coordinates on the spherical image VSS2 of the zenith ZE after the user US rotates the spherical image VSS2 as the correction value CV2. The image processing unit 211 may store the correction value CV2 in the built-in memory or an external memory, or may output the correction value CV2 to the server 206 via the communication unit 213 and the network. The server 206 associates the correction value CV2 with the image display device 204 or the user US and stores it in the internal memory or an external memory.

画像処理部211は、撮影画像IM2の水平方向を検出する。しかし、画像処理部211は、撮影画像IM2によってはその水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。撮影画像IM2の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、画像表示装置204に表示される撮影画像IM2が使用者USの重力感覚と一致しないため、使用者USは違和感を覚える。 The image processing unit 211 detects the horizontal direction of the captured image IM2. However, it is difficult for the image processing unit 211 to detect the horizontal direction depending on the captured image IM2, and the horizontal direction may be erroneously detected. In addition, the horizontal or zenith designation may shift due to problems such as system synchronization. If the horizontal direction of the captured image IM2 is incorrectly detected, or if the horizontal or zenith designation is deviated, the captured image IM2 displayed on the image display device 204 does not match the gravitational sensation of the user US, so that the user US I feel uncomfortable.

図6A、図6B、及び図7に示すフローチャートを用いて、第2実施形態の画像調整方法の一例を説明する。具体的には、撮影画像IM2及び合成画像CM2の水平を調整する方法の一例について説明する。画像表示装置204が使用者USの頭部に装着され、コントローラ205が使用者USの手に装着されている。画像表示装置204には撮影画像IM2及び合成画像CM2が表示されている。なお、合成画像CM2は表示されていなくてもよい。 An example of the image adjustment method of the second embodiment will be described with reference to the flowcharts shown in FIGS. 6A, 6B, and 7. Specifically, an example of a method of adjusting the horizontal of the captured image IM2 and the composite image CM2 will be described. The image display device 204 is attached to the head of the user US, and the controller 205 is attached to the hand of the user US. The captured image IM2 and the composite image CM2 are displayed on the image display device 204. The composite image CM2 may not be displayed.

使用者USが画像表示装置204に表示されている撮影画像IM2が水平でないと判断した場合、図6Aにおいて、使用者USがコントローラ205を操作することにより、画像処理部211は、ステップS201にて、画像表示装置204に設定画面を表示させる。 When the user US determines that the captured image IM2 displayed on the image display device 204 is not horizontal, in FIG. 6A, when the user US operates the controller 205, the image processing unit 211 moves to step S201. , Display the setting screen on the image display device 204.

使用者USがコントローラ205を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部211は、ステップS202にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部211は、撮影画像IM2の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user US operates the controller 205 and selects a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 211 selects the selected item in step S202. The process is shifted to the corresponding predetermined process mode. When the horizontal adjustment item is selected, the image processing unit 211 shifts the processing to the processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM2.

画像処理部211は、ステップS203にて、画像生成部212で生成された球面状画像VSS2を取得し、画像表示装置204に表示する。画像表示装置204には、撮影画像IM2と球面状画像VSS2とが混合して表示される。画像処理部211は、ステップS204にて、合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されているか否かを判定する。 In step S203, the image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 and displays it on the image display device 204. The captured image IM2 and the spherical image VSS2 are mixed and displayed on the image display device 204. In step S204, the image processing unit 211 determines whether or not the composite image CM2 is combined with the captured image IM2 and displayed on the image display device 204.

ステップS204において合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されている(YES)と判定された場合、画像処理部211は、ステップS205にて、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とを分離させる処理を実行する。図8は、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とが分離された状態を模式的に示している。 When it is determined in step S204 that the composite image CM2 is combined with the captured image IM2 and displayed on the image display device 204 (YES), the image processing unit 211 and the horizontal plane SHP2 of the composite image CM2 in step S205. A process of separating the captured image IM2 from the horizontal plane PHP2 is executed. FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated.

ステップS204において合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されていない(NO)と判定された場合、画像処理部211は、処理をステップS206へ進める。 If it is determined in step S204 that the composite image CM2 is combined with the captured image IM2 and is not displayed on the image display device 204 (NO), the image processing unit 211 advances the process to step S206.

使用者USは、撮影画像IM2が水平となるように球面状画像VSS2を回転させる。合成画像CM2の水平面SHP2と撮影画像IM1の水平面PHP2とは分離しているため、球面状画像VSS2を回転させても、合成画像CM2は回転しない。そのため、使用者USは、合成画像CM2の回転に惑わされることなく、撮影画像IM2の水平を容易に補正することができる。 The user US rotates the spherical image VSS2 so that the captured image IM2 is horizontal. Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM1 are separated, the composite image CM2 does not rotate even if the spherical image VSS2 is rotated. Therefore, the user US can easily correct the horizontality of the captured image IM2 without being confused by the rotation of the composite image CM2.

ステップS205において、画像処理部211は合成画像CM2を非表示にしてもよい。合成画像CM2を非表示にすることにより、合成画像CM2が邪魔にならないので、使用者USは、撮影画像IM2の水平を容易に補正することができる。 In step S205, the image processing unit 211 may hide the composite image CM2. By hiding the composite image CM2, the composite image CM2 does not get in the way, so that the user US can easily correct the horizontality of the captured image IM2.

画像処理部211は、ステップS206にて、球面状画像VSS2の回転に対応させて、画像表示装置204に表示されている撮影画像IM2を移動させる。使用者USは撮影画像IM2が水平になるまで球面状画像VSS2を回転させる動作を複数回行ってもよい。 In step S206, the image processing unit 211 moves the captured image IM2 displayed on the image display device 204 in correspondence with the rotation of the spherical image VSS2. The user US may perform the operation of rotating the spherical image VSS2 a plurality of times until the captured image IM2 becomes horizontal.

図6Bにおいて、使用者USは撮影画像IM2が水平になったと判断した場合にコントローラ205を操作することにより、画像処理部211は、ステップS207にて、球面状画像VSS2の表示を終了させ、画像表示装置204に設定画面を表示させる。画像表示装置204に表示されている撮影画像IM2を水平にすることにより、カメラ202の天頂と使用者USの天頂とを一致させることができる。 In FIG. 6B, when the user US determines that the captured image IM2 is horizontal, the image processing unit 211 ends the display of the spherical image VSS2 in step S207 by operating the controller 205, and the image Display the setting screen on the display device 204. By leveling the captured image IM2 displayed on the image display device 204, the zenith of the camera 202 and the zenith of the user US can be matched.

使用者USがコントローラ205を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部211は、ステップS208にて、選択された項目に対応する所定の処理モードへ処理を移行させる。終了の項目が選択された場合、画像処理部211は、水平調整を終了するための処理モード(水平調整終了モード)へ処理を移行させる。 When the user US operates the controller 205 and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 211 corresponds to the selected item in step S208. The process is shifted to the predetermined process mode. When the end item is selected, the image processing unit 211 shifts the processing to the processing mode for ending the horizontal adjustment (horizontal adjustment end mode).

画像処理部211は、ステップS209にて、球面状画像VSS2が回転する前と後との回転量(回転角度)を、球面状画像VSS2の変化量として取得する。画像処理部211は、ステップS210にて、球面状画像VSS2の変化量を補正値CV2として保存する。 In step S209, the image processing unit 211 acquires the amount of rotation (rotation angle) before and after the spherical image VSS2 rotates as the amount of change in the spherical image VSS2. In step S210, the image processing unit 211 saves the amount of change in the spherical image VSS2 as the correction value CV2.

図6A及び図6BのステップS201〜S210において合成画像CM2が表示されていない場合、使用者USがコントローラ205を操作することにより、画像調整装置210(具体的には画像処理部211)は、画像生成部212で生成された合成画像CM2を取得し、画像表示装置204に表示させることができる。 When the composite image CM2 is not displayed in steps S201 to S210 of FIGS. 6A and 6B, the user US operates the controller 205 to cause the image adjusting device 210 (specifically, the image processing unit 211) to display the image. The composite image CM2 generated by the generation unit 212 can be acquired and displayed on the image display device 204.

画像調整装置210(具体的には画像処理部211)は、カメラ202が撮影する撮影画像IM2を解析することにより、撮影画像IM2における水平方向を認識する。使用者USが球面状画像VSS2を回転させて撮影画像IM2の水平を調整した後に、画像調整装置210が画像生成部212で生成された合成画像CM2を取得し、画像表示装置204に表示させると、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とは一致しなくなる。撮影画像IM2の水平面PHP2と合成画像CM2の水平面SHP2とがずれていると、使用者USは違和感を覚える。 The image adjusting device 210 (specifically, the image processing unit 211) recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2 captured by the camera 202. After the user US rotates the spherical image VSS2 to adjust the level of the captured image IM2, the image adjusting device 210 acquires the composite image CM2 generated by the image generation unit 212 and displays it on the image display device 204. , The horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 do not match. If the horizontal plane PHP2 of the captured image IM2 and the horizontal plane SHP2 of the composite image CM2 are deviated from each other, the user US feels uncomfortable.

図7において、画像処理部211は、ステップS211にて、合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されているか否かを判定する。合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されている(YES)と判定された場合、画像処理部211は、ステップS212にて、保存されている補正値CV2を取得する。 In FIG. 7, the image processing unit 211 determines in step S211 whether or not the composite image CM2 is combined with the captured image IM2 and displayed on the image display device 204. When it is determined that the composite image CM2 is combined with the captured image IM2 and displayed on the image display device 204 (YES), the image processing unit 211 acquires the stored correction value CV2 in step S212. ..

画像処理部211は、ステップS213にて、補正値CV2に基づいて合成画像CM2の座標軸を回転させ、合成画像CM2の水平面SHP2を、使用者USによって水平調整された撮影画像IM2の水平面PHP2と一致させる。画像処理部211は、ステップS214にて、合成画像CM2を、補正された水平面SHP2に基づいて演算処理し、画像調整する。図8は、合成画像CM2の水平面SHP2と撮影画像IM1の水平面PHP2とが一致している状態を模式的に示している。 In step S213, the image processing unit 211 rotates the coordinate axes of the composite image CM2 based on the correction value CV2, and makes the horizontal plane SHP2 of the composite image CM2 coincide with the horizontal plane PHP2 of the captured image IM2 horizontally adjusted by the user US. Let me. In step S214, the image processing unit 211 performs arithmetic processing on the composite image CM2 based on the corrected horizontal plane SHP2 to adjust the image. FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM1 coincide with each other.

ステップS211において撮影画像IM2が使用者USによって水平調整されていない(NO)と判定された場合、画像処理部211は、処理をステップS215へ移行させる。画像処理部211は、ステップS215にて、画像調整された合成画像CM2を撮影画像IM2と合成して画像表示装置204に表示させる。使用者USは、画像表示装置204に表示され、互いの水平が一致している撮影画像IM2及び合成画像CM2を見ることができる。 When it is determined in step S211 that the captured image IM2 is not horizontally adjusted (NO) by the user US, the image processing unit 211 shifts the processing to step S215. In step S215, the image processing unit 211 combines the image-adjusted composite image CM2 with the captured image IM2 and displays it on the image display device 204. The user US can see the captured image IM2 and the composite image CM2 that are displayed on the image display device 204 and are horizontally aligned with each other.

第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法では、画像表示装置204に球面状画像VSS2を表示させる。第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ205を操作して球面状画像VSS2を回転させることにより、画像表示装置204に表示されている撮影画像IM2を水平になるように調整することができる。 In the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, the spherical image VSS2 is displayed on the image display device 204. According to the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, it is used when the horizontal direction of the captured image IM2 is incorrectly detected or the horizontal or zenith ZE designation is deviated. By operating the controller 205 to rotate the spherical image VSS2, the person US can adjust the captured image IM2 displayed on the image display device 204 so as to be horizontal.

従って、第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM2の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, when the horizontal direction of the captured image IM2 is erroneously detected, or when the horizontal or zenith designation is deviated, The user US can easily correct the horizontal or zenith of the captured image IM2.

第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、補正値CV2が保存されている場合、画像処理部211は、補正値CV2を読み出し、カメラ202が撮影した撮影画像IM2を補正値CV2に基づいて画像調整し、画像表示装置204に表示することができる。 According to the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, when the correction value CV2 is stored, the image processing unit 211 reads out the correction value CV2 and the camera 202 takes a picture. The captured image IM2 can be image-adjusted based on the correction value CV2 and displayed on the image display device 204.

第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法では、合成画像CM2の水平面SHP2と撮影画像IM1の水平面PHP2とを分離させて、撮影画像IM1の水平を調整し、調整結果(補正値CV2)に基づいて合成画像CM1の水平を調整する。合成画像CM2の水平面SHP2と撮影画像IM1の水平面PHP2とが分離しているため、使用者USが球面状画像VSS2を回転させても、合成画像CM2は回転しない。そのため、使用者USは、撮影画像IM2の水平を容易に補正することができる。 In the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM1 are separated, and the horizontality of the captured image IM1 is adjusted and adjusted. The horizontal of the composite image CM1 is adjusted based on the result (correction value CV2). Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM1 are separated, even if the user US rotates the spherical image VSS2, the composite image CM2 does not rotate. Therefore, the user US can easily correct the horizontality of the captured image IM2.

第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2が水平調整された場合、補正値CV2に基づいて合成画像CM2の座標軸を回転させ、合成画像CM2の水平面SHP2を撮影画像IM2の水平面PHP2と一致させる。そのため、使用者USは、画像表示装置204に表示されている撮影画像IM2と合成画像CM2とを、違和感を覚えることなく見ることができる。 According to the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, when the captured image IM2 is horizontally adjusted, the coordinate axes of the composite image CM2 are rotated based on the correction value CV2 to rotate the composite image. The horizontal plane SHP2 of CM2 is made to match the horizontal plane PHP2 of the captured image IM2. Therefore, the user US can see the captured image IM2 and the composite image CM2 displayed on the image display device 204 without feeling any discomfort.

[第3実施形態]
図9を用いて、第3実施形態の画像調整システムの構成例を説明する。画像調整システム301は、カメラ302と、通信部303と、複数の画像表示装置304と、複数のコントローラ305と、複数の画像調整装置310と、サーバ306とを備える。画像調整装置310は、画像処理部311と、画像生成部312と、通信部313とを有する。
[Third Embodiment]
A configuration example of the image adjustment system of the third embodiment will be described with reference to FIG. The image adjustment system 301 includes a camera 302, a communication unit 303, a plurality of image display devices 304, a plurality of controllers 305, a plurality of image adjustment devices 310, and a server 306. The image adjusting device 310 includes an image processing unit 311, an image generation unit 312, and a communication unit 313.

カメラ302、通信部303、画像表示装置304、コントローラ305、画像調整装置310、及びサーバ306は、それぞれ、第1及び第2実施形態のカメラ102及び202、通信部103及び203、画像表示装置104及び204、コントローラ105及び205、画像調整装置110及び210、及び、サーバ106及び206に相当する。画像処理部311、画像生成部312、及び通信部313は、それぞれ、第1及び第2実施形態の画像処理部111及び211、画像生成部112及び212、及び、通信部113及び213に相当する。 The camera 302, the communication unit 303, the image display device 304, the controller 305, the image adjustment device 310, and the server 306 are the cameras 102 and 202 of the first and second embodiments, the communication units 103 and 203, and the image display device 104, respectively. And 204, controllers 105 and 205, image adjusters 110 and 210, and servers 106 and 206. The image processing unit 311, the image generation unit 312, and the communication unit 313 correspond to the image processing units 111 and 211, the image generation units 112 and 212, and the communication units 113 and 213 of the first and second embodiments, respectively. ..

図9では、説明をわかりやすくするために、それぞれ2つの画像表示装置304、コントローラ305、及び画像調整装置310を示している。画像表示装置304、コントローラ305、及び画像調整装置310は3つ以上であってもよい。使用者USa(第1の使用者)が使用する画像表示装置304、コントローラ305、及び画像調整装置310を、画像表示装置304a(第3実施形態における第1の画像表示装置)、コントローラ305a(第3実施形態における第1のコントローラ)、及び画像調整装置310a(第3実施形態における第1の画像調整装置)とする。使用者USb(第2の使用者)が使用する画像表示装置304、コントローラ305、及び画像調整装置310を画像表示装置304b(第3実施形態における第2の画像表示装置)、コントローラ305b(第3実施形態における第2のコントローラ)、及び画像調整装置310b(第3実施形態における第2の画像調整装置)とする。 In FIG. 9, two image display devices 304, a controller 305, and an image adjustment device 310 are shown, respectively, for the sake of clarity. The number of the image display device 304, the controller 305, and the image adjustment device 310 may be three or more. The image display device 304, the controller 305, and the image adjustment device 310 used by the user USa (first user) are combined with the image display device 304a (first image display device in the third embodiment) and the controller 305a (first). 3 The first controller in the embodiment) and the image adjusting device 310a (the first image adjusting device in the third embodiment). The image display device 304, the controller 305, and the image adjustment device 310 used by the user USb (second user) are the image display device 304b (second image display device in the third embodiment) and the controller 305b (third). The second controller in the embodiment) and the image adjusting device 310b (the second image adjusting device in the third embodiment).

画像調整装置310aにおける画像処理部311、画像生成部312、及び通信部313を、画像処理部311a、画像生成部312a、及び通信部313aとし、画像調整装置310bにおける画像処理部311、画像生成部312、及び通信部313を、画像処理部311b、画像生成部312b、及び通信部313bとする。 The image processing unit 311, the image generation unit 312, and the communication unit 313 in the image adjustment device 310a are the image processing unit 311a, the image generation unit 312a, and the communication unit 313a, and the image processing unit 311 and the image generation unit in the image adjustment device 310b. The 312 and the communication unit 313 are the image processing unit 311b, the image generation unit 312b, and the communication unit 313b.

画像調整装置310aは、カメラ302が撮影した撮影画像IM3を、通信部303及び313aとネットワークとを介して取得することができる。画像調整装置310bは、カメラ302が撮影した撮影画像IM3を、通信部303及び313bとネットワークとを介して取得することができる。 The image adjusting device 310a can acquire the captured image IM3 captured by the camera 302 via the communication units 303 and 313a and the network. The image adjusting device 310b can acquire the captured image IM3 captured by the camera 302 via the communication units 303 and 313b and the network.

サーバ306は、カメラ302が撮影した撮影画像IM3を通信部303及びネットワークを介して取得し、画像調整装置310a及び310bがサーバ306から撮影画像IM3をネットワーク及び通信部313a及び313bを介して取得してもよい。 The server 306 acquires the captured image IM3 captured by the camera 302 via the communication unit 303 and the network, and the image adjusting devices 310a and 310b acquire the captured image IM3 from the server 306 via the network and the communication units 313a and 313b. You may.

サーバ306は、使用者USaがログイン操作を実行する、または、画像表示装置304aが通信部313aを介してネットワークに接続されることにより、使用者USaまたは画像表示装置304aを特定することができる。サーバ306は、使用者USbがログイン操作を実行する、または、画像表示装置304bが通信部313bを介してネットワークに接続されることにより、使用者USbまたは画像表示装置304bを特定することができる。 The server 306 can identify the user USa or the image display device 304a when the user USa executes a login operation or the image display device 304a is connected to the network via the communication unit 313a. The server 306 can identify the user USb or the image display device 304b when the user USb executes a login operation or the image display device 304b is connected to the network via the communication unit 313b.

以下、画像調整装置310a、画像表示装置304a、及びコントローラ305aにおける処理について説明する。括弧内の符号は、画像調整装置310b、画像表示装置304b、及びコントローラ305bにおける処理を示している。 Hereinafter, the processing in the image adjusting device 310a, the image display device 304a, and the controller 305a will be described. Reference numerals in parentheses indicate processing in the image adjusting device 310b, the image display device 304b, and the controller 305b.

画像調整装置310a(310b)が取得した撮影画像IM3は、画像処理部311a(311b)へ入力される。画像処理部311a(311b)は、撮影画像IM3を解析することにより、撮影画像IM3における水平方向を認識する。画像処理部311a(311b)は、撮影画像IM3を解析することにより、撮影画像IM3における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。 The captured image IM3 acquired by the image adjusting device 310a (310b) is input to the image processing unit 311a (311b). The image processing unit 311a (311b) recognizes the horizontal direction in the captured image IM3 by analyzing the captured image IM3. The image processing unit 311a (311b) may recognize the vertical direction in the captured image IM3, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM3.

画像調整装置310a(310b)は、撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像表示装置304a及び304bへ出力する。 The image adjusting device 310a (310b) corrects the distortion of the captured image IM3, executes image processing such as adjusting the level of the captured image IM3, and transfers the image-processed captured image IM3 to the image display devices 304a and 304b. Output.

サーバ306は、カメラ302が撮影した撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像調整装置310a(310b)へ出力してもよい。画像表示装置304a(304b)は、画像調整装置310a(310b)、またはサーバ306によって画像処理された撮影画像IM3を表示する。 The server 306 corrects the distortion of the captured image IM3 captured by the camera 302, executes image processing such as adjusting the level of the captured image IM3, and transfers the image-processed captured image IM3 to the image adjusting device 310a (310b). It may be output to. The image display device 304a (304b) displays the captured image IM3 image-processed by the image adjustment device 310a (310b) or the server 306.

使用者USa(USb)は、その頭部に画像表示装置304a(304b)を装着することにより、画像調整装置310a(310b)またはサーバ306によって画像処理された撮影画像IM3を見ることができる。 The user USa (USb) can see the captured image IM3 image-processed by the image adjusting device 310a (310b) or the server 306 by attaching the image display device 304a (304b) to its head.

画像表示装置304a(304b)は、使用者USa(USb)の頭部に装着されている状態において、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に基づいて姿勢情報PN3a(PN3b)を生成する。画像処理部311a(311b)は、画像表示装置304a(304b)から姿勢情報PN3a(PN3b)を取得する。即ち、画像処理部311a(311b)は、画像表示装置304a(304b)の姿勢に基づいて姿勢情報PN3a(PN3b)を取得することになる。 When the image display device 304a (304b) is attached to the head of the user USa (USb), the direction in which the user USa (USb) is facing, the posture of the user USa (USb), and the like. Attitude information PN3a (PN3b) is generated based on. The image processing unit 311a (311b) acquires the posture information PN3a (PN3b) from the image display device 304a (304b). That is, the image processing unit 311a (311b) acquires the posture information PN3a (PN3b) based on the posture of the image display device 304a (304b).

画像処理部311a(311b)は、姿勢情報PN3a(PN3b)に基づいて、カメラ302が撮影した撮影画像IM3から、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に対応する領域の画像を画像表示装置304a(304b)に表示する。 Based on the posture information PN3a (PN3b), the image processing unit 311a (311b) refers to the direction in which the user USa (USb) is facing and the posture of the user USa (USb) from the captured image IM3 taken by the camera 302. The image of the region corresponding to the above state is displayed on the image display device 304a (304b).

コントローラ305a(305b)は、使用者USa(USb)の手に装着されている状態において、使用者USa(USb)の手の動きまたは姿勢等の状態に基づいて指示情報NN3a(NN3b)を生成する。画像処理部311a(311b)は、コントローラ305a(305b)から指示情報NN3a(NN3b)を取得する。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像表示装置304a(304b)に表示されている撮影画像IM3を変化させたり調整したりすることができる。 The controller 305a (305b) generates instruction information NN3a (NN3b) based on a state such as the movement or posture of the hand of the user USa (USb) in a state of being attached to the hand of the user USa (USb). .. The image processing unit 311a (311b) acquires instruction information NN3a (NN3b) from the controller 305a (305b). The image processing unit 311a (311b) can change or adjust the captured image IM3 displayed on the image display device 304a (304b) based on the instruction information NN3a (NN3b).

画像生成部312a(312b)は、撮影画像IM3と合成されるCGである合成画像CM3b(CM3a)を生成する。合成画像CM3a(CM3b)は、例えばアバター等のキャラクタの画像である。合成画像CM3aは使用者USaのアバターであり、合成画像CM3bは使用者USbのアバターである。使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像生成部312a(312b)は、使用者USb(USa)のアバターである合成画像CM3b(CM3a)を生成し、内蔵メモリまたは外部のメモリに保存する。 The image generation unit 312a (312b) generates a composite image CM3b (CM3a) which is a CG image to be combined with the captured image IM3. The composite image CM3a (CM3b) is an image of a character such as an avatar. The composite image CM3a is the avatar of the user USa, and the composite image CM3b is the avatar of the user USb. When the user USa (USb) operates the controller 305a (305b), the image generation unit 312a (312b) generates a composite image CM3b (CM3a) which is an avatar of the user USb (USa), and the built-in memory or Save to external memory.

画像処理部311a(311b)は、画像生成部312a(312b)で生成された合成画像CM3b(CM3a)を取得し、通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。 The image processing unit 311a (311b) may acquire the composite image CM3b (CM3a) generated by the image generation unit 312a (312b) and output it to the server 306 via the communication unit 313a (313b) and the network. ..

使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像生成部312a(312b)は、使用者USa(USb)のアバターである合成画像CM3a(CM3b)を生成してもよい。画像処理部311a(311b)は、画像生成部312a(312b)で生成された合成画像CM3a(CM3b)を取得し、通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。即ち、使用者USaは、別の使用者USbのアバターを設定してもよいし、自身のアバターを設定してもよく、使用者USbは、別の使用者USaのアバターを設定してもよいし、自身のアバターを設定してもよい。 When the user USa (USb) operates the controller 305a (305b), the image generation unit 312a (312b) may generate the composite image CM3a (CM3b) which is the avatar of the user USa (USb). The image processing unit 311a (311b) may acquire the composite image CM3a (CM3b) generated by the image generation unit 312a (312b) and output it to the server 306 via the communication unit 313a (313b) and the network. .. That is, the user USa may set the avatar of another user USb, may set its own avatar, and the user USb may set the avatar of another user USa. You may also set your own avatar.

サーバ306は、合成画像CM3a(CM3b)を使用者USa(USb)と対応付けて内蔵メモリまたは外部のメモリに保存する。サーバ306が、合成画像CM3a(CM3b)を使用者USa(USb)と対応付けて自動設定し、内蔵メモリまたは外部のメモリに保存してもよい。 The server 306 stores the composite image CM3a (CM3b) in the internal memory or an external memory in association with the user USa (USb). The server 306 may automatically set the composite image CM3a (CM3b) in association with the user USa (USb) and save it in the internal memory or an external memory.

画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像生成部312a(312b)またはサーバ306から合成画像CM3b(CM3a)を取得し、画像表示装置304a(304b)に表示されている撮影画像IM3に合成画像CM3a(CM3b)を合成する。従って、画像表示装置304a(304b)は、カメラ302が撮影した撮影画像IM3と、画像生成部312a(312b)またはサーバ306から取得されて撮影画像IM3と合成された合成画像CM3a(CM3b)とを表示することができる。 The image processing unit 311a (311b) acquires the composite image CM3b (CM3a) from the image generation unit 312a (312b) or the server 306 based on the instruction information NN3a (NN3b), and displays it on the image display device 304a (304b). The composite image CM3a (CM3b) is synthesized with the captured image IM3. Therefore, the image display device 304a (304b) combines the captured image IM3 captured by the camera 302 with the composite image CM3a (CM3b) acquired from the image generation unit 312a (312b) or the server 306 and combined with the captured image IM3. Can be displayed.

画像生成部312a(312b)は、CGである球面により構成された仮想画像である球面状画像VSS3a(VSS3b)を生成する。画像生成部312a(312b)は、球面状画像VSS3a(VSS3b)を内蔵メモリまたは外部のメモリに保存する。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像生成部312a(312b)で生成された球面状画像VSS3a(VSS3b)を取得し、画像表示装置304a(304b)に表示する。 The image generation unit 312a (312b) generates a spherical image VSS3a (VSS3b) which is a virtual image composed of a spherical surface which is CG. The image generation unit 312a (312b) stores the spherical image VSS3a (VSS3b) in the internal memory or an external memory. The image processing unit 311a (311b) acquires the spherical image VSS3a (VSS3b) generated by the image generation unit 312a (312b) based on the instruction information NN3a (NN3b) and displays it on the image display device 304a (304b). To do.

球面状画像VSS3a(VSS3b)は、第1及び第2実施形態の球面状画像VSS1及びVSS2に相当する。使用者USa(USb)は、コントローラ305a(305b)が装着されている手を、画像表示装置304a(304b)に表示されている球面状画像VSS3a(VSS3b)に対応する位置に移動させることにより、使用者USa(USb)の手が球面状画像VSS3a(VSS3b)に接触しているように感じる。 The spherical images VSS3a (VSS3b) correspond to the spherical images VSS1 and VSS2 of the first and second embodiments. The user USa (USb) moves the hand on which the controller 305a (305b) is attached to a position corresponding to the spherical image VSS3a (VSS3b) displayed on the image display device 304a (304b). It feels like the hand of the user USa (USb) is in contact with the spherical image VSS3a (VSS3b).

コントローラ305a(305b)は、使用者USa(USb)の手と接触する部分にアクチュエータが配置されていてもよい。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、使用者USa(USb)の手が球面状画像VSS3a(VSS3b)に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USa(USb)の手に圧力を加えることにより、使用者USa(USb)は、その手が球面状画像VSS3a(VSS3b)に接触する感覚を実感として得ることができる。 In the controller 305a (305b), the actuator may be arranged at a portion where the user USa (USb) comes into contact with the hand. The image processing unit 311a (311b) operates the actuator when it is determined that the hand of the user USa (USb) has moved to the position corresponding to the spherical image VSS3a (VSS3b) based on the instruction information NN3a (NN3b). Let me. When the actuator applies pressure to the hand of the user USa (USb), the user USa (USb) can actually feel the hand touching the spherical image VSS3a (VSS3b).

球面状画像VSS3a(VSS3b)が画像表示装置304a(304b)に表示されている状態において、使用者USa(USb)が、コントローラ305a(305b)が装着されている手を任意の方向へ移動させた場合、画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像表示装置304a(304b)に表示されている球面状画像VSS3a(VSS3b)と撮影画像IM3とが、使用者USa(USb)の手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 In a state where the spherical image VSS3a (VSS3b) is displayed on the image display device 304a (304b), the user USa (USb) moves the hand on which the controller 305a (305b) is attached in an arbitrary direction. In the case, the image processing unit 311a (311b) uses the spherical image VSS3a (VSS3b) displayed on the image display device 304a (304b) and the captured image IM3 based on the instruction information NN3a (NN3b), and the user USa Image processing is performed so as to move according to the moving direction, moving speed, and moving destination position of the hand (USb).

使用者USa(USb)は、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS3a(VSS3b)を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USa(USb)は、その手の動きによって球面状画像VSS3a(VSS3b)を回転させることができる。画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の回転に対応させて撮影画像IM3を移動させる。 The user USa (USb) moves the spherical image VSS3a (VSS3b) in an arbitrary direction and at an arbitrary speed by moving the hand in an arbitrary direction and at an arbitrary speed. Can be rotated to position. That is, the user USa (USb) can rotate the spherical image VSS3a (VSS3b) by the movement of his / her hand. The image processing unit 311a (311b) moves the captured image IM3 in correspondence with the rotation of the spherical image VSS3a (VSS3b).

画像処理部311a(311b)は、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させる前の天頂ZEが、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させることによって球面状画像VSS3a(VSS3b)の座標上のどの位置へ移動したかを判定することができる。 The image processing unit 311a (311b) is such that the zenith ZE before the user USa (USb) rotates the spherical image VSS3a (VSS3b) and the user USa (USb) rotate the spherical image VSS3a (VSS3b). It is possible to determine to which position on the coordinates of the spherical image VSS3a (VSS3b) it has moved.

画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させる前と回転させた後との球面状画像VSS3a(VSS3b)の変化量を算出する。球面状画像VSS3a(VSS3b)の変化量は、第1及び第2実施形態の球面状画像VSS1及びVSS2の変化量に相当する。 In the image processing unit 311a (311b), the user USa (USb) rotates the spherical image VSS3a (VSS3b) based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS3a (VSS3b). The amount of change in the spherical image VSS3a (VSS3b) before and after the rotation is calculated. The amount of change in the spherical images VSS3a (VSS3b) corresponds to the amount of change in the spherical images VSS1 and VSS2 of the first and second embodiments.

画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の変化量を補正値CV3a(CV3b)として保存する。補正値CV3a(CV3b)は、第1及び第2実施形態の補正値CV1及びCV2に相当する。画像処理部311a(311b)は、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させた後の天頂ZEの球面状画像VSS3a(VSS3b)上の座標を補正値CV3a(CV3b)として保存してもよい。 The image processing unit 311a (311b) saves the amount of change in the spherical image VSS3a (VSS3b) as a correction value CV3a (CV3b). The correction values CV3a (CV3b) correspond to the correction values CV1 and CV2 of the first and second embodiments. The image processing unit 311a (311b) uses the coordinates on the spherical image VSS3a (VSS3b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS3a (VSS3b) as the correction value CV3a (CV3b). You may save it.

画像処理部311a(311b)は、補正値CV3a(CV3b)を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV3a(CV3b)を通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。サーバ306は、補正値CV3a(CV3b)を画像表示装置304a(304b)または使用者USa(USb)と関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 311a (311b) may save the correction value CV3a (CV3b) in the internal memory or an external memory, or the correction value CV3a (CV3b) is stored in the server via the communication unit 313a (313b) and the network. It may be output to 306. The server 306 associates the correction value CV3a (CV3b) with the image display device 304a (304b) or the user USa (USb) and saves it in the internal memory or an external memory.

画像調整システム301は、使用者USa(USb)が装着している画像表示装置304a(304b)に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)を撮影画像IM3と合成して表示することができる。 The image adjustment system 301 combines the composite image CM3b (CM3a), which is an avatar of another user USb (USa), with the captured image IM3 on the image display device 304a (304b) worn by the user USa (USb). Can be displayed.

使用者USa及びUSbがカメラ302が撮影している撮影画像IM3を見たとき、使用者USa及びUSbは、カメラ302の位置からその周囲を見ているように感じる。このような場合、使用者USa(USb)が見ている画像表示装置304a(304b)には、使用者USa(USb)の位置に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)が表示されているため、使用者USa(USb)は違和感を覚える。他の使用者USが複数の場合、使用者USaの位置に複数の使用者USb,USc,,,のアバターが重なって表示される。 When the users USa and USb see the captured image IM3 taken by the camera 302, the users USa and USb feel as if they are looking at the surroundings from the position of the camera 302. In such a case, the image display device 304a (304b) viewed by the user USa (USb) has a composite image CM3b (composite image CM3b) which is an avatar of another user USb (USa) at the position of the user USa (USb). Since CM3a) is displayed, the user USa (USb) feels uncomfortable. When there are a plurality of other user USs, the avatars of the plurality of users USb, USc ,,, are displayed overlapping at the position of the user USa.

サーバ306には、複数の使用者USa,USb,,,の位置関係が予め設定されている。言い換えれば、サーバ306には、複数の使用者USa,USb,,,の位置関係を示す位置設定情報が保存されている。複数の使用者USa,USb,,,の位置関係は、サーバ306が自動設定してもよいし、使用者USa,USb,,,が設定してもよい。 In the server 306, the positional relationship of a plurality of users USa, USb ,,, is preset. In other words, the server 306 stores position setting information indicating the positional relationship between the plurality of users USa, USb ,,. The positional relationship between the plurality of users USa, USb ,,, may be automatically set by the server 306, or may be set by the users USa, USb ,,.

図10は、使用者USaが画像表示装置304aを見ているときの使用者USaと他の使用者USbのアバターである合成画像CM3bとの位置関係の一例を示している。図11は、使用者USbが画像表示装置304bを見ているときの使用者USbと他の使用者USaのアバターである合成画像CM3aとの位置関係の一例を示している。 FIG. 10 shows an example of the positional relationship between the user USa when the user USa is looking at the image display device 304a and the composite image CM3b which is an avatar of another user USb. FIG. 11 shows an example of the positional relationship between the user USb and the composite image CM3a which is an avatar of another user USa when the user USb is looking at the image display device 304b.

図10及び図11に示す黒点はカメラ302の位置を示し、矢印はカメラ302の移動方向を示している。即ち、図10及び図11は、使用者USa及びUSbがカメラ302の移動方向を向いている状態を示している。従って、図10及び図11では、使用者USaと使用者USbとは同じ撮影画像IM3を見ていることになる。 The black dots shown in FIGS. 10 and 11 indicate the position of the camera 302, and the arrows indicate the moving direction of the camera 302. That is, FIGS. 10 and 11 show a state in which the users USa and USb are facing the moving direction of the camera 302. Therefore, in FIGS. 10 and 11, the user USa and the user USb are looking at the same captured image IM3.

このような場合、使用者USaから離れた位置に合成画像CM3bを表示させたり、使用者USbから離れた位置に合成画像CM3aを表示させたりすると、使用者USa及びUSbは違和感を覚える。従って、合成画像CM3a及びCM3bは使用者USa及びUSb(カメラ302)の位置から所定の範囲RG内の位置に表示させることが望ましい。 In such a case, if the composite image CM3b is displayed at a position away from the user USa or the composite image CM3a is displayed at a position away from the user USb, the users USa and USb feel uncomfortable. Therefore, it is desirable that the composite images CM3a and CM3b are displayed at positions within a predetermined range RG from the positions of the users USa and USb (camera 302).

図10に示すように、サーバ306には、例えば、使用者USaまたは画像表示装置304aにおいては、合成画像CM3bが使用者USaの右側に並んで配置されるように、使用者USaと使用者USbとの位置関係が設定されている。図11に示すように、サーバ306には、例えば、使用者USbまたは画像表示装置304bにおいては、合成画像CM3aが使用者USbの左側に並んで配置されるように、使用者USaと使用者USbとの位置関係が設定されている。 As shown in FIG. 10, on the server 306, for example, in the user USa or the image display device 304a, the user USa and the user USb are arranged so that the composite image CM3b is arranged side by side on the right side of the user USa. The positional relationship with is set. As shown in FIG. 11, on the server 306, for example, in the user USb or the image display device 304b, the user USa and the user USb are arranged so that the composite image CM3a is arranged side by side on the left side of the user USb. The positional relationship with is set.

即ち、図10及び図11は、カメラ302の移動方向を使用者USa及びUSbの前方向としたときに、使用者USbが使用者USaの右側に並んで配置されるように、使用者USaと使用者USbとの位置関係が設定されている。そのため、使用者USaはその右側には常に使用者USbが見え、使用者USbはその左側には常に使用者USaが見えることになる。360度カメラであるカメラ302が静止している状態では、前後左右の基準がないため、使用者USaと使用者USbとの位置関係は初期設定時に決定しておくことが望ましい。 That is, FIGS. 10 and 11 show the user USa and the user USb so that the user USb is arranged side by side on the right side of the user USa when the moving direction of the camera 302 is the front direction of the user USa and the USb. The positional relationship with the user USb is set. Therefore, the user USa always sees the user USb on the right side, and the user USb always sees the user USa on the left side. When the camera 302, which is a 360-degree camera, is stationary, there is no front / rear / left / right reference, so it is desirable to determine the positional relationship between the user USa and the user USb at the time of initial setting.

図12及び図13に示すフローチャートを用いて、第3実施形態の画像調整方法の一例を説明する。具体的には、撮影画像IM3に合成画像CM3を合成する方法の一例について説明する。以下、画像調整装置310a、画像表示装置304a、及びコントローラ305aにおける処理について説明する。括弧内の符号は、画像調整装置310b、画像表示装置304b、及びコントローラ305bにおける処理を示している。 An example of the image adjustment method of the third embodiment will be described with reference to the flowcharts shown in FIGS. 12 and 13. Specifically, an example of a method of synthesizing the composite image CM3 with the captured image IM3 will be described. Hereinafter, the processing in the image adjusting device 310a, the image display device 304a, and the controller 305a will be described. Reference numerals in parentheses indicate processing in the image adjusting device 310b, the image display device 304b, and the controller 305b.

画像表示装置304a(304b)が使用者USa(USb)の頭部に装着され、コントローラ305a(305b)が使用者USa(USb)の手に装着されている。画像表示装置304a(304b)には撮影画像IM3が表示されている。 The image display device 304a (304b) is attached to the head of the user USa (USb), and the controller 305a (305b) is attached to the hand of the user USa (USb). The captured image IM3 is displayed on the image display device 304a (304b).

使用者USa(USb)が画像表示装置304a(304b)に表示されている撮影画像IM3が水平でないと判断した場合、図12において、使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS301にて、画像表示装置304a(304b)に設定画面を表示させる。 When the user USa (USb) determines that the captured image IM3 displayed on the image display device 304a (304b) is not horizontal, the user USa (USb) operates the controller 305a (305b) in FIG. As a result, the image processing unit 311a (311b) causes the image display device 304a (304b) to display the setting screen in step S301.

使用者USa(USb)がコントローラ305a(305b)を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部311a(311b)は、ステップS302にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部311a(311b)は、撮影画像IM3の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user USa (USb) operates the controller 305a (305b) and selects a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 311a (311b) steps. In S302, the process is shifted to the predetermined process mode corresponding to the selected item. When the horizontal adjustment item is selected, the image processing unit 311a (311b) shifts the processing to the processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM3.

画像処理部311a(311b)は、ステップS303にて、画像生成部312a(312b)で生成された球面状画像VSS3a(VSS3b)を取得し、画像表示装置304a(304b)に表示する。画像表示装置304a(304b)には、撮影画像IM3と球面状画像VSS3a(VSS3b)とが混合して表示される。 In step S303, the image processing unit 311a (311b) acquires the spherical image VSS3a (VSS3b) generated by the image generation unit 312a (312b) and displays it on the image display device 304a (304b). The captured image IM3 and the spherical image VSS3a (VSS3b) are mixed and displayed on the image display device 304a (304b).

使用者USa(USb)は撮影画像IM3が水平となるように球面状画像VSS3a(VSS3b)を回転させることにより、画像処理部311a(311b)は、ステップS304にて、球面状画像VSS3a(VSS3b)の回転に対応させて、画像表示装置304a(304b)に表示されている撮影画像IM3を移動させる。使用者USa(USb)は撮影画像IM3が水平になるまで球面状画像VSS3a(VSS3b)を回転させる動作を複数回行ってもよい。 The user USa (USb) rotates the spherical image VSS3a (VSS3b) so that the captured image IM3 is horizontal, so that the image processing unit 311a (311b) performs the spherical image VSS3a (VSS3b) in step S304. The captured image IM3 displayed on the image display device 304a (304b) is moved in correspondence with the rotation of. The user USa (USb) may perform the operation of rotating the spherical image VSS3a (VSS3b) a plurality of times until the captured image IM3 becomes horizontal.

使用者USa(USb)は撮影画像IM3が水平になったと判断した場合にコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS305にて、球面状画像VSS3a(VSS3b)の表示を終了させ、画像表示装置304a(304b)に設定画面を表示させる。画像表示装置304a(304b)に表示されている撮影画像IM3を水平にすることにより、カメラ302の天頂と使用者USa(USb)の天頂とを一致させることができる。 When the user USa (USb) determines that the captured image IM3 is horizontal, the controller 305a (305b) is operated, so that the image processing unit 311a (311b) performs the spherical image VSS3a (VSS3b) in step S305. ) Is terminated, and the setting screen is displayed on the image display device 304a (304b). By leveling the captured image IM3 displayed on the image display device 304a (304b), the zenith of the camera 302 and the zenith of the user USa (USb) can be aligned.

使用者USa(USb)がコントローラ305a(305b)を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部311a(311b)は、ステップS306にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部311a(311b)は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。 When the user USa (USb) operates the controller 305a (305b) and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 311a (311b) moves to step S306. In, the process shifts to the predetermined processing mode corresponding to the selected item. When the end item is selected, the image processing unit 311a (311b) shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.

画像処理部311a(311b)は、ステップS307にて、球面状画像VSS3a(VSS3b)が回転する前と後との回転量(回転角度)を、球面状画像VSS3a(VSS3b)の変化量として取得する。画像処理部311a(311b)は、ステップS308にて、球面状画像VSS3a(VSS3b)の変化量を補正値CV3a(CV3b)として保存し、処理を終了する。 In step S307, the image processing unit 311a (311b) acquires the amount of rotation (rotation angle) before and after the spherical image VSS3a (VSS3b) rotates as the amount of change in the spherical image VSS3a (VSS3b). .. In step S308, the image processing unit 311a (311b) saves the amount of change in the spherical image VSS3a (VSS3b) as a correction value CV3a (CV3b), and ends the process.

図13に示すフローチャートを用いて、使用者USaが見ている画像表示装置304aに、使用者USbのアバターである合成画像CM3bを撮影画像IM3と合成して表示する場合について説明する。なお、括弧内の符号は、使用者USbが見ている画像表示装置304bに、使用者USaのアバターである合成画像CM3aを撮影画像IM3と合成して表示する場合を示している。 The case where the composite image CM3b, which is the avatar of the user USb, is combined with the captured image IM3 and displayed on the image display device 304a viewed by the user USa will be described with reference to the flowchart shown in FIG. The reference numerals in parentheses indicate a case where the composite image CM3a, which is the avatar of the user USa, is combined with the captured image IM3 and displayed on the image display device 304b viewed by the user USb.

図13において、使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS311にて、画像表示装置304a(304b)に設定画面を表示させる。設定画面には、例えば他の使用者USのアバターを選択するためのアバター選択項目が表示される。 In FIG. 13, when the user USa (USb) operates the controller 305a (305b), the image processing unit 311a (311b) causes the image display device 304a (304b) to display the setting screen in step S311. On the setting screen, for example, an avatar selection item for selecting an avatar of another user US is displayed.

使用者USa(USb)は例えば他の使用者である使用者USb(USa)を選択する。コントローラ305a(305b)は、ステップS312にて、使用者USb(USa)の選択内容に応じて指示情報NN3a(NN3b)を生成し、画像処理部311a(311b)へ出力する。 The user USa (USb) selects, for example, another user, the user USb (USa). In step S312, the controller 305a (305b) generates instruction information NN3a (NN3b) according to the selection contents of the user USb (USa) and outputs it to the image processing unit 311a (311b).

画像処理部311a(311b)は、ステップS313にて、指示情報NN3a(NN3b)に基づいて、合成画像CM3b(CM3a)を取得する。合成画像CM3b(CM3a)がサーバ306に保存されている場合、画像処理部311a(311b)は、通信部313a(313b)とネットワークとを介してサーバ306から合成画像CM3b(CM3a)を取得する。 In step S313, the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) based on the instruction information NN3a (NN3b). When the composite image CM3b (CM3a) is stored in the server 306, the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) from the server 306 via the communication unit 313a (313b) and the network.

画像処理部311a(311b)は、ステップS314にて、カメラ302が移動中であるか否かを判定する。ステップS314においてカメラ302が移動中である(YES)と判定された場合、画像処理部311a(311b)は、ステップS315にて、カメラ302の移動方向を認識する。画像処理部311a(311b)は、撮影画像IM3に基づいて、カメラ302が移動中であるか否かを判定し、カメラ302の移動方向を認識することができる。 The image processing unit 311a (311b) determines in step S314 whether or not the camera 302 is moving. If it is determined in step S314 that the camera 302 is moving (YES), the image processing unit 311a (311b) recognizes the moving direction of the camera 302 in step S315. The image processing unit 311a (311b) can determine whether or not the camera 302 is moving based on the captured image IM3, and can recognize the moving direction of the camera 302.

画像処理部311a(311b)は、ステップS316にて、カメラ302の移動方向に対して、合成画像CM3b(CM3a)が例えば使用者USa(USb)の右側(左側)に配置されるように、合成画像CM3b(CM3a)を撮影画像IM3と合成して、画像表示装置304a(304b)に表示させる。 In step S316, the image processing unit 311a (311b) synthesizes the composite image CM3b (CM3a) so as to be arranged on the right side (left side) of the user USa (USb), for example, with respect to the moving direction of the camera 302. The image CM3b (CM3a) is combined with the captured image IM3 and displayed on the image display device 304a (304b).

ステップS314においてカメラ302が移動中ではない(NO)と判定された場合、画像処理部311a(311b)は、カメラ302が静止している状態であると判断し、ステップS316にて、初期設定時に決定された使用者USaと使用者USbとの位置関係に基づいて、合成画像CM3b(CM3a)を撮影画像IM3と合成して、画像表示装置304a(304b)に表示させる。 If it is determined in step S314 that the camera 302 is not moving (NO), the image processing unit 311a (311b) determines that the camera 302 is in a stationary state, and in step S316, at the time of initial setting. Based on the determined positional relationship between the user USa and the user USb, the composite image CM3b (CM3a) is combined with the captured image IM3 and displayed on the image display device 304a (304b).

第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法では、画像表示装置304に球面状画像VSS3を表示させる。第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、撮影画像IM3の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ305を操作して球面状画像VSS3を回転させることにより、画像表示装置304に表示されている撮影画像IM3を水平になるように調整することができる。 In the image adjustment system 301, the image adjustment device 310, and the image adjustment method of the third embodiment, the image display device 304 displays the spherical image VSS3. According to the image adjustment system 301, the image adjustment device 310, and the image adjustment method of the third embodiment, it is used when the horizontal direction of the captured image IM3 is erroneously detected or the horizontal or zenith ZE designation is deviated. By operating the controller 305 to rotate the spherical image VSS3, the person US can adjust the captured image IM3 displayed on the image display device 304 so as to be horizontal.

従って、第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、撮影画像IM3の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM3の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjustment system 301, the image adjustment device 310, and the image adjustment method of the third embodiment, when the horizontal direction of the captured image IM3 is erroneously detected, or when the horizontal or zenith designation is deviated, The user US can easily correct the horizontal or zenith of the captured image IM3.

第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、補正値CV3が保存されている場合、画像処理部311は、補正値CV3を読み出し、カメラ302が撮影した撮影画像IM3を補正値CV3に基づいて画像調整し、画像表示装置304に表示することができる。 According to the image adjustment system 301, the image adjustment device 310, and the image adjustment method of the third embodiment, when the correction value CV3 is stored, the image processing unit 311 reads out the correction value CV3 and the camera 302 takes a picture. The captured image IM3 can be image-adjusted based on the correction value CV3 and displayed on the image display device 304.

第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法では、複数の使用者USの位置関係が予め設定されている。これにより、画像表示装置304a(304b)に表示されている撮影画像IM3に、他の使用者USのアバターである合成画像CM3b(CM3a)を、予め設定されている位置関係に基づく位置に合成して表示することができる。 In the image adjustment system 301, the image adjustment device 310, and the image adjustment method of the third embodiment, the positional relationship between the plurality of users US is preset. As a result, the composite image CM3b (CM3a), which is an avatar of another user US, is combined with the captured image IM3 displayed on the image display device 304a (304b) at a position based on a preset positional relationship. Can be displayed.

第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、使用者USa及びUSbがカメラ302が撮影している撮影画像IM3を見たとき、使用者USa(USb)の近傍に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)が表示されるため、使用者USa(USb)は、違和感を覚えることなく、他の使用者USb(USa)と同じ撮影画像IM3を見ているように感じることができる。 According to the image adjustment system 301, the image adjustment device 310, and the image adjustment method of the third embodiment, when the user USa and USb see the captured image IM3 captured by the camera 302, the user USa (USb) Since the composite image CM3b (CM3a), which is an avatar of another user USb (USa), is displayed in the vicinity of, the user USa (USb) does not feel uncomfortable with the other user USb (USa). You can feel as if you are looking at the same captured image IM3.

[第4実施形態]
図14を用いて、第4実施形態の画像調整システムの構成例を説明する。画像調整システム401は、複数のカメラ402と、複数の通信部403と、複数の画像表示装置404と、複数のコントローラ405と、複数の画像調整装置410と、サーバ406とを備える。画像調整装置410は、画像処理部411と、画像生成部412と、通信部413とを有する。
[Fourth Embodiment]
A configuration example of the image adjustment system of the fourth embodiment will be described with reference to FIG. The image adjustment system 401 includes a plurality of cameras 402, a plurality of communication units 403, a plurality of image display devices 404, a plurality of controllers 405, a plurality of image adjustment devices 410, and a server 406. The image adjusting device 410 includes an image processing unit 411, an image generation unit 412, and a communication unit 413.

カメラ402、通信部403、及び画像表示装置404は、それぞれ、第1〜第3実施形態のカメラ102、202、及び302、通信部103、203、及び303、及び、画像表示装置104、204、及び304に相当する。コントローラ405、画像調整装置410、及びサーバ406は、それぞれ、第1〜第3実施形態のコントローラ105、205、及び305、画像調整装置110、210、及び310、及び、サーバ106、206、及び306に相当する。画像処理部411、画像生成部412、及び通信部413は、それぞれ、第1〜第3実施形態の画像処理部111、211、及び311、画像生成部112、212、及び312、及び、通信部113、213、及び313に相当する。 The camera 402, the communication unit 403, and the image display device 404 are the cameras 102, 202, and 302 of the first to third embodiments, the communication units 103, 203, and 303, and the image display devices 104, 204, respectively. And 304. The controller 405, the image adjustment device 410, and the server 406 are the controllers 105, 205, and 305 of the first to third embodiments, the image adjustment devices 110, 210, and 310, and the servers 106, 206, and 306, respectively. Corresponds to. The image processing unit 411, the image generation unit 412, and the communication unit 413 are the image processing units 111, 211, and 311 of the first to third embodiments, the image generation units 112, 212, and 312, and the communication unit, respectively. Corresponds to 113, 213, and 313.

図14では、説明をわかりやすくするために、それぞれ2つのカメラ402、通信部403、画像表示装置404、コントローラ405、及び画像調整装置410を示している。カメラ402、通信部403、画像表示装置404、コントローラ405、及び画像調整装置410は3つ以上であってもよい。使用者USa(第1の使用者)が使用する画像表示装置404、コントローラ405、及び画像調整装置410を、画像表示装置404a(第4実施形態における第1の画像表示装置)、コントローラ405a(第4実施形態における第1のコントローラ)、及び画像調整装置410a(第4実施形態における第1の画像調整装置)とする。使用者USb(第2の使用者)が使用する画像表示装置404、コントローラ405、及び画像調整装置410を、画像表示装置404b(第4実施形態における第2の画像表示装置)、コントローラ405b(第4実施形態における第2のコントローラ)、及び画像調整装置410b(第4実施形態における第2の画像調整装置)とする。 In FIG. 14, two cameras 402, a communication unit 403, an image display device 404, a controller 405, and an image adjustment device 410 are shown, respectively, for the sake of clarity. The number of the camera 402, the communication unit 403, the image display device 404, the controller 405, and the image adjusting device 410 may be three or more. The image display device 404, controller 405, and image adjustment device 410 used by the user USa (first user) are combined with the image display device 404a (first image display device in the fourth embodiment) and controller 405a (first). 4 The first controller in the embodiment) and the image adjusting device 410a (the first image adjusting device in the fourth embodiment). The image display device 404, the controller 405, and the image adjustment device 410 used by the user USb (second user) are the image display device 404b (second image display device in the fourth embodiment) and the controller 405b (second user). 4 The second controller in the embodiment) and the image adjusting device 410b (the second image adjusting device in the fourth embodiment).

画像調整装置410aにおける画像処理部411、画像生成部412、及び通信部413を、画像処理部411a、画像生成部412a、及び通信部413aとし、画像調整装置410bにおける画像処理部411、画像生成部412、及び通信部413を、画像処理部411b、画像生成部412b、及び通信部413bとする。画像調整装置410aは、通信部413aを介してネットワークに接続され、画像調整装置410bは、通信部413bを介してネットワークに接続されている。 The image processing unit 411, the image generation unit 412, and the communication unit 413 in the image adjustment device 410a are the image processing unit 411a, the image generation unit 412a, and the communication unit 413a, and the image processing unit 411 and the image generation unit in the image adjustment device 410b. The 412 and the communication unit 413 are the image processing unit 411b, the image generation unit 412b, and the communication unit 413b. The image adjusting device 410a is connected to the network via the communication unit 413a, and the image adjusting device 410b is connected to the network via the communication unit 413b.

2つのカメラ402の一方をカメラ4021(第1のカメラ)とし、他方をカメラ4022(第2のカメラ)とする。2つの通信部403の一方を通信部4031とし、他方を通信部4032とする。カメラ4021は、通信部4031を介してネットワークに接続され、カメラ4022は、通信部4032を介してネットワークに接続されている。カメラ4021及び4022は、共通の通信部4031または4032を介してネットワークに接続されていてもよい。サーバ406はネットワークに接続されている。 One of the two cameras 402 is the camera 4021 (first camera) and the other is the camera 4022 (second camera). One of the two communication units 403 is the communication unit 4031 and the other is the communication unit 4032. The camera 4021 is connected to the network via the communication unit 4031, and the camera 4022 is connected to the network via the communication unit 4032. The cameras 4021 and 4022 may be connected to the network via a common communication unit 4031 or 4032. Server 406 is connected to the network.

カメラ4021及び4022は、それぞれ独立して移動することができる。カメラ4021及び4022はGPS機能を有している。サーバ406は、ネットワークと通信部4031及び4032とを介して、カメラ4021及び4022の位置(現在位置)を継続して取得することができる。 The cameras 4021 and 4022 can move independently of each other. The cameras 4021 and 4022 have a GPS function. The server 406 can continuously acquire the positions (current positions) of the cameras 4021 and 4022 via the network and the communication units 4031 and 4032.

画像調整装置410aは、サーバ406からカメラ4021及び4022の位置を、通信部413aとネットワークとを介して取得することができる。画像調整装置410bは、サーバ406からカメラ4021及び4022の位置を、通信部413bとネットワークとを介して取得することができる。 The image adjusting device 410a can acquire the positions of the cameras 4021 and 4022 from the server 406 via the communication unit 413a and the network. The image adjusting device 410b can acquire the positions of the cameras 4021 and 4022 from the server 406 via the communication unit 413b and the network.

画像調整装置410aは、カメラ4021が撮影した撮影画像IM41を、通信部4031及び413aとネットワークとを介して取得することができる。画像調整装置410bは、カメラ4021が撮影した撮影画像IM41を、通信部4031及び413bとネットワークとを介して取得することができる。 The image adjusting device 410a can acquire the captured image IM41 captured by the camera 4021 via the communication units 4031 and 413a and the network. The image adjusting device 410b can acquire the captured image IM41 captured by the camera 4021 via the communication units 4031 and 413b and the network.

画像調整装置410aは、カメラ4022が撮影した撮影画像IM42を、通信部4032及び413aとネットワークとを介して取得することができる。画像調整装置410bは、カメラ4022が撮影した撮影画像IM42を、通信部4032及び413bとネットワークとを介して取得することができる。図14は、画像調整装置410aが撮影画像IM41を取得し、画像調整装置410bが撮影画像IM42を取得する場合を示している。 The image adjusting device 410a can acquire the captured image IM42 captured by the camera 4022 via the communication units 4032 and 413a and the network. The image adjusting device 410b can acquire the captured image IM42 captured by the camera 4022 via the communication units 4032 and 413b and the network. FIG. 14 shows a case where the image adjusting device 410a acquires the captured image IM41 and the image adjusting device 410b acquires the captured image IM42.

サーバ406は、カメラ4021及び4022が撮影した撮影画像IM41及びIM42を通信部4031及び4032とネットワークとを介して取得してもよい。この場合、画像調整装置410aは、サーバ406から撮影画像IM41及びIM42をネットワーク及び通信部413aを介して取得する。画像調整装置410bは、サーバ406から撮影画像IM41及びIM42をネットワーク及び通信部413bを介して取得する。 The server 406 may acquire the captured images IM41 and IM42 taken by the cameras 4021 and 4022 via the communication units 4031 and 4032 and the network. In this case, the image adjusting device 410a acquires the captured images IM41 and IM42 from the server 406 via the network and the communication unit 413a. The image adjusting device 410b acquires the captured images IM41 and IM42 from the server 406 via the network and communication unit 413b.

サーバ406は、使用者USaがログイン操作を実行する、または、画像表示装置404aが通信部413aを介してネットワークに接続されることにより、使用者USaまたは画像表示装置404aを特定することができる。サーバ406は、使用者USbがログイン操作を実行する、または、画像表示装置404bが通信部413bを介してネットワークに接続されることにより、使用者USbまたは画像表示装置404bを特定することができる。 The server 406 can identify the user USa or the image display device 404a when the user USa executes a login operation or the image display device 404a is connected to the network via the communication unit 413a. The server 406 can identify the user USb or the image display device 404b when the user USb executes a login operation or the image display device 404b is connected to the network via the communication unit 413b.

サーバ406は、どの画像表示装置にどの撮影画像が表示されているかを認識することができる。例えば、図14に示すように、撮影画像IM41が画像表示装置404aに表示され、撮影画像IM42が画像表示装置404bに表示されている場合、サーバ406は、画像表示装置404aに撮影画像IM41が表示され、画像表示装置404bに撮影画像IM42が表示されていることを認識する。言い換えれば、サーバ406は、使用者USaがカメラ4021が撮影した撮影画像IM41を見ていることを認識し、使用者USbがカメラ4022が撮影した撮影画像IM42を見ていることを認識することができる。 The server 406 can recognize which captured image is displayed on which image display device. For example, as shown in FIG. 14, when the captured image IM41 is displayed on the image display device 404a and the captured image IM42 is displayed on the image display device 404b, the server 406 displays the captured image IM41 on the image display device 404a. It recognizes that the captured image IM42 is displayed on the image display device 404b. In other words, the server 406 may recognize that the user USa is looking at the captured image IM41 taken by the camera 4021 and that the user USb is looking at the captured image IM42 taken by the camera 4022. it can.

画像調整装置410aは、サーバ406から、撮影画像IM41及びIM42を撮影しているカメラ4021及び4022の現在位置、及び、画像調整装置410bが撮影画像IM42を取得していることを認識することができる。画像調整装置410bは、サーバ406から、撮影画像IM41及びIM42を撮影しているカメラ4021及び4022の現在位置、及び、画像調整装置410aが撮影画像IM41を取得していることを認識することができる。 The image adjusting device 410a can recognize from the server 406 that the current positions of the cameras 4021 and 4022 that are capturing the captured images IM41 and IM42 and that the image adjusting device 410b has acquired the captured image IM42. .. The image adjusting device 410b can recognize from the server 406 that the current positions of the cameras 4021 and 4022 that are capturing the captured images IM41 and IM42 and that the image adjusting device 410a has acquired the captured image IM41. ..

画像調整装置410aが取得した撮影画像IM41(IM42)は、画像処理部411aへ入力される。画像処理部411aは、撮影画像IM41(IM42)を解析することにより、撮影画像IM41(IM42)における水平方向を認識する。画像処理部411aは、撮影画像IM41(IM42)を解析することにより、撮影画像IM41(IM42)における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。 The captured image IM41 (IM42) acquired by the image adjusting device 410a is input to the image processing unit 411a. The image processing unit 411a recognizes the horizontal direction in the captured image IM41 (IM42) by analyzing the captured image IM41 (IM42). The image processing unit 411a may recognize the vertical direction in the captured image IM41 (IM42), or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM41 (IM42).

画像調整装置410aは、撮影画像IM41(IM42)の歪みを補正し、撮影画像IM41(IM42)の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM41(IM42)を画像表示装置404aへ出力する。 The image adjusting device 410a corrects the distortion of the captured image IM41 (IM42), executes image processing such as adjusting the level of the captured image IM41 (IM42), and images the image-processed captured image IM41 (IM42). Output to the display device 404a.

画像調整装置410bが取得した撮影画像IM42(IM41)は、画像処理部411bへ入力される。画像処理部411bは、撮影画像IM42(IM41)を解析することにより、撮影画像IM42(IM41)における水平方向を認識する。画像処理部411bは、撮影画像IM42(IM41)を解析することにより、撮影画像IM42(IM41)における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。 The captured image IM42 (IM41) acquired by the image adjusting device 410b is input to the image processing unit 411b. The image processing unit 411b recognizes the horizontal direction in the captured image IM42 (IM41) by analyzing the captured image IM42 (IM41). The image processing unit 411b may recognize the vertical direction in the captured image IM42 (IM41), or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM42 (IM41).

画像調整装置410bは、撮影画像IM42(IM41)の歪みを補正し、撮影画像IM42(IM41)の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM42(IM41)を画像表示装置404bへ出力する。 The image adjusting device 410b corrects the distortion of the captured image IM42 (IM41), executes image processing such as adjusting the level of the captured image IM42 (IM41), and images the image-processed captured image IM42 (IM41). Output to display device 404b.

サーバ406がカメラ4021及び4022が撮影した撮影画像IM41及びIM42の歪みを補正し、撮影画像IM41及びIM42の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM41及びIM42を、画像調整装置310aへ出力してもよいし、画像調整装置310bへ出力してもよい。 The server 406 corrects the distortion of the captured images IM41 and IM42 captured by the cameras 4021 and 4022, executes image processing such as adjusting the horizontality of the captured images IM41 and IM42, and performs the image-processed captured images IM41 and IM42. , The image may be output to the image adjusting device 310a, or may be output to the image adjusting device 310b.

画像表示装置404aは、画像調整装置410aまたはサーバ406によって画像処理された撮影画像IM41(IM42)を表示する。使用者USaは、その頭部に画像表示装置404aを装着することにより、画像調整装置410aまたはサーバ406によって画像処理された撮影画像IM41(IM42)を見ることができる。 The image display device 404a displays the captured image IM41 (IM42) image-processed by the image adjustment device 410a or the server 406. By attaching the image display device 404a to its head, the user USa can see the captured image IM41 (IM42) image-processed by the image adjustment device 410a or the server 406.

画像表示装置404bは、画像調整装置410bまたはサーバ406によって画像処理された撮影画像IM42(IM41)を表示する。使用者USbは、その頭部に画像表示装置404bを装着することにより、画像調整装置410bまたはサーバ406によって画像処理された撮影画像IM42(IM41)を見ることができる。 The image display device 404b displays the captured image IM42 (IM41) image-processed by the image adjustment device 410b or the server 406. By attaching the image display device 404b to its head, the user USb can see the captured image IM42 (IM41) image-processed by the image adjustment device 410b or the server 406.

画像表示装置404a(404b)は、使用者USa(USb)の頭部に装着されている状態において、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に基づいて姿勢情報PN4a(PN4b)を生成する。画像処理部411a(411b)は、画像表示装置404a(404b)から姿勢情報PN4a(PN4b)を取得する。即ち、画像処理部411a(411b)は、画像表示装置404a(404b)の姿勢に基づいて姿勢情報PN4a(PN4b)を取得することになる。 When the image display device 404a (404b) is attached to the head of the user USa (USb), the direction in which the user USa (USb) is facing, the posture of the user USa (USb), and the like. Attitude information PN4a (PN4b) is generated based on. The image processing unit 411a (411b) acquires the posture information PN4a (PN4b) from the image display device 404a (404b). That is, the image processing unit 411a (411b) acquires the posture information PN4a (PN4b) based on the posture of the image display device 404a (404b).

画像処理部411aは、姿勢情報PN4aに基づいて、カメラ4021または4022が撮影した撮影画像IM41またはIM42から、使用者USaが向いている方向、及び使用者USaの姿勢等の状態に対応する領域の画像を画像表示装置404aに表示する。画像処理部411bは、姿勢情報PN4bに基づいて、カメラ4021または4022が撮影した撮影画像IM41またはIM42から、使用者USbが向いている方向、及び使用者USbの姿勢等の状態に対応する領域の画像を画像表示装置404bに表示する。 The image processing unit 411a is a region corresponding to the direction in which the user USa is facing and the state such as the posture of the user USa from the captured image IM41 or IM42 taken by the camera 4021 or 4022 based on the posture information PN4a. The image is displayed on the image display device 404a. The image processing unit 411b is a region corresponding to the direction in which the user USb is facing and the state such as the posture of the user USb from the captured image IM41 or IM42 taken by the camera 4021 or 4022 based on the posture information PN4b. The image is displayed on the image display device 404b.

コントローラ405a(405b)は、使用者USa(USb)の手に装着されている状態において、使用者USa(USb)の手の動きまたは姿勢等の状態に基づいて指示情報NN4a(NN4b)を生成する。画像処理部411a(411b)は、コントローラ405a(405b)から指示情報NN4a(NN4b)を取得する。 The controller 405a (405b) generates instruction information NN4a (NN4b) based on a state such as the movement or posture of the hand of the user USa (USb) in a state of being attached to the hand of the user USa (USb). .. The image processing unit 411a (411b) acquires the instruction information NN4a (NN4b) from the controller 405a (405b).

画像処理部411aは、指示情報NN4aに基づいて、画像表示装置404aに表示されている撮影画像IM41またはIM42を変化させたり調整したりすることができる。画像処理部411bは、指示情報NN4bに基づいて、画像表示装置404bに表示されている撮影画像IM41またはIM42を変化させたり調整したりすることができる。 The image processing unit 411a can change or adjust the captured image IM41 or IM42 displayed on the image display device 404a based on the instruction information NN4a. The image processing unit 411b can change or adjust the captured image IM41 or IM42 displayed on the image display device 404b based on the instruction information NN4b.

画像生成部412aは、撮影画像IM41(IM42)と合成されるCGである合成画像CM4bを生成する。画像生成部412bは、撮影画像IM42(IM41)と合成されるCGである合成画像CM4aを生成する。合成画像CM4a及びCM4bは、例えばアバター等のキャラクタの画像である。合成画像CM4aは使用者USaのアバターであり、合成画像CM4bは使用者USbのアバターである。 The image generation unit 412a generates a composite image CM4b which is a CG to be synthesized with the captured image IM41 (IM42). The image generation unit 412b generates a composite image CM4a which is a CG to be synthesized with the captured image IM42 (IM41). The composite images CM4a and CM4b are images of characters such as avatars. The composite image CM4a is the avatar of the user USa, and the composite image CM4b is the avatar of the user USb.

使用者USaがコントローラ405aを操作することにより、画像生成部412aは、使用者USbのアバターである合成画像CM4bを生成し、内蔵メモリまたは外部のメモリに保存する。使用者USbがコントローラ405bを操作することにより、画像生成部412bは、使用者USaのアバターである合成画像CM4aを生成し、内蔵メモリまたは外部のメモリに保存する。 When the user USa operates the controller 405a, the image generation unit 412a generates a composite image CM4b which is an avatar of the user USb and stores it in the internal memory or an external memory. When the user USb operates the controller 405b, the image generation unit 412b generates a composite image CM4a which is an avatar of the user USa and stores it in the internal memory or an external memory.

画像処理部411a及び411bは、画像生成部412a及び412bで生成された合成画像CM4b及びCM4aを取得し、通信部413a及び413bとネットワークとを介してサーバ406へ出力してもよい。 The image processing units 411a and 411b may acquire the composite images CM4b and CM4a generated by the image generation units 412a and 412b and output them to the server 406 via the communication units 413a and 413b and the network.

使用者USa(USb)がコントローラ405a(405b)を操作することにより、画像生成部412a(412b)は、使用者USa(USb)のアバターである合成画像CM4a(CM4b)を生成してもよい。画像処理部411a(411b)は、画像生成部412a(412b)で生成された合成画像CM4a(CM4b)を取得し、通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。即ち、使用者USaは、別の使用者USbのアバターを設定してもよいし、自身のアバターを設定してもよく、使用者USbは、別の使用者USaのアバターを設定してもよいし、自身のアバターを設定してもよい。 When the user USa (USb) operates the controller 405a (405b), the image generation unit 412a (412b) may generate a composite image CM4a (CM4b) which is an avatar of the user USa (USb). The image processing unit 411a (411b) may acquire the composite image CM4a (CM4b) generated by the image generation unit 412a (412b) and output it to the server 406 via the communication unit 413a (413b) and the network. .. That is, the user USa may set the avatar of another user USb, may set its own avatar, and the user USb may set the avatar of another user USa. You may also set your own avatar.

サーバ406は、合成画像CM4a(CM4b)を使用者USa(USb)と対応付けて内蔵メモリまたは外部のメモリに保存する。サーバ406が、合成画像CM4a(CM4b)を使用者USa(USb)と対応付けて自動設定し、内蔵メモリまたは外部のメモリに保存してもよい。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、画像生成部412a(412b)またはサーバ306から合成画像CM4b(CM4a)を取得し、画像表示装置404a(404b)に表示することができる。 The server 406 associates the composite image CM4a (CM4b) with the user USa (USb) and stores it in the internal memory or an external memory. The server 406 may automatically set the composite image CM4a (CM4b) in association with the user USa (USb) and save it in the internal memory or an external memory. The image processing unit 411a (411b) acquires the composite image CM4b (CM4a) from the image generation unit 412a (412b) or the server 306 based on the instruction information NN4a (NN4b) and displays it on the image display device 404a (404b). be able to.

画像生成部412a(412b)は、CGである球面により構成された仮想画像である球面状画像VSS4a(VSS4b)を生成する。画像生成部412a(412b)は、球面状画像VSS4a(VSS4b)を内蔵メモリまたは外部のメモリに保存する。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、画像生成部412a(412b)で生成された球面状画像VSS4a(VSS4b)を取得し、画像表示装置404a(404b)に表示する。 The image generation unit 412a (412b) generates a spherical image VSS4a (VSS4b) which is a virtual image composed of a spherical surface which is CG. The image generation unit 412a (412b) stores the spherical image VSS4a (VSS4b) in the internal memory or an external memory. The image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the image generation unit 412a (412b) based on the instruction information NN4a (NN4b) and displays it on the image display device 404a (404b). To do.

球面状画像VSS4a(VSS4b)は、第1〜第3実施形態の球面状画像VSS1、VSS2、VSS3a、及びVSS3bに相当する。使用者USa(USb)は、コントローラ405a(405b)が装着されている手を、画像表示装置404a(404b)に表示されている球面状画像VSS4a(VSS4b)に対応する位置に移動させることにより、使用者USa(USb)の手が球面状画像VSS4a(VSS4b)に接触しているように感じる。 The spherical image VSS4a (VSS4b) corresponds to the spherical images VSS1, VSS2, VSS3a, and VSS3b of the first to third embodiments. The user USa (USb) moves the hand on which the controller 405a (405b) is attached to a position corresponding to the spherical image VSS4a (VSS4b) displayed on the image display device 404a (404b). It feels like the hand of the user USa (USb) is in contact with the spherical image VSS4a (VSS4b).

コントローラ405a(405b)は、使用者USa(USb)の手と接触する部分にアクチュエータが配置されていてもよい。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、使用者USa(USb)の手が球面状画像VSS4a(VSS4b)に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USa(USb)の手に圧力を加えることにより、使用者USa(USb)は、その手が球面状画像VSS4a(VSS4b)に接触する感覚を実感として得ることができる。 The controller 405a (405b) may have an actuator arranged at a portion in contact with the hand of the user USa (USb). The image processing unit 411a (411b) operates the actuator when it is determined that the hand of the user USa (USb) has moved to the position corresponding to the spherical image VSS4a (VSS4b) based on the instruction information NN4a (NN4b). Let me. When the actuator applies pressure to the hand of the user USa (USb), the user USa (USb) can actually feel the hand touching the spherical image VSS4a (VSS4b).

球面状画像VSS4aが画像表示装置404aに表示されている状態において、使用者USaが、コントローラ405aが装着されている手を任意の方向へ移動させた場合、画像処理部411aは、指示情報NN4aに基づいて、画像表示装置404aに表示されている球面状画像VSS4aと撮影画像IM41またはIM42とが、使用者USaの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the user USa moves the hand on which the controller 405a is attached in an arbitrary direction while the spherical image VSS4a is displayed on the image display device 404a, the image processing unit 411a sends the instruction information NN4a to the instruction information NN4a. Based on this, the spherical image VSS4a displayed on the image display device 404a and the captured image IM41 or IM42 move according to the moving direction, moving speed, and moving destination position of the user USa's hand. Perform image processing.

球面状画像VSS4bが画像表示装置404bに表示されている状態において、使用者USbが、コントローラ405bが装着されている手を任意の方向へ移動させた場合、画像処理部411bは、指示情報NN4bに基づいて、画像表示装置404bに表示されている球面状画像VSS4bと撮影画像IM41またはIM42とが、使用者USbの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the user USb moves the hand on which the controller 405b is attached in an arbitrary direction while the spherical image VSS4b is displayed on the image display device 404b, the image processing unit 411b sends the instruction information NN4b. Based on this, the spherical image VSS4b displayed on the image display device 404b and the captured image IM41 or IM42 move according to the moving direction, moving speed, and moving destination position of the user USb's hand. Perform image processing.

使用者USa(USb)は、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS3a(VSS3b)を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USa(USb)は、その手の動きによって球面状画像VSS3a(VSS3b)を回転させることができる。画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の回転に対応させて撮影画像IM3を移動させる。 The user USa (USb) moves the spherical image VSS3a (VSS3b) in an arbitrary direction and at an arbitrary speed by moving the hand in an arbitrary direction and at an arbitrary speed. Can be rotated to position. That is, the user USa (USb) can rotate the spherical image VSS3a (VSS3b) by the movement of his / her hand. The image processing unit 311a (311b) moves the captured image IM3 in correspondence with the rotation of the spherical image VSS3a (VSS3b).

画像処理部411a(411b)は、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させる前の天頂ZEが、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させることによって球面状画像VSS4a(VSS4b)の座標上のどの位置へ移動したかを判定することができる。 The image processing unit 411a (411b) is such that the zenith ZE before the user USa (USb) rotates the spherical image VSS4a (VSS4b) is the zenith ZE, and the user USa (USb) rotates the spherical image VSS4a (VSS4b). It is possible to determine to which position on the coordinates of the spherical image VSS4a (VSS4b) it has moved.

画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させる前と回転させた後との球面状画像VSS4a(VSS4b)の変化量を算出する。球面状画像VSS4a(VSS4b)の変化量は、第1〜第3実施形態の球面状画像VSS1、VSS2、VSS3a、及びVSS3bの変化量に相当する。 In the image processing unit 411a (411b), the user USa (USb) rotates the spherical image VSS4a (VSS4b) based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS4a (VSS4b). The amount of change in the spherical image VSS4a (VSS4b) before and after the rotation is calculated. The amount of change in the spherical image VSS4a (VSS4b) corresponds to the amount of change in the spherical images VSS1, VSS2, VSS3a, and VSS3b of the first to third embodiments.

画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の変化量を補正値CV4a(CV4b)として保存する。補正値CV4a(CV4b)は、第1〜第3実施形態の補正値CV1、CV2、CV3a、及びCV3bに相当する。画像処理部411a(411b)は、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させた後の天頂ZEの球面状画像VSS4a(VSS4b)上の座標を補正値CV4a(CV4b)として保存してもよい。 The image processing unit 411a (411b) saves the amount of change in the spherical image VSS4a (VSS4b) as a correction value CV4a (CV4b). The correction values CV4a (CV4b) correspond to the correction values CV1, CV2, CV3a, and CV3b of the first to third embodiments. The image processing unit 411a (411b) uses the coordinates on the spherical image VSS4a (VSS4b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS4a (VSS4b) as the correction value CV4a (CV4b). You may save it.

画像処理部411a(411b)は、補正値CV4a(CV4b)を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV4a(CV4b)を通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。サーバ406は、補正値CV4a(CV4b)を画像表示装置404a(404b)または使用者USa(USb)と関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 411a (411b) may save the correction value CV4a (CV4b) in the internal memory or an external memory, or the correction value CV4a (CV4b) is stored in the server via the communication unit 413a (413b) and the network. It may be output to 406. The server 406 associates the correction value CV4a (CV4b) with the image display device 404a (404b) or the user USa (USb) and stores it in the internal memory or an external memory.

画像調整システム401は、使用者USaが装着している画像表示装置404aに他の使用者USbのアバターである合成画像CM4bを撮影画像IM41(IM42)と合成して表示することができる。画像調整システム401は、使用者USbが装着している画像表示装置404bに他の使用者USaのアバターである合成画像CM4aを撮影画像IM42(IM41)と合成して表示することができる。 The image adjustment system 401 can display the composite image CM4b, which is an avatar of another user USb, by combining it with the captured image IM41 (IM42) on the image display device 404a worn by the user USa. The image adjustment system 401 can display the composite image CM4a, which is an avatar of another user USa, by combining it with the captured image IM42 (IM41) on the image display device 404b worn by the user USb.

図15及び図16に示すフローチャートを用いて、第4実施形態の画像調整方法の一例を説明する。具体的には、撮影画像IM41に合成画像CM4bを合成する方法の一例について説明する。画像表示装置404aが使用者USaの頭部に装着され、コントローラ405aが使用者USaの手に装着されている。画像表示装置404bが使用者USbの頭部に装着され、コントローラ405bが使用者USbの手に装着されている。画像表示装置404aにはカメラ4021が撮影した撮影画像IM41が表示され、画像表示装置404bにはカメラ4022が撮影した撮影画像IM42が表示されている。 An example of the image adjustment method of the fourth embodiment will be described with reference to the flowcharts shown in FIGS. 15 and 16. Specifically, an example of a method of synthesizing the composite image CM4b with the captured image IM41 will be described. The image display device 404a is attached to the head of the user USa, and the controller 405a is attached to the hand of the user USa. The image display device 404b is attached to the head of the user USb, and the controller 405b is attached to the hand of the user USb. The image display device 404a displays the captured image IM41 captured by the camera 4021, and the image display device 404b displays the captured image IM42 captured by the camera 4022.

使用者USa(USb)は画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)が水平でないと判断した場合、図15において、使用者USa(USb)がコントローラ405a(405b)を操作することにより、画像処理部411a(411b)は、ステップS401にて、画像表示装置404a(404b)に設定画面を表示させる。 When the user USa (USb) determines that the captured image IM41 (IM42) displayed on the image display device 404a (404b) is not horizontal, the user USa (USb) uses the controller 405a (405b) in FIG. By operating, the image processing unit 411a (411b) causes the image display device 404a (404b) to display the setting screen in step S401.

使用者USa(USb)がコントローラ405a(405b)を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部411a(411b)は、ステップS402にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部411a(411b)は、撮影画像IM41(IM42)の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user USa (USb) operates the controller 405a (405b) and selects a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 411a (411b) steps. In S402, the process is shifted to the predetermined process mode corresponding to the selected item. When the horizontal adjustment item is selected, the image processing unit 411a (411b) shifts the processing to the processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM41 (IM42).

画像処理部411a(411b)は、ステップS403にて、画像生成部412a(412b)で生成された球面状画像VSS4a(VSS4b)を取得し、画像表示装置404a(404b)に表示する。画像表示装置404a(404b)には、撮影画像IM41(IM42)と球面状画像VSS4a(VSS4b)とが混合して表示される。 In step S403, the image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the image generation unit 412a (412b) and displays it on the image display device 404a (404b). The captured image IM41 (IM42) and the spherical image VSS4a (VSS4b) are mixed and displayed on the image display device 404a (404b).

使用者USa(USb)は撮影画像IM41(IM42)が水平となるように球面状画像VSS4a(VSS4b)を回転させることにより、画像処理部411a(411b)は、ステップS404にて、球面状画像VSS4a(VSS4b)の回転に対応させて、画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を移動させる。使用者USa(USb)は撮影画像IM41(IM42)が水平になるまで球面状画像VSS4a(VSS4b)を回転させる動作を複数回行ってもよい。 The user USa (USb) rotates the spherical image VSS4a (VSS4b) so that the captured image IM41 (IM42) is horizontal, so that the image processing unit 411a (411b) moves the spherical image VSS4a in step S404. The captured image IM41 (IM42) displayed on the image display device 404a (404b) is moved in correspondence with the rotation of (VSS4b). The user USa (USb) may perform the operation of rotating the spherical image VSS4a (VSS4b) a plurality of times until the captured image IM41 (IM42) becomes horizontal.

使用者USa(USb)は撮影画像IM41(IM42)が水平になったと判断した場合にコントローラ405a(405b)を操作することにより、画像処理部411a(411b)は、ステップS405にて、球面状画像VSS4a(VSS4b)の表示を終了させ、画像表示装置404a(404b)に設定画面を表示させる。画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を水平にすることにより、カメラ4021(4022)の天頂と使用者USa(USb)の天頂とを一致させることができる。 When the user USa (USb) determines that the captured image IM41 (IM42) is horizontal, the user USa (USb) operates the controller 405a (405b), so that the image processing unit 411a (411b) moves the spherical image in step S405. The display of the VSS4a (VSS4b) is terminated, and the setting screen is displayed on the image display device 404a (404b). By leveling the captured image IM41 (IM42) displayed on the image display device 404a (404b), the zenith of the camera 4021 (4022) and the zenith of the user USa (USb) can be aligned.

使用者USa(USb)がコントローラ405a(405b)を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部411a(411b)は、ステップS406にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部411a(411b)は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。 The user USa (USb) operates the controller 405a (405b) to select a predetermined item (for example, an end item) displayed on the setting screen, so that the image processing unit 411a (411b) moves to step S406. In, the process shifts to the predetermined processing mode corresponding to the selected item. When the end item is selected, the image processing unit 411a (411b) shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.

画像処理部411a(411b)は、ステップS407にて、球面状画像VSS4a(VSS4b)が回転する前と後との回転量(回転角度)を、球面状画像VSS4a(VSS4b)の変化量として取得する。画像処理部411a(411b)は、ステップS408にて、球面状画像VSS4a(VSS4b)の変化量を補正値CV4a(CV4b)として保存し、処理を終了する。 In step S407, the image processing unit 411a (411b) acquires the amount of rotation (rotation angle) before and after the spherical image VSS4a (VSS4b) rotates as the amount of change in the spherical image VSS4a (VSS4b). .. In step S408, the image processing unit 411a (411b) saves the amount of change in the spherical image VSS4a (VSS4b) as a correction value CV4a (CV4b), and ends the process.

図16に示すフローチャートを用いて、使用者USaが見ている画像表示装置404aに、使用者USbのアバターである合成画像CM4bを撮影画像IM41と合成して表示する場合について説明する。図16において、画像処理部411aは、ステップS411にて、取得している撮影画像IM41を撮影しているカメラ4021を特定する。 Using the flowchart shown in FIG. 16, a case where the composite image CM4b, which is the avatar of the user USb, is combined with the captured image IM41 and displayed on the image display device 404a viewed by the user USa will be described. In FIG. 16, the image processing unit 411a identifies the camera 4021 that is capturing the acquired captured image IM41 in step S411.

画像処理部411aは、ステップS412にて、カメラ4021またはサーバ406から、カメラ4021の位置情報を取得する。カメラ4021の位置情報には、カメラ4021の現在位置、及び、カメラ4021が向いている方向または移動している方向の情報が含まれている。 In step S412, the image processing unit 411a acquires the position information of the camera 4021 from the camera 4021 or the server 406. The position information of the camera 4021 includes the current position of the camera 4021 and the information in the direction in which the camera 4021 is facing or moving.

画像処理部411aは、ステップS413にて、サーバ406から、他のカメラ(カメラ4021以外のカメラ)の情報を取得する。例えば、画像処理部411aは、ステップS413にて、サーバ406から、カメラ4022の情報を取得する。カメラ4022の情報には、カメラ4022が撮影している撮影画像IM42を見ている使用者USb、カメラ4022の現在位置、及び、カメラ4022が向いている方向または移動している方向の情報が含まれている。カメラ4022が向いている方向または移動している方向は、使用者USbが向いている方向に相当し、画像表示装置404bに表示されている撮影画像IM42に基づいて特定することができる。 In step S413, the image processing unit 411a acquires information on another camera (a camera other than the camera 4021) from the server 406. For example, the image processing unit 411a acquires the information of the camera 4022 from the server 406 in step S413. The information of the camera 4022 includes information on the user USb looking at the captured image IM42 taken by the camera 4022, the current position of the camera 4022, and the direction in which the camera 4022 is facing or moving. It has been. The direction in which the camera 4022 is facing or moving corresponds to the direction in which the user USb is facing, and can be specified based on the captured image IM42 displayed on the image display device 404b.

画像処理部411aは、ステップS414にて、撮影画像IM41に他のカメラ(カメラ4021以外のカメラ)が映っているか否か、言い換えれば他のカメラを撮影しているか否かを、例えば画像認識により判定する。ステップS414において撮影画像IM41に他のカメラが映っていない(NO)と判定された場合、画像処理部411aは、処理をステップS414へ戻す。 In step S414, the image processing unit 411a determines whether or not another camera (a camera other than the camera 4021) is reflected in the captured image IM41, in other words, whether or not another camera is photographing, for example, by image recognition. judge. If it is determined in step S414 that no other camera is visible in the captured image IM41 (NO), the image processing unit 411a returns the process to step S414.

ステップS414において撮影画像IM41に他のカメラが映っている(YES)と判定された場合、画像処理部411aは、ステップS415にて、ステップS413において取得した他のカメラの情報に基づいて、撮影画像IM41に映っている他のカメラを特定する。 If it is determined in step S414 that another camera is reflected in the captured image IM41 (YES), the image processing unit 411a determines the captured image in step S415 based on the information of the other camera acquired in step S413. Identify other cameras in the IM41.

図17は、カメラ4021が地点Aに位置し、カメラ4022が、カメラ4021の前方の地点Bに位置している状態を示している。図17に示す状態では、撮影画像IM41には他のカメラであるカメラ4022が映っている。画像処理部411aは、ステップS413において取得したカメラ4022の情報に基づいて、撮影画像IM41に映っているカメラがカメラ4022であることを特定する。 FIG. 17 shows a state in which the camera 4021 is located at the point A and the camera 4022 is located at the point B in front of the camera 4021. In the state shown in FIG. 17, the captured image IM41 shows the camera 4022, which is another camera. The image processing unit 411a identifies that the camera shown in the captured image IM 41 is the camera 4022 based on the information of the camera 4022 acquired in step S413.

画像処理部411aは、ステップS416にて、ステップS412において取得したカメラ4021の位置情報と、ステップS413において取得したカメラ4022の情報とに基づいて、カメラ4021に対するカメラ4022の位置、及び、カメラ4022が向いている方向または移動している方向を特定する。 In step S416, the image processing unit 411a determines the position of the camera 4022 with respect to the camera 4021 and the camera 4022 based on the position information of the camera 4021 acquired in step S412 and the information of the camera 4022 acquired in step S413. Identify the direction you are facing or moving.

画像処理部411aは、ステップS417にて、ステップS415において特定されたカメラが撮影している撮影画像IMを見ている使用者USを特定する。例えば、画像処理部411aは、カメラ4022が撮影している撮影画像IM42を見ている使用者USbを特定する。画像処理部411aは、ステップS418にて、使用者USbのアバターである合成画像CM4bを取得する。合成画像CM4bがサーバ406に保存されている場合、画像処理部411aは、サーバ406から合成画像CM4bを取得する。 In step S417, the image processing unit 411a identifies the user US who is viewing the captured image IM captured by the camera identified in step S415. For example, the image processing unit 411a identifies the user USb who is looking at the captured image IM42 captured by the camera 4022. In step S418, the image processing unit 411a acquires the composite image CM4b which is the avatar of the user USb. When the composite image CM4b is stored in the server 406, the image processing unit 411a acquires the composite image CM4b from the server 406.

画像処理部411aは、ステップS419にて、撮影画像IM41に映っているカメラ4022に対応する位置に合成画像CM4bを合成し、画像表示装置404aに表示する。ステップS401〜S408にて撮影画像IM41が水平調整されている場合、画像処理部411aは、合成画像CM4bを、撮影画像IM41と同様に水平調整し、画像表示装置404aに表示する。補正値CV4aが保存されている場合、画像処理部411aは、合成画像CM4bを、補正値CV4aに基づいて水平調整し、画像表示装置404aに表示する。 In step S419, the image processing unit 411a synthesizes the composite image CM4b at the position corresponding to the camera 4022 shown in the captured image IM41 and displays it on the image display device 404a. When the captured image IM41 is horizontally adjusted in steps S401 to S408, the image processing unit 411a horizontally adjusts the composite image CM4b in the same manner as the captured image IM41 and displays it on the image display device 404a. When the correction value CV4a is stored, the image processing unit 411a horizontally adjusts the composite image CM4b based on the correction value CV4a and displays it on the image display device 404a.

画像処理部411aは、カメラ4021に対するカメラ4022の位置に対応させて合成画像CM4bの大きさを変えてもよい。例えば、画像処理部411aは、カメラ4022がカメラ4021から遠く離れたところに位置している場合には、合成画像CM4bの大きさが、カメラ4021とカメラ4022との距離に応じて小さくなるように合成画像CM4bを画像処理し、撮影画像IM41に合成する。 The image processing unit 411a may change the size of the composite image CM4b according to the position of the camera 4022 with respect to the camera 4021. For example, in the image processing unit 411a, when the camera 4022 is located far away from the camera 4021, the size of the composite image CM4b becomes smaller according to the distance between the camera 4021 and the camera 4022. The composite image CM4b is image-processed and composited with the captured image IM41.

画像処理部411aは、カメラ4022が向いている方向または移動している方向に対応させて合成画像CM4bの向きを変えてもよい。画像処理部411aは、カメラ4022が向いている方向または移動している方向に対応する向きの合成画像CM4bを取得してもよい。 The image processing unit 411a may change the direction of the composite image CM4b according to the direction in which the camera 4022 is facing or moving. The image processing unit 411a may acquire the composite image CM4b in the direction corresponding to the direction in which the camera 4022 is facing or moving.

第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法では、画像表示装置404a及び404bに球面状画像VSS4a及びVSS4bを表示させる。第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法によれば、撮影画像IM41及びIM42の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USa及びUSbは、コントローラ405a及び405bを操作して球面状画像VSS4a及びVSS4bを回転させることにより、画像表示装置404a及び404bに表示されている撮影画像IM41及びIM42を水平になるように調整することができる。 In the image adjusting system 401, the image adjusting devices 410a and 410b, and the image adjusting method of the fourth embodiment, the spherical images VSS4a and VSS4b are displayed on the image display devices 404a and 404b. According to the image adjustment system 401, the image adjustment devices 410a and 410b, and the image adjustment method of the fourth embodiment, the horizontal directions of the captured images IM41 and IM42 are incorrectly detected, or the designation of the horizontal or zenith ZE is deviated. In this case, the users USa and USb operate the controllers 405a and 405b to rotate the spherical images VSS4a and VSS4b, so that the captured images IM41 and IM42 displayed on the image display devices 404a and 404b become horizontal. Can be adjusted as follows.

従って、第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法によれば、撮影画像IM41及びIM42の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像撮影画像IM41及びIM42の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjustment system 401, the image adjustment devices 410a and 410b, and the image adjustment method of the fourth embodiment, the horizontal directions of the captured images IM41 and IM42 are incorrectly detected, or the horizontal or zenith designation is deviated. In this case, the user US can easily correct the horizontal or zenith of the captured images IM41 and IM42.

第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法によれば、補正値CV4a及びCV4bが保存されている場合、画像処理部411a及び411bは、補正値CV4a及びCV4bを読み出し、カメラ4021及び4022が撮影した撮影画像IM41及びIM42を補正値CV4a及びCV4bに基づいて画像調整し、画像表示装置404a及び404bに表示することができる。 According to the image adjustment system 401, the image adjustment devices 410a and 410b, and the image adjustment method of the fourth embodiment, when the correction values CV4a and CV4b are stored, the image processing units 411a and 411b perform the correction values CV4a and CV4b. The captured images IM41 and IM42 captured by the cameras 4021 and 4022 can be adjusted based on the correction values CV4a and CV4b and displayed on the image display devices 404a and 404b.

第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法では、カメラ4021に対するカメラ4022の位置を特定し、撮影画像IMにおけるカメラ4022の位置に、カメラ4022が撮影している撮影画像IM42を見ている使用者USbのアバターである合成画像CM4bを合成する。これにより、使用者USaは使用者USbと同じ空間を共有しているような感覚を得ることができる。 In the image adjustment system 401, the image adjustment devices 410a and 410b, and the image adjustment method of the fourth embodiment, the position of the camera 4022 with respect to the camera 4021 is specified, and the camera 4022 takes a picture at the position of the camera 4022 in the captured image IM. The composite image CM4b, which is the avatar of the user USb looking at the captured image IM42, is synthesized. As a result, the user USa can obtain the feeling of sharing the same space as the user USb.

本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

例えば、CGにより生成される仮想画像VSSは、楕円体の表面(楕円面)であってもよく、さらには使用者USの手の届く範囲であれば、任意の閉じた面(閉曲面)であればよい。即ち、使用者USが内側からその閉曲面に接触するような感覚を得て、撮影画像IMの水平調整ができればよい。使用者USが仮想画像VSSを回転動作させることから、仮想画像VSSは球面または楕円面等の球面に近い球面状の形状であることが望ましい。 For example, the virtual image VSS generated by CG may be an ellipsoidal surface (elliptical surface), and may be an arbitrary closed surface (closed curved surface) within the reach of the user US. All you need is. That is, it suffices if the photographed image IM can be horizontally adjusted with the feeling that the user US touches the closed curved surface from the inside. Since the user US rotates the virtual image VSS, it is desirable that the virtual image VSS has a spherical shape close to a spherical surface such as a spherical surface or an ellipsoidal surface.

101,201,301,401 画像調整システム
102,202,302,402(4021,4022) カメラ
104,204,304(304a,304b),404(404a,404b) 画像表示装置
105,205,305(305a,305b),405(405a,405b) コントローラ
106,206,306,406 サーバ
110,210,310(310a,310b),410(410a,410b) 画像調整装置
111,211,311(311a,311b),411(411a,411b) 画像処理部
112,212,312(312a,312b),412(412a,412b) 画像生成部
CM1,CM2,CM3(CM3a,CM3b),CM4(CM4a,CM4b) 合成画像
IM1,IM2,IM3,IM4(IM41,IM42) 撮影画像
NN1,NN2,NN3(NN3a,NN3b),NN4(NN4a,NN4b) 指示情報
PHP1,PHP2,SHP1,SHP2 水平面
US,USa,USb 使用者
VSS1,VSS2,VSS3(VSS3a,VSS3b),VSS4(VSS4a,VSS4b) 球面状画像(仮想画像)
101, 201, 301, 401 Image adjustment system 102, 202, 302, 402 (4021, 4022) Camera 104, 204, 304 (304a, 304b), 404 (404a, 404b) Image display device 105, 205, 305 (305a) , 305b), 405 (405a, 405b) Controller 106, 206, 306, 406 Server 110, 210, 310 (310a, 310b), 410 (410a, 410b) Image adjuster 111, 211, 311 (311a, 311b), 411 (411a, 411b) Image processing unit 112, 212, 312 (312a, 312b), 412 (412a, 412b) Image generation unit CM1, CM2, CM3 (CM3a, CM3b), CM4 (CM4a, CM4b) Composite image IM1, IM2, IM3, IM4 (IM41, IM42) Captured image NN1, NN2, NN3 (NN3a, NN3b), NN4 (NN4a, NN4b) Instruction information PHP1, PHP2, SHP1, SHP2 Horizontal plane US, USa, USb User VSS1, VSS2 VSS3 (VSS3a, VSS3b), VSS4 (VSS4a, VSS4b) Spherical image (virtual image)

Claims (5)

複数のカメラと、
前記複数のカメラのうちの第1のカメラが撮影した撮影画像を調整する画像調整装置と、
前記画像調整装置により調整された前記撮影画像を表示する画像表示装置と、
前記画像調整装置へ指示情報を出力するコントローラと、
を備え、
前記画像調整装置は、
球面状画像、及び、前記撮影画像と合成される合成画像を生成する画像生成部と、
前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する画像処理部と、
を有する画像調整システム。
With multiple cameras
An image adjusting device that adjusts a captured image taken by the first camera among the plurality of cameras, and an image adjusting device.
An image display device that displays the captured image adjusted by the image adjustment device, and
A controller that outputs instruction information to the image adjustment device,
With
The image adjusting device is
An image generation unit that generates a spherical image and a composite image that is combined with the captured image.
The spherical image generated by the image generation unit is acquired based on the instruction information and displayed on the image display device, the spherical image is rotated based on the instruction information, and the spherical image is rotated. The captured image displayed on the image display device is adjusted in accordance with the above, the composite image is adjusted in correspondence with the adjusted captured image, and the captured image is the second of the plurality of cameras. When the camera is shown, the second camera of the captured image shows the composite image adjusted based on the position information of the first camera and the position information of the second camera. An image processing unit that synthesizes images according to the position
Image adjustment system with.
前記カメラは360度の範囲を撮影する全方位カメラであり、
前記画像表示装置は使用者の頭部に装着されるヘッドマウントディスプレイであり、
前記コントローラは前記使用者の手に装着されるグローブ型コントローラであり、
前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である、
請求項1に記載の画像調整システム。
The camera is an omnidirectional camera that captures a 360-degree range.
The image display device is a head-mounted display mounted on the user's head.
The controller is a glove-type controller that is worn on the user's hand.
When the user sees the spherical image displayed on the image display device while the image display device is attached to the head of the user, the spherical image is used. It is a virtual image that is arranged around a person and the image display device and is set so that the user's hand or finger is displayed within a range that can reach the spherical image.
The image adjustment system according to claim 1.
前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する、
請求項2に記載の画像調整システム。
When the user moves his / her hand or finger in an arbitrary direction while the controller is attached to the user's hand, the image processing unit uses the instruction information of the user. The spherical image is rotated in response to the movement of the hand or finger, and the captured image displayed on the image display device is adjusted in response to the rotation of the spherical image.
The image adjustment system according to claim 2.
球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成する画像生成部と、
コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第1のカメラが映っている位置に対応させて合成する画像処理部と、
を備える画像調整装置。
An image generator that generates a spherical image and a composite image that is combined with the captured image captured by the camera and displayed on the image display device.
The spherical image generated by the image generation unit is acquired based on the instruction information acquired from the controller and displayed on the image display device, and the spherical image is rotated based on the instruction information of a plurality of cameras. The captured image captured by the first camera and displayed on the image display device is adjusted in correspondence with the rotation of the spherical image, and the composite image is adjusted in correspondence with the adjusted captured image. When the second camera of the plurality of cameras is reflected in the captured image, the adjustment is made based on the position information of the first camera and the position information of the second camera. An image processing unit that synthesizes the composite image corresponding to the position where the first camera is projected on the captured image, and an image processing unit.
An image adjustment device comprising.
画像処理部がコントローラから指示情報を取得し、
前記画像処理部が前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、
画像表示装置が前記球面状画像を表示し、
前記画像処理部が前記指示情報に基づいて前記球面状画像を回転させ、
前記画像処理部が複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、
前記画像処理部が前記画像生成部で生成され、前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、
前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整し、
前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記画像処理部が、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する、
画像調整方法。
The image processing unit acquires the instruction information from the controller and
The image processing unit acquires a spherical image generated by the image generation unit based on the instruction information, and obtains a spherical image.
The image display device displays the spherical image,
The image processing unit rotates the spherical image based on the instruction information, and the spherical image is rotated.
The image processing unit adjusts the captured image captured by the first camera among the plurality of cameras and displayed on the image display device in accordance with the rotation of the spherical image.
The image processing unit acquires a composite image generated by the image generation unit and combined with the captured image displayed on the image display device.
The image processing unit adjusts the composite image in correspondence with the adjusted captured image.
When the second camera of the plurality of cameras is shown in the captured image, the image processing unit is based on the position information of the first camera and the position information of the second camera. , The adjusted composite image is composited in correspondence with the position where the second camera is projected in the captured image.
Image adjustment method.
JP2019025769A 2019-02-15 2019-02-15 Image adjustment system, image adjustment device, and image adjustment method Pending JP2020134632A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019025769A JP2020134632A (en) 2019-02-15 2019-02-15 Image adjustment system, image adjustment device, and image adjustment method
PCT/JP2020/004700 WO2020166492A1 (en) 2019-02-15 2020-02-07 Image adjustment system, image adjustment device, and image adjustment method
US17/361,767 US11985298B2 (en) 2019-02-15 2021-06-29 Image adjustment system, image adjustor, and image adjustment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025769A JP2020134632A (en) 2019-02-15 2019-02-15 Image adjustment system, image adjustment device, and image adjustment method

Publications (1)

Publication Number Publication Date
JP2020134632A true JP2020134632A (en) 2020-08-31

Family

ID=72262928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025769A Pending JP2020134632A (en) 2019-02-15 2019-02-15 Image adjustment system, image adjustment device, and image adjustment method

Country Status (1)

Country Link
JP (1) JP2020134632A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030617A1 (en) 2020-08-07 2022-02-10 東ソー株式会社 Cha-type zeolite and method for producing same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022030617A1 (en) 2020-08-07 2022-02-10 東ソー株式会社 Cha-type zeolite and method for producing same

Similar Documents

Publication Publication Date Title
JP6511386B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
CN109952759B (en) Improved method and system for video conferencing with HMD
JP7317024B2 (en) Image generation device and image generation method
AU2021290132B2 (en) Presenting avatars in three-dimensional environments
JP5869712B1 (en) Head-mounted display system and computer program for presenting a user's surrounding environment in an immersive virtual space
WO2020026419A1 (en) Image generation device and image generation method
JP7088068B2 (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020134632A (en) Image adjustment system, image adjustment device, and image adjustment method
WO2020166491A1 (en) Image adjustment system, image adjustment device, and image adjustment method
WO2020166492A1 (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020134631A (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020134630A (en) Image adjustment system, image adjustment device, and image adjustment method
GB2525304A (en) Interactive information display
WO2020166582A1 (en) Image adjustment system, image adjustment device, and image adjustment method
JP7088064B2 (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020136799A (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020134616A (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020136798A (en) Image adjustment system, image adjustment device, and image adjustment method
JP7247636B2 (en) Image adjustment system, image adjustment device, and image adjustment method
JP7167760B2 (en) image adjustment system
CN113614675A (en) Head-mounted information processing device and head-mounted display system
WO2023048018A1 (en) Display device, method for controlling display device, and program
JP7427739B2 (en) display device
JPWO2017098999A1 (en) Information processing apparatus, information processing system, information processing apparatus control method, and computer program
WO2023238264A1 (en) Information display device and display method therefor