JP2020134632A - Image adjustment system, image adjustment device, and image adjustment method - Google Patents
Image adjustment system, image adjustment device, and image adjustment method Download PDFInfo
- Publication number
- JP2020134632A JP2020134632A JP2019025769A JP2019025769A JP2020134632A JP 2020134632 A JP2020134632 A JP 2020134632A JP 2019025769 A JP2019025769 A JP 2019025769A JP 2019025769 A JP2019025769 A JP 2019025769A JP 2020134632 A JP2020134632 A JP 2020134632A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- captured
- display device
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 63
- 238000012545 processing Methods 0.000 claims abstract description 267
- 239000002131 composite material Substances 0.000 claims description 151
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 78
- 238000012937 correction Methods 0.000 description 53
- 102100033019 Tyrosine-protein phosphatase non-receptor type 11 Human genes 0.000 description 12
- 101710116241 Tyrosine-protein phosphatase non-receptor type 11 Proteins 0.000 description 12
- 101100083571 Homo sapiens PLPPR3 gene Proteins 0.000 description 11
- 101100297537 Oryza sativa subsp. japonica PHP2 gene Proteins 0.000 description 11
- 102100030383 Phospholipid phosphatase-related protein type 3 Human genes 0.000 description 11
- 101100123432 Schizosaccharomyces pombe (strain 972 / ATCC 24843) hap2 gene Proteins 0.000 description 11
- 101000617285 Homo sapiens Tyrosine-protein phosphatase non-receptor type 6 Proteins 0.000 description 6
- 102100021657 Tyrosine-protein phosphatase non-receptor type 6 Human genes 0.000 description 6
- 101000582989 Homo sapiens Phospholipid phosphatase-related protein type 4 Proteins 0.000 description 5
- 102100030368 Phospholipid phosphatase-related protein type 4 Human genes 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000035807 sensation Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像調整システム、画像調整装置、及び画像調整方法に関する。 The present invention relates to an image adjustment system, an image adjustment device, and an image adjustment method.
近年、画像表示装置としてヘッドマウントディスプレイが注目されている。ヘッドマウントディスプレイは、使用者の頭部に装着された状態で画像を表示することにより、使用者は仮想空間に入り込んだような感覚(没入感)を得ることができる。特許文献1に記載されているように、ヘッドマウントディスプレイは、外部のカメラで撮影した画像をネックワークを介して表示することができる。 In recent years, a head-mounted display has attracted attention as an image display device. By displaying an image while the head-mounted display is attached to the user's head, the user can obtain a feeling of entering a virtual space (immersive feeling). As described in Patent Document 1, the head-mounted display can display an image taken by an external camera via a neckwork.
しかし、従来のヘッドマウントディスプレイでは、表示される画像によっては画像の水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、表示される画像が使用者の重力感覚と一致しないため、使用者は違和感を覚える。 However, with a conventional head-mounted display, it is difficult to detect the horizontal direction of an image depending on the displayed image, and the horizontal direction may be detected incorrectly. In addition, the horizontal or zenith designation may shift due to problems such as system synchronization. If the horizontal direction of the image is detected incorrectly, or if the horizontal or zenith designation is incorrect, the displayed image does not match the user's sense of gravity, and the user feels uncomfortable.
本発明は、画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、画像の水平または天頂を簡便に補正することができる画像調整システム、画像調整装置、及び画像調整方法を提供することを目的とする。 The present invention provides an image adjustment system, an image adjustment device, and an image that can easily correct the horizontal or zenith of an image when the horizontal direction of the image is incorrectly detected or the horizontal or zenith is not specified. The purpose is to provide an adjustment method.
本発明は、複数のカメラと、前記複数のカメラのうちの第1のカメラが撮影した撮影画像を調整する画像調整装置と、前記画像調整装置により調整された前記撮影画像を表示する画像表示装置と、前記画像調整装置へ指示情報を出力するコントローラとを備え、前記画像調整装置は、球面状画像、及び、前記撮影画像と合成される合成画像を生成する画像生成部と、前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する画像処理部とを有する画像調整システムを提供する。 The present invention includes a plurality of cameras, an image adjusting device that adjusts a captured image captured by the first camera among the plurality of cameras, and an image display device that displays the captured image adjusted by the image adjusting device. The image adjusting device includes a controller that outputs instruction information to the image adjusting device, and the image adjusting device has an image generation unit that generates a spherical image and a composite image that is combined with the captured image, and the instruction information. Based on this, the spherical image generated by the image generation unit is acquired and displayed on the image display device, and the spherical image is rotated based on the instruction information so as to correspond to the rotation of the spherical image. The captured image displayed on the image display device is adjusted, the composite image is adjusted in correspondence with the adjusted captured image, and the second camera of the plurality of cameras is reflected in the captured image. If so, the composite image adjusted based on the position information of the first camera and the position information of the second camera is placed at the position where the second camera of the captured image is projected. Provided is an image adjustment system having an image processing unit for associating and synthesizing.
本発明は、球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成する画像生成部と、コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第1のカメラが映っている位置に対応させて合成する画像処理部とを備える画像調整装置を提供する。 The present invention is based on an image generator that generates a spherical image and a composite image that is combined with a captured image captured by a camera and displayed on an image display device, and instruction information acquired from a controller. The spherical image generated by the generation unit is acquired and displayed on an image display device, the spherical image is rotated based on the instruction information, and the spherical image is photographed by the first camera among the plurality of cameras. The captured image displayed on the image display device is adjusted in correspondence with the rotation of the spherical image, the composite image is adjusted in correspondence with the adjusted captured image, and the captured image is combined with the plurality of cameras. When the second camera is shown, the composite image adjusted based on the position information of the first camera and the position information of the second camera is used as the second image of the captured image. Provided is an image adjusting device including an image processing unit that synthesizes images corresponding to the position in which the camera of 1 is projected.
本発明は、画像処理部がコントローラから指示情報を取得し、前記画像処理部が前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、画像表示装置が前記球面状画像を表示し、前記画像処理部が前記指示情報に基づいて前記球面状画像を回転させ、前記画像処理部が複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、前記画像処理部が前記画像生成部で生成され、前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記画像処理部が、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する画像調整方法を提供する。 In the present invention, the image processing unit acquires instruction information from the controller, the image processing unit acquires a spherical image generated by the image generation unit based on the instruction information, and the image display device acquires the spherical image. Is displayed, the image processing unit rotates the spherical image based on the instruction information, and the image processing unit is photographed by the first camera among the plurality of cameras and displayed on the image display device. The captured image is adjusted in correspondence with the rotation of the spherical image, and the composite image generated by the image processing unit and combined with the captured image displayed on the image display device is generated. When the image processing unit adjusts the composite image in correspondence with the adjusted captured image and the second camera among the plurality of cameras is reflected in the captured image, the above-mentioned The image processing unit corresponds the adjusted composite image based on the position information of the first camera and the position information of the second camera to the position where the second camera is reflected in the captured image. To provide an image adjustment method for compositing.
本発明の画像調整システム、画像調整装置、及び画像調整方法によれば、画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、画像の水平または天頂を簡便に補正することができる。 According to the image adjustment system, the image adjustment device, and the image adjustment method of the present invention, the horizontal or zenith of the image can be easily adjusted when the horizontal direction of the image is incorrectly detected or the horizontal or zenith is not specified. It can be corrected.
[第1実施形態]
図1を用いて、第1実施形態の画像調整システムの構成例を説明する。画像調整システム101は、カメラ102と、通信部103と、画像表示装置104と、コントローラ105と、画像調整装置110と、サーバ106とを備える。画像調整装置110は、画像処理部111と、画像生成部112と、通信部113とを有する。
[First Embodiment]
A configuration example of the image adjustment system of the first embodiment will be described with reference to FIG. The image adjustment system 101 includes a camera 102, a communication unit 103, an
カメラ102は、360度の範囲を撮影できる全方位カメラ(360度カメラ)である。通信部103と通信部113とはネットワークを介して接続されている。画像調整装置110は、カメラ102が撮影した撮影画像IM1を、通信部103及び113とネットワークとを介して取得することができる。 The camera 102 is an omnidirectional camera (360 degree camera) capable of photographing a range of 360 degrees. The communication unit 103 and the communication unit 113 are connected via a network. The image adjusting device 110 can acquire the captured image IM1 captured by the camera 102 via the communication units 103 and 113 and the network.
画像調整装置110としてコンピュータ機器を用いてもよい。画像処理部111及び画像生成部112としてCPUを用いてもよい。画像生成部112及び通信部113は、画像調整装置110の外部に設けられていてもよい。 A computer device may be used as the image adjusting device 110. A CPU may be used as the image processing unit 111 and the image generation unit 112. The image generation unit 112 and the communication unit 113 may be provided outside the image adjusting device 110.
サーバ106は、ネットワークと通信部103とを介してカメラ102と接続し、ネットワークと通信部113とを介して画像調整装置110と接続する。サーバ106がカメラ102が撮影した撮影画像IM1を通信部103及びネットワークを介して取得し、画像調整装置110がサーバ106から撮影画像IM1をネットワーク及び通信部113を介して取得してもよい。 The server 106 connects to the camera 102 via the network and the communication unit 103, and connects to the image adjusting device 110 via the network and the communication unit 113. The server 106 may acquire the captured image IM1 captured by the camera 102 via the communication unit 103 and the network, and the image adjusting device 110 may acquire the captured image IM1 from the server 106 via the network and the communication unit 113.
画像調整装置110が取得した撮影画像IM1は、画像処理部111へ入力される。画像処理部111は、撮影画像IM1を解析することにより、撮影画像IM1における水平方向を認識する。画像処理部111は、撮影画像IM1を解析することにより、撮影画像IM1における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。画像調整装置110は、撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像表示装置104へ出力する。
The captured image IM1 acquired by the image adjusting device 110 is input to the image processing unit 111. The image processing unit 111 recognizes the horizontal direction in the captured image IM1 by analyzing the captured image IM1. The image processing unit 111 may recognize the vertical direction in the captured image IM1 or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM1. The image adjusting device 110 corrects the distortion of the captured image IM1, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the
サーバ106は、カメラ102が撮影した撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像調整装置110へ出力してもよい。画像表示装置104は、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を表示する。
The server 106 corrects the distortion of the captured image IM1 captured by the camera 102, executes image processing such as adjusting the level of the captured image IM1, and outputs the image-processed captured image IM1 to the image adjusting device 110. You may. The
画像表示装置104は、例えばヘッドマウントディスプレイである。コントローラ105は、例えばVR(Virtual Reality)等に用いられるグローブ型コントローラである。
The
図2は、画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている状態を模式的に示している。図2に示す符号ZEは天頂を示している。カメラ102の天頂と使用者USの天頂とは一致していることが望ましい。使用者USは、その頭部に画像表示装置104を装着することにより、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を見ることができる。
FIG. 2 schematically shows a state in which the
画像表示装置104は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN1を生成する。画像処理部111は、画像表示装置104から姿勢情報PN1を取得する。即ち、画像処理部111は、画像表示装置104の姿勢に基づいて姿勢情報PN1を取得することになる。画像処理部111は、姿勢情報PN1に基づいて、カメラ102が撮影した撮影画像IM1から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置104に表示する。
The
コントローラ105は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢、または、使用者USの指の動きまたは姿勢等の状態に基づいて指示情報NN1を生成する。以下、手または指を、単に手と略記する。画像処理部111は、コントローラ105から指示情報NN1を取得する。画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている撮影画像IM1を変化させたり調整したりすることができる。
The
画像生成部112は、撮影画像IM1と合成されるCG(Computer Graphics)である合成画像CM1を生成する。合成画像CM1は、例えばアバター等のキャラクタの画像である。画像生成部112は、合成画像CM1を内蔵メモリまたは外部のメモリに保存する。画像処理部111は、画像生成部112で生成された合成画像CM1を取得し、通信部113とネットワークとを介してサーバ106へ出力してもよい。 The image generation unit 112 generates a composite image CM1 which is CG (Computer Graphics) combined with the captured image IM1. The composite image CM1 is an image of a character such as an avatar. The image generation unit 112 stores the composite image CM1 in the internal memory or an external memory. The image processing unit 111 may acquire the composite image CM1 generated by the image generation unit 112 and output it to the server 106 via the communication unit 113 and the network.
サーバ106は、合成画像CM1を画像表示装置104または使用者USと対応付けて内蔵メモリまたは外部のメモリに保存する。画像処理部111は、指示情報NN1に基づいて、画像生成部112またはサーバ106から合成画像CM1を取得し、画像表示装置104に表示されている撮影画像IM1に合成画像CM1を合成する。従って、画像表示装置104は、カメラ102が撮影した撮影画像IM1と、画像生成部112またはサーバ106から取得されて撮影画像IM1と合成された合成画像CM1とを表示することができる。
The server 106 stores the composite image CM1 in the built-in memory or an external memory in association with the
画像生成部112は、CGである球面により構成された仮想画像である球面状画像VSS1を生成する。画像生成部112は、球面状画像VSS1を内蔵メモリまたは外部のメモリに保存する。画像処理部111は、指示情報NN1に基づいて、画像生成部112で生成された球面状画像VSS1を取得し、画像表示装置104に表示する。
The image generation unit 112 generates a spherical image VSS1 which is a virtual image composed of a spherical surface which is CG. The image generation unit 112 stores the spherical image VSS1 in the built-in memory or an external memory. The image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 based on the instruction information NN1 and displays it on the
図2は、画像表示装置104が使用者USの頭部に装着された状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときの使用者USのイメージを模式的に示している。
FIG. 2 shows an image of the user US when the user US sees the spherical image VSS1 displayed on the
画像表示装置104が使用者USの頭部に装着されている状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときに、球面状画像VSS1は、使用者US及び画像表示装置104の周囲に配置され、かつ、使用者USの手が球面状画像VSS1に届く範囲に表示されるように設定されている。使用者USは、コントローラ105が装着されている手を、画像表示装置104に表示されている球面状画像VSS1に対応する位置に移動させることにより、使用者USの手が球面状画像VSS1に接触しているように感じる。
When the user US sees the spherical image VSS1 displayed on the
コントローラ105は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部111は、指示情報NN1に基づいて、使用者USの手が球面状画像VSS1に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS1に接触する感覚を実感として得ることができる。
The
球面状画像VSS1が画像表示装置104に表示されている状態において、使用者USが、コントローラ105が装着されている手を任意の方向へ移動させた場合、画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている球面状画像VSS1と撮影画像IM1とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
When the user US moves the hand on which the
使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS1を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS1を回転させることができる。画像処理部111は、球面状画像VSS1の回転に対応させて撮影画像IM1を移動させる。 The user US can rotate the spherical image VSS1 in an arbitrary direction and at an arbitrary speed by moving the hand in an arbitrary direction and at an arbitrary speed to an arbitrary position. it can. That is, the user US can rotate the spherical image VSS1 by the movement of his / her hand. The image processing unit 111 moves the captured image IM1 in correspondence with the rotation of the spherical image VSS1.
画像処理部111は、使用者USが球面状画像VSS1を回転させる前の天頂ZEが、使用者USが球面状画像VSS1を回転させることによって球面状画像VSS1の座標上のどの位置へ移動したかを判定することができる。画像処理部111は、球面状画像VSS1の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS1を回転させる前と回転させた後との球面状画像VSS1の変化量を算出する。 The image processing unit 111 indicates to which position on the coordinates of the spherical image VSS1 the zenith ZE before the user US rotates the spherical image VSS1 moves by rotating the spherical image VSS1 by the user US. Can be determined. The image processing unit 111 is a spherical image before and after the user US rotates the spherical image VSS1 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS1. The amount of change in VSS1 is calculated.
球面状画像VSS1の変化量とは、球面状画像VSS1において、X軸を回転軸とした回転量(回転角度)と、Y軸を回転軸とした回転量(回転角度)と、Z軸を回転軸とした回転量(回転角度)とが合成された球面状画像VSS1の回転量(回転角度)に相当する。画像処理部111は、球面状画像VSS1の変化量を補正値CV1として保存する。即ち、補正値CV1は、球面状画像VSS1の回転方向と、天頂ZEの移動量または移動角度(球面状画像VSS1の回転角度)に基づいて算出されることになる。 The amount of change in the spherical image VSS1 is the amount of rotation (rotation angle) with the X-axis as the rotation axis, the amount of rotation (rotation angle) with the Y-axis as the rotation axis, and the rotation of the Z-axis in the spherical image VSS1. The amount of rotation (rotation angle) as the axis corresponds to the amount of rotation (rotation angle) of the spherical image VSS1 synthesized. The image processing unit 111 stores the amount of change in the spherical image VSS1 as the correction value CV1. That is, the correction value CV1 is calculated based on the rotation direction of the spherical image VSS1 and the movement amount or movement angle of the zenith ZE (rotation angle of the spherical image VSS1).
画像処理部111は、使用者USが球面状画像VSS1を回転させた後の天頂ZEの球面状画像VSS1上の座標を補正値CV1として保存してもよい。画像処理部111は、補正値CV1を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV1を通信部113及びネットワークを介してサーバ106へ出力してもよい。サーバ106は、補正値CV1を画像表示装置104または使用者USと関連付けて内蔵メモリまたは外部のメモリに保存する。
The image processing unit 111 may save the coordinates on the spherical image VSS1 of the zenith ZE after the user US rotates the spherical image VSS1 as the correction value CV1. The image processing unit 111 may store the correction value CV1 in the built-in memory or an external memory, or may output the correction value CV1 to the server 106 via the communication unit 113 and the network. The server 106 associates the correction value CV1 with the
画像処理部111は、撮影画像IM1の水平方向を検出する。しかし、画像処理部111は、撮影画像IM1によってはその水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。撮影画像IM1の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、画像表示装置104に表示される撮影画像IM1が使用者USの重力感覚と一致しないため、使用者USは違和感を覚える。
The image processing unit 111 detects the horizontal direction of the captured image IM1. However, it is difficult for the image processing unit 111 to detect the horizontal direction depending on the captured image IM1, and the horizontal direction may be erroneously detected. In addition, the horizontal or zenith designation may shift due to problems such as system synchronization. If the horizontal direction of the captured image IM1 is incorrectly detected, or if the horizontal or zenith designation is deviated, the captured image IM1 displayed on the
図3及び図4に示すフローチャートを用いて、第1実施形態の画像調整方法の一例を説明する。具体的には、撮影画像IM1及び合成画像CM1の水平を調整する方法の一例について説明する。画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている。画像表示装置104には撮影画像IM1及び合成画像CM1が表示されている。この時点で、合成画像CM1は表示されていなくてもよい。
An example of the image adjustment method of the first embodiment will be described with reference to the flowcharts shown in FIGS. 3 and 4. Specifically, an example of a method of adjusting the horizontal of the captured image IM1 and the composite image CM1 will be described. The
使用者USが画像表示装置104に表示されている撮影画像IM1が水平でないと判断した場合、図3において、使用者USがコントローラ105を操作することにより、画像処理部111は、ステップS101にて、画像表示装置104に設定画面を表示させる。
When the user US determines that the captured image IM1 displayed on the
使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部111は、ステップS102にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部111は、撮影画像IM1の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。
When the user US operates the
画像処理部111は、ステップS103にて、画像生成部112で生成された球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1と球面状画像VSS1と合成画像CM1とが混合して表示される。使用者USが撮影画像IM1が水平となるように球面状画像VSS1を回転させることにより、画像処理部111は、ステップS104にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている撮影画像IM1を移動させる。使用者USは撮影画像IM1が水平になるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。
In step S103, the image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 and displays it on the
使用者USは撮影画像IM1が水平になったと判断した場合にコントローラ105を操作することにより、画像処理部111は、ステップS105にて、球面状画像VSS1の表示を終了させ、画像表示装置104に設定画面を表示させる。画像表示装置104に表示されている撮影画像IM1を水平にすることにより、カメラ102の天頂と使用者USの天頂とを一致させることができる。
When the user US determines that the captured image IM1 is horizontal, the image processing unit 111 ends the display of the spherical image VSS1 in step S105 by operating the
使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部111は、ステップS106にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部111は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。
When the user US operates the
画像処理部111は、ステップS107にて、球面状画像VSS1が回転する前と後との回転量(回転角度)を、球面状画像VSS1の変化量として取得する。画像処理部111は、ステップS108にて、球面状画像VSS1の変化量を補正値CV1として保存し、処理を終了する。 In step S107, the image processing unit 111 acquires the amount of rotation (rotation angle) before and after the spherical image VSS1 rotates as the amount of change in the spherical image VSS1. In step S108, the image processing unit 111 saves the amount of change in the spherical image VSS1 as the correction value CV1 and ends the processing.
図3のステップS101〜S108において合成画像CM1が表示されていない場合、使用者USがコントローラ105を操作することにより、画像調整装置110(具体的には画像処理部111)は、画像生成部112で生成された合成画像CM1を取得し、画像表示装置104に表示されている撮影画像IM1に合成して表示させることができる。
When the composite image CM1 is not displayed in steps S101 to S108 of FIG. 3, when the user US operates the
図5は、使用者USによって水平調整された撮影画像IM1の水平面PHP1と、画像処理部111が画像生成部112から取得した合成画像CM1の水平面SHP1との関係を模式的に示している。撮影画像IM1の水平面PHP1と合成画像CM1の水平面SHP1とがずれていると、使用者USは違和感を覚える。 FIG. 5 schematically shows the relationship between the horizontal plane PHP1 of the captured image IM1 horizontally adjusted by the user US and the horizontal plane SHP1 of the composite image CM1 acquired by the image processing unit 111 from the image generation unit 112. If the horizontal plane PHP1 of the captured image IM1 and the horizontal plane SHP1 of the composite image CM1 are out of alignment, the user US feels uncomfortable.
図4において、画像処理部111は、ステップS111にて、撮影画像IM1が水平調整されたか否かを判定する。画像処理部111は、球面状画像VSS1が回転された履歴または補正値CV1等に基づいて、撮影画像IM1が水平調整されたか否かを判定することができる。 In FIG. 4, the image processing unit 111 determines in step S111 whether or not the captured image IM1 has been horizontally adjusted. The image processing unit 111 can determine whether or not the captured image IM1 has been horizontally adjusted based on the history of rotation of the spherical image VSS1 or the correction value CV1 or the like.
ステップS111において撮影画像IM1が水平調整された(YES)と判定された場合、画像処理部111は、ステップS112にて、保存されている補正値CV1を取得する。画像処理部111は、ステップS113にて、補正値CV1に基づいて合成画像CM1の座標軸を回転させ、合成画像CM1の水平面SHP1を撮影画像IM1の水平面PHP1と一致させる。画像処理部111は、ステップS114にて、合成画像CM1を、補正された水平面SHP1に基づいて演算処理し、画像調整する。 When it is determined in step S111 that the captured image IM1 is horizontally adjusted (YES), the image processing unit 111 acquires the stored correction value CV1 in step S112. In step S113, the image processing unit 111 rotates the coordinate axes of the composite image CM1 based on the correction value CV1 to match the horizontal plane SHP1 of the composite image CM1 with the horizontal plane PHP1 of the captured image IM1. In step S114, the image processing unit 111 performs arithmetic processing on the composite image CM1 based on the corrected horizontal plane SHP1 to adjust the image.
画像処理部111は、ステップS115にて、画像調整された合成画像CM1を撮影画像IM1と合成して画像表示装置104に表示させる。ステップS111において撮影画像IM1が水平調整されていない(NO)と判定された場合、画像処理部111は、処理をステップS115へ移行させる。
In step S115, the image processing unit 111 combines the image-adjusted composite image CM1 with the captured image IM1 and displays it on the
第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法では、画像表示装置104に球面状画像VSS1を表示させる。第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ105を操作して球面状画像VSS1を回転させることにより、画像表示装置104に表示されている撮影画像IM1を水平になるように調整することができる。
In the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, the spherical image VSS1 is displayed on the
従って、第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM1の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, when the horizontal direction of the captured image IM1 is erroneously detected, or when the horizontal or zenith designation is deviated, The user US can easily correct the horizontal or zenith of the captured image IM1.
第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、補正値CV1が保存されている場合、画像処理部111は、補正値CV1を読み出し、カメラ102が撮影した撮影画像IM1を補正値CV1に基づいて画像調整し、画像表示装置104に表示することができる。
According to the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, when the correction value CV1 is stored, the image processing unit 111 reads out the correction value CV1 and the camera 102 takes a picture. The captured image IM1 can be image-adjusted based on the correction value CV1 and displayed on the
第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法では、撮影画像IM1が水平調整された場合、補正値CV1に基づいて合成画像CM1の座標軸を回転させ、合成画像CM1の水平面SHP1を撮影画像IM1の水平面PHP1と一致させる。第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1と合成画像CM1とを、使用者USが違和感を覚えることなく、画像表示装置104に表示することができる。
In the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, when the captured image IM1 is horizontally adjusted, the coordinate axes of the composite image CM1 are rotated based on the correction value CV1 to rotate the composite image CM1. The horizontal plane SHP1 is made to match the horizontal plane PHP1 of the captured image IM1. According to the image adjustment system 101, the image adjustment device 110, and the image adjustment method of the first embodiment, the captured image IM1 and the composite image CM1 are displayed on the
[第2実施形態]
図1を用いて、第2実施形態の画像調整システムの構成例を説明する。画像調整システム201は、カメラ202と、通信部203と、画像表示装置204と、コントローラ205と、画像調整装置210と、サーバ206とを備える。画像調整装置210は、画像処理部211と、画像生成部212と、通信部213とを有する。
[Second Embodiment]
A configuration example of the image adjustment system of the second embodiment will be described with reference to FIG. The image adjustment system 201 includes a camera 202, a communication unit 203, an image display device 204, a controller 205, an image adjustment device 210, and a server 206. The image adjusting device 210 includes an image processing unit 211, an image generation unit 212, and a communication unit 213.
カメラ202、通信部203、画像表示装置204、コントローラ205、画像調整装置210、及びサーバ206は、第1実施形態のカメラ102、通信部103、画像表示装置104、コントローラ105、画像調整装置110、及びサーバ106に相当する。画像処理部211、画像生成部212、及び通信部213は、第1実施形態の画像処理部111、画像生成部112、及び通信部113に相当する。
The camera 202, the communication unit 203, the image display device 204, the controller 205, the image adjustment device 210, and the server 206 are the camera 102, the communication unit 103, the
画像調整装置210は、カメラ202が撮影した撮影画像IM2を、通信部203及び213とネットワークとを介して取得することができる。サーバ206がカメラ202が撮影した撮影画像IM2を通信部203及びネットワークを介して取得し、画像調整装置210がサーバ206から撮影画像IM2をネットワーク及び通信部213を介して取得してもよい。 The image adjusting device 210 can acquire the captured image IM2 captured by the camera 202 via the communication units 203 and 213 and the network. The server 206 may acquire the captured image IM2 captured by the camera 202 via the communication unit 203 and the network, and the image adjusting device 210 may acquire the captured image IM2 from the server 206 via the network and the communication unit 213.
画像調整装置210が取得した撮影画像IM2は、画像処理部211へ入力される。画像処理部211は、撮影画像IM2を解析することにより、撮影画像IM2における水平方向を認識する。画像処理部211は、撮影画像IM2を解析することにより、撮影画像IM2における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。画像調整装置210は、撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像表示装置204へ出力する。 The captured image IM2 acquired by the image adjusting device 210 is input to the image processing unit 211. The image processing unit 211 recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2. The image processing unit 211 may recognize the vertical direction in the captured image IM2, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM2. The image adjusting device 210 corrects the distortion of the captured image IM2, executes image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image display device 204.
サーバ206は、カメラ202が撮影した撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像調整装置210へ出力してもよい。画像表示装置204は、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を表示する。使用者USは、その頭部に画像表示装置204を装着することにより、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を見ることができる。 The server 206 corrects the distortion of the captured image IM2 captured by the camera 202, executes image processing such as adjusting the level of the captured image IM2, and outputs the image-processed captured image IM2 to the image adjusting device 210. You may. The image display device 204 displays the captured image IM2 image-processed by the image adjustment device 210 or the server 206. By attaching the image display device 204 to the head of the user US, the user US can see the captured image IM2 image-processed by the image adjusting device 210 or the server 206.
画像表示装置204は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN2を生成する。画像処理部211は、画像表示装置204から姿勢情報PN2を取得する。即ち、画像処理部211は、画像表示装置204の姿勢に基づいて姿勢情報PN2を取得することになる。画像処理部211は、姿勢情報PN2に基づいて、カメラ202が撮影した撮影画像IM2から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置204に表示する。 The image display device 204 generates posture information PN2 based on the direction in which the user US is facing, the posture of the user US, and the like when the image display device 204 is attached to the head of the user US. The image processing unit 211 acquires the posture information PN2 from the image display device 204. That is, the image processing unit 211 acquires the posture information PN2 based on the posture of the image display device 204. Based on the posture information PN2, the image processing unit 211 displays an image of a region corresponding to a state such as the direction in which the user US is facing and the posture of the user US from the captured image IM2 taken by the camera 202. Displayed on device 204.
コントローラ205は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢等の状態に基づいて指示情報NN2を生成する。画像処理部211は、コントローラ205から指示情報NN2を取得する。画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている撮影画像IM2を変化させたり調整したりすることができる。 The controller 205 generates instruction information NN2 based on a state such as the movement or posture of the user US's hand while it is attached to the user US's hand. The image processing unit 211 acquires the instruction information NN2 from the controller 205. The image processing unit 211 can change or adjust the captured image IM2 displayed on the image display device 204 based on the instruction information NN2.
画像生成部212は、撮影画像IM2と合成されるCGである合成画像CM2を生成する。合成画像CM2は、例えばアバター等のキャラクタの画像である。画像生成部212は、合成画像CM2を内蔵メモリまたは外部のメモリに保存する。画像処理部211は、画像生成部212で生成された合成画像CM2を取得し、通信部213とネットワークとを介してサーバ206へ出力してもよい。サーバ206は、合成画像CM2を画像表示装置204または使用者USと対応付けて内蔵メモリまたは外部のメモリに保存する。 The image generation unit 212 generates a composite image CM2 which is a CG to be combined with the captured image IM2. The composite image CM2 is an image of a character such as an avatar. The image generation unit 212 stores the composite image CM2 in the internal memory or an external memory. The image processing unit 211 may acquire the composite image CM2 generated by the image generation unit 212 and output it to the server 206 via the communication unit 213 and the network. The server 206 stores the composite image CM2 in the built-in memory or an external memory in association with the image display device 204 or the user US.
画像処理部211は、指示情報NN2に基づいて、画像生成部212またはサーバ206から合成画像CM2を取得し、画像表示装置204に表示されている撮影画像IM2に合成画像CM2を合成する。従って、画像表示装置204は、カメラ202が撮影した撮影画像IM2と、画像生成部212またはサーバ206から取得されて撮影画像IM2と合成された合成画像CM2とを表示することができる。 The image processing unit 211 acquires the composite image CM2 from the image generation unit 212 or the server 206 based on the instruction information NN2, and synthesizes the composite image CM2 with the captured image IM2 displayed on the image display device 204. Therefore, the image display device 204 can display the captured image IM2 captured by the camera 202 and the composite image CM2 acquired from the image generation unit 212 or the server 206 and combined with the captured image IM2.
画像生成部212は、CGである球面により構成された仮想画像である球面状画像VSS2を生成する。画像生成部212は、球面状画像VSS2を内蔵メモリまたは外部のメモリに保存する。画像処理部211は、指示情報NN2に基づいて、画像生成部212で生成された球面状画像VSS2を取得し、画像表示装置204に表示する。 The image generation unit 212 generates a spherical image VSS2 which is a virtual image composed of a spherical surface which is CG. The image generation unit 212 stores the spherical image VSS2 in the built-in memory or an external memory. The image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 based on the instruction information NN2 and displays it on the image display device 204.
球面状画像VSS2は、第1実施形態の球面状画像VSS1に相当する。使用者USは、コントローラ205が装着されている手を、画像表示装置204に表示されている球面状画像VSS2に対応する位置に移動させることにより、使用者USの手が球面状画像VSS2に接触しているように感じる。 The spherical image VSS2 corresponds to the spherical image VSS1 of the first embodiment. The user US moves the hand on which the controller 205 is attached to a position corresponding to the spherical image VSS2 displayed on the image display device 204, so that the hand of the user US comes into contact with the spherical image VSS2. I feel like I'm doing it.
コントローラ205は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部211は、指示情報NN2に基づいて、使用者USの手が球面状画像VSS2に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS2に接触する感覚を実感として得ることができる。 In the controller 205, the actuator may be arranged at a portion that comes into contact with the hand of the user US. The image processing unit 211 operates the actuator when it is determined that the hand of the user US has moved to the position corresponding to the spherical image VSS2 based on the instruction information NN2. When the actuator applies pressure to the hand of the user US, the user US can actually feel the hand touching the spherical image VSS2.
球面状画像VSS2が画像表示装置204に表示されている状態において、使用者USが、コントローラ205が装着されている手を任意の方向へ移動させた場合、画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている球面状画像VSS2と撮影画像IM2とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the user US moves the hand on which the controller 205 is mounted in an arbitrary direction while the spherical image VSS2 is displayed on the image display device 204, the image processing unit 211 displays the instruction information NN2. Based on this, image processing is performed so that the spherical image VSS2 and the captured image IM2 displayed on the image display device 204 move according to the moving direction, moving speed, and moving destination position of the hand of the user US. To execute.
使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS2を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS2を回転させることができる。画像処理部211は、球面状画像VSS2の回転に対応させて撮影画像IM2を移動させる。 The user US can rotate the spherical image VSS2 in an arbitrary direction and at an arbitrary speed by moving the hand in an arbitrary direction and at an arbitrary speed to an arbitrary position. it can. That is, the user US can rotate the spherical image VSS2 by the movement of his / her hand. The image processing unit 211 moves the captured image IM2 in correspondence with the rotation of the spherical image VSS2.
画像処理部211は、使用者USが球面状画像VSS2を回転させる前の天頂ZEが、使用者USが球面状画像VSS2を回転させることによって球面状画像VSS2の座標上のどの位置へ移動したかを判定することができる。画像処理部211は、球面状画像VSS2の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS2を回転させる前と回転させた後との球面状画像VSS2の変化量を算出する。球面状画像VSS2の変化量は、第1実施形態の球面状画像VSS1の変化量に相当する。 The image processing unit 211 indicates to which position on the coordinates of the spherical image VSS2 the zenith ZE before the user US rotates the spherical image VSS2 has moved by rotating the spherical image VSS2 by the user US. Can be determined. The image processing unit 211 is a spherical image before and after the user US rotates the spherical image VSS2 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS2. Calculate the amount of change in VSS2. The amount of change in the spherical image VSS2 corresponds to the amount of change in the spherical image VSS1 of the first embodiment.
画像処理部211は、球面状画像VSS2の変化量を補正値CV2として保存する。補正値CV2は、第1実施形態の補正値CV1に相当する。画像処理部211は、使用者USが球面状画像VSS2を回転させた後の天頂ZEの球面状画像VSS2上の座標を補正値CV2として保存してもよい。画像処理部211は、補正値CV2を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV2を通信部213及びネットワークを介してサーバ206へ出力してもよい。サーバ206は、補正値CV2を画像表示装置204または使用者USと関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 211 saves the amount of change in the spherical image VSS2 as the correction value CV2. The correction value CV2 corresponds to the correction value CV1 of the first embodiment. The image processing unit 211 may save the coordinates on the spherical image VSS2 of the zenith ZE after the user US rotates the spherical image VSS2 as the correction value CV2. The image processing unit 211 may store the correction value CV2 in the built-in memory or an external memory, or may output the correction value CV2 to the server 206 via the communication unit 213 and the network. The server 206 associates the correction value CV2 with the image display device 204 or the user US and stores it in the internal memory or an external memory.
画像処理部211は、撮影画像IM2の水平方向を検出する。しかし、画像処理部211は、撮影画像IM2によってはその水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。撮影画像IM2の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、画像表示装置204に表示される撮影画像IM2が使用者USの重力感覚と一致しないため、使用者USは違和感を覚える。 The image processing unit 211 detects the horizontal direction of the captured image IM2. However, it is difficult for the image processing unit 211 to detect the horizontal direction depending on the captured image IM2, and the horizontal direction may be erroneously detected. In addition, the horizontal or zenith designation may shift due to problems such as system synchronization. If the horizontal direction of the captured image IM2 is incorrectly detected, or if the horizontal or zenith designation is deviated, the captured image IM2 displayed on the image display device 204 does not match the gravitational sensation of the user US, so that the user US I feel uncomfortable.
図6A、図6B、及び図7に示すフローチャートを用いて、第2実施形態の画像調整方法の一例を説明する。具体的には、撮影画像IM2及び合成画像CM2の水平を調整する方法の一例について説明する。画像表示装置204が使用者USの頭部に装着され、コントローラ205が使用者USの手に装着されている。画像表示装置204には撮影画像IM2及び合成画像CM2が表示されている。なお、合成画像CM2は表示されていなくてもよい。 An example of the image adjustment method of the second embodiment will be described with reference to the flowcharts shown in FIGS. 6A, 6B, and 7. Specifically, an example of a method of adjusting the horizontal of the captured image IM2 and the composite image CM2 will be described. The image display device 204 is attached to the head of the user US, and the controller 205 is attached to the hand of the user US. The captured image IM2 and the composite image CM2 are displayed on the image display device 204. The composite image CM2 may not be displayed.
使用者USが画像表示装置204に表示されている撮影画像IM2が水平でないと判断した場合、図6Aにおいて、使用者USがコントローラ205を操作することにより、画像処理部211は、ステップS201にて、画像表示装置204に設定画面を表示させる。 When the user US determines that the captured image IM2 displayed on the image display device 204 is not horizontal, in FIG. 6A, when the user US operates the controller 205, the image processing unit 211 moves to step S201. , Display the setting screen on the image display device 204.
使用者USがコントローラ205を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部211は、ステップS202にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部211は、撮影画像IM2の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user US operates the controller 205 and selects a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 211 selects the selected item in step S202. The process is shifted to the corresponding predetermined process mode. When the horizontal adjustment item is selected, the image processing unit 211 shifts the processing to the processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM2.
画像処理部211は、ステップS203にて、画像生成部212で生成された球面状画像VSS2を取得し、画像表示装置204に表示する。画像表示装置204には、撮影画像IM2と球面状画像VSS2とが混合して表示される。画像処理部211は、ステップS204にて、合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されているか否かを判定する。 In step S203, the image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 and displays it on the image display device 204. The captured image IM2 and the spherical image VSS2 are mixed and displayed on the image display device 204. In step S204, the image processing unit 211 determines whether or not the composite image CM2 is combined with the captured image IM2 and displayed on the image display device 204.
ステップS204において合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されている(YES)と判定された場合、画像処理部211は、ステップS205にて、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とを分離させる処理を実行する。図8は、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とが分離された状態を模式的に示している。 When it is determined in step S204 that the composite image CM2 is combined with the captured image IM2 and displayed on the image display device 204 (YES), the image processing unit 211 and the horizontal plane SHP2 of the composite image CM2 in step S205. A process of separating the captured image IM2 from the horizontal plane PHP2 is executed. FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated.
ステップS204において合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されていない(NO)と判定された場合、画像処理部211は、処理をステップS206へ進める。 If it is determined in step S204 that the composite image CM2 is combined with the captured image IM2 and is not displayed on the image display device 204 (NO), the image processing unit 211 advances the process to step S206.
使用者USは、撮影画像IM2が水平となるように球面状画像VSS2を回転させる。合成画像CM2の水平面SHP2と撮影画像IM1の水平面PHP2とは分離しているため、球面状画像VSS2を回転させても、合成画像CM2は回転しない。そのため、使用者USは、合成画像CM2の回転に惑わされることなく、撮影画像IM2の水平を容易に補正することができる。 The user US rotates the spherical image VSS2 so that the captured image IM2 is horizontal. Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM1 are separated, the composite image CM2 does not rotate even if the spherical image VSS2 is rotated. Therefore, the user US can easily correct the horizontality of the captured image IM2 without being confused by the rotation of the composite image CM2.
ステップS205において、画像処理部211は合成画像CM2を非表示にしてもよい。合成画像CM2を非表示にすることにより、合成画像CM2が邪魔にならないので、使用者USは、撮影画像IM2の水平を容易に補正することができる。 In step S205, the image processing unit 211 may hide the composite image CM2. By hiding the composite image CM2, the composite image CM2 does not get in the way, so that the user US can easily correct the horizontality of the captured image IM2.
画像処理部211は、ステップS206にて、球面状画像VSS2の回転に対応させて、画像表示装置204に表示されている撮影画像IM2を移動させる。使用者USは撮影画像IM2が水平になるまで球面状画像VSS2を回転させる動作を複数回行ってもよい。 In step S206, the image processing unit 211 moves the captured image IM2 displayed on the image display device 204 in correspondence with the rotation of the spherical image VSS2. The user US may perform the operation of rotating the spherical image VSS2 a plurality of times until the captured image IM2 becomes horizontal.
図6Bにおいて、使用者USは撮影画像IM2が水平になったと判断した場合にコントローラ205を操作することにより、画像処理部211は、ステップS207にて、球面状画像VSS2の表示を終了させ、画像表示装置204に設定画面を表示させる。画像表示装置204に表示されている撮影画像IM2を水平にすることにより、カメラ202の天頂と使用者USの天頂とを一致させることができる。 In FIG. 6B, when the user US determines that the captured image IM2 is horizontal, the image processing unit 211 ends the display of the spherical image VSS2 in step S207 by operating the controller 205, and the image Display the setting screen on the display device 204. By leveling the captured image IM2 displayed on the image display device 204, the zenith of the camera 202 and the zenith of the user US can be matched.
使用者USがコントローラ205を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部211は、ステップS208にて、選択された項目に対応する所定の処理モードへ処理を移行させる。終了の項目が選択された場合、画像処理部211は、水平調整を終了するための処理モード(水平調整終了モード)へ処理を移行させる。 When the user US operates the controller 205 and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 211 corresponds to the selected item in step S208. The process is shifted to the predetermined process mode. When the end item is selected, the image processing unit 211 shifts the processing to the processing mode for ending the horizontal adjustment (horizontal adjustment end mode).
画像処理部211は、ステップS209にて、球面状画像VSS2が回転する前と後との回転量(回転角度)を、球面状画像VSS2の変化量として取得する。画像処理部211は、ステップS210にて、球面状画像VSS2の変化量を補正値CV2として保存する。 In step S209, the image processing unit 211 acquires the amount of rotation (rotation angle) before and after the spherical image VSS2 rotates as the amount of change in the spherical image VSS2. In step S210, the image processing unit 211 saves the amount of change in the spherical image VSS2 as the correction value CV2.
図6A及び図6BのステップS201〜S210において合成画像CM2が表示されていない場合、使用者USがコントローラ205を操作することにより、画像調整装置210(具体的には画像処理部211)は、画像生成部212で生成された合成画像CM2を取得し、画像表示装置204に表示させることができる。 When the composite image CM2 is not displayed in steps S201 to S210 of FIGS. 6A and 6B, the user US operates the controller 205 to cause the image adjusting device 210 (specifically, the image processing unit 211) to display the image. The composite image CM2 generated by the generation unit 212 can be acquired and displayed on the image display device 204.
画像調整装置210(具体的には画像処理部211)は、カメラ202が撮影する撮影画像IM2を解析することにより、撮影画像IM2における水平方向を認識する。使用者USが球面状画像VSS2を回転させて撮影画像IM2の水平を調整した後に、画像調整装置210が画像生成部212で生成された合成画像CM2を取得し、画像表示装置204に表示させると、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とは一致しなくなる。撮影画像IM2の水平面PHP2と合成画像CM2の水平面SHP2とがずれていると、使用者USは違和感を覚える。 The image adjusting device 210 (specifically, the image processing unit 211) recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2 captured by the camera 202. After the user US rotates the spherical image VSS2 to adjust the level of the captured image IM2, the image adjusting device 210 acquires the composite image CM2 generated by the image generation unit 212 and displays it on the image display device 204. , The horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 do not match. If the horizontal plane PHP2 of the captured image IM2 and the horizontal plane SHP2 of the composite image CM2 are deviated from each other, the user US feels uncomfortable.
図7において、画像処理部211は、ステップS211にて、合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されているか否かを判定する。合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されている(YES)と判定された場合、画像処理部211は、ステップS212にて、保存されている補正値CV2を取得する。 In FIG. 7, the image processing unit 211 determines in step S211 whether or not the composite image CM2 is combined with the captured image IM2 and displayed on the image display device 204. When it is determined that the composite image CM2 is combined with the captured image IM2 and displayed on the image display device 204 (YES), the image processing unit 211 acquires the stored correction value CV2 in step S212. ..
画像処理部211は、ステップS213にて、補正値CV2に基づいて合成画像CM2の座標軸を回転させ、合成画像CM2の水平面SHP2を、使用者USによって水平調整された撮影画像IM2の水平面PHP2と一致させる。画像処理部211は、ステップS214にて、合成画像CM2を、補正された水平面SHP2に基づいて演算処理し、画像調整する。図8は、合成画像CM2の水平面SHP2と撮影画像IM1の水平面PHP2とが一致している状態を模式的に示している。 In step S213, the image processing unit 211 rotates the coordinate axes of the composite image CM2 based on the correction value CV2, and makes the horizontal plane SHP2 of the composite image CM2 coincide with the horizontal plane PHP2 of the captured image IM2 horizontally adjusted by the user US. Let me. In step S214, the image processing unit 211 performs arithmetic processing on the composite image CM2 based on the corrected horizontal plane SHP2 to adjust the image. FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM1 coincide with each other.
ステップS211において撮影画像IM2が使用者USによって水平調整されていない(NO)と判定された場合、画像処理部211は、処理をステップS215へ移行させる。画像処理部211は、ステップS215にて、画像調整された合成画像CM2を撮影画像IM2と合成して画像表示装置204に表示させる。使用者USは、画像表示装置204に表示され、互いの水平が一致している撮影画像IM2及び合成画像CM2を見ることができる。 When it is determined in step S211 that the captured image IM2 is not horizontally adjusted (NO) by the user US, the image processing unit 211 shifts the processing to step S215. In step S215, the image processing unit 211 combines the image-adjusted composite image CM2 with the captured image IM2 and displays it on the image display device 204. The user US can see the captured image IM2 and the composite image CM2 that are displayed on the image display device 204 and are horizontally aligned with each other.
第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法では、画像表示装置204に球面状画像VSS2を表示させる。第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ205を操作して球面状画像VSS2を回転させることにより、画像表示装置204に表示されている撮影画像IM2を水平になるように調整することができる。 In the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, the spherical image VSS2 is displayed on the image display device 204. According to the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, it is used when the horizontal direction of the captured image IM2 is incorrectly detected or the horizontal or zenith ZE designation is deviated. By operating the controller 205 to rotate the spherical image VSS2, the person US can adjust the captured image IM2 displayed on the image display device 204 so as to be horizontal.
従って、第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM2の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, when the horizontal direction of the captured image IM2 is erroneously detected, or when the horizontal or zenith designation is deviated, The user US can easily correct the horizontal or zenith of the captured image IM2.
第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、補正値CV2が保存されている場合、画像処理部211は、補正値CV2を読み出し、カメラ202が撮影した撮影画像IM2を補正値CV2に基づいて画像調整し、画像表示装置204に表示することができる。 According to the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, when the correction value CV2 is stored, the image processing unit 211 reads out the correction value CV2 and the camera 202 takes a picture. The captured image IM2 can be image-adjusted based on the correction value CV2 and displayed on the image display device 204.
第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法では、合成画像CM2の水平面SHP2と撮影画像IM1の水平面PHP2とを分離させて、撮影画像IM1の水平を調整し、調整結果(補正値CV2)に基づいて合成画像CM1の水平を調整する。合成画像CM2の水平面SHP2と撮影画像IM1の水平面PHP2とが分離しているため、使用者USが球面状画像VSS2を回転させても、合成画像CM2は回転しない。そのため、使用者USは、撮影画像IM2の水平を容易に補正することができる。 In the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM1 are separated, and the horizontality of the captured image IM1 is adjusted and adjusted. The horizontal of the composite image CM1 is adjusted based on the result (correction value CV2). Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM1 are separated, even if the user US rotates the spherical image VSS2, the composite image CM2 does not rotate. Therefore, the user US can easily correct the horizontality of the captured image IM2.
第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2が水平調整された場合、補正値CV2に基づいて合成画像CM2の座標軸を回転させ、合成画像CM2の水平面SHP2を撮影画像IM2の水平面PHP2と一致させる。そのため、使用者USは、画像表示装置204に表示されている撮影画像IM2と合成画像CM2とを、違和感を覚えることなく見ることができる。 According to the image adjustment system 201, the image adjustment device 210, and the image adjustment method of the second embodiment, when the captured image IM2 is horizontally adjusted, the coordinate axes of the composite image CM2 are rotated based on the correction value CV2 to rotate the composite image. The horizontal plane SHP2 of CM2 is made to match the horizontal plane PHP2 of the captured image IM2. Therefore, the user US can see the captured image IM2 and the composite image CM2 displayed on the image display device 204 without feeling any discomfort.
[第3実施形態]
図9を用いて、第3実施形態の画像調整システムの構成例を説明する。画像調整システム301は、カメラ302と、通信部303と、複数の画像表示装置304と、複数のコントローラ305と、複数の画像調整装置310と、サーバ306とを備える。画像調整装置310は、画像処理部311と、画像生成部312と、通信部313とを有する。
[Third Embodiment]
A configuration example of the image adjustment system of the third embodiment will be described with reference to FIG. The
カメラ302、通信部303、画像表示装置304、コントローラ305、画像調整装置310、及びサーバ306は、それぞれ、第1及び第2実施形態のカメラ102及び202、通信部103及び203、画像表示装置104及び204、コントローラ105及び205、画像調整装置110及び210、及び、サーバ106及び206に相当する。画像処理部311、画像生成部312、及び通信部313は、それぞれ、第1及び第2実施形態の画像処理部111及び211、画像生成部112及び212、及び、通信部113及び213に相当する。
The
図9では、説明をわかりやすくするために、それぞれ2つの画像表示装置304、コントローラ305、及び画像調整装置310を示している。画像表示装置304、コントローラ305、及び画像調整装置310は3つ以上であってもよい。使用者USa(第1の使用者)が使用する画像表示装置304、コントローラ305、及び画像調整装置310を、画像表示装置304a(第3実施形態における第1の画像表示装置)、コントローラ305a(第3実施形態における第1のコントローラ)、及び画像調整装置310a(第3実施形態における第1の画像調整装置)とする。使用者USb(第2の使用者)が使用する画像表示装置304、コントローラ305、及び画像調整装置310を画像表示装置304b(第3実施形態における第2の画像表示装置)、コントローラ305b(第3実施形態における第2のコントローラ)、及び画像調整装置310b(第3実施形態における第2の画像調整装置)とする。
In FIG. 9, two image display devices 304, a controller 305, and an image adjustment device 310 are shown, respectively, for the sake of clarity. The number of the image display device 304, the controller 305, and the image adjustment device 310 may be three or more. The image display device 304, the controller 305, and the image adjustment device 310 used by the user USa (first user) are combined with the
画像調整装置310aにおける画像処理部311、画像生成部312、及び通信部313を、画像処理部311a、画像生成部312a、及び通信部313aとし、画像調整装置310bにおける画像処理部311、画像生成部312、及び通信部313を、画像処理部311b、画像生成部312b、及び通信部313bとする。
The image processing unit 311, the image generation unit 312, and the communication unit 313 in the
画像調整装置310aは、カメラ302が撮影した撮影画像IM3を、通信部303及び313aとネットワークとを介して取得することができる。画像調整装置310bは、カメラ302が撮影した撮影画像IM3を、通信部303及び313bとネットワークとを介して取得することができる。
The
サーバ306は、カメラ302が撮影した撮影画像IM3を通信部303及びネットワークを介して取得し、画像調整装置310a及び310bがサーバ306から撮影画像IM3をネットワーク及び通信部313a及び313bを介して取得してもよい。
The
サーバ306は、使用者USaがログイン操作を実行する、または、画像表示装置304aが通信部313aを介してネットワークに接続されることにより、使用者USaまたは画像表示装置304aを特定することができる。サーバ306は、使用者USbがログイン操作を実行する、または、画像表示装置304bが通信部313bを介してネットワークに接続されることにより、使用者USbまたは画像表示装置304bを特定することができる。
The
以下、画像調整装置310a、画像表示装置304a、及びコントローラ305aにおける処理について説明する。括弧内の符号は、画像調整装置310b、画像表示装置304b、及びコントローラ305bにおける処理を示している。
Hereinafter, the processing in the
画像調整装置310a(310b)が取得した撮影画像IM3は、画像処理部311a(311b)へ入力される。画像処理部311a(311b)は、撮影画像IM3を解析することにより、撮影画像IM3における水平方向を認識する。画像処理部311a(311b)は、撮影画像IM3を解析することにより、撮影画像IM3における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。
The captured image IM3 acquired by the
画像調整装置310a(310b)は、撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像表示装置304a及び304bへ出力する。
The
サーバ306は、カメラ302が撮影した撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像調整装置310a(310b)へ出力してもよい。画像表示装置304a(304b)は、画像調整装置310a(310b)、またはサーバ306によって画像処理された撮影画像IM3を表示する。
The
使用者USa(USb)は、その頭部に画像表示装置304a(304b)を装着することにより、画像調整装置310a(310b)またはサーバ306によって画像処理された撮影画像IM3を見ることができる。
The user USa (USb) can see the captured image IM3 image-processed by the
画像表示装置304a(304b)は、使用者USa(USb)の頭部に装着されている状態において、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に基づいて姿勢情報PN3a(PN3b)を生成する。画像処理部311a(311b)は、画像表示装置304a(304b)から姿勢情報PN3a(PN3b)を取得する。即ち、画像処理部311a(311b)は、画像表示装置304a(304b)の姿勢に基づいて姿勢情報PN3a(PN3b)を取得することになる。
When the
画像処理部311a(311b)は、姿勢情報PN3a(PN3b)に基づいて、カメラ302が撮影した撮影画像IM3から、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に対応する領域の画像を画像表示装置304a(304b)に表示する。
Based on the posture information PN3a (PN3b), the
コントローラ305a(305b)は、使用者USa(USb)の手に装着されている状態において、使用者USa(USb)の手の動きまたは姿勢等の状態に基づいて指示情報NN3a(NN3b)を生成する。画像処理部311a(311b)は、コントローラ305a(305b)から指示情報NN3a(NN3b)を取得する。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像表示装置304a(304b)に表示されている撮影画像IM3を変化させたり調整したりすることができる。
The
画像生成部312a(312b)は、撮影画像IM3と合成されるCGである合成画像CM3b(CM3a)を生成する。合成画像CM3a(CM3b)は、例えばアバター等のキャラクタの画像である。合成画像CM3aは使用者USaのアバターであり、合成画像CM3bは使用者USbのアバターである。使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像生成部312a(312b)は、使用者USb(USa)のアバターである合成画像CM3b(CM3a)を生成し、内蔵メモリまたは外部のメモリに保存する。
The
画像処理部311a(311b)は、画像生成部312a(312b)で生成された合成画像CM3b(CM3a)を取得し、通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。
The
使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像生成部312a(312b)は、使用者USa(USb)のアバターである合成画像CM3a(CM3b)を生成してもよい。画像処理部311a(311b)は、画像生成部312a(312b)で生成された合成画像CM3a(CM3b)を取得し、通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。即ち、使用者USaは、別の使用者USbのアバターを設定してもよいし、自身のアバターを設定してもよく、使用者USbは、別の使用者USaのアバターを設定してもよいし、自身のアバターを設定してもよい。
When the user USa (USb) operates the
サーバ306は、合成画像CM3a(CM3b)を使用者USa(USb)と対応付けて内蔵メモリまたは外部のメモリに保存する。サーバ306が、合成画像CM3a(CM3b)を使用者USa(USb)と対応付けて自動設定し、内蔵メモリまたは外部のメモリに保存してもよい。
The
画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像生成部312a(312b)またはサーバ306から合成画像CM3b(CM3a)を取得し、画像表示装置304a(304b)に表示されている撮影画像IM3に合成画像CM3a(CM3b)を合成する。従って、画像表示装置304a(304b)は、カメラ302が撮影した撮影画像IM3と、画像生成部312a(312b)またはサーバ306から取得されて撮影画像IM3と合成された合成画像CM3a(CM3b)とを表示することができる。
The
画像生成部312a(312b)は、CGである球面により構成された仮想画像である球面状画像VSS3a(VSS3b)を生成する。画像生成部312a(312b)は、球面状画像VSS3a(VSS3b)を内蔵メモリまたは外部のメモリに保存する。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像生成部312a(312b)で生成された球面状画像VSS3a(VSS3b)を取得し、画像表示装置304a(304b)に表示する。
The
球面状画像VSS3a(VSS3b)は、第1及び第2実施形態の球面状画像VSS1及びVSS2に相当する。使用者USa(USb)は、コントローラ305a(305b)が装着されている手を、画像表示装置304a(304b)に表示されている球面状画像VSS3a(VSS3b)に対応する位置に移動させることにより、使用者USa(USb)の手が球面状画像VSS3a(VSS3b)に接触しているように感じる。
The spherical images VSS3a (VSS3b) correspond to the spherical images VSS1 and VSS2 of the first and second embodiments. The user USa (USb) moves the hand on which the
コントローラ305a(305b)は、使用者USa(USb)の手と接触する部分にアクチュエータが配置されていてもよい。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、使用者USa(USb)の手が球面状画像VSS3a(VSS3b)に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USa(USb)の手に圧力を加えることにより、使用者USa(USb)は、その手が球面状画像VSS3a(VSS3b)に接触する感覚を実感として得ることができる。
In the
球面状画像VSS3a(VSS3b)が画像表示装置304a(304b)に表示されている状態において、使用者USa(USb)が、コントローラ305a(305b)が装着されている手を任意の方向へ移動させた場合、画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像表示装置304a(304b)に表示されている球面状画像VSS3a(VSS3b)と撮影画像IM3とが、使用者USa(USb)の手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
In a state where the spherical image VSS3a (VSS3b) is displayed on the
使用者USa(USb)は、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS3a(VSS3b)を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USa(USb)は、その手の動きによって球面状画像VSS3a(VSS3b)を回転させることができる。画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の回転に対応させて撮影画像IM3を移動させる。
The user USa (USb) moves the spherical image VSS3a (VSS3b) in an arbitrary direction and at an arbitrary speed by moving the hand in an arbitrary direction and at an arbitrary speed. Can be rotated to position. That is, the user USa (USb) can rotate the spherical image VSS3a (VSS3b) by the movement of his / her hand. The
画像処理部311a(311b)は、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させる前の天頂ZEが、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させることによって球面状画像VSS3a(VSS3b)の座標上のどの位置へ移動したかを判定することができる。
The
画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させる前と回転させた後との球面状画像VSS3a(VSS3b)の変化量を算出する。球面状画像VSS3a(VSS3b)の変化量は、第1及び第2実施形態の球面状画像VSS1及びVSS2の変化量に相当する。
In the
画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の変化量を補正値CV3a(CV3b)として保存する。補正値CV3a(CV3b)は、第1及び第2実施形態の補正値CV1及びCV2に相当する。画像処理部311a(311b)は、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させた後の天頂ZEの球面状画像VSS3a(VSS3b)上の座標を補正値CV3a(CV3b)として保存してもよい。
The
画像処理部311a(311b)は、補正値CV3a(CV3b)を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV3a(CV3b)を通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。サーバ306は、補正値CV3a(CV3b)を画像表示装置304a(304b)または使用者USa(USb)と関連付けて内蔵メモリまたは外部のメモリに保存する。
The
画像調整システム301は、使用者USa(USb)が装着している画像表示装置304a(304b)に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)を撮影画像IM3と合成して表示することができる。
The
使用者USa及びUSbがカメラ302が撮影している撮影画像IM3を見たとき、使用者USa及びUSbは、カメラ302の位置からその周囲を見ているように感じる。このような場合、使用者USa(USb)が見ている画像表示装置304a(304b)には、使用者USa(USb)の位置に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)が表示されているため、使用者USa(USb)は違和感を覚える。他の使用者USが複数の場合、使用者USaの位置に複数の使用者USb,USc,,,のアバターが重なって表示される。
When the users USa and USb see the captured image IM3 taken by the
サーバ306には、複数の使用者USa,USb,,,の位置関係が予め設定されている。言い換えれば、サーバ306には、複数の使用者USa,USb,,,の位置関係を示す位置設定情報が保存されている。複数の使用者USa,USb,,,の位置関係は、サーバ306が自動設定してもよいし、使用者USa,USb,,,が設定してもよい。
In the
図10は、使用者USaが画像表示装置304aを見ているときの使用者USaと他の使用者USbのアバターである合成画像CM3bとの位置関係の一例を示している。図11は、使用者USbが画像表示装置304bを見ているときの使用者USbと他の使用者USaのアバターである合成画像CM3aとの位置関係の一例を示している。
FIG. 10 shows an example of the positional relationship between the user USa when the user USa is looking at the
図10及び図11に示す黒点はカメラ302の位置を示し、矢印はカメラ302の移動方向を示している。即ち、図10及び図11は、使用者USa及びUSbがカメラ302の移動方向を向いている状態を示している。従って、図10及び図11では、使用者USaと使用者USbとは同じ撮影画像IM3を見ていることになる。
The black dots shown in FIGS. 10 and 11 indicate the position of the
このような場合、使用者USaから離れた位置に合成画像CM3bを表示させたり、使用者USbから離れた位置に合成画像CM3aを表示させたりすると、使用者USa及びUSbは違和感を覚える。従って、合成画像CM3a及びCM3bは使用者USa及びUSb(カメラ302)の位置から所定の範囲RG内の位置に表示させることが望ましい。 In such a case, if the composite image CM3b is displayed at a position away from the user USa or the composite image CM3a is displayed at a position away from the user USb, the users USa and USb feel uncomfortable. Therefore, it is desirable that the composite images CM3a and CM3b are displayed at positions within a predetermined range RG from the positions of the users USa and USb (camera 302).
図10に示すように、サーバ306には、例えば、使用者USaまたは画像表示装置304aにおいては、合成画像CM3bが使用者USaの右側に並んで配置されるように、使用者USaと使用者USbとの位置関係が設定されている。図11に示すように、サーバ306には、例えば、使用者USbまたは画像表示装置304bにおいては、合成画像CM3aが使用者USbの左側に並んで配置されるように、使用者USaと使用者USbとの位置関係が設定されている。
As shown in FIG. 10, on the
即ち、図10及び図11は、カメラ302の移動方向を使用者USa及びUSbの前方向としたときに、使用者USbが使用者USaの右側に並んで配置されるように、使用者USaと使用者USbとの位置関係が設定されている。そのため、使用者USaはその右側には常に使用者USbが見え、使用者USbはその左側には常に使用者USaが見えることになる。360度カメラであるカメラ302が静止している状態では、前後左右の基準がないため、使用者USaと使用者USbとの位置関係は初期設定時に決定しておくことが望ましい。
That is, FIGS. 10 and 11 show the user USa and the user USb so that the user USb is arranged side by side on the right side of the user USa when the moving direction of the
図12及び図13に示すフローチャートを用いて、第3実施形態の画像調整方法の一例を説明する。具体的には、撮影画像IM3に合成画像CM3を合成する方法の一例について説明する。以下、画像調整装置310a、画像表示装置304a、及びコントローラ305aにおける処理について説明する。括弧内の符号は、画像調整装置310b、画像表示装置304b、及びコントローラ305bにおける処理を示している。
An example of the image adjustment method of the third embodiment will be described with reference to the flowcharts shown in FIGS. 12 and 13. Specifically, an example of a method of synthesizing the composite image CM3 with the captured image IM3 will be described. Hereinafter, the processing in the
画像表示装置304a(304b)が使用者USa(USb)の頭部に装着され、コントローラ305a(305b)が使用者USa(USb)の手に装着されている。画像表示装置304a(304b)には撮影画像IM3が表示されている。
The
使用者USa(USb)が画像表示装置304a(304b)に表示されている撮影画像IM3が水平でないと判断した場合、図12において、使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS301にて、画像表示装置304a(304b)に設定画面を表示させる。
When the user USa (USb) determines that the captured image IM3 displayed on the
使用者USa(USb)がコントローラ305a(305b)を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部311a(311b)は、ステップS302にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部311a(311b)は、撮影画像IM3の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。
When the user USa (USb) operates the
画像処理部311a(311b)は、ステップS303にて、画像生成部312a(312b)で生成された球面状画像VSS3a(VSS3b)を取得し、画像表示装置304a(304b)に表示する。画像表示装置304a(304b)には、撮影画像IM3と球面状画像VSS3a(VSS3b)とが混合して表示される。
In step S303, the
使用者USa(USb)は撮影画像IM3が水平となるように球面状画像VSS3a(VSS3b)を回転させることにより、画像処理部311a(311b)は、ステップS304にて、球面状画像VSS3a(VSS3b)の回転に対応させて、画像表示装置304a(304b)に表示されている撮影画像IM3を移動させる。使用者USa(USb)は撮影画像IM3が水平になるまで球面状画像VSS3a(VSS3b)を回転させる動作を複数回行ってもよい。
The user USa (USb) rotates the spherical image VSS3a (VSS3b) so that the captured image IM3 is horizontal, so that the
使用者USa(USb)は撮影画像IM3が水平になったと判断した場合にコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS305にて、球面状画像VSS3a(VSS3b)の表示を終了させ、画像表示装置304a(304b)に設定画面を表示させる。画像表示装置304a(304b)に表示されている撮影画像IM3を水平にすることにより、カメラ302の天頂と使用者USa(USb)の天頂とを一致させることができる。
When the user USa (USb) determines that the captured image IM3 is horizontal, the
使用者USa(USb)がコントローラ305a(305b)を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部311a(311b)は、ステップS306にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部311a(311b)は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。
When the user USa (USb) operates the
画像処理部311a(311b)は、ステップS307にて、球面状画像VSS3a(VSS3b)が回転する前と後との回転量(回転角度)を、球面状画像VSS3a(VSS3b)の変化量として取得する。画像処理部311a(311b)は、ステップS308にて、球面状画像VSS3a(VSS3b)の変化量を補正値CV3a(CV3b)として保存し、処理を終了する。
In step S307, the
図13に示すフローチャートを用いて、使用者USaが見ている画像表示装置304aに、使用者USbのアバターである合成画像CM3bを撮影画像IM3と合成して表示する場合について説明する。なお、括弧内の符号は、使用者USbが見ている画像表示装置304bに、使用者USaのアバターである合成画像CM3aを撮影画像IM3と合成して表示する場合を示している。
The case where the composite image CM3b, which is the avatar of the user USb, is combined with the captured image IM3 and displayed on the
図13において、使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS311にて、画像表示装置304a(304b)に設定画面を表示させる。設定画面には、例えば他の使用者USのアバターを選択するためのアバター選択項目が表示される。
In FIG. 13, when the user USa (USb) operates the
使用者USa(USb)は例えば他の使用者である使用者USb(USa)を選択する。コントローラ305a(305b)は、ステップS312にて、使用者USb(USa)の選択内容に応じて指示情報NN3a(NN3b)を生成し、画像処理部311a(311b)へ出力する。
The user USa (USb) selects, for example, another user, the user USb (USa). In step S312, the
画像処理部311a(311b)は、ステップS313にて、指示情報NN3a(NN3b)に基づいて、合成画像CM3b(CM3a)を取得する。合成画像CM3b(CM3a)がサーバ306に保存されている場合、画像処理部311a(311b)は、通信部313a(313b)とネットワークとを介してサーバ306から合成画像CM3b(CM3a)を取得する。
In step S313, the
画像処理部311a(311b)は、ステップS314にて、カメラ302が移動中であるか否かを判定する。ステップS314においてカメラ302が移動中である(YES)と判定された場合、画像処理部311a(311b)は、ステップS315にて、カメラ302の移動方向を認識する。画像処理部311a(311b)は、撮影画像IM3に基づいて、カメラ302が移動中であるか否かを判定し、カメラ302の移動方向を認識することができる。
The
画像処理部311a(311b)は、ステップS316にて、カメラ302の移動方向に対して、合成画像CM3b(CM3a)が例えば使用者USa(USb)の右側(左側)に配置されるように、合成画像CM3b(CM3a)を撮影画像IM3と合成して、画像表示装置304a(304b)に表示させる。
In step S316, the
ステップS314においてカメラ302が移動中ではない(NO)と判定された場合、画像処理部311a(311b)は、カメラ302が静止している状態であると判断し、ステップS316にて、初期設定時に決定された使用者USaと使用者USbとの位置関係に基づいて、合成画像CM3b(CM3a)を撮影画像IM3と合成して、画像表示装置304a(304b)に表示させる。
If it is determined in step S314 that the
第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法では、画像表示装置304に球面状画像VSS3を表示させる。第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、撮影画像IM3の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ305を操作して球面状画像VSS3を回転させることにより、画像表示装置304に表示されている撮影画像IM3を水平になるように調整することができる。
In the
従って、第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、撮影画像IM3の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM3の水平または天頂を簡便に補正することができる。
Therefore, according to the
第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、補正値CV3が保存されている場合、画像処理部311は、補正値CV3を読み出し、カメラ302が撮影した撮影画像IM3を補正値CV3に基づいて画像調整し、画像表示装置304に表示することができる。
According to the
第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法では、複数の使用者USの位置関係が予め設定されている。これにより、画像表示装置304a(304b)に表示されている撮影画像IM3に、他の使用者USのアバターである合成画像CM3b(CM3a)を、予め設定されている位置関係に基づく位置に合成して表示することができる。
In the
第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、使用者USa及びUSbがカメラ302が撮影している撮影画像IM3を見たとき、使用者USa(USb)の近傍に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)が表示されるため、使用者USa(USb)は、違和感を覚えることなく、他の使用者USb(USa)と同じ撮影画像IM3を見ているように感じることができる。
According to the
[第4実施形態]
図14を用いて、第4実施形態の画像調整システムの構成例を説明する。画像調整システム401は、複数のカメラ402と、複数の通信部403と、複数の画像表示装置404と、複数のコントローラ405と、複数の画像調整装置410と、サーバ406とを備える。画像調整装置410は、画像処理部411と、画像生成部412と、通信部413とを有する。
[Fourth Embodiment]
A configuration example of the image adjustment system of the fourth embodiment will be described with reference to FIG. The
カメラ402、通信部403、及び画像表示装置404は、それぞれ、第1〜第3実施形態のカメラ102、202、及び302、通信部103、203、及び303、及び、画像表示装置104、204、及び304に相当する。コントローラ405、画像調整装置410、及びサーバ406は、それぞれ、第1〜第3実施形態のコントローラ105、205、及び305、画像調整装置110、210、及び310、及び、サーバ106、206、及び306に相当する。画像処理部411、画像生成部412、及び通信部413は、それぞれ、第1〜第3実施形態の画像処理部111、211、及び311、画像生成部112、212、及び312、及び、通信部113、213、及び313に相当する。
The camera 402, the communication unit 403, and the image display device 404 are the
図14では、説明をわかりやすくするために、それぞれ2つのカメラ402、通信部403、画像表示装置404、コントローラ405、及び画像調整装置410を示している。カメラ402、通信部403、画像表示装置404、コントローラ405、及び画像調整装置410は3つ以上であってもよい。使用者USa(第1の使用者)が使用する画像表示装置404、コントローラ405、及び画像調整装置410を、画像表示装置404a(第4実施形態における第1の画像表示装置)、コントローラ405a(第4実施形態における第1のコントローラ)、及び画像調整装置410a(第4実施形態における第1の画像調整装置)とする。使用者USb(第2の使用者)が使用する画像表示装置404、コントローラ405、及び画像調整装置410を、画像表示装置404b(第4実施形態における第2の画像表示装置)、コントローラ405b(第4実施形態における第2のコントローラ)、及び画像調整装置410b(第4実施形態における第2の画像調整装置)とする。
In FIG. 14, two cameras 402, a communication unit 403, an image display device 404, a controller 405, and an image adjustment device 410 are shown, respectively, for the sake of clarity. The number of the camera 402, the communication unit 403, the image display device 404, the controller 405, and the image adjusting device 410 may be three or more. The image display device 404, controller 405, and image adjustment device 410 used by the user USa (first user) are combined with the
画像調整装置410aにおける画像処理部411、画像生成部412、及び通信部413を、画像処理部411a、画像生成部412a、及び通信部413aとし、画像調整装置410bにおける画像処理部411、画像生成部412、及び通信部413を、画像処理部411b、画像生成部412b、及び通信部413bとする。画像調整装置410aは、通信部413aを介してネットワークに接続され、画像調整装置410bは、通信部413bを介してネットワークに接続されている。
The image processing unit 411, the image generation unit 412, and the communication unit 413 in the
2つのカメラ402の一方をカメラ4021(第1のカメラ)とし、他方をカメラ4022(第2のカメラ)とする。2つの通信部403の一方を通信部4031とし、他方を通信部4032とする。カメラ4021は、通信部4031を介してネットワークに接続され、カメラ4022は、通信部4032を介してネットワークに接続されている。カメラ4021及び4022は、共通の通信部4031または4032を介してネットワークに接続されていてもよい。サーバ406はネットワークに接続されている。
One of the two cameras 402 is the camera 4021 (first camera) and the other is the camera 4022 (second camera). One of the two communication units 403 is the
カメラ4021及び4022は、それぞれ独立して移動することができる。カメラ4021及び4022はGPS機能を有している。サーバ406は、ネットワークと通信部4031及び4032とを介して、カメラ4021及び4022の位置(現在位置)を継続して取得することができる。
The
画像調整装置410aは、サーバ406からカメラ4021及び4022の位置を、通信部413aとネットワークとを介して取得することができる。画像調整装置410bは、サーバ406からカメラ4021及び4022の位置を、通信部413bとネットワークとを介して取得することができる。
The
画像調整装置410aは、カメラ4021が撮影した撮影画像IM41を、通信部4031及び413aとネットワークとを介して取得することができる。画像調整装置410bは、カメラ4021が撮影した撮影画像IM41を、通信部4031及び413bとネットワークとを介して取得することができる。
The
画像調整装置410aは、カメラ4022が撮影した撮影画像IM42を、通信部4032及び413aとネットワークとを介して取得することができる。画像調整装置410bは、カメラ4022が撮影した撮影画像IM42を、通信部4032及び413bとネットワークとを介して取得することができる。図14は、画像調整装置410aが撮影画像IM41を取得し、画像調整装置410bが撮影画像IM42を取得する場合を示している。
The
サーバ406は、カメラ4021及び4022が撮影した撮影画像IM41及びIM42を通信部4031及び4032とネットワークとを介して取得してもよい。この場合、画像調整装置410aは、サーバ406から撮影画像IM41及びIM42をネットワーク及び通信部413aを介して取得する。画像調整装置410bは、サーバ406から撮影画像IM41及びIM42をネットワーク及び通信部413bを介して取得する。
The
サーバ406は、使用者USaがログイン操作を実行する、または、画像表示装置404aが通信部413aを介してネットワークに接続されることにより、使用者USaまたは画像表示装置404aを特定することができる。サーバ406は、使用者USbがログイン操作を実行する、または、画像表示装置404bが通信部413bを介してネットワークに接続されることにより、使用者USbまたは画像表示装置404bを特定することができる。
The
サーバ406は、どの画像表示装置にどの撮影画像が表示されているかを認識することができる。例えば、図14に示すように、撮影画像IM41が画像表示装置404aに表示され、撮影画像IM42が画像表示装置404bに表示されている場合、サーバ406は、画像表示装置404aに撮影画像IM41が表示され、画像表示装置404bに撮影画像IM42が表示されていることを認識する。言い換えれば、サーバ406は、使用者USaがカメラ4021が撮影した撮影画像IM41を見ていることを認識し、使用者USbがカメラ4022が撮影した撮影画像IM42を見ていることを認識することができる。
The
画像調整装置410aは、サーバ406から、撮影画像IM41及びIM42を撮影しているカメラ4021及び4022の現在位置、及び、画像調整装置410bが撮影画像IM42を取得していることを認識することができる。画像調整装置410bは、サーバ406から、撮影画像IM41及びIM42を撮影しているカメラ4021及び4022の現在位置、及び、画像調整装置410aが撮影画像IM41を取得していることを認識することができる。
The
画像調整装置410aが取得した撮影画像IM41(IM42)は、画像処理部411aへ入力される。画像処理部411aは、撮影画像IM41(IM42)を解析することにより、撮影画像IM41(IM42)における水平方向を認識する。画像処理部411aは、撮影画像IM41(IM42)を解析することにより、撮影画像IM41(IM42)における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。
The captured image IM41 (IM42) acquired by the
画像調整装置410aは、撮影画像IM41(IM42)の歪みを補正し、撮影画像IM41(IM42)の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM41(IM42)を画像表示装置404aへ出力する。
The
画像調整装置410bが取得した撮影画像IM42(IM41)は、画像処理部411bへ入力される。画像処理部411bは、撮影画像IM42(IM41)を解析することにより、撮影画像IM42(IM41)における水平方向を認識する。画像処理部411bは、撮影画像IM42(IM41)を解析することにより、撮影画像IM42(IM41)における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。
The captured image IM42 (IM41) acquired by the
画像調整装置410bは、撮影画像IM42(IM41)の歪みを補正し、撮影画像IM42(IM41)の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM42(IM41)を画像表示装置404bへ出力する。
The
サーバ406がカメラ4021及び4022が撮影した撮影画像IM41及びIM42の歪みを補正し、撮影画像IM41及びIM42の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM41及びIM42を、画像調整装置310aへ出力してもよいし、画像調整装置310bへ出力してもよい。
The
画像表示装置404aは、画像調整装置410aまたはサーバ406によって画像処理された撮影画像IM41(IM42)を表示する。使用者USaは、その頭部に画像表示装置404aを装着することにより、画像調整装置410aまたはサーバ406によって画像処理された撮影画像IM41(IM42)を見ることができる。
The
画像表示装置404bは、画像調整装置410bまたはサーバ406によって画像処理された撮影画像IM42(IM41)を表示する。使用者USbは、その頭部に画像表示装置404bを装着することにより、画像調整装置410bまたはサーバ406によって画像処理された撮影画像IM42(IM41)を見ることができる。
The
画像表示装置404a(404b)は、使用者USa(USb)の頭部に装着されている状態において、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に基づいて姿勢情報PN4a(PN4b)を生成する。画像処理部411a(411b)は、画像表示装置404a(404b)から姿勢情報PN4a(PN4b)を取得する。即ち、画像処理部411a(411b)は、画像表示装置404a(404b)の姿勢に基づいて姿勢情報PN4a(PN4b)を取得することになる。
When the
画像処理部411aは、姿勢情報PN4aに基づいて、カメラ4021または4022が撮影した撮影画像IM41またはIM42から、使用者USaが向いている方向、及び使用者USaの姿勢等の状態に対応する領域の画像を画像表示装置404aに表示する。画像処理部411bは、姿勢情報PN4bに基づいて、カメラ4021または4022が撮影した撮影画像IM41またはIM42から、使用者USbが向いている方向、及び使用者USbの姿勢等の状態に対応する領域の画像を画像表示装置404bに表示する。
The image processing unit 411a is a region corresponding to the direction in which the user USa is facing and the state such as the posture of the user USa from the captured image IM41 or IM42 taken by the
コントローラ405a(405b)は、使用者USa(USb)の手に装着されている状態において、使用者USa(USb)の手の動きまたは姿勢等の状態に基づいて指示情報NN4a(NN4b)を生成する。画像処理部411a(411b)は、コントローラ405a(405b)から指示情報NN4a(NN4b)を取得する。
The
画像処理部411aは、指示情報NN4aに基づいて、画像表示装置404aに表示されている撮影画像IM41またはIM42を変化させたり調整したりすることができる。画像処理部411bは、指示情報NN4bに基づいて、画像表示装置404bに表示されている撮影画像IM41またはIM42を変化させたり調整したりすることができる。
The image processing unit 411a can change or adjust the captured image IM41 or IM42 displayed on the
画像生成部412aは、撮影画像IM41(IM42)と合成されるCGである合成画像CM4bを生成する。画像生成部412bは、撮影画像IM42(IM41)と合成されるCGである合成画像CM4aを生成する。合成画像CM4a及びCM4bは、例えばアバター等のキャラクタの画像である。合成画像CM4aは使用者USaのアバターであり、合成画像CM4bは使用者USbのアバターである。
The
使用者USaがコントローラ405aを操作することにより、画像生成部412aは、使用者USbのアバターである合成画像CM4bを生成し、内蔵メモリまたは外部のメモリに保存する。使用者USbがコントローラ405bを操作することにより、画像生成部412bは、使用者USaのアバターである合成画像CM4aを生成し、内蔵メモリまたは外部のメモリに保存する。
When the user USa operates the
画像処理部411a及び411bは、画像生成部412a及び412bで生成された合成画像CM4b及びCM4aを取得し、通信部413a及び413bとネットワークとを介してサーバ406へ出力してもよい。
The
使用者USa(USb)がコントローラ405a(405b)を操作することにより、画像生成部412a(412b)は、使用者USa(USb)のアバターである合成画像CM4a(CM4b)を生成してもよい。画像処理部411a(411b)は、画像生成部412a(412b)で生成された合成画像CM4a(CM4b)を取得し、通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。即ち、使用者USaは、別の使用者USbのアバターを設定してもよいし、自身のアバターを設定してもよく、使用者USbは、別の使用者USaのアバターを設定してもよいし、自身のアバターを設定してもよい。
When the user USa (USb) operates the
サーバ406は、合成画像CM4a(CM4b)を使用者USa(USb)と対応付けて内蔵メモリまたは外部のメモリに保存する。サーバ406が、合成画像CM4a(CM4b)を使用者USa(USb)と対応付けて自動設定し、内蔵メモリまたは外部のメモリに保存してもよい。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、画像生成部412a(412b)またはサーバ306から合成画像CM4b(CM4a)を取得し、画像表示装置404a(404b)に表示することができる。
The
画像生成部412a(412b)は、CGである球面により構成された仮想画像である球面状画像VSS4a(VSS4b)を生成する。画像生成部412a(412b)は、球面状画像VSS4a(VSS4b)を内蔵メモリまたは外部のメモリに保存する。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、画像生成部412a(412b)で生成された球面状画像VSS4a(VSS4b)を取得し、画像表示装置404a(404b)に表示する。
The
球面状画像VSS4a(VSS4b)は、第1〜第3実施形態の球面状画像VSS1、VSS2、VSS3a、及びVSS3bに相当する。使用者USa(USb)は、コントローラ405a(405b)が装着されている手を、画像表示装置404a(404b)に表示されている球面状画像VSS4a(VSS4b)に対応する位置に移動させることにより、使用者USa(USb)の手が球面状画像VSS4a(VSS4b)に接触しているように感じる。
The spherical image VSS4a (VSS4b) corresponds to the spherical images VSS1, VSS2, VSS3a, and VSS3b of the first to third embodiments. The user USa (USb) moves the hand on which the
コントローラ405a(405b)は、使用者USa(USb)の手と接触する部分にアクチュエータが配置されていてもよい。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、使用者USa(USb)の手が球面状画像VSS4a(VSS4b)に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USa(USb)の手に圧力を加えることにより、使用者USa(USb)は、その手が球面状画像VSS4a(VSS4b)に接触する感覚を実感として得ることができる。
The
球面状画像VSS4aが画像表示装置404aに表示されている状態において、使用者USaが、コントローラ405aが装着されている手を任意の方向へ移動させた場合、画像処理部411aは、指示情報NN4aに基づいて、画像表示装置404aに表示されている球面状画像VSS4aと撮影画像IM41またはIM42とが、使用者USaの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
When the user USa moves the hand on which the
球面状画像VSS4bが画像表示装置404bに表示されている状態において、使用者USbが、コントローラ405bが装着されている手を任意の方向へ移動させた場合、画像処理部411bは、指示情報NN4bに基づいて、画像表示装置404bに表示されている球面状画像VSS4bと撮影画像IM41またはIM42とが、使用者USbの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
When the user USb moves the hand on which the
使用者USa(USb)は、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS3a(VSS3b)を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USa(USb)は、その手の動きによって球面状画像VSS3a(VSS3b)を回転させることができる。画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の回転に対応させて撮影画像IM3を移動させる。
The user USa (USb) moves the spherical image VSS3a (VSS3b) in an arbitrary direction and at an arbitrary speed by moving the hand in an arbitrary direction and at an arbitrary speed. Can be rotated to position. That is, the user USa (USb) can rotate the spherical image VSS3a (VSS3b) by the movement of his / her hand. The
画像処理部411a(411b)は、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させる前の天頂ZEが、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させることによって球面状画像VSS4a(VSS4b)の座標上のどの位置へ移動したかを判定することができる。 The image processing unit 411a (411b) is such that the zenith ZE before the user USa (USb) rotates the spherical image VSS4a (VSS4b) is the zenith ZE, and the user USa (USb) rotates the spherical image VSS4a (VSS4b). It is possible to determine to which position on the coordinates of the spherical image VSS4a (VSS4b) it has moved.
画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させる前と回転させた後との球面状画像VSS4a(VSS4b)の変化量を算出する。球面状画像VSS4a(VSS4b)の変化量は、第1〜第3実施形態の球面状画像VSS1、VSS2、VSS3a、及びVSS3bの変化量に相当する。 In the image processing unit 411a (411b), the user USa (USb) rotates the spherical image VSS4a (VSS4b) based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS4a (VSS4b). The amount of change in the spherical image VSS4a (VSS4b) before and after the rotation is calculated. The amount of change in the spherical image VSS4a (VSS4b) corresponds to the amount of change in the spherical images VSS1, VSS2, VSS3a, and VSS3b of the first to third embodiments.
画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の変化量を補正値CV4a(CV4b)として保存する。補正値CV4a(CV4b)は、第1〜第3実施形態の補正値CV1、CV2、CV3a、及びCV3bに相当する。画像処理部411a(411b)は、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させた後の天頂ZEの球面状画像VSS4a(VSS4b)上の座標を補正値CV4a(CV4b)として保存してもよい。 The image processing unit 411a (411b) saves the amount of change in the spherical image VSS4a (VSS4b) as a correction value CV4a (CV4b). The correction values CV4a (CV4b) correspond to the correction values CV1, CV2, CV3a, and CV3b of the first to third embodiments. The image processing unit 411a (411b) uses the coordinates on the spherical image VSS4a (VSS4b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS4a (VSS4b) as the correction value CV4a (CV4b). You may save it.
画像処理部411a(411b)は、補正値CV4a(CV4b)を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV4a(CV4b)を通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。サーバ406は、補正値CV4a(CV4b)を画像表示装置404a(404b)または使用者USa(USb)と関連付けて内蔵メモリまたは外部のメモリに保存する。
The image processing unit 411a (411b) may save the correction value CV4a (CV4b) in the internal memory or an external memory, or the correction value CV4a (CV4b) is stored in the server via the
画像調整システム401は、使用者USaが装着している画像表示装置404aに他の使用者USbのアバターである合成画像CM4bを撮影画像IM41(IM42)と合成して表示することができる。画像調整システム401は、使用者USbが装着している画像表示装置404bに他の使用者USaのアバターである合成画像CM4aを撮影画像IM42(IM41)と合成して表示することができる。
The
図15及び図16に示すフローチャートを用いて、第4実施形態の画像調整方法の一例を説明する。具体的には、撮影画像IM41に合成画像CM4bを合成する方法の一例について説明する。画像表示装置404aが使用者USaの頭部に装着され、コントローラ405aが使用者USaの手に装着されている。画像表示装置404bが使用者USbの頭部に装着され、コントローラ405bが使用者USbの手に装着されている。画像表示装置404aにはカメラ4021が撮影した撮影画像IM41が表示され、画像表示装置404bにはカメラ4022が撮影した撮影画像IM42が表示されている。
An example of the image adjustment method of the fourth embodiment will be described with reference to the flowcharts shown in FIGS. 15 and 16. Specifically, an example of a method of synthesizing the composite image CM4b with the captured image IM41 will be described. The
使用者USa(USb)は画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)が水平でないと判断した場合、図15において、使用者USa(USb)がコントローラ405a(405b)を操作することにより、画像処理部411a(411b)は、ステップS401にて、画像表示装置404a(404b)に設定画面を表示させる。
When the user USa (USb) determines that the captured image IM41 (IM42) displayed on the
使用者USa(USb)がコントローラ405a(405b)を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部411a(411b)は、ステップS402にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部411a(411b)は、撮影画像IM41(IM42)の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。
When the user USa (USb) operates the
画像処理部411a(411b)は、ステップS403にて、画像生成部412a(412b)で生成された球面状画像VSS4a(VSS4b)を取得し、画像表示装置404a(404b)に表示する。画像表示装置404a(404b)には、撮影画像IM41(IM42)と球面状画像VSS4a(VSS4b)とが混合して表示される。
In step S403, the image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the
使用者USa(USb)は撮影画像IM41(IM42)が水平となるように球面状画像VSS4a(VSS4b)を回転させることにより、画像処理部411a(411b)は、ステップS404にて、球面状画像VSS4a(VSS4b)の回転に対応させて、画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を移動させる。使用者USa(USb)は撮影画像IM41(IM42)が水平になるまで球面状画像VSS4a(VSS4b)を回転させる動作を複数回行ってもよい。
The user USa (USb) rotates the spherical image VSS4a (VSS4b) so that the captured image IM41 (IM42) is horizontal, so that the image processing unit 411a (411b) moves the spherical image VSS4a in step S404. The captured image IM41 (IM42) displayed on the
使用者USa(USb)は撮影画像IM41(IM42)が水平になったと判断した場合にコントローラ405a(405b)を操作することにより、画像処理部411a(411b)は、ステップS405にて、球面状画像VSS4a(VSS4b)の表示を終了させ、画像表示装置404a(404b)に設定画面を表示させる。画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を水平にすることにより、カメラ4021(4022)の天頂と使用者USa(USb)の天頂とを一致させることができる。
When the user USa (USb) determines that the captured image IM41 (IM42) is horizontal, the user USa (USb) operates the
使用者USa(USb)がコントローラ405a(405b)を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部411a(411b)は、ステップS406にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部411a(411b)は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。
The user USa (USb) operates the
画像処理部411a(411b)は、ステップS407にて、球面状画像VSS4a(VSS4b)が回転する前と後との回転量(回転角度)を、球面状画像VSS4a(VSS4b)の変化量として取得する。画像処理部411a(411b)は、ステップS408にて、球面状画像VSS4a(VSS4b)の変化量を補正値CV4a(CV4b)として保存し、処理を終了する。 In step S407, the image processing unit 411a (411b) acquires the amount of rotation (rotation angle) before and after the spherical image VSS4a (VSS4b) rotates as the amount of change in the spherical image VSS4a (VSS4b). .. In step S408, the image processing unit 411a (411b) saves the amount of change in the spherical image VSS4a (VSS4b) as a correction value CV4a (CV4b), and ends the process.
図16に示すフローチャートを用いて、使用者USaが見ている画像表示装置404aに、使用者USbのアバターである合成画像CM4bを撮影画像IM41と合成して表示する場合について説明する。図16において、画像処理部411aは、ステップS411にて、取得している撮影画像IM41を撮影しているカメラ4021を特定する。
Using the flowchart shown in FIG. 16, a case where the composite image CM4b, which is the avatar of the user USb, is combined with the captured image IM41 and displayed on the
画像処理部411aは、ステップS412にて、カメラ4021またはサーバ406から、カメラ4021の位置情報を取得する。カメラ4021の位置情報には、カメラ4021の現在位置、及び、カメラ4021が向いている方向または移動している方向の情報が含まれている。
In step S412, the image processing unit 411a acquires the position information of the
画像処理部411aは、ステップS413にて、サーバ406から、他のカメラ(カメラ4021以外のカメラ)の情報を取得する。例えば、画像処理部411aは、ステップS413にて、サーバ406から、カメラ4022の情報を取得する。カメラ4022の情報には、カメラ4022が撮影している撮影画像IM42を見ている使用者USb、カメラ4022の現在位置、及び、カメラ4022が向いている方向または移動している方向の情報が含まれている。カメラ4022が向いている方向または移動している方向は、使用者USbが向いている方向に相当し、画像表示装置404bに表示されている撮影画像IM42に基づいて特定することができる。
In step S413, the image processing unit 411a acquires information on another camera (a camera other than the camera 4021) from the
画像処理部411aは、ステップS414にて、撮影画像IM41に他のカメラ(カメラ4021以外のカメラ)が映っているか否か、言い換えれば他のカメラを撮影しているか否かを、例えば画像認識により判定する。ステップS414において撮影画像IM41に他のカメラが映っていない(NO)と判定された場合、画像処理部411aは、処理をステップS414へ戻す。 In step S414, the image processing unit 411a determines whether or not another camera (a camera other than the camera 4021) is reflected in the captured image IM41, in other words, whether or not another camera is photographing, for example, by image recognition. judge. If it is determined in step S414 that no other camera is visible in the captured image IM41 (NO), the image processing unit 411a returns the process to step S414.
ステップS414において撮影画像IM41に他のカメラが映っている(YES)と判定された場合、画像処理部411aは、ステップS415にて、ステップS413において取得した他のカメラの情報に基づいて、撮影画像IM41に映っている他のカメラを特定する。 If it is determined in step S414 that another camera is reflected in the captured image IM41 (YES), the image processing unit 411a determines the captured image in step S415 based on the information of the other camera acquired in step S413. Identify other cameras in the IM41.
図17は、カメラ4021が地点Aに位置し、カメラ4022が、カメラ4021の前方の地点Bに位置している状態を示している。図17に示す状態では、撮影画像IM41には他のカメラであるカメラ4022が映っている。画像処理部411aは、ステップS413において取得したカメラ4022の情報に基づいて、撮影画像IM41に映っているカメラがカメラ4022であることを特定する。
FIG. 17 shows a state in which the
画像処理部411aは、ステップS416にて、ステップS412において取得したカメラ4021の位置情報と、ステップS413において取得したカメラ4022の情報とに基づいて、カメラ4021に対するカメラ4022の位置、及び、カメラ4022が向いている方向または移動している方向を特定する。
In step S416, the image processing unit 411a determines the position of the
画像処理部411aは、ステップS417にて、ステップS415において特定されたカメラが撮影している撮影画像IMを見ている使用者USを特定する。例えば、画像処理部411aは、カメラ4022が撮影している撮影画像IM42を見ている使用者USbを特定する。画像処理部411aは、ステップS418にて、使用者USbのアバターである合成画像CM4bを取得する。合成画像CM4bがサーバ406に保存されている場合、画像処理部411aは、サーバ406から合成画像CM4bを取得する。
In step S417, the image processing unit 411a identifies the user US who is viewing the captured image IM captured by the camera identified in step S415. For example, the image processing unit 411a identifies the user USb who is looking at the captured image IM42 captured by the
画像処理部411aは、ステップS419にて、撮影画像IM41に映っているカメラ4022に対応する位置に合成画像CM4bを合成し、画像表示装置404aに表示する。ステップS401〜S408にて撮影画像IM41が水平調整されている場合、画像処理部411aは、合成画像CM4bを、撮影画像IM41と同様に水平調整し、画像表示装置404aに表示する。補正値CV4aが保存されている場合、画像処理部411aは、合成画像CM4bを、補正値CV4aに基づいて水平調整し、画像表示装置404aに表示する。
In step S419, the image processing unit 411a synthesizes the composite image CM4b at the position corresponding to the
画像処理部411aは、カメラ4021に対するカメラ4022の位置に対応させて合成画像CM4bの大きさを変えてもよい。例えば、画像処理部411aは、カメラ4022がカメラ4021から遠く離れたところに位置している場合には、合成画像CM4bの大きさが、カメラ4021とカメラ4022との距離に応じて小さくなるように合成画像CM4bを画像処理し、撮影画像IM41に合成する。
The image processing unit 411a may change the size of the composite image CM4b according to the position of the
画像処理部411aは、カメラ4022が向いている方向または移動している方向に対応させて合成画像CM4bの向きを変えてもよい。画像処理部411aは、カメラ4022が向いている方向または移動している方向に対応する向きの合成画像CM4bを取得してもよい。
The image processing unit 411a may change the direction of the composite image CM4b according to the direction in which the
第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法では、画像表示装置404a及び404bに球面状画像VSS4a及びVSS4bを表示させる。第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法によれば、撮影画像IM41及びIM42の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USa及びUSbは、コントローラ405a及び405bを操作して球面状画像VSS4a及びVSS4bを回転させることにより、画像表示装置404a及び404bに表示されている撮影画像IM41及びIM42を水平になるように調整することができる。
In the
従って、第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法によれば、撮影画像IM41及びIM42の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像撮影画像IM41及びIM42の水平または天頂を簡便に補正することができる。
Therefore, according to the
第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法によれば、補正値CV4a及びCV4bが保存されている場合、画像処理部411a及び411bは、補正値CV4a及びCV4bを読み出し、カメラ4021及び4022が撮影した撮影画像IM41及びIM42を補正値CV4a及びCV4bに基づいて画像調整し、画像表示装置404a及び404bに表示することができる。
According to the
第4実施形態の画像調整システム401、画像調整装置410a及び410b、及び画像調整方法では、カメラ4021に対するカメラ4022の位置を特定し、撮影画像IMにおけるカメラ4022の位置に、カメラ4022が撮影している撮影画像IM42を見ている使用者USbのアバターである合成画像CM4bを合成する。これにより、使用者USaは使用者USbと同じ空間を共有しているような感覚を得ることができる。
In the
本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
例えば、CGにより生成される仮想画像VSSは、楕円体の表面(楕円面)であってもよく、さらには使用者USの手の届く範囲であれば、任意の閉じた面(閉曲面)であればよい。即ち、使用者USが内側からその閉曲面に接触するような感覚を得て、撮影画像IMの水平調整ができればよい。使用者USが仮想画像VSSを回転動作させることから、仮想画像VSSは球面または楕円面等の球面に近い球面状の形状であることが望ましい。 For example, the virtual image VSS generated by CG may be an ellipsoidal surface (elliptical surface), and may be an arbitrary closed surface (closed curved surface) within the reach of the user US. All you need is. That is, it suffices if the photographed image IM can be horizontally adjusted with the feeling that the user US touches the closed curved surface from the inside. Since the user US rotates the virtual image VSS, it is desirable that the virtual image VSS has a spherical shape close to a spherical surface such as a spherical surface or an ellipsoidal surface.
101,201,301,401 画像調整システム
102,202,302,402(4021,4022) カメラ
104,204,304(304a,304b),404(404a,404b) 画像表示装置
105,205,305(305a,305b),405(405a,405b) コントローラ
106,206,306,406 サーバ
110,210,310(310a,310b),410(410a,410b) 画像調整装置
111,211,311(311a,311b),411(411a,411b) 画像処理部
112,212,312(312a,312b),412(412a,412b) 画像生成部
CM1,CM2,CM3(CM3a,CM3b),CM4(CM4a,CM4b) 合成画像
IM1,IM2,IM3,IM4(IM41,IM42) 撮影画像
NN1,NN2,NN3(NN3a,NN3b),NN4(NN4a,NN4b) 指示情報
PHP1,PHP2,SHP1,SHP2 水平面
US,USa,USb 使用者
VSS1,VSS2,VSS3(VSS3a,VSS3b),VSS4(VSS4a,VSS4b) 球面状画像(仮想画像)
101, 201, 301, 401
Claims (5)
前記複数のカメラのうちの第1のカメラが撮影した撮影画像を調整する画像調整装置と、
前記画像調整装置により調整された前記撮影画像を表示する画像表示装置と、
前記画像調整装置へ指示情報を出力するコントローラと、
を備え、
前記画像調整装置は、
球面状画像、及び、前記撮影画像と合成される合成画像を生成する画像生成部と、
前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する画像処理部と、
を有する画像調整システム。 With multiple cameras
An image adjusting device that adjusts a captured image taken by the first camera among the plurality of cameras, and an image adjusting device.
An image display device that displays the captured image adjusted by the image adjustment device, and
A controller that outputs instruction information to the image adjustment device,
With
The image adjusting device is
An image generation unit that generates a spherical image and a composite image that is combined with the captured image.
The spherical image generated by the image generation unit is acquired based on the instruction information and displayed on the image display device, the spherical image is rotated based on the instruction information, and the spherical image is rotated. The captured image displayed on the image display device is adjusted in accordance with the above, the composite image is adjusted in correspondence with the adjusted captured image, and the captured image is the second of the plurality of cameras. When the camera is shown, the second camera of the captured image shows the composite image adjusted based on the position information of the first camera and the position information of the second camera. An image processing unit that synthesizes images according to the position
Image adjustment system with.
前記画像表示装置は使用者の頭部に装着されるヘッドマウントディスプレイであり、
前記コントローラは前記使用者の手に装着されるグローブ型コントローラであり、
前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である、
請求項1に記載の画像調整システム。 The camera is an omnidirectional camera that captures a 360-degree range.
The image display device is a head-mounted display mounted on the user's head.
The controller is a glove-type controller that is worn on the user's hand.
When the user sees the spherical image displayed on the image display device while the image display device is attached to the head of the user, the spherical image is used. It is a virtual image that is arranged around a person and the image display device and is set so that the user's hand or finger is displayed within a range that can reach the spherical image.
The image adjustment system according to claim 1.
請求項2に記載の画像調整システム。 When the user moves his / her hand or finger in an arbitrary direction while the controller is attached to the user's hand, the image processing unit uses the instruction information of the user. The spherical image is rotated in response to the movement of the hand or finger, and the captured image displayed on the image display device is adjusted in response to the rotation of the spherical image.
The image adjustment system according to claim 2.
コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第1のカメラが映っている位置に対応させて合成する画像処理部と、
を備える画像調整装置。 An image generator that generates a spherical image and a composite image that is combined with the captured image captured by the camera and displayed on the image display device.
The spherical image generated by the image generation unit is acquired based on the instruction information acquired from the controller and displayed on the image display device, and the spherical image is rotated based on the instruction information of a plurality of cameras. The captured image captured by the first camera and displayed on the image display device is adjusted in correspondence with the rotation of the spherical image, and the composite image is adjusted in correspondence with the adjusted captured image. When the second camera of the plurality of cameras is reflected in the captured image, the adjustment is made based on the position information of the first camera and the position information of the second camera. An image processing unit that synthesizes the composite image corresponding to the position where the first camera is projected on the captured image, and an image processing unit.
An image adjustment device comprising.
前記画像処理部が前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、
画像表示装置が前記球面状画像を表示し、
前記画像処理部が前記指示情報に基づいて前記球面状画像を回転させ、
前記画像処理部が複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、
前記画像処理部が前記画像生成部で生成され、前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、
前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整し、
前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記画像処理部が、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する、
画像調整方法。 The image processing unit acquires the instruction information from the controller and
The image processing unit acquires a spherical image generated by the image generation unit based on the instruction information, and obtains a spherical image.
The image display device displays the spherical image,
The image processing unit rotates the spherical image based on the instruction information, and the spherical image is rotated.
The image processing unit adjusts the captured image captured by the first camera among the plurality of cameras and displayed on the image display device in accordance with the rotation of the spherical image.
The image processing unit acquires a composite image generated by the image generation unit and combined with the captured image displayed on the image display device.
The image processing unit adjusts the composite image in correspondence with the adjusted captured image.
When the second camera of the plurality of cameras is shown in the captured image, the image processing unit is based on the position information of the first camera and the position information of the second camera. , The adjusted composite image is composited in correspondence with the position where the second camera is projected in the captured image.
Image adjustment method.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019025769A JP2020134632A (en) | 2019-02-15 | 2019-02-15 | Image adjustment system, image adjustment device, and image adjustment method |
PCT/JP2020/004700 WO2020166492A1 (en) | 2019-02-15 | 2020-02-07 | Image adjustment system, image adjustment device, and image adjustment method |
US17/361,767 US11985298B2 (en) | 2019-02-15 | 2021-06-29 | Image adjustment system, image adjustor, and image adjustment method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019025769A JP2020134632A (en) | 2019-02-15 | 2019-02-15 | Image adjustment system, image adjustment device, and image adjustment method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020134632A true JP2020134632A (en) | 2020-08-31 |
Family
ID=72262928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019025769A Pending JP2020134632A (en) | 2019-02-15 | 2019-02-15 | Image adjustment system, image adjustment device, and image adjustment method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020134632A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022030617A1 (en) | 2020-08-07 | 2022-02-10 | 東ソー株式会社 | Cha-type zeolite and method for producing same |
-
2019
- 2019-02-15 JP JP2019025769A patent/JP2020134632A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022030617A1 (en) | 2020-08-07 | 2022-02-10 | 東ソー株式会社 | Cha-type zeolite and method for producing same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6511386B2 (en) | INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD | |
CN109952759B (en) | Improved method and system for video conferencing with HMD | |
JP7317024B2 (en) | Image generation device and image generation method | |
AU2021290132B2 (en) | Presenting avatars in three-dimensional environments | |
JP5869712B1 (en) | Head-mounted display system and computer program for presenting a user's surrounding environment in an immersive virtual space | |
WO2020026419A1 (en) | Image generation device and image generation method | |
JP7088068B2 (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP2020134632A (en) | Image adjustment system, image adjustment device, and image adjustment method | |
WO2020166491A1 (en) | Image adjustment system, image adjustment device, and image adjustment method | |
WO2020166492A1 (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP2020134631A (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP2020134630A (en) | Image adjustment system, image adjustment device, and image adjustment method | |
GB2525304A (en) | Interactive information display | |
WO2020166582A1 (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP7088064B2 (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP2020136799A (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP2020134616A (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP2020136798A (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP7247636B2 (en) | Image adjustment system, image adjustment device, and image adjustment method | |
JP7167760B2 (en) | image adjustment system | |
CN113614675A (en) | Head-mounted information processing device and head-mounted display system | |
WO2023048018A1 (en) | Display device, method for controlling display device, and program | |
JP7427739B2 (en) | display device | |
JPWO2017098999A1 (en) | Information processing apparatus, information processing system, information processing apparatus control method, and computer program | |
WO2023238264A1 (en) | Information display device and display method therefor |