WO2020166492A1 - 画像調整システム、画像調整装置、及び画像調整方法 - Google Patents
画像調整システム、画像調整装置、及び画像調整方法 Download PDFInfo
- Publication number
- WO2020166492A1 WO2020166492A1 PCT/JP2020/004700 JP2020004700W WO2020166492A1 WO 2020166492 A1 WO2020166492 A1 WO 2020166492A1 JP 2020004700 W JP2020004700 W JP 2020004700W WO 2020166492 A1 WO2020166492 A1 WO 2020166492A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- captured
- spherical
- display device
- processing unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 56
- 238000012545 processing Methods 0.000 claims abstract description 315
- 239000002131 composite material Substances 0.000 claims description 159
- 230000008859 change Effects 0.000 claims description 32
- 230000004044 response Effects 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims 3
- 238000004891 communication Methods 0.000 description 89
- 238000012937 correction Methods 0.000 description 54
- 102100033019 Tyrosine-protein phosphatase non-receptor type 11 Human genes 0.000 description 11
- 101710116241 Tyrosine-protein phosphatase non-receptor type 11 Proteins 0.000 description 11
- 101100083571 Homo sapiens PLPPR3 gene Proteins 0.000 description 10
- 101100297537 Oryza sativa subsp. japonica PHP2 gene Proteins 0.000 description 10
- 102100030383 Phospholipid phosphatase-related protein type 3 Human genes 0.000 description 10
- 101100123432 Schizosaccharomyces pombe (strain 972 / ATCC 24843) hap2 gene Proteins 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 101000617285 Homo sapiens Tyrosine-protein phosphatase non-receptor type 6 Proteins 0.000 description 5
- 102100021657 Tyrosine-protein phosphatase non-receptor type 6 Human genes 0.000 description 5
- 101000582989 Homo sapiens Phospholipid phosphatase-related protein type 4 Proteins 0.000 description 4
- 102100030368 Phospholipid phosphatase-related protein type 4 Human genes 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Definitions
- the present invention relates to an image adjusting system, an image adjusting device, and an image adjusting method.
- the head mounted display displays an image in a state where the head mounted display is mounted on the user's head, so that the user can feel as if he/she entered the virtual space (immersive feeling).
- the conventional head-mounted display described in Patent Document 1 can display an image captured by an external camera via a neckwork.
- JP-A-2005-56295 JP2005-056295A
- the horizontal direction of the image depending on the displayed image, and the horizontal direction may be detected incorrectly. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the image is erroneously detected, or the horizontal or zenith designation is deviated, the displayed image does not match the user's sense of gravity, and the user feels uncomfortable.
- the present invention provides an image adjusting system, an image adjusting device, and an image adjusting system capable of easily correcting the horizontal or zenith of an image when the horizontal direction of the image is erroneously detected or the designation of the horizontal or zenith is deviated.
- the purpose is to provide a method of adjustment.
- An image adjustment system is for displaying a camera, an image adjustment device for adjusting a captured image captured by the camera, and the captured image adjusted by the image adjustment device.
- An image display device and a controller for outputting instruction information to the image adjustment device, wherein the image adjustment device generates an image for generating a spherical image and a composite image to be combined with the captured image.
- Section and the spherical image generated by the image generation unit based on the instruction information is acquired and displayed on the image display device, and the spherical image is rotated based on the instruction information to generate the spherical image.
- An image adjusting apparatus includes an image generating unit for generating a spherical image and a composite image that is combined with a captured image captured by a camera and displayed on an image display device.
- the spherical image generated by the image generation unit based on the instruction information acquired from the controller is acquired and displayed on the image display device, the spherical image is rotated based on the instruction information, and the image is displayed.
- a processing unit for adjusting the captured image displayed on the display device in correspondence with the rotation of the spherical image, adjusting the composite image in association with the adjusted captured image, and combining the captured image with the captured image.
- the image processing unit acquires the instruction information from the controller, and the image processing unit acquires the spherical image generated by the image generation unit based on the instruction information.
- An image display device displays the spherical image
- the image processing unit rotates the spherical image based on the instruction information
- the image processing unit is photographed by a camera and displayed on the image display device.
- a captured image that is adjusted in accordance with the rotation of the spherical image
- the image processing unit generates a composite image that is generated by the image generation unit and that is combined with the captured image displayed on the image display device. Then, the image processing unit adjusts the composite image corresponding to the adjusted captured image and combines the adjusted image with the captured image.
- the horizontal direction of the image is erroneously detected, When the designation of the zenith shifts, the horizontal or zenith of the image can be easily corrected.
- FIG. 1 is a configuration diagram showing an image adjustment system according to the first embodiment and the second embodiment.
- FIG. 2 is a diagram showing the relationship between the spherical image and the user.
- FIG. 3 is a flowchart showing an example of the image adjusting method according to the first embodiment.
- FIG. 4 is a flowchart showing an example of the image adjusting method according to the first embodiment.
- FIG. 5 is a diagram showing the relationship between the horizontal plane of the captured image and the horizontal plane of the composite image.
- FIG. 6A is a flowchart showing an example of the image adjusting method according to the second embodiment.
- FIG. 6B is a flowchart showing an example of the image adjusting method according to the second embodiment.
- FIG. 1 is a configuration diagram showing an image adjustment system according to the first embodiment and the second embodiment.
- FIG. 2 is a diagram showing the relationship between the spherical image and the user.
- FIG. 3 is a flowchart showing an example of the image adjusting method according to the
- FIG. 7 is a flowchart showing an example of the image adjusting method according to the second embodiment.
- FIG. 8 is a diagram showing the relationship between the horizontal plane of the captured image and the horizontal plane of the composite image.
- FIG. 9 is a configuration diagram showing an image adjustment system according to the third embodiment.
- FIG. 10 is a diagram showing an example of the positional relationship between the user when the user is looking at the image display device and a composite image corresponding to another user.
- FIG. 11 is a diagram showing an example of a positional relationship between the user and a composite image corresponding to another user when the user is looking at the image display device.
- FIG. 12 is a flowchart showing an example of the image adjusting method according to the third embodiment.
- FIG. 13 is a flowchart showing an example of the image adjusting method according to the third embodiment.
- FIG. 14 is a configuration diagram showing an image adjustment system according to the fourth embodiment.
- FIG. 15 is a flowchart showing an example of the image adjusting method according to the third embodiment.
- FIG. 16 is a flowchart showing an example of the image adjusting method according to the third embodiment.
- FIG. 17 is a diagram showing an example of the positional relationship between a plurality of cameras and a composite image corresponding to another user.
- the image adjustment system 101 according to the first embodiment includes a camera 102, a first communication unit 103, an image display device 104, a controller 105, an image adjustment device 110, and a server 106.
- the image adjustment device 110 includes an image processing unit 111, an image generation unit 112, and a second communication unit 113.
- the camera 102 is an omnidirectional camera (360 degree camera) capable of shooting a 360 degree range.
- the first communication unit 103 and the second communication unit 113 are connected via a network.
- the image adjustment apparatus 110 can acquire the captured image IM1 captured by the camera 102 via the first communication unit 103, the second communication unit 113, and the network.
- a computer device may be used as the image adjustment device 110.
- a CPU may be used as the image processing unit 111 and the image generation unit 112.
- the image generation unit 112 and the second communication unit 113 may be provided outside the image adjustment device 110.
- the server 106 is connected to the camera 102 via the network and the first communication unit 103, and is connected to the image adjustment apparatus 110 via the network and the second communication unit 113.
- the server 106 acquires the captured image IM1 captured by the camera 102 via the first communication unit 103 and the network, and the image adjustment apparatus 110 acquires the captured image IM1 from the server 106 via the network and the second communication unit 113. Good.
- the captured image IM1 acquired by the image adjusting apparatus 110 is input to the image processing unit 111.
- the image processing unit 111 analyzes the captured image IM1 to recognize the horizontal direction in the captured image IM1.
- the image processing unit 111 may recognize the vertical direction in the captured image IM1, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM1.
- the image adjustment device 110 corrects the distortion of the captured image IM1, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the image display device 104.
- the server 106 corrects the distortion of the captured image IM1 captured by the camera 102, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the image adjustment apparatus 110. May be.
- the image display device 104 displays the captured image IM1 image-processed by the image adjustment device 110 or the server 106.
- the image display device 104 is, for example, a head mounted display.
- the controller 105 is, for example, a globe-type controller used for VR (Virtual Reality) or the like.
- FIG. 2 schematically shows a state in which the image display device 104 is mounted on the head of the user US and the controller 105 is mounted on the hand of the user US.
- Reference numeral ZE shown in FIG. 2 indicates the zenith. It is desirable that the zenith of the camera 102 and the zenith of the user US coincide.
- the image display device 104 generates the posture information PN1 based on the direction in which the user US is facing, the posture of the user US, and the like while being mounted on the head of the user US.
- the image processing unit 111 acquires the posture information PN1 from the image display device 104. That is, the image processing unit 111 acquires the posture information PN1 based on the posture of the image display device 104. Based on the posture information PN1, the image processing unit 111 displays an image of a region corresponding to the direction in which the user US is facing and the state such as the posture of the user US from the captured image IM1 captured by the camera 102. Display on the device 104.
- the controller 105 generates the instruction information NN1 based on the movement or posture of the hand of the user US, the movement or posture of the finger of the user US, or the like in a state where the controller 105 is attached to the hand of the user US. ..
- the hand or the finger is simply abbreviated as the hand.
- the image processing unit 111 acquires the instruction information NN1 from the controller 105.
- the image processing unit 111 can change or adjust the captured image IM1 displayed on the image display device 104 based on the instruction information NN1.
- the image generation unit 112 generates a composite image CM1 which is a CG (Computer Graphics) composited with the captured image IM1.
- the composite image CM1 is an image of a character such as an avatar.
- the image generation unit 112 stores the composite image CM1 in a built-in memory or an external memory.
- the image processing unit 111 may acquire the composite image CM1 generated by the image generation unit 112 and output it to the server 106 via the second communication unit 113 and the network.
- the server 106 stores the composite image CM1 in the built-in memory or an external memory in association with the image display device 104 or the user US.
- the image processing unit 111 acquires the combined image CM1 from the image generation unit 112 or the server 106 based on the instruction information NN1 and combines the combined image CM1 with the captured image IM1 displayed on the image display device 104. Therefore, the image display device 104 can display the captured image IM1 captured by the camera 102 and the composite image CM1 acquired from the image generation unit 112 or the server 106 and combined with the captured image IM1.
- the image generation unit 112 generates a spherical image VSS1 which is a virtual image formed by a spherical surface which is CG.
- the image generation unit 112 stores the spherical image VSS1 in a built-in memory or an external memory.
- the image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 based on the instruction information NN1 and displays it on the image display device 104.
- FIG. 2 shows an image of the user US when the user US views the spherical image VSS1 displayed on the image display device 104 with the image display device 104 mounted on the head of the user US. It is shown schematically.
- the spherical image VSS1 is It is arranged around the US and the image display device 104, and is set so as to be displayed within a range where the hand of the user US reaches the spherical image VSS1.
- the user US moves the hand on which the controller 105 is attached to the position corresponding to the spherical image VSS1 displayed on the image display device 104, so that the hand of the user US contacts the spherical image VSS1. I feel like I'm doing it.
- the controller 105 may have an actuator arranged in a portion that comes into contact with the hand of the user US.
- the image processing unit 111 determines that the hand of the user US has moved to the position corresponding to the spherical image VSS1 based on the instruction information NN1, the image processing unit 111 operates the actuator.
- the actuator applies pressure to the hand of the user US, the user US can actually feel the touch of the hand with the spherical image VSS1.
- the image processing unit 111 displays the instruction information NN1. Based on this, image processing is performed so that the spherical image VSS1 and the captured image IM1 displayed on the image display device 104 move in correspondence with the moving direction, moving speed, and position of the moving destination of the hand of the user US. To execute.
- the user US can rotate the spherical image VSS1 in any direction at any speed to any position by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS1 by the movement of the hand.
- the image processing unit 111 moves the captured image IM1 in correspondence with the rotation of the spherical image VSS1.
- the image processing unit 111 determines to which position on the coordinates of the spherical image VSS1 the zenith ZE before the user US rotates the spherical image VSS1 moves as the user US rotates the spherical image VSS1. Can be determined.
- the image processing unit 111 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS1, the spherical image before and after the user US rotates the spherical image VSS1.
- the amount of change in VSS1 is calculated.
- the amount of change of the spherical image VSS1 is the amount of rotation (rotation angle) with the X axis as the rotation axis, the amount of rotation (rotation angle) with the Y axis as the rotation axis, and the Z axis with respect to the spherical image VSS1.
- the rotation amount (rotation angle) about the axis corresponds to the rotation amount (rotation angle) of the spherical image VSS1 combined.
- the image processing unit 111 stores the change amount of the spherical image VSS1 as the correction value CV1. That is, the correction value CV1 is calculated based on the rotation direction of the spherical image VSS1 and the movement amount or movement angle of the zenith ZE (the rotation angle of the spherical image VSS1).
- the image processing unit 111 may store the coordinates of the zenith ZE on the spherical image VSS1 after the user US rotates the spherical image VSS1 as the correction value CV1.
- the image processing unit 111 may store the correction value CV1 in an internal memory or an external memory, or may output the correction value CV1 to the server 106 via the second communication unit 113 and the network.
- the server 106 associates the correction value CV1 with the image display device 104 or the user US and stores the correction value CV1 in an internal memory or an external memory.
- the image processing unit 111 detects the horizontal direction of the captured image IM1. However, it is difficult for the image processing unit 111 to detect the horizontal direction depending on the captured image IM1, and the horizontal direction may be erroneously detected. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the captured image IM1 is incorrectly detected or the horizontal or zenith designation is deviated, the captured image IM1 displayed on the image display device 104 does not match the sense of gravity of the user US. I feel uncomfortable.
- FIGS. An example of the image adjustment method according to the first embodiment will be described using the flowcharts shown in FIGS. Specifically, an example of a method of adjusting the horizontalness of the captured image IM1 and the composite image CM1 will be described.
- the image display device 104 is mounted on the head of the user US, and the controller 105 is mounted on the hand of the user US.
- the captured image IM1 and the composite image CM1 are displayed on the image display device 104. At this point, the composite image CM1 may not be displayed.
- the user US determines that the captured image IM1 displayed on the image display device 104 is not horizontal, the user US operates the controller 105 in FIG. 3 to cause the image processing unit 111 to operate in step S101. , The setting screen is displayed on the image display device 104.
- the image processing unit 111 When the user US operates the controller 105 to select a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 111 causes the selected item to be displayed in step S102. The processing is shifted to the corresponding predetermined processing mode. When the horizontal adjustment item is selected, the image processing unit 111 shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM1.
- a processing mode horizontal adjustment mode
- the image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 and displays it on the image display device 104 in step S103.
- the captured image IM1, the spherical image VSS1, and the composite image CM1 are mixed and displayed.
- the image processing unit 111 causes the image display device 104 to correspond to the rotation of the spherical image VSS1 in step S104.
- the displayed captured image IM1 is moved.
- the user US may perform the operation of rotating the spherical image VSS1 a plurality of times until the captured image IM1 becomes horizontal.
- the image processing unit 111 ends the display of the spherical image VSS1 and causes the image display device 104 to display the spherical image VSS1 in step S105. Display the setting screen.
- the image processing unit 111 When the user US operates the controller 105 and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 111 corresponds to the selected item in step S106. The processing shifts to a predetermined processing mode. When the end item is selected, the image processing unit 111 shifts the processing to a processing mode (end mode) for ending the horizontal adjustment.
- a predetermined item for example, an end item
- end mode for ending the horizontal adjustment.
- step S107 the image processing unit 111 acquires the rotation amount (rotation angle) before and after the spherical image VSS1 rotates as the change amount of the spherical image VSS1.
- step S108 the image processing unit 111 stores the amount of change in the spherical image VSS1 as the correction value CV1 and ends the process.
- the user US operates the controller 105 to cause the image adjusting device 110 (specifically, the image processing unit 111) to move to the image generating unit 112. It is possible to obtain the composite image CM1 generated in step (1), combine it with the captured image IM1 displayed on the image display device 104, and display the composite image CM1.
- FIG. 5 schematically shows the relationship between the horizontal plane PHP1 of the captured image IM1 horizontally adjusted by the user US and the horizontal plane SHP1 of the composite image CM1 acquired by the image processing unit 111 from the image generation unit 112. If the horizontal plane PHP1 of the captured image IM1 and the horizontal plane SHP1 of the composite image CM1 are misaligned, the user US feels strange.
- the image processing unit 111 determines in step S111 whether the captured image IM1 has been horizontally adjusted.
- the image processing unit 111 can determine whether or not the captured image IM1 is horizontally adjusted based on the history of rotation of the spherical image VSS1 or the correction value CV1.
- step S111 When it is determined in step S111 that the captured image IM1 has been horizontally adjusted (YES), the image processing unit 111 acquires the stored correction value CV1 in step S112. In step S113, the image processing unit 111 rotates the coordinate axes of the composite image CM1 based on the correction value CV1 so that the horizontal plane SHP1 of the composite image CM1 matches the horizontal plane PHP1 of the captured image IM1. In step S114, the image processing unit 111 performs arithmetic processing on the composite image CM1 based on the corrected horizontal plane SHP1 to adjust the image.
- step S115 the image processing unit 111 combines the image-adjusted composite image CM1 with the captured image IM1 and displays the composite image CM1 on the image display device 104.
- the image processing unit 111 shifts the processing to step S115.
- the spherical image VSS1 is displayed on the image display device 104.
- the image adjusting device 110, and the image adjusting method according to the first embodiment when the horizontal direction of the captured image IM1 is erroneously detected or the designation of the horizontal or the zenith ZE is deviated, The user US can adjust the captured image IM1 displayed on the image display device 104 to be horizontal by operating the controller 105 to rotate the spherical image VSS1.
- the image adjustment apparatus 110 when the horizontal direction of the captured image IM1 is erroneously detected or the horizontal or zenith designation is deviated.
- the user US can easily correct the horizontal or zenith of the captured image IM1.
- the image processing unit 111 reads the correction value CV1 and the camera 102 captures the image.
- the captured image IM1 can be image-adjusted based on the correction value CV1 and displayed on the image display device 104.
- the image adjustment apparatus 110 when the captured image IM1 is horizontally adjusted, the coordinate axes of the composite image CM1 are rotated based on the correction value CV1, and the composite image CM1 is rotated.
- the horizontal plane SHP1 of is matched with the horizontal plane PHP1 of the captured image IM1.
- the captured image IM1 and the composite image CM1 are displayed on the image display device 104 without the user US feeling uncomfortable. can do.
- the image adjustment system 201 according to the second embodiment includes a camera 202, a first communication unit 203, an image display device 204, a controller 205, an image adjustment device 210, and a server 206.
- the image adjustment device 210 includes an image processing unit 211, an image generation unit 212, and a second communication unit 213.
- the camera 202, the first communication unit 203, the image display device 204, the controller 205, the image adjustment device 210, and the server 206 of the second embodiment are the camera 102, the first communication unit 103, and the image display device 104 of the first embodiment.
- the image processing unit 211, the image generation unit 212, and the second communication unit 213 of the second embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment.
- the image adjustment device 210 can acquire the captured image IM2 captured by the camera 202 via the first communication unit 203, the second communication unit 213, and the network.
- the server 206 acquires the captured image IM2 captured by the camera 202 via the first communication unit 203 and the network, and the image adjustment apparatus 210 acquires the captured image IM2 from the server 206 via the network and the second communication unit 213. Good.
- the captured image IM2 acquired by the image adjustment device 210 is input to the image processing unit 211.
- the image processing unit 211 recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2.
- the image processing unit 211 may recognize the vertical direction in the captured image IM2, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM2.
- the image adjustment device 210 corrects the distortion of the captured image IM2, executes image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image display device 204.
- the server 206 corrects the distortion of the captured image IM2 captured by the camera 202, performs image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image adjustment apparatus 210. May be.
- the image display device 204 displays the captured image IM2 image-processed by the image adjustment device 210 or the server 206.
- the user US can mount the image display device 204 on his/her head to view the captured image IM2 image-processed by the image adjustment device 210 or the server 206.
- the image display device 204 generates the posture information PN2 based on the direction in which the user US is facing, the posture of the user US, and the like while being mounted on the head of the user US.
- the image processing unit 211 acquires the posture information PN2 from the image display device 204. That is, the image processing unit 211 acquires the posture information PN2 based on the posture of the image display device 204.
- the image processing unit 211 displays an image of a region corresponding to the direction in which the user US faces and the state of the user US such as the posture from the captured image IM2 captured by the camera 202. Display on the device 204.
- the controller 205 generates the instruction information NN2 based on the state of the movement or posture of the hand of the user US in the state of being attached to the hand of the user US.
- the image processing unit 211 acquires the instruction information NN2 from the controller 205.
- the image processing unit 211 can change or adjust the captured image IM2 displayed on the image display device 204 based on the instruction information NN2.
- the image generation unit 212 generates a composite image CM2 that is a CG that is composited with the captured image IM2.
- the composite image CM2 is an image of a character such as an avatar.
- the image generation unit 212 saves the composite image CM2 in an internal memory or an external memory.
- the image processing unit 211 may acquire the composite image CM2 generated by the image generation unit 212 and output it to the server 206 via the second communication unit 213 and the network.
- the server 206 stores the composite image CM2 in the built-in memory or an external memory in association with the image display device 204 or the user US.
- the image processing unit 211 acquires the combined image CM2 from the image generation unit 212 or the server 206 based on the instruction information NN2, and combines the combined image CM2 with the captured image IM2 displayed on the image display device 204. Therefore, the image display device 204 can display the captured image IM2 captured by the camera 202 and the composite image CM2 acquired from the image generation unit 212 or the server 206 and combined with the captured image IM2.
- the image generation unit 212 generates a spherical image VSS2 that is a virtual image formed by a spherical surface that is CG.
- the image generator 212 stores the spherical image VSS2 in the internal memory or an external memory.
- the image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 based on the instruction information NN2, and displays it on the image display device 204.
- the spherical image VSS2 of the second embodiment corresponds to the spherical image VSS1 of the first embodiment.
- the user US moves the hand on which the controller 205 is attached to the position corresponding to the spherical image VSS2 displayed on the image display device 204, so that the hand of the user US contacts the spherical image VSS2. I feel like I'm doing it.
- the controller 205 may have an actuator arranged in a portion that comes into contact with the hand of the user US.
- the image processing unit 211 determines based on the instruction information NN2 that the hand of the user US has moved to the position corresponding to the spherical image VSS2, the image processing unit 211 operates the actuator. By applying pressure to the hand of the user US by the actuator, the user US can actually feel the touch of the hand with the spherical image VSS2.
- the image processing unit 211 displays the instruction information NN2. Based on this, image processing is performed so that the spherical image VSS2 and the captured image IM2 displayed on the image display device 204 move corresponding to the moving direction, moving speed, and position of the moving destination of the hand of the user US. To execute.
- the user US can rotate the spherical image VSS2 in any direction at any speed to any position by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS2 by the movement of the hand.
- the image processing unit 211 moves the captured image IM2 in correspondence with the rotation of the spherical image VSS2.
- the image processing unit 211 determines to which position on the coordinates of the spherical image VSS2 the zenith ZE before the user US rotates the spherical image VSS2 is moved by the rotation of the spherical image VSS2 by the user US. Can be determined.
- the image processing unit 211 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS2, the spherical image before and after the user US rotates the spherical image VSS2.
- the amount of change in VSS2 is calculated.
- the amount of change of the spherical image VSS2 of the second embodiment corresponds to the amount of change of the spherical image VSS1 of the first embodiment.
- the image processing unit 211 stores the variation amount of the spherical image VSS2 as the correction value CV2.
- the correction value CV2 of the second embodiment corresponds to the correction value CV1 of the first embodiment.
- the image processing unit 211 may store the coordinates on the spherical image VSS2 of the zenith ZE after the user US rotates the spherical image VSS2 as the correction value CV2.
- the image processing unit 211 may store the correction value CV2 in a built-in memory or an external memory, or may output the correction value CV2 to the server 206 via the second communication unit 213 and the network.
- the server 206 stores the correction value CV2 in the built-in memory or an external memory in association with the image display device 204 or the user US.
- the image processing unit 211 detects the horizontal direction of the captured image IM2. However, it is difficult for the image processing unit 211 to detect the horizontal direction depending on the captured image IM2, and the horizontal direction may be erroneously detected. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the captured image IM2 is incorrectly detected or the horizontal or zenith designation is deviated, the captured image IM2 displayed on the image display device 204 does not match the sense of gravity of the user US. I feel uncomfortable.
- the image display device 204 is mounted on the head of the user US, and the controller 205 is mounted on the hand of the user US.
- the image display device 204 displays the captured image IM2 and the composite image CM2.
- the composite image CM2 does not have to be displayed.
- the user US determines that the captured image IM2 displayed on the image display device 204 is not horizontal, the user US operates the controller 205 in FIG. 6A to cause the image processing unit 211 to operate in step S201.
- the setting screen is displayed on the image display device 204.
- the image processing unit 211 sets the selected item in step S202. The processing is shifted to the corresponding predetermined processing mode.
- the image processing unit 211 shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM2.
- the image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 and displays it on the image display device 204 in step S203. On the image display device 204, the captured image IM2 and the spherical image VSS2 are mixed and displayed. In step S204, the image processing unit 211 determines whether the combined image CM2 is combined with the captured image IM2 and is displayed on the image display device 204.
- step S204 When it is determined in step S204 that the composite image CM2 is combined with the captured image IM2 and is displayed on the image display device 204 (YES), the image processing unit 211 determines in step S205 that the composite image CM2 is the horizontal plane SHP2. A process of separating the captured image IM2 from the horizontal plane PHP2 is executed.
- FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated.
- step S204 If it is determined in step S204 that the combined image CM2 is combined with the captured image IM2 and is not displayed on the image display device 204 (NO), the image processing unit 211 advances the process to step S206.
- the user US rotates the spherical image VSS2 so that the captured image IM2 becomes horizontal. Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, the composite image CM2 does not rotate even if the spherical image VSS2 is rotated. Therefore, the user US can easily correct the horizontal of the captured image IM2 without being confused by the rotation of the composite image CM2.
- the image processing unit 211 may hide the composite image CM2. By hiding the composite image CM2, the composite image CM2 does not get in the way, so that the user US can easily correct the horizontal of the captured image IM2.
- step S206 the image processing unit 211 moves the photographed image IM2 displayed on the image display device 204 in response to the rotation of the spherical image VSS2.
- the user US may perform the operation of rotating the spherical image VSS2 a plurality of times until the captured image IM2 becomes horizontal.
- the image processing unit 211 ends the display of the spherical image VSS2 in step S207 by operating the controller 205, and the image is displayed.
- the setting screen is displayed on the display device 204.
- the image processing unit 211 corresponds to the selected item in step S208.
- the processing shifts to a predetermined processing mode.
- the image processing unit 211 shifts the processing to a processing mode for ending the horizontal adjustment (horizontal adjustment end mode).
- step S209 the image processing unit 211 acquires the rotation amount (rotation angle) before and after the spherical image VSS2 rotates as the change amount of the spherical image VSS2.
- step S210 the image processing unit 211 stores the variation amount of the spherical image VSS2 as the correction value CV2.
- the user US operates the controller 205 to cause the image adjusting apparatus 210 (specifically, the image processing unit 211) to generate an image.
- the composite image CM2 generated by the unit 212 can be acquired and displayed on the image display device 204.
- the image adjustment device 210 (specifically, the image processing unit 211) recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2 captured by the camera 202.
- the image adjustment device 210 acquires the composite image CM2 generated by the image generation unit 212 and displays it on the image display device 204.
- the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 do not match. If the horizontal plane PHP2 of the captured image IM2 and the horizontal plane SHP2 of the composite image CM2 are misaligned, the user US feels uncomfortable.
- step S211 the image processing unit 211 determines whether the composite image CM2 is combined with the captured image IM2 and is displayed on the image display device 204. When it is determined that the combined image CM2 is combined with the captured image IM2 and displayed on the image display device 204 (YES), the image processing unit 211 acquires the stored correction value CV2 in step S212. ..
- step S213 the image processing unit 211 rotates the coordinate axes of the composite image CM2 based on the correction value CV2 so that the horizontal plane SHP2 of the composite image CM2 matches the horizontal plane PHP2 of the captured image IM2 horizontally adjusted by the user US.
- step S214 the image processing unit 211 performs arithmetic processing on the composite image CM2 based on the corrected horizontal plane SHP2 to adjust the image.
- FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 match each other.
- step S211 When it is determined in step S211 that the captured image IM2 has not been horizontally adjusted by the user US (NO), the image processing unit 211 shifts the processing to step S215.
- step S215 the image processing unit 211 combines the image-adjusted composite image CM2 with the captured image IM2 and displays the composite image CM2 on the image display device 204.
- the user US can view the captured image IM2 and the composite image CM2 which are displayed on the image display device 204 and whose horizontal levels match each other.
- the spherical image VSS2 is displayed on the image display device 204.
- the image adjusting device 210, and the image adjusting method according to the second embodiment when the horizontal direction of the captured image IM2 is erroneously detected or the designation of the horizontal or zenith ZE is deviated, The user US can adjust the captured image IM2 displayed on the image display device 204 to be horizontal by operating the controller 205 to rotate the spherical image VSS2.
- the image adjusting device 210 when the horizontal direction of the captured image IM2 is erroneously detected or the horizontal or zenith designation is deviated.
- the user US can easily correct the horizontal or zenith of the captured image IM2.
- the image processing unit 211 reads the correction value CV2 and the camera 202 captures the image.
- the captured image IM2 can be image-adjusted based on the correction value CV2 and displayed on the image display device 204.
- the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, and the horizontal of the captured image IM2 is adjusted,
- the horizontal of the composite image CM2 is adjusted based on the adjustment result (correction value CV2). Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, the composite image CM2 does not rotate even if the user US rotates the spherical image VSS2. Therefore, the user US can easily correct the horizontal of the captured image IM2.
- the image adjusting apparatus 210 when the captured image IM2 is horizontally adjusted, the coordinate axes of the combined image CM2 are rotated based on the correction value CV2 to combine the images.
- the horizontal plane SHP2 of the image CM2 is matched with the horizontal plane PHP2 of the captured image IM2. Therefore, the user US can see the captured image IM2 and the composite image CM2 displayed on the image display device 204 without feeling a sense of discomfort.
- the image adjustment system 301 according to the third embodiment includes a camera 302, a first communication unit 303, a plurality of image display devices 304, a plurality of controllers 305, a plurality of image adjustment devices 310, and a server 306. .
- the image adjustment device 310 includes an image processing unit 311, an image generation unit 312, and a second communication unit 313.
- the camera 302, the first communication unit 303, the image display device 304, the controller 305, the image adjustment device 310, and the server 306 of the third embodiment are the camera 102, the first communication unit 103, and the image display of the first embodiment, respectively. It corresponds to the device 104, the controller 105, the image adjustment device 110, and the server 106.
- the image processing unit 311, the image generation unit 312, and the second communication unit 313 of the third embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment, respectively. ..
- FIG. 9 two image display devices 304, a controller 305, and an image adjustment device 310 are shown for the sake of clarity. There may be three or more image display devices 304, controllers 305, and image adjustment devices 310.
- the image display device 304 used by the first user USa is the first image display device 304a
- the controller 305 is the first controller 305a
- the image adjustment device 310 is the first image adjustment device 310a.
- the image display device 304 used by the second user USb is the second image display device 304b
- the controller 305 is the second controller 305b
- the image adjustment device 310 is the second image adjustment device 310b.
- the image processing unit 311 in the first image adjustment apparatus 310a is the image processing unit 311a
- the image generation unit 312 is the image generation unit 312a
- the second communication unit 313 is the second communication unit 313a.
- the image processing unit 311 is an image processing unit 311b
- the image generation unit 312 is an image generation unit 312b
- the second communication unit 313 is a second communication unit 313b.
- the first image adjustment device 310a can acquire the captured image IM3 captured by the camera 302 via the first communication unit 303, the second communication unit 313a of the first image adjustment device 310a, and the network.
- the second image adjustment device 310b can acquire the captured image IM3 captured by the camera 302 via the first communication unit 303, the second communication unit 313b of the second image adjustment device 310b, and the network.
- the server 306 acquires the captured image IM3 captured by the camera 302 via the first communication unit 303 and the network, and the first image adjustment device 310a transmits the captured image IM3 from the server 306 to the network and the first image adjustment device 310a.
- the second image adjustment device 310b may obtain the captured image IM3 from the server 306 via the network and the second communication unit 313b of the second image adjustment device 310b.
- the first user USa performs the login operation, or the first image display device 304a is connected to the network via the second communication unit 313a of the first image adjustment device 310a, and thus the first The user USa or the first image display device 304a can be specified.
- the second user USb performs the login operation, or the second image display device 304b is connected to the network via the second communication unit 313b of the second image adjustment device 310b, and thus the second The user USb or the second image display device 304b can be specified.
- the reference numerals in parentheses indicate the processes performed by the second image adjustment device 310b, the second image display device 304b, and the second controller 305b.
- the captured image IM3 acquired by the image adjusting apparatus 310a (310b) is input to the image processing unit 311a (311b).
- the image processing unit 311a (311b) recognizes the horizontal direction in the captured image IM3 by analyzing the captured image IM3.
- the image processing unit 311a (311b) may recognize the vertical direction in the captured image IM3, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM3.
- the image adjustment device 310a (310b) corrects the distortion of the captured image IM3 and executes image processing such as adjusting the horizontal of the captured image IM3, and the image processed image IM3 is displayed on the image display device 304a (304b). Output to.
- the server 306 corrects the distortion of the captured image IM3 captured by the camera 302, executes image processing such as adjusting the horizontal of the captured image IM3, and the image-processed captured image IM3 is adjusted by the image adjusting device 310a (310b). May be output to.
- the image display device 304a (304b) displays the captured image IM3 image-processed by the image adjustment device 310a (310b) or the server 306.
- the user USa can view the captured image IM3 image-processed by the image adjustment device 310a (310b) or the server 306 by mounting the image display device 304a (304b) on its head.
- the image display device 304a (304b) is in a state in which the user USa (USb) is facing, the posture of the user USa (USb), and the like in a state where the image display device 304a (304b) is mounted on the head of the user USa (USb).
- the posture information PN3a (PN3b) is generated based on
- the image processing unit 311a (311b) acquires the posture information PN3a (PN3b) from the image display device 304a (304b). That is, the image processing unit 311a (311b) acquires the posture information PN3a (PN3b) based on the posture of the image display device 304a (304b).
- the image processing unit 311a (311b), based on the posture information PN3a (PN3b), from the captured image IM3 captured by the camera 302, the direction in which the user USa (USb) is facing and the posture of the user USa (USb).
- the image of the area corresponding to the above state is displayed on the image display device 304a (304b).
- the controller 305a (305b) generates the instruction information NN3a (NN3b) based on the state of the movement or posture of the hand of the user USa (USb) while being attached to the hand of the user USa (USb). ..
- the image processing unit 311a (311b) acquires the instruction information NN3a (NN3b) from the controller 305a (305b).
- the image processing unit 311a (311b) can change or adjust the captured image IM3 displayed on the image display device 304a (304b) based on the instruction information NN3a (NN3b).
- the image generation unit 312a (312b) generates a composite image CM3b (CM3a) that is a CG to be combined with the captured image IM3.
- the composite image CM3a (CM3b) is an image of a character such as an avatar.
- the synthetic image CM3a generated by the second image generating unit 312b is the avatar of the first user USa, and the synthetic image CM3b generated by the first image generating unit 312a is the avatar of the second user USb.
- the image generation unit 312a When the user USa (USb) operates the controller 305a (305b), the image generation unit 312a (312b) generates a composite image CM3b (CM3a) which is an avatar of the user USb (USa), and the built-in memory or Save to external memory.
- CM3a composite image
- the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) generated by the image generation unit 312a (312b) and outputs it to the server 306 via the second communication unit 313a (313b) and the network. Good.
- the image generation unit 312a (312b) may generate a composite image CM3a (CM3b) that is an avatar of the user USa (USb) by operating the controller 305a (305b) by the user USa (USb).
- the image processing unit 311a (311b) acquires the composite image CM3a (CM3b) generated by the image generation unit 312a (312b) and outputs it to the server 306 via the second communication unit 313a (313b) and the network.
- the first user USa may set the avatar of the second user USb or may set his own avatar.
- the second user USb may set the avatar of the first user USa or may set his own avatar.
- the server 306 stores the composite image CM3a (CM3b) in the internal memory or the external memory in association with the user USa (USb).
- the server 306 may automatically set the composite image CM3a (CM3b) in association with the user USa (USb), and save the composite image CM3a (CM3b) in the built-in memory or an external memory.
- the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) from the image generation unit 312a (312b) or the server 306 based on the instruction information NN3a (NN3b) and displays it on the image display device 304a (304b).
- the synthesized image CM3b (CM3a) is synthesized with the captured image IM3. Therefore, the image display device 304a (304b) displays the captured image IM3 captured by the camera 302 and the composite image CM3b (CM3a) that is obtained from the image generation unit 312a (312b) or the server 306 and is combined with the captured image IM3. Can be displayed.
- the image generation unit 312a (312b) generates a spherical image VSS3a (VSS3b) that is a virtual image formed by a spherical surface that is CG.
- the image generation unit 312a (312b) stores the spherical image VSS3a (VSS3b) in a built-in memory or an external memory.
- the image processing unit 311a (311b) acquires the spherical image VSS3a (VSS3b) generated by the image generation unit 312a (312b) based on the instruction information NN3a (NN3b) and displays it on the image display device 304a (304b). To do.
- the spherical image VSS3a (VSS3b) of the third embodiment corresponds to the spherical image VSS1 of the first embodiment.
- the user USa (USb) moves the hand on which the controller 305a (305b) is attached to a position corresponding to the spherical image VSS3a (VSS3b) displayed on the image display device 304a (304b), It is felt that the hand of the user USa (USb) is in contact with the spherical image VSS3a (VSS3b).
- an actuator may be arranged in a portion that comes into contact with the hand of the user USa (USb).
- the image processing unit 311a (311b) determines that the hand of the user USa (USb) has moved to the position corresponding to the spherical image VSS3a (VSS3b) based on the instruction information NN3a (NN3b)
- the actuator is activated.
- the actuator applies pressure to the hand of the user USa (USb)
- the user USa (USb) can actually feel the touch of the hand with the spherical image VSS3a (VSS3b).
- the image processing unit 311a (311b) determines that the spherical image VSS3a (VSS3b) and the captured image IM3 displayed on the image display device 304a (304b) are the user USa based on the instruction information NN3a (NN3b).
- the image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination of (USb).
- the user USa moves his or her hand to any position in any direction at any speed, thereby moving the spherical image VSS3a (VSS3b) in any direction at any speed at any speed. Can be rotated into position. That is, the user USa (USb) can rotate the spherical image VSS3a (VSS3b) by the movement of the hand.
- the image processing unit 311a (311b) moves the captured image IM3 in correspondence with the rotation of the spherical image VSS3a (VSS3b).
- the image processing unit 311a (311b) causes the zenith ZE before the user USa (USb) rotates the spherical image VSS3a (VSS3b) and the user USa (USb) rotates the spherical image VSS3a (VSS3b).
- the position on the coordinate of the spherical image VSS3a (VSS3b) can be determined by the.
- the image processing unit 311a (311b) rotates the spherical image VSS3a (VSS3b) by the user USa (USb) based on the movement direction and the position of the movement destination of the zenith ZE on the coordinates of the spherical image VSS3a (VSS3b).
- the amount of change in the spherical image VSS3a (VSS3b) before and after rotation is calculated.
- the change amount of the spherical image VSS3a (VSS3b) of the third embodiment corresponds to the change amount of the spherical image VSS1 of the first embodiment.
- the image processing unit 311a (311b) stores the amount of change in the spherical image VSS3a (VSS3b) as a correction value CV3a (CV3b).
- the correction value CV3a (CV3b) of the third embodiment corresponds to the correction value CV1 of the first embodiment.
- the image processing unit 311a (311b) uses the coordinates on the spherical image VSS3a (VSS3b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS3a (VSS3b) as the correction value CV3a (CV3b). You may save.
- the image processing unit 311a (311b) may store the correction value CV3a (CV3b) in an internal memory or an external memory, or may store the correction value CV3a (CV3b) via the second communication unit 313a (313b) and a network. May be output to the server 306.
- the server 306 stores the correction value CV3a (CV3b) in the built-in memory or an external memory in association with the image display device 304a (304b) or the user USa (USb).
- the image adjustment system 301 synthesizes a composite image CM3b (CM3a), which is an avatar of another user USb (USa), with the captured image IM3 on the image display device 304a (304b) worn by the user USa (USb). Can be displayed.
- the user USa (USb) looks at the captured image IM3 taken by the camera 302, the user USa (USb) feels as if he or she is looking at the surroundings from the position of the camera 302.
- a composite image CM3b an avatar of another user USb (USa) is displayed at the position of the user USa (USb). Since CM3a) is displayed, the user USa (USb) feels strange.
- the avatars of the plurality of other users USb, USc,... are overlapped and displayed at the position of the user USa.
- the positional relationship among a plurality of users USa, USb,... Is preset in the server 306.
- the server 306 stores position setting information indicating the positional relationship among the plurality of users USa, USb,....
- the positional relationship among the plurality of users USa, USb,... May be automatically set by the server 306, or may be set by the plurality of users USa, USb,.
- FIG. 10 shows an example of the positional relationship between the first user USa and the synthetic image CM3b which is the avatar of the second user USb when the first user USa is looking at the first image display device 304a.
- FIG. 11 shows an example of the positional relationship between the second user USb and the composite image CM3a which is the avatar of the first user USa when the second user USb is looking at the second image display device 304b. ..
- Black dots shown in each of FIGS. 10 and 11 indicate the position of the camera 302.
- the arrow shown in each of FIGS. 10 and 11 indicates the moving direction of the camera 302. That is, FIG. 10 shows a state in which the first user USa faces the moving direction of the camera 302, and FIG. 11 shows a state in which the second user USb faces the moving direction of the camera 302. There is. Therefore, in each of FIGS. 10 and 11, the first user USa and the second user USb see the same captured image IM3.
- the composite image CM3b is displayed at a position away from the first user USa or the composite image CM3a is displayed at a position away from the second user USb, the first user USa and the second user Both users USb feel discomfort. Therefore, it is desirable to display the composite image CM3b (CM3a) at a position within a predetermined range RG from the position of the user USa (USb) (camera 302).
- the composite image CM3b is arranged side by side on the right side of the first user USa.
- the positional relationship between the first user USa and the second user USb is set.
- the composite image CM3a is arranged side by side on the left side of the second user USb.
- the positional relationship between the first user USa and the second user USb is set.
- processing in the first image adjustment device 310a, the first image display device 304a, and the first controller 305a will be described.
- the reference numerals in parentheses indicate the processes performed by the second image adjustment device 310b, the second image display device 304b, and the second controller 305b.
- the image display device 304a (304b) is attached to the head of the user USa (USb), and the controller 305a (305b) is attached to the hand of the user USa (USb).
- the captured image IM3 is displayed on the image display device 304a (304b).
- the user USa (USb) determines that the captured image IM3 displayed on the image display device 304a (304b) is not horizontal
- the user USa (USb) operates the controller 305a (305b) in FIG. Accordingly, the image processing unit 311a (311b) causes the image display device 304a (304b) to display the setting screen in step S301.
- the image processing unit 311a (311b) When the user USa (USb) operates the controller 305a (305b) to select a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 311a (311b) causes the step In S302, the processing is shifted to a predetermined processing mode corresponding to the selected item. When the horizontal adjustment item is selected, the image processing unit 311a (311b) shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM3.
- a processing mode horizontal adjustment mode
- step S303 the image processing unit 311a (311b) acquires the spherical image VSS3a (VSS3b) generated by the image generation unit 312a (312b) and displays it on the image display device 304a (304b).
- the captured image IM3 and the spherical image VSS3a (VSS3b) are mixed and displayed on the image display device 304a (304b).
- the user USa rotates the spherical image VSS3a (VSS3b) so that the captured image IM3 becomes horizontal, so that the image processing unit 311a (311b) causes the spherical image VSS3a (VSS3b) in step S304.
- the captured image IM3 displayed on the image display device 304a (304b) is moved in correspondence with the rotation of.
- the user USa (USb) may perform the operation of rotating the spherical image VSS3a (VSS3b) multiple times until the captured image IM3 becomes horizontal.
- the user USa operates the controller 305a (305b) when determining that the captured image IM3 has become horizontal, so that the image processing unit 311a (311b) causes the spherical image VSS3a (VSS3b) in step S305.
- the image processing unit 311a (311b) When the user USa (USb) operates the controller 305a (305b) and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 311a (311b) causes the image processing unit 311a (311b) to perform step S306. At, the processing shifts to a predetermined processing mode corresponding to the selected item. When the end item is selected, the image processing unit 311a (311b) shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.
- a predetermined item for example, an end item displayed on the setting screen
- step S307 the image processing unit 311a (311b) acquires a rotation amount (rotation angle) before and after the spherical image VSS3a (VSS3b) rotates as a variation amount of the spherical image VSS3a (VSS3b). ..
- step S308 the image processing unit 311a (311b) saves the amount of change in the spherical image VSS3a (VSS3b) as the correction value CV3a (CV3b), and ends the process.
- the image processing unit 311a (311b) causes the image display device 304a (304b) to display the setting screen in step S311. For example, an avatar selection item for selecting an avatar of another user US is displayed on the setting screen.
- the user USa selects the user USb (USa) as another user US, for example.
- the controller 305a generates the instruction information NN3a (NN3b) according to the selection content of the other user USb (USa) and outputs it to the image processing unit 311a (311b).
- the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) based on the instruction information NN3a (NN3b) in step S313.
- the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) from the server 306 via the second communication unit 313a (313b) and the network. To do.
- the image processing unit 311a (311b) determines in step S314 whether or not the camera 302 is moving. When it is determined that the camera 302 is moving (YES) in step S314, the image processing unit 311a (311b) recognizes the moving direction of the camera 302 in step S315. The image processing unit 311a (311b) can determine whether the camera 302 is moving based on the captured image IM3 and recognize the moving direction of the camera 302.
- step S316 the image processing unit 311a (311b) synthesizes the synthesized image CM3b (CM3a) with respect to the moving direction of the camera 302, for example, on the right side (left side) of the user USa (USb).
- the image CM3b (CM3a) is combined with the captured image IM3 and displayed on the image display device 304a (304b).
- step S314 When it is determined in step S314 that the camera 302 is not moving (NO), the image processing unit 311a (311b) determines that the camera 302 is stationary, and in step S316, the initial setting is performed. Based on the determined positional relationship between the first user USa and the second user USb, the composite image CM3b (CM3a) is composited with the captured image IM3 and displayed on the image display device 304a (304b).
- the spherical image VSS3 is displayed on the image display device 304.
- the image adjusting apparatus 310, and the image adjusting method according to the third embodiment when the horizontal direction of the captured image IM3 is erroneously detected or the designation of the horizontal or zenith ZE is deviated, The user US can adjust the captured image IM3 displayed on the image display device 304 to be horizontal by operating the controller 305 to rotate the spherical image VSS3.
- the image adjusting apparatus 310 when the horizontal direction of the captured image IM3 is erroneously detected or the horizontal or zenith designation is deviated.
- the user US can easily correct the horizontal or zenith of the captured image IM3.
- the image processing unit 311 reads the correction value CV3 and the camera 302 captures the image.
- the captured image IM3 can be image-adjusted based on the correction value CV3 and displayed on the image display device 304.
- the positional relationship among a plurality of users US is preset.
- the composite image CM3b (CM3a) which is the avatar of another user USb (USa)
- CM3a is added to the captured image IM3 displayed on the image display device 304a (304b) based on the preset positional relationship.
- the image adjustment device 310 when the user USa (USb) views the captured image IM3 captured by the camera 302, the user USa( Since the composite image CM3b (CM3a) that is the avatar of the other user USb (USa) is displayed in the vicinity of (USb), the user USa (USb) does not feel uncomfortable and the other user USb (USa) does not feel uncomfortable. It is possible to feel as if the user is looking at the same captured image IM3 as shown in FIG.
- the image adjustment system 401 according to the fourth embodiment includes a plurality of cameras 402, a plurality of first communication units 403, a plurality of image display devices 404, a plurality of controllers 405, a plurality of image adjustment devices 410, and a server. And 406.
- the image adjustment device 410 includes an image processing unit 411, an image generation unit 412, and a second communication unit 413.
- the camera 402, the communication unit 403, and the image display device 404 of the fourth embodiment correspond to the camera 102, the first communication unit 103, and the image display device 104 of the first embodiment, respectively.
- the controller 405, the image adjustment device 410, and the server 406 of the fourth embodiment correspond to the controller 105, the image adjustment device 110, and the server 106 of the first embodiment, respectively.
- the image processing unit 411, the image generation unit 412, and the second communication unit 413 of the fourth embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment, respectively. ..
- FIG. 14 two cameras 402, a first communication unit 403, an image display device 404, a controller 405, and an image adjustment device 410 are shown for the sake of clarity.
- the camera 402, the first communication unit 403, the image display device 404, the controller 405, and the image adjustment device 410 may be three or more.
- the image display device 404, the controller 405, and the image adjustment device 410 used by the first user USa are referred to as a first image display device 404a, a first controller 405a, and a first image adjustment device 410a.
- the image display device 404, the controller 405, and the image adjustment device 410 used by the second user USb are referred to as the second image display device 404b, the second controller 405b, and the second image adjustment device 410b.
- the image processing unit 411, the image generation unit 412, and the second communication unit 413 in the second image adjustment device 410a are the image processing unit 411a, the image generation unit 412a, and the second communication unit 413a. Further, the image processing unit 411, the image generation unit 412, and the second communication unit 413 in the image adjustment device 410b are referred to as the image processing unit 411b, the image generation unit 412b, and the second communication unit 413b.
- the first image adjustment device 410a is connected to the network via the second communication unit 413a of the first image adjustment device 410a.
- the second image adjustment device 410b is connected to the network via the second communication unit 413b of the second image adjustment device 410b.
- One of the two cameras 402 is the first camera 4021 and the other is the second camera 4022.
- One of the two first communication units 403 is the first communication unit 4031 and the other is the first communication unit 4032.
- the first camera 4021 is connected to the network via the first communication unit 4031
- the second camera 4022 is connected to the network via the first communication unit 4032.
- the first camera 4021 and the second camera 4022 may be connected to the network via the common first communication unit 4031 or first communication unit 4032.
- the server 406 is connected to the network.
- the first camera 4021 and the second camera 4022 can move independently.
- the first camera 4021 and the second camera 4022 have a GPS function.
- the server 406 can continuously acquire the positions (current positions) of the first camera 4021 and the second camera 4022 via the network, the first communication unit 4031 on one side, and the first communication unit 4032 on the other side. ..
- the first image adjustment device 410a can acquire the positions of the first camera 4021 and the second camera 4022 from the server 406 via the second communication unit 413a of the first image adjustment device 410a and the network.
- the second image adjustment device 410b can acquire the positions of the first camera 4021 and the second camera 4022 from the server 406 via the second communication unit 413b of the second image adjustment device 410b and the network.
- the first image adjustment device 410a can acquire the captured image IM41 taken by the first camera 4021 via the one first communication unit 4031, the second communication unit 413a of the first image adjustment device 410a, and the network. it can.
- the second image adjustment device 410b can acquire the captured image IM41 captured by the first camera 4021 via the one first communication unit 4031, the second communication unit 413b of the second image adjustment device 410b, and the network. it can.
- the first image adjustment device 410a can acquire the captured image IM42 captured by the second camera 4022 via the other first communication unit 4032, the second communication unit 413a of the first image adjustment device 410a, and the network. It can.
- the second image adjustment device 410b can acquire the captured image IM42 captured by the second camera 4022 via the other first communication unit 4032, the second communication unit 413b of the second image adjustment device 410b, and the network. it can.
- FIG. 14 illustrates a case where the first image adjustment device 410a acquires the captured image IM41 captured by the first camera 4021 and the second image adjustment device 410b acquires the captured image IM42 captured by the second camera 4022. ..
- the server 406 acquires the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 via the first communication unit 4031 on one side and the first communication unit 4032 on the other side and the network.
- the first image adjustment apparatus 410a uses the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 from the server 406 to the network and the second communication unit 413a of the first image adjustment apparatus 410a. To get through.
- the second image adjustment device 410b receives the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 from the server 406 via the network and the second communication unit 413b of the second image adjustment device 410b. get.
- the first user USa performs the login operation, or the first image display device 404a is connected to the network via the second communication unit 413a, so that the first user USa or the first image is displayed.
- the display device 404a can be specified.
- the second user USb performs the login operation, or the second image display device 404b is connected to the network via the second communication unit 413b, so that the second user USb or the second image is displayed.
- the display device 404b can be specified.
- the server 406 can recognize which captured image is displayed on which image display device. For example, as shown in FIG. 14, the captured image IM41 captured by the first camera 4021 is displayed on the first image display device 404a, and the captured image IM42 captured by the second camera 4022 is displayed on the second image display device 404b. In this case, the server 406 displays the captured image IM41 captured by the first camera 4021 on the first image display device 404a and displays the captured image IM42 captured by the second camera 4022 on the second image display device 404b. Recognize that In other words, the server 406 recognizes that the first user USa views the captured image IM41 captured by the first camera 4021, and the second user USb views the captured image IM42 captured by the second camera 4022. Can recognize that.
- the first image adjustment device 410a detects the current positions of the first camera 4021 that is capturing the captured image IM41 and the second camera 4022 that is capturing the captured image IM42, and the second image adjustment device 410b from the server 406. It can be recognized that the captured image IM42 captured by the second camera 4022 is acquired.
- the second image adjustment device 410b detects the current positions of the first camera 4021 that is capturing the captured image IM41 and the second camera 4022 that is capturing the captured image IM42, and the first image adjustment device 410a from the server 406. It can be recognized that the captured image IM41 captured by the first camera 4021 is acquired.
- the captured image IM41 (IM42) acquired by the first image adjustment device 410a is input to the image processing unit 411a.
- the image processing unit 411a analyzes the captured image IM41 (IM42) to recognize the horizontal direction in the captured image IM41 (IM42).
- the image processing unit 411a may recognize the vertical direction in the captured image IM41 (IM42) by analyzing the captured image IM41 (IM42), or may recognize the horizontal direction and the vertical direction.
- the first image adjustment device 410a corrects the distortion of the captured image IM41 (IM42), performs image processing such as adjusting the horizontal of the captured image IM41 (IM42), and the like, and the image-processed captured image IM41 (IM42). Is output to the first image display device 404a.
- the captured image IM42 (IM41) acquired by the second image adjustment device 410b is input to the image processing unit 411b.
- the image processing unit 411b recognizes the horizontal direction in the captured image IM42 (IM41) by analyzing the captured image IM42 (IM41).
- the image processing unit 411b may recognize the vertical direction in the captured image IM42 (IM41) by analyzing the captured image IM42 (IM41), or may recognize the horizontal direction and the vertical direction.
- the second image adjustment device 410b corrects the distortion of the captured image IM42 (IM41), executes image processing such as adjusting the horizontal of the captured image IM42 (IM41), and the image processed captured image IM42 (IM41). Is output to the second image display device 404b.
- the server 406 corrects the distortion between the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022, and the captured image IM41 captured by the first camera 4021 and the captured image captured by the second camera 4022.
- Image processing such as horizontal adjustment of IM42 is executed, and the image-processed captured image IM41 and captured image IM42 may be output to the first image adjustment device 410a or the second image adjustment device 410b. You may.
- the first image display device 404a displays a captured image IM41 (IM42) that has been image-processed by the first image adjustment device 410a or the server 406.
- the first user USa can view the captured image IM41 (IM42) image-processed by the first image adjusting device 410a or the server 406 by mounting the first image display device 404a on the head.
- the second image display device 404b displays the captured image IM42 (IM41) that has been image-processed by the second image adjustment device 410b or the server 406.
- the second user USb can view the captured image IM42 (IM41) image-processed by the second image adjustment device 410b or the server 406 by mounting the second image display device 404b on its head.
- the image display device 404a (404b) is in a state in which the user USa (USb) is facing, the posture of the user USa (USb), and the like in a state where the image display device 404a (404b) is mounted on the head of the user USa (USb).
- the posture information PN4a (PN4b) is generated based on
- the image processing unit 411a (411b) acquires the posture information PN4a (PN4b) from the image display device 404a (404b). That is, the image processing unit 411a (411b) acquires the posture information PN4a (PN4b) based on the posture of the image display device 404a (404b).
- the image processing unit 411a of the first image adjustment device 410a is directed toward the first user USa from the captured image IM41 captured by the first camera 4021 or the captured image IM42 captured by the second camera 4022 based on the posture information PN4a.
- the image of the area corresponding to the direction in which the user is moving and the state such as the posture of the first user USa is displayed on the first image display device 404a.
- the image processing unit 411b of the second image adjustment device 410b faces the second user USb from the captured image IM41 captured by the first camera 4021 or the captured image IM42 captured by the second camera 4022 based on the posture information PN4b.
- the second image display device 404b displays an image of a region corresponding to the direction in which the user is moving and the posture of the second user USb.
- the controller 405a (405b) generates the instruction information NN4a (NN4b) based on the state of the movement or posture of the hand of the user USa (USb) in a state where the controller 405a (405b) is attached to the hand of the user USa (USb). ..
- the image processing unit 411a (411b) acquires the instruction information NN4a (NN4b) from the controller 405a (405b).
- the image processing unit 411a of the first image adjustment device 410a can change or adjust the captured image IM41 or the captured image IM42 displayed on the first image display device 404a based on the instruction information NN4a.
- the image processing unit 411b of the second image adjustment device 410b can change or adjust the captured image IM41 or the captured image IM42 displayed on the second image display device 404b based on the instruction information NN4b.
- the image generation unit 412a of the first image adjustment device 410a generates a combined image CM4b that is a CG combined with the captured image IM41 (IM42).
- the image generation unit 412b of the second image adjustment device 410b generates a combined image CM4a that is a CG combined with the captured image IM42 (IM41).
- the composite image CM4a (CM4b) is an image of a character such as an avatar.
- the composite image CM4a is the avatar of the first user USa
- the composite image CM4b is the avatar of the second user USb.
- the image generation unit 412a of the first image adjustment device 410a When the first user USa operates the first controller 405a, the image generation unit 412a of the first image adjustment device 410a generates the composite image CM4b that is the avatar of the second user USb, and then the built-in memory or the external device. Save to memory.
- the image generation unit 412b of the second image adjustment device 410b When the second user USb operates the second controller 405b, the image generation unit 412b of the second image adjustment device 410b generates the composite image CM4a which is the avatar of the first user USa, and is stored in the internal memory or the external device. Save to memory.
- the image processing unit 411a (411b) acquires the composite image CM4b (CM4a) generated by the image generation unit 412a (412b) and outputs it to the server 406 via the second communication unit 413a (413b) and the network. Good.
- the user USa may operate the controller 405a (405b) to cause the image generation unit 412a (412b) to generate a composite image CM4a (CM4b) that is an avatar of the user USa (USb).
- the image processing unit 411a (411b) acquires the composite image CM4a (CM4b) generated by the image generation unit 412a (412b) and outputs it to the server 406 via the second communication unit 413a (413b) and the network.
- the first user USa may set the avatar of the second user USb or may set his own avatar.
- the second user USb may set the avatar of the first user USa or may set his own avatar.
- the server 406 stores the composite image CM4a (CM4b) in the internal memory or the external memory in association with the user USa (USb).
- the server 406 may automatically set the composite image CM4a (CM4b) in association with the user USa (USb), and save the composite image CM4a (CM4b) in the internal memory or an external memory.
- the image processing unit 411a (411b) acquires the composite image CM4b (CM4a) from the image generation unit 412a (412b) or the server 306 based on the instruction information NN4a (NN4b) and displays it on the image display device 404a (404b). be able to.
- the image generation unit 412a (412b) generates a spherical image VSS4a (VSS4b) that is a virtual image formed by a spherical surface that is CG.
- the image generation unit 412a (412b) stores the spherical image VSS4a (VSS4b) in a built-in memory or an external memory.
- the image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the image generation unit 412a (412b) based on the instruction information NN4a (NN4b) and displays it on the image display device 404a (404b). To do.
- the spherical image VSS4a (VSS4b) of the fourth embodiment corresponds to the spherical image VSS1 of the first embodiment.
- the user USa (USb) moves the hand on which the controller 405a (405b) is attached to a position corresponding to the spherical image VSS4a (VSS4b) displayed on the image display device 404a (404b), It feels as if the hand of the user USa (USb) is in contact with the spherical image VSS4a (VSS4b).
- an actuator may be arranged in a portion that comes into contact with the hand of the user USa (USb).
- the image processing unit 411a (411b) determines that the hand of the user USa (USb) has moved to the position corresponding to the spherical image VSS4a (VSS4b) based on the instruction information NN4a (NN4b)
- the actuator is activated.
- the actuator applies pressure to the hand of the user USa (USb)
- the user USa (USb) can actually feel the touch of the hand with the spherical image VSS4a (VSS4b).
- the first image adjustment The image processing unit 411a of the device 410a determines that the spherical image VSS4a and the captured image IM41 or the captured image IM42 displayed on the first image display device 404a are the hands of the first user USa based on the instruction information NN4a.
- the image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination.
- the second image adjustment The image processing unit 411b of the device 410b determines that the spherical image VSS4b and the captured image IM41 or the captured image IM42 displayed on the second image display device 404b are the hands of the second user USb based on the instruction information NN4b.
- the image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination.
- the user USa moves his or her hand to any position in any direction at any speed, thereby moving the spherical image VSS4a (VSS4b) in any direction at any speed at any speed. Can be rotated into position. That is, the user USa (USb) can rotate the spherical image VSS4a (VSS4b) by the movement of the hand.
- the image processing unit 411a (411b) moves the captured image IM41 (IM42) in correspondence with the rotation of the spherical image VSS4a (VSS4b).
- the image processing unit 411a (411b) causes the zenith ZE before the user USa (USb) rotates the spherical image VSS4a (VSS4b) and the user USa (USb) rotates the spherical image VSS4a (VSS4b). It is possible to determine which position on the coordinates of the spherical image VSS4a (VSS4b) is moved by.
- the image processing unit 411a (411b) rotates the spherical image VSS4a (VSS4b) by the user USa (USb) based on the movement direction and the position of the movement destination of the zenith ZE on the coordinates of the spherical image VSS4a (VSS4b).
- the amount of change in the spherical image VSS4a (VSS4b) before and after rotation is calculated.
- the amount of change of the spherical image VSS4a (VSS4b) of the fourth embodiment corresponds to the amount of change of the spherical image VSS1 of the first embodiment.
- the image processing unit 411a (411b) stores the amount of change in the spherical image VSS4a (VSS4b) as a correction value CV4a (CV4b).
- the correction value CV4a (CV4b) of the fourth embodiment corresponds to the correction value CV1 of the first embodiment.
- the image processing unit 411a (411b) uses the coordinates on the spherical image VSS4a (VSS4b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS4a (VSS4b) as the correction value CV4a (CV4b). You may save.
- the image processing unit 411a (411b) may store the correction value CV4a (CV4b) in an internal memory or an external memory, or may store the correction value CV4a (CV4b) via the second communication unit 413a (413b) and a network. May be output to the server 406.
- the server 406 stores the correction value CV4a (CV4b) in the built-in memory or an external memory in association with the image display device 404a (404b) or the user USa (USb).
- the image adjustment system 401 may display the combined image CM4b, which is the avatar of the second user USb, with the captured image IM41 (IM42) on the first image display device 404a worn by the first user USa. it can.
- the image adjustment system 401 may display the combined image CM4a, which is the avatar of the first user USa, on the second image display device 404b worn by the second user USb by combining the captured image IM42 (IM41). it can.
- the first image display device 404a is attached to the head of the first user USa, and the first controller 405a is attached to the hand of the first user USa.
- the second image display device 404b is attached to the head of the second user USb, and the second controller 405b is attached to the hand of the second user USb.
- a captured image IM41 captured by the first camera 4021 is displayed on the first image display device 404a, and a captured image IM42 captured by the second camera 4022 is displayed on the second image display device 404b.
- the user USa determines that the captured image IM41 (IM42) displayed on the image display device 404a (404b) is not horizontal
- the user USa controls the controller 405a (405b) in FIG.
- the image processing unit 411a (411b) causes the image display device 404a (404b) to display the setting screen in step S401.
- the image processing unit 411a (411b) causes the step In S402, the processing is shifted to a predetermined processing mode corresponding to the selected item.
- the image processing unit 411a (411b) shifts the processing to the processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM41 (IM42).
- step S403 the image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the image generation unit 412a (412b) and displays it on the image display device 404a (404b).
- the photographed image IM41 (IM42) and the spherical image VSS4a (VSS4b) are mixed and displayed on the image display device 404a (404b).
- the user USa rotates the spherical image VSS4a (VSS4b) so that the captured image IM41 (IM42) becomes horizontal, so that the image processing unit 411a (411b) causes the spherical image VSS4a in step S404.
- the captured image IM41 (IM42) displayed on the image display device 404a (404b) is moved in correspondence with the rotation of (VSS4b).
- the user USa (USb) may perform the operation of rotating the spherical image VSS4a (VSS4b) multiple times until the captured image IM41 (IM42) becomes horizontal.
- the user USa operates the controller 405a (405b) when it is determined that the captured image IM41 (IM42) has become horizontal, so that the image processing unit 411a (411b) causes the spherical image to be obtained in step S405.
- the display of the VSS 4a (VSS 4b) is ended, and the setting screen is displayed on the image display device 404a (404b).
- the image processing unit 411a (411b) causes the image processing unit 411a (411b) to perform step S406. At, the processing shifts to a predetermined processing mode corresponding to the selected item.
- the image processing unit 411a (411b) shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.
- step S407 the image processing unit 411a (411b) acquires the rotation amount (rotation angle) before and after the spherical image VSS4a (VSS4b) rotates as the change amount of the spherical image VSS4a (VSS4b). ..
- step S408 the image processing unit 411a (411b) stores the amount of change in the spherical image VSS4a (VSS4b) as the correction value CV4a (CV4b), and ends the processing.
- the image processing unit 411a identifies the first camera 4021 that is capturing the captured image IM41 that has been acquired in step S411.
- the image processing unit 411a acquires the position information of the first camera 4021 from the first camera 4021 or the server 406 in step S412.
- the position information of the first camera 4021 includes information on the current position of the first camera 4021 and the direction in which the first camera 4021 faces or is moving.
- the image processing unit 411a acquires information of another camera (camera other than the first camera 4021) from the server 406 in step S413.
- the image processing unit 411a acquires information on the second camera 4022 from the server 406 in step S413.
- the information of the second camera 4022 includes the second user USb watching the captured image IM42 captured by the second camera 4022, the current position of the second camera 4022, and the direction in which the second camera 4022 faces. Or it contains information about the direction you are moving.
- the direction in which the second camera 4022 is facing or the direction in which it is moving corresponds to the direction in which the second user USb is facing, and is specified based on the captured image IM42 displayed on the second image display device 404b. be able to.
- step S414 the image processing unit 411a determines whether or not another camera (camera other than the first camera 4021) is captured in the captured image IM41, in other words, whether or not another camera is captured, for example, an image. Judge by recognition. When it is determined in step S414 that another camera is not included in the captured image IM41 (NO), the image processing unit 411a returns the process to step S414.
- another camera camera other than the first camera 4021
- step S414 When it is determined in step S414 that another camera is included in the captured image IM41 (YES), the image processing unit 411a determines in step S415 based on the information of the other camera acquired in step S413. Identify the other camera shown in IM41.
- FIG. 17 shows a state in which the first camera 4021 is located at the point A and the second camera 4022 is located at the point B in front of the first camera 4021.
- the second camera 4022 which is another camera, is shown in the captured image IM41 of the first camera 4021.
- the image processing unit 411a identifies that the camera shown in the captured image IM41 of the first camera 4021 is the second camera 4022 based on the information of the second camera 4022 acquired in step S413.
- step S416 the image processing unit 411a, based on the position information of the first camera 4021 acquired in step S412 and the information of the second camera 4022 acquired in step S413, the second camera 4022 for the first camera 4021. And the direction in which the second camera 4022 is facing or moving.
- step S417 the image processing unit 411a identifies the user US who is viewing the captured image IM captured by the camera identified in step S415. For example, the image processing unit 411a identifies the second user USb who is looking at the captured image IM42 captured by the second camera 4022. In step S418, the image processing unit 411a acquires the composite image CM4b that is the avatar of the second user USb. When the composite image CM4b is stored in the server 406, the image processing unit 411a acquires the composite image CM4b from the server 406.
- step S419 the image processing unit 411a combines the composite image CM4b at the position corresponding to the second camera 4022 shown in the captured image IM41, and displays the composite image CM4b on the first image display device 404a.
- the image processing unit 411a horizontally adjusts the composite image CM4b in the same manner as the captured image IM41, and displays it on the first image display device 404a.
- the correction value CV4a is stored, the image processing unit 411a horizontally adjusts the composite image CM4b based on the correction value CV4a and displays it on the first image display device 404a.
- the image processing unit 411a may change the size of the composite image CM4b in correspondence with the position of the second camera 4022 with respect to the first camera 4021. For example, when the camera 4022 is located far away from the camera 4021, the image processing unit 411a determines that the size of the composite image CM4b depends on the distance between the first camera 4021 and the second camera 4022.
- the combined image CM4b is subjected to image processing so as to be small and combined with the captured image IM41.
- the image processing unit 411a may change the orientation of the composite image CM4b in accordance with the direction in which the second camera 4022 is facing or the direction in which the second camera 4022 is moving.
- the image processing unit 411a may acquire the composite image CM4b in the direction corresponding to the direction in which the second camera 4022 is facing or the direction in which the second camera 4022 is moving.
- the spherical image VSS4a (VSS4b) is displayed on the image display device 404a (404b).
- the horizontal direction of the captured image IM41 (IM42) is erroneously detected, or the horizontal or zenith ZE is designated.
- the user USa USb
- IM41 (IM42) can be adjusted to be horizontal.
- the horizontal direction of the captured image IM41 (IM42) is erroneously detected, or the horizontal or zenith is designated.
- the user US can easily correct the horizontal or zenith of the captured image IM41 (IM42).
- the image processing unit 411a (411b) performs the correction.
- the value CV4a (CV4b) can be read, the captured image IM41 (IM42) captured by the camera 4021 (4022) can be image-adjusted based on the correction value CV4a (CV4b), and displayed on the image display device 404a (404b).
- the position of the second camera 4022 with respect to the first camera 4021 is specified, and the position of the second camera 4022 in the captured image IM.
- the composite image CM4b which is the avatar of the second user USb looking at the captured image IM42 captured by the second camera 4022 is synthesized.
- the first user USa can feel as if sharing the same space as the second user USb.
- the virtual image VSS generated by the CG may be a surface of an ellipsoid (elliptical surface), and may be an arbitrary closed surface (closed curved surface) within the reach of the user US. I wish I had it. That is, it is sufficient that the user US feels as if he/she touches the closed curved surface from the inside, and that the captured image IM can be horizontally adjusted. Since the user US rotates the virtual image VSS, it is desirable that the virtual image VSS has a spherical shape close to a spherical surface such as a spherical surface or an elliptic surface.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
画像調整システム(101)は、カメラ(102)と、画像調整装置(110)と、画像表示装置(104)と、コントローラ(105)とを備える。画像調整装置(110)は、画像生成部(112)と画像処理部(111)とを備える。画像生成部(112)は、球面状画像(VSS1)、及び、カメラ(102)が撮影した撮影画像(IM1)と合成される合成画像(CM1)を生成する。画像処理部(111)は、画像生成部(112)で生成された球面状画像(VSS1)を取得して、画像表示装置(104)に表示する。画像処理部(111)は、コントローラ(105)から出力された指示情報(NN1)に基づいて球面状画像(VSS1)を回転させ、球面状画像(VSS1)の回転に対応させて画像表示装置(104)に表示されている撮影画像(IM1)を調整し、調整された撮影画像(IM1)に対応させて合成画像(CM1)を調整して撮影画像(IM1)と合成する。
Description
本発明は、画像調整システム、画像調整装置、及び画像調整方法に関する。
近年、画像表示装置としてヘッドマウントディスプレイが注目されている。ヘッドマウントディスプレイは、使用者の頭部に装着された状態で画像を表示することにより、使用者は仮想空間に入り込んだような感覚(没入感)を得ることができる。特許文献1に記載されている従来例のヘッドマウントディスプレイは、外部のカメラで撮影した画像をネックワークを介して表示することができる。
しかし、従来例のヘッドマウントディスプレイでは、表示される画像によっては画像の水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、表示される画像が使用者の重力感覚と一致しないため、使用者は違和感を覚える。
本発明は、画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、画像の水平または天頂を簡便に補正することができる画像調整システム、画像調整装置、及び画像調整方法を提供することを目的とする。
本発明の第1の態様に係る画像調整システムは、カメラと、前記カメラが撮影した撮影画像を調整するための画像調整装置と、前記画像調整装置により調整された前記撮影画像を表示するための画像表示装置と、前記画像調整装置へ指示情報を出力するためのコントローラとを備え、前記画像調整装置は、球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部とを備える。
本発明の第2の態様に係る画像調整装置は、球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部とを備える。
本発明の第3の態様に係る画像調整方法は、画像処理部がコントローラから指示情報を取得し、前記画像処理部が前記指示情報に基づいて画像生成部で生成された球面状画像を取得し、画像表示装置が前記球面状画像を表示し、前記画像処理部が前記指示情報に基づいて前記球面状画像を回転させ、前記画像処理部がカメラにより撮影されて前記画像表示装置に表示されている撮影画像を前記球面状画像の回転に対応させて調整し、前記画像処理部が前記画像生成部で生成され、前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、前記画像処理部が調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成することを含む。
本発明の第1の態様に係る画像調整システム、第2の態様に係る画像調整装置、及び第3の態様に係る画像調整方法によれば、画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、画像の水平または天頂を簡便に補正することができる。
[第1実施形態]
図1を用いて、第1実施形態に係る画像調整システム101の構成例を説明する。第1実施形態に係る画像調整システム101は、カメラ102と、第1通信部103と、画像表示装置104と、コントローラ105と、画像調整装置110と、サーバ106とを備える。画像調整装置110は、画像処理部111と、画像生成部112と、第2通信部113とを備える。
図1を用いて、第1実施形態に係る画像調整システム101の構成例を説明する。第1実施形態に係る画像調整システム101は、カメラ102と、第1通信部103と、画像表示装置104と、コントローラ105と、画像調整装置110と、サーバ106とを備える。画像調整装置110は、画像処理部111と、画像生成部112と、第2通信部113とを備える。
カメラ102は、360度の範囲を撮影できる全方位カメラ(360度カメラ)である。第1通信部103と第2通信部113とはネットワークを介して接続されている。画像調整装置110は、カメラ102が撮影した撮影画像IM1を、第1通信部103と第2通信部113とネットワークとを介して取得することができる。
画像調整装置110としてコンピュータ機器を用いてもよい。画像処理部111及び画像生成部112としてCPUを用いてもよい。画像生成部112及び第2通信部113は、画像調整装置110の外部に設けられていてもよい。
サーバ106は、ネットワークと第1通信部103とを介してカメラ102と接続し、ネットワークと第2通信部113とを介して画像調整装置110と接続する。サーバ106がカメラ102が撮影した撮影画像IM1を第1通信部103及びネットワークを介して取得し、画像調整装置110がサーバ106から撮影画像IM1をネットワーク及び第2通信部113を介して取得してもよい。
画像調整装置110が取得した撮影画像IM1は、画像処理部111へ入力される。画像処理部111は、撮影画像IM1を解析することにより、撮影画像IM1における水平方向を認識する。画像処理部111は、撮影画像IM1を解析することにより、撮影画像IM1における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。画像調整装置110は、撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像表示装置104へ出力する。
サーバ106は、カメラ102が撮影した撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像調整装置110へ出力してもよい。画像表示装置104は、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を表示する。
画像表示装置104は、例えばヘッドマウントディスプレイである。コントローラ105は、例えばVR(Virtual Reality)等に用いられるグローブ型コントローラである。
図2は、画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている状態を模式的に示している。図2に示す符号ZEは天頂を示している。カメラ102の天頂と使用者USの天頂とは一致していることが望ましい。使用者USは、その頭部に画像表示装置104を装着することにより、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を見ることができる。
画像表示装置104は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN1を生成する。画像処理部111は、画像表示装置104から姿勢情報PN1を取得する。即ち、画像処理部111は、画像表示装置104の姿勢に基づいて姿勢情報PN1を取得することになる。画像処理部111は、姿勢情報PN1に基づいて、カメラ102が撮影した撮影画像IM1から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置104に表示する。
コントローラ105は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢、または、使用者USの指の動きまたは姿勢等の状態に基づいて指示情報NN1を生成する。以下、手または指を、単に手と略記する。画像処理部111は、コントローラ105から指示情報NN1を取得する。画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている撮影画像IM1を変化させたり調整したりすることができる。
画像生成部112は、撮影画像IM1と合成されるCG(Computer Graphics)である合成画像CM1を生成する。合成画像CM1は、例えばアバター等のキャラクタの画像である。画像生成部112は、合成画像CM1を内蔵メモリまたは外部のメモリに保存する。画像処理部111は、画像生成部112で生成された合成画像CM1を取得し、第2通信部113とネットワークとを介してサーバ106へ出力してもよい。
サーバ106は、合成画像CM1を画像表示装置104または使用者USと対応付けて内蔵メモリまたは外部のメモリに保存する。画像処理部111は、指示情報NN1に基づいて、画像生成部112またはサーバ106から合成画像CM1を取得し、画像表示装置104に表示されている撮影画像IM1に合成画像CM1を合成する。従って、画像表示装置104は、カメラ102が撮影した撮影画像IM1と、画像生成部112またはサーバ106から取得されて撮影画像IM1と合成された合成画像CM1とを表示することができる。
画像生成部112は、CGである球面により構成された仮想画像である球面状画像VSS1を生成する。画像生成部112は、球面状画像VSS1を内蔵メモリまたは外部のメモリに保存する。画像処理部111は、指示情報NN1に基づいて、画像生成部112で生成された球面状画像VSS1を取得し、画像表示装置104に表示する。
図2は、画像表示装置104が使用者USの頭部に装着された状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときの使用者USのイメージを模式的に示している。
画像表示装置104が使用者USの頭部に装着されている状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときに、球面状画像VSS1は、使用者US及び画像表示装置104の周囲に配置され、かつ、使用者USの手が球面状画像VSS1に届く範囲に表示されるように設定されている。使用者USは、コントローラ105が装着されている手を、画像表示装置104に表示されている球面状画像VSS1に対応する位置に移動させることにより、使用者USの手が球面状画像VSS1に接触しているように感じる。
コントローラ105は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部111は、指示情報NN1に基づいて、使用者USの手が球面状画像VSS1に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS1に接触する感覚を実感として得ることができる。
球面状画像VSS1が画像表示装置104に表示されている状態において、使用者USが、コントローラ105が装着されている手を任意の方向へ移動させた場合、画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている球面状画像VSS1と撮影画像IM1とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS1を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS1を回転させることができる。画像処理部111は、球面状画像VSS1の回転に対応させて撮影画像IM1を移動させる。
画像処理部111は、使用者USが球面状画像VSS1を回転させる前の天頂ZEが、使用者USが球面状画像VSS1を回転させることによって球面状画像VSS1の座標上のどの位置へ移動したかを判定することができる。画像処理部111は、球面状画像VSS1の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS1を回転させる前と回転させた後との球面状画像VSS1の変化量を算出する。
球面状画像VSS1の変化量とは、球面状画像VSS1において、X軸を回転軸とした回転量(回転角度)と、Y軸を回転軸とした回転量(回転角度)と、Z軸を回転軸とした回転量(回転角度)とが合成された球面状画像VSS1の回転量(回転角度)に相当する。画像処理部111は、球面状画像VSS1の変化量を補正値CV1として保存する。即ち、補正値CV1は、球面状画像VSS1の回転方向と、天頂ZEの移動量または移動角度(球面状画像VSS1の回転角度)に基づいて算出されることになる。
画像処理部111は、使用者USが球面状画像VSS1を回転させた後の天頂ZEの球面状画像VSS1上の座標を補正値CV1として保存してもよい。画像処理部111は、補正値CV1を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV1を第2通信部113及びネットワークを介してサーバ106へ出力してもよい。サーバ106は、補正値CV1を画像表示装置104または使用者USと関連付けて内蔵メモリまたは外部のメモリに保存する。
画像処理部111は、撮影画像IM1の水平方向を検出する。しかし、画像処理部111は、撮影画像IM1によってはその水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。撮影画像IM1の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、画像表示装置104に表示される撮影画像IM1が使用者USの重力感覚と一致しないため、使用者USは違和感を覚える。
図3、4に示すフローチャートを用いて、第1実施形態に係る画像調整方法の一例を説明する。具体的には、撮影画像IM1及び合成画像CM1の水平を調整する方法の一例について説明する。画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている。画像表示装置104には撮影画像IM1及び合成画像CM1が表示されている。この時点で、合成画像CM1は表示されていなくてもよい。
使用者USが画像表示装置104に表示されている撮影画像IM1が水平でないと判断した場合、図3において、使用者USがコントローラ105を操作することにより、画像処理部111は、ステップS101にて、画像表示装置104に設定画面を表示させる。
使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部111は、ステップS102にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部111は、撮影画像IM1の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。
画像処理部111は、ステップS103にて、画像生成部112で生成された球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1と球面状画像VSS1と合成画像CM1とが混合して表示される。使用者USが撮影画像IM1が水平となるように球面状画像VSS1を回転させることにより、画像処理部111は、ステップS104にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている撮影画像IM1を移動させる。使用者USは撮影画像IM1が水平になるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。
使用者USは撮影画像IM1が水平になったと判断した場合にコントローラ105を操作することにより、画像処理部111は、ステップS105にて、球面状画像VSS1の表示を終了させ、画像表示装置104に設定画面を表示させる。画像表示装置104に表示されている撮影画像IM1を水平にすることにより、カメラ102の天頂と使用者USの天頂とを一致させることができる。
使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部111は、ステップS106にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部111は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。
画像処理部111は、ステップS107にて、球面状画像VSS1が回転する前と後との回転量(回転角度)を、球面状画像VSS1の変化量として取得する。画像処理部111は、ステップS108にて、球面状画像VSS1の変化量を補正値CV1として保存し、処理を終了する。
図3のステップS101~S108において合成画像CM1が表示されていない場合、使用者USがコントローラ105を操作することにより、画像調整装置110(具体的には画像処理部111)は、画像生成部112で生成された合成画像CM1を取得し、画像表示装置104に表示されている撮影画像IM1に合成して表示させることができる。
図5は、使用者USによって水平調整された撮影画像IM1の水平面PHP1と、画像処理部111が画像生成部112から取得した合成画像CM1の水平面SHP1との関係を模式的に示している。撮影画像IM1の水平面PHP1と合成画像CM1の水平面SHP1とがずれていると、使用者USは違和感を覚える。
図4において、画像処理部111は、ステップS111にて、撮影画像IM1が水平調整されたか否かを判定する。画像処理部111は、球面状画像VSS1が回転された履歴または補正値CV1等に基づいて、撮影画像IM1が水平調整されたか否かを判定することができる。
ステップS111において撮影画像IM1が水平調整された(YES)と判定された場合、画像処理部111は、ステップS112にて、保存されている補正値CV1を取得する。画像処理部111は、ステップS113にて、補正値CV1に基づいて合成画像CM1の座標軸を回転させ、合成画像CM1の水平面SHP1を撮影画像IM1の水平面PHP1と一致させる。画像処理部111は、ステップS114にて、合成画像CM1を、補正された水平面SHP1に基づいて演算処理し、画像調整する。
画像処理部111は、ステップS115にて、画像調整された合成画像CM1を撮影画像IM1と合成して画像表示装置104に表示させる。ステップS111において撮影画像IM1が水平調整されていない(NO)と判定された場合、画像処理部111は、処理をステップS115へ移行させる。
第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法では、画像表示装置104に球面状画像VSS1を表示させる。第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ105を操作して球面状画像VSS1を回転させることにより、画像表示装置104に表示されている撮影画像IM1を水平になるように調整することができる。
従って、第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM1の水平または天頂を簡便に補正することができる。
第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法によれば、補正値CV1が保存されている場合、画像処理部111は、補正値CV1を読み出し、カメラ102が撮影した撮影画像IM1を補正値CV1に基づいて画像調整し、画像表示装置104に表示することができる。
第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法では、撮影画像IM1が水平調整された場合、補正値CV1に基づいて合成画像CM1の座標軸を回転させ、合成画像CM1の水平面SHP1を撮影画像IM1の水平面PHP1と一致させる。第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1と合成画像CM1とを、使用者USが違和感を覚えることなく、画像表示装置104に表示することができる。
[第2実施形態]
図1を用いて、第2実施形態に係る画像調整システム201の構成例を説明する。第2実施形態に係る画像調整システム201は、カメラ202と、第1通信部203と、画像表示装置204と、コントローラ205と、画像調整装置210と、サーバ206とを備える。画像調整装置210は、画像処理部211と、画像生成部212と、第2通信部213とを備える。
図1を用いて、第2実施形態に係る画像調整システム201の構成例を説明する。第2実施形態に係る画像調整システム201は、カメラ202と、第1通信部203と、画像表示装置204と、コントローラ205と、画像調整装置210と、サーバ206とを備える。画像調整装置210は、画像処理部211と、画像生成部212と、第2通信部213とを備える。
第2実施形態のカメラ202、第1通信部203、画像表示装置204、コントローラ205、画像調整装置210、及びサーバ206は、第1実施形態のカメラ102、第1通信部103、画像表示装置104、コントローラ105、画像調整装置110、及びサーバ106に相当する。第2実施形態の画像処理部211、画像生成部212、及び第2通信部213は、第1実施形態の画像処理部111、画像生成部112、及び第2通信部113に相当する。
画像調整装置210は、カメラ202が撮影した撮影画像IM2を、第1通信部203と第2通信部213とネットワークとを介して取得することができる。サーバ206がカメラ202が撮影した撮影画像IM2を第1通信部203及びネットワークを介して取得し、画像調整装置210がサーバ206から撮影画像IM2をネットワーク及び第2通信部213を介して取得してもよい。
画像調整装置210が取得した撮影画像IM2は、画像処理部211へ入力される。画像処理部211は、撮影画像IM2を解析することにより、撮影画像IM2における水平方向を認識する。画像処理部211は、撮影画像IM2を解析することにより、撮影画像IM2における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。画像調整装置210は、撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像表示装置204へ出力する。
サーバ206は、カメラ202が撮影した撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像調整装置210へ出力してもよい。画像表示装置204は、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を表示する。使用者USは、その頭部に画像表示装置204を装着することにより、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を見ることができる。
画像表示装置204は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN2を生成する。画像処理部211は、画像表示装置204から姿勢情報PN2を取得する。即ち、画像処理部211は、画像表示装置204の姿勢に基づいて姿勢情報PN2を取得することになる。画像処理部211は、姿勢情報PN2に基づいて、カメラ202が撮影した撮影画像IM2から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置204に表示する。
コントローラ205は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢等の状態に基づいて指示情報NN2を生成する。画像処理部211は、コントローラ205から指示情報NN2を取得する。画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている撮影画像IM2を変化させたり調整したりすることができる。
画像生成部212は、撮影画像IM2と合成されるCGである合成画像CM2を生成する。合成画像CM2は、例えばアバター等のキャラクタの画像である。画像生成部212は、合成画像CM2を内蔵メモリまたは外部のメモリに保存する。画像処理部211は、画像生成部212で生成された合成画像CM2を取得し、第2通信部213とネットワークとを介してサーバ206へ出力してもよい。サーバ206は、合成画像CM2を画像表示装置204または使用者USと対応付けて内蔵メモリまたは外部のメモリに保存する。
画像処理部211は、指示情報NN2に基づいて、画像生成部212またはサーバ206から合成画像CM2を取得し、画像表示装置204に表示されている撮影画像IM2に合成画像CM2を合成する。従って、画像表示装置204は、カメラ202が撮影した撮影画像IM2と、画像生成部212またはサーバ206から取得されて撮影画像IM2と合成された合成画像CM2とを表示することができる。
画像生成部212は、CGである球面により構成された仮想画像である球面状画像VSS2を生成する。画像生成部212は、球面状画像VSS2を内蔵メモリまたは外部のメモリに保存する。画像処理部211は、指示情報NN2に基づいて、画像生成部212で生成された球面状画像VSS2を取得し、画像表示装置204に表示する。
第2実施形態の球面状画像VSS2は、第1実施形態の球面状画像VSS1に相当する。使用者USは、コントローラ205が装着されている手を、画像表示装置204に表示されている球面状画像VSS2に対応する位置に移動させることにより、使用者USの手が球面状画像VSS2に接触しているように感じる。
コントローラ205は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部211は、指示情報NN2に基づいて、使用者USの手が球面状画像VSS2に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS2に接触する感覚を実感として得ることができる。
球面状画像VSS2が画像表示装置204に表示されている状態において、使用者USが、コントローラ205が装着されている手を任意の方向へ移動させた場合、画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている球面状画像VSS2と撮影画像IM2とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS2を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS2を回転させることができる。画像処理部211は、球面状画像VSS2の回転に対応させて撮影画像IM2を移動させる。
画像処理部211は、使用者USが球面状画像VSS2を回転させる前の天頂ZEが、使用者USが球面状画像VSS2を回転させることによって球面状画像VSS2の座標上のどの位置へ移動したかを判定することができる。画像処理部211は、球面状画像VSS2の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS2を回転させる前と回転させた後との球面状画像VSS2の変化量を算出する。第2実施形態の球面状画像VSS2の変化量は、第1実施形態の球面状画像VSS1の変化量に相当する。
画像処理部211は、球面状画像VSS2の変化量を補正値CV2として保存する。第2実施形態の補正値CV2は、第1実施形態の補正値CV1に相当する。画像処理部211は、使用者USが球面状画像VSS2を回転させた後の天頂ZEの球面状画像VSS2上の座標を補正値CV2として保存してもよい。画像処理部211は、補正値CV2を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV2を第2通信部213及びネットワークを介してサーバ206へ出力してもよい。サーバ206は、補正値CV2を画像表示装置204または使用者USと関連付けて内蔵メモリまたは外部のメモリに保存する。
画像処理部211は、撮影画像IM2の水平方向を検出する。しかし、画像処理部211は、撮影画像IM2によってはその水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。撮影画像IM2の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、画像表示装置204に表示される撮影画像IM2が使用者USの重力感覚と一致しないため、使用者USは違和感を覚える。
図6A、6B、7に示すフローチャートを用いて、第2実施形態に係る画像調整方法の一例を説明する。具体的には、撮影画像IM2及び合成画像CM2の水平を調整する方法の一例について説明する。画像表示装置204が使用者USの頭部に装着され、コントローラ205が使用者USの手に装着されている。画像表示装置204には撮影画像IM2及び合成画像CM2が表示されている。なお、合成画像CM2は表示されていなくてもよい。
使用者USが画像表示装置204に表示されている撮影画像IM2が水平でないと判断した場合、図6Aにおいて、使用者USがコントローラ205を操作することにより、画像処理部211は、ステップS201にて、画像表示装置204に設定画面を表示させる。
使用者USがコントローラ205を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部211は、ステップS202にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部211は、撮影画像IM2の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。
画像処理部211は、ステップS203にて、画像生成部212で生成された球面状画像VSS2を取得し、画像表示装置204に表示する。画像表示装置204には、撮影画像IM2と球面状画像VSS2とが混合して表示される。画像処理部211は、ステップS204にて、合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されているか否かを判定する。
ステップS204において合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されている(YES)と判定された場合、画像処理部211は、ステップS205にて、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とを分離させる処理を実行する。図8は、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とが分離された状態を模式的に示している。
ステップS204において合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されていない(NO)と判定された場合、画像処理部211は、処理をステップS206へ進める。
使用者USは、撮影画像IM2が水平となるように球面状画像VSS2を回転させる。合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とは分離しているため、球面状画像VSS2を回転させても、合成画像CM2は回転しない。そのため、使用者USは、合成画像CM2の回転に惑わされることなく、撮影画像IM2の水平を容易に補正することができる。
ステップS205において、画像処理部211は合成画像CM2を非表示にしてもよい。合成画像CM2を非表示にすることにより、合成画像CM2が邪魔にならないので、使用者USは、撮影画像IM2の水平を容易に補正することができる。
画像処理部211は、ステップS206にて、球面状画像VSS2の回転に対応させて、画像表示装置204に表示されている撮影画像IM2を移動させる。使用者USは撮影画像IM2が水平になるまで球面状画像VSS2を回転させる動作を複数回行ってもよい。
図6Bにおいて、使用者USは撮影画像IM2が水平になったと判断した場合にコントローラ205を操作することにより、画像処理部211は、ステップS207にて、球面状画像VSS2の表示を終了させ、画像表示装置204に設定画面を表示させる。画像表示装置204に表示されている撮影画像IM2を水平にすることにより、カメラ202の天頂と使用者USの天頂とを一致させることができる。
使用者USがコントローラ205を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部211は、ステップS208にて、選択された項目に対応する所定の処理モードへ処理を移行させる。終了の項目が選択された場合、画像処理部211は、水平調整を終了するための処理モード(水平調整終了モード)へ処理を移行させる。
画像処理部211は、ステップS209にて、球面状画像VSS2が回転する前と後との回転量(回転角度)を、球面状画像VSS2の変化量として取得する。画像処理部211は、ステップS210にて、球面状画像VSS2の変化量を補正値CV2として保存する。
図6A、6BのステップS201~S210において合成画像CM2が表示されていない場合、使用者USがコントローラ205を操作することにより、画像調整装置210(具体的には画像処理部211)は、画像生成部212で生成された合成画像CM2を取得し、画像表示装置204に表示させることができる。
画像調整装置210(具体的には画像処理部211)は、カメラ202が撮影する撮影画像IM2を解析することにより、撮影画像IM2における水平方向を認識する。使用者USが球面状画像VSS2を回転させて撮影画像IM2の水平を調整した後に、画像調整装置210が画像生成部212で生成された合成画像CM2を取得し、画像表示装置204に表示させると、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とは一致しなくなる。撮影画像IM2の水平面PHP2と合成画像CM2の水平面SHP2とがずれていると、使用者USは違和感を覚える。
図7において、画像処理部211は、ステップS211にて、合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されているか否かを判定する。合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されている(YES)と判定された場合、画像処理部211は、ステップS212にて、保存されている補正値CV2を取得する。
画像処理部211は、ステップS213にて、補正値CV2に基づいて合成画像CM2の座標軸を回転させ、合成画像CM2の水平面SHP2を、使用者USによって水平調整された撮影画像IM2の水平面PHP2と一致させる。画像処理部211は、ステップS214にて、合成画像CM2を、補正された水平面SHP2に基づいて演算処理し、画像調整する。図8は、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とが一致している状態を模式的に示している。
ステップS211において撮影画像IM2が使用者USによって水平調整されていない(NO)と判定された場合、画像処理部211は、処理をステップS215へ移行させる。画像処理部211は、ステップS215にて、画像調整された合成画像CM2を撮影画像IM2と合成して画像表示装置204に表示させる。使用者USは、画像表示装置204に表示され、互いの水平が一致している撮影画像IM2及び合成画像CM2を見ることができる。
第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法では、画像表示装置204に球面状画像VSS2を表示させる。第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ205を操作して球面状画像VSS2を回転させることにより、画像表示装置204に表示されている撮影画像IM2を水平になるように調整することができる。
従って、第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM2の水平または天頂を簡便に補正することができる。
第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法によれば、補正値CV2が保存されている場合、画像処理部211は、補正値CV2を読み出し、カメラ202が撮影した撮影画像IM2を補正値CV2に基づいて画像調整し、画像表示装置204に表示することができる。
第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法では、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とを分離させて、撮影画像IM2の水平を調整し、調整結果(補正値CV2)に基づいて合成画像CM2の水平を調整する。合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とが分離しているため、使用者USが球面状画像VSS2を回転させても、合成画像CM2は回転しない。そのため、使用者USは、撮影画像IM2の水平を容易に補正することができる。
第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2が水平調整された場合、補正値CV2に基づいて合成画像CM2の座標軸を回転させ、合成画像CM2の水平面SHP2を撮影画像IM2の水平面PHP2と一致させる。そのため、使用者USは、画像表示装置204に表示されている撮影画像IM2と合成画像CM2とを、違和感を覚えることなく見ることができる。
[第3実施形態]
図9を用いて、第3実施形態に係る画像調整システム301の構成例を説明する。第3実施形態に係る画像調整システム301は、カメラ302と、第1通信部303と、複数の画像表示装置304と、複数のコントローラ305と、複数の画像調整装置310と、サーバ306とを備える。画像調整装置310は、画像処理部311と、画像生成部312と、第2通信部313とを備える。
図9を用いて、第3実施形態に係る画像調整システム301の構成例を説明する。第3実施形態に係る画像調整システム301は、カメラ302と、第1通信部303と、複数の画像表示装置304と、複数のコントローラ305と、複数の画像調整装置310と、サーバ306とを備える。画像調整装置310は、画像処理部311と、画像生成部312と、第2通信部313とを備える。
第3実施形態のカメラ302、第1通信部303、画像表示装置304、コントローラ305、画像調整装置310、及びサーバ306は、それぞれ、第1実施形態のカメラ102、第1通信部103、画像表示装置104、コントローラ105、画像調整装置110、及び、サーバ106に相当する。第3実施形態の画像処理部311、画像生成部312、及び第2通信部313は、それぞれ、第1実施形態の画像処理部111、画像生成部112、及び、第2通信部113に相当する。
図9では、説明をわかりやすくするために、それぞれ2つの画像表示装置304、コントローラ305、及び画像調整装置310を示している。画像表示装置304、コントローラ305、及び画像調整装置310は3つ以上であってもよい。第1の使用者USaが使用する画像表示装置304を第1画像表示装置304a、コントローラ305を第1コントローラ305a、画像調整装置310を第1画像調整装置310aとする。第2の使用者USbが使用する画像表示装置304を第2画像表示装置304b、コントローラ305を第2コントローラ305b、画像調整装置310を第2画像調整装置310bとする。
第1画像調整装置310aにおける画像処理部311を画像処理部311a、画像生成部312を画像生成部312a、第2通信部313を第2通信部313aとする。第2画像調整装置310bにおける画像処理部311を画像処理部311b、画像生成部312を画像生成部312b、第2通信部313を第2通信部313bとする。
第1画像調整装置310aは、カメラ302が撮影した撮影画像IM3を、第1通信部303と第1画像調整装置310aの第2通信部313aとネットワークとを介して取得することができる。第2画像調整装置310bは、カメラ302が撮影した撮影画像IM3を、第1通信部303と第2画像調整装置310bの第2通信部313bとネットワークとを介して取得することができる。
サーバ306は、カメラ302が撮影した撮影画像IM3を第1通信部303及びネットワークを介して取得し、第1画像調整装置310aがサーバ306から撮影画像IM3をネットワーク及び第1画像調整装置310aの第2通信部313aを介して取得し、第2画像調整装置310bがサーバ306から撮影画像IM3をネットワーク及び第2画像調整装置310bの第2通信部313bを介して取得してもよい。
サーバ306は、第1使用者USaがログイン操作を実行する、または、第1画像表示装置304aが第1画像調整装置310aの第2通信部313aを介してネットワークに接続されることにより、第1使用者USaまたは第1画像表示装置304aを特定することができる。サーバ306は、第2使用者USbがログイン操作を実行する、または、第2画像表示装置304bが第2画像調整装置310bの第2通信部313bを介してネットワークに接続されることにより、第2使用者USbまたは第2画像表示装置304bを特定することができる。
以下、第1画像調整装置310a、第1画像表示装置304a、及び第1コントローラ305aにおける処理について説明する。括弧内の符号は、第2画像調整装置310b、第2画像表示装置304b、及び第2コントローラ305bにおける処理を示している。
画像調整装置310a(310b)が取得した撮影画像IM3は、画像処理部311a(311b)へ入力される。画像処理部311a(311b)は、撮影画像IM3を解析することにより、撮影画像IM3における水平方向を認識する。画像処理部311a(311b)は、撮影画像IM3を解析することにより、撮影画像IM3における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。
画像調整装置310a(310b)は、撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像表示装置304a(304b)へ出力する。
サーバ306は、カメラ302が撮影した撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像調整装置310a(310b)へ出力してもよい。画像表示装置304a(304b)は、画像調整装置310a(310b)、またはサーバ306によって画像処理された撮影画像IM3を表示する。
使用者USa(USb)は、その頭部に画像表示装置304a(304b)を装着することにより、画像調整装置310a(310b)またはサーバ306によって画像処理された撮影画像IM3を見ることができる。
画像表示装置304a(304b)は、使用者USa(USb)の頭部に装着されている状態において、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に基づいて姿勢情報PN3a(PN3b)を生成する。画像処理部311a(311b)は、画像表示装置304a(304b)から姿勢情報PN3a(PN3b)を取得する。即ち、画像処理部311a(311b)は、画像表示装置304a(304b)の姿勢に基づいて姿勢情報PN3a(PN3b)を取得することになる。
画像処理部311a(311b)は、姿勢情報PN3a(PN3b)に基づいて、カメラ302が撮影した撮影画像IM3から、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に対応する領域の画像を画像表示装置304a(304b)に表示する。
コントローラ305a(305b)は、使用者USa(USb)の手に装着されている状態において、使用者USa(USb)の手の動きまたは姿勢等の状態に基づいて指示情報NN3a(NN3b)を生成する。画像処理部311a(311b)は、コントローラ305a(305b)から指示情報NN3a(NN3b)を取得する。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像表示装置304a(304b)に表示されている撮影画像IM3を変化させたり調整したりすることができる。
画像生成部312a(312b)は、撮影画像IM3と合成されるCGである合成画像CM3b(CM3a)を生成する。合成画像CM3a(CM3b)は、例えばアバター等のキャラクタの画像である。第2画像生成部312bで生成される合成画像CM3aは第1使用者USaのアバターであり、第1画像生成部312aで生成される合成画像CM3bは第2使用者USbのアバターである。使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像生成部312a(312b)は、使用者USb(USa)のアバターである合成画像CM3b(CM3a)を生成し、内蔵メモリまたは外部のメモリに保存する。
画像処理部311a(311b)は、画像生成部312a(312b)で生成された合成画像CM3b(CM3a)を取得し、第2通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。
使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像生成部312a(312b)は、使用者USa(USb)のアバターである合成画像CM3a(CM3b)を生成してもよい。画像処理部311a(311b)は、画像生成部312a(312b)で生成された合成画像CM3a(CM3b)を取得し、第2通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。即ち、第1使用者USaは、第2使用者USbのアバターを設定してもよいし、自身のアバターを設定してもよい。また、第2使用者USbは、第1使用者USaのアバターを設定してもよいし、自身のアバターを設定してもよい。
サーバ306は、合成画像CM3a(CM3b)を使用者USa(USb)と対応付けて内蔵メモリまたは外部のメモリに保存する。サーバ306が、合成画像CM3a(CM3b)を使用者USa(USb)と対応付けて自動設定し、内蔵メモリまたは外部のメモリに保存してもよい。
画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像生成部312a(312b)またはサーバ306から合成画像CM3b(CM3a)を取得し、画像表示装置304a(304b)に表示されている撮影画像IM3に合成画像CM3b(CM3a)を合成する。従って、画像表示装置304a(304b)は、カメラ302が撮影した撮影画像IM3と、画像生成部312a(312b)またはサーバ306から取得されて撮影画像IM3と合成された合成画像CM3b(CM3a)とを表示することができる。
画像生成部312a(312b)は、CGである球面により構成された仮想画像である球面状画像VSS3a(VSS3b)を生成する。画像生成部312a(312b)は、球面状画像VSS3a(VSS3b)を内蔵メモリまたは外部のメモリに保存する。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像生成部312a(312b)で生成された球面状画像VSS3a(VSS3b)を取得し、画像表示装置304a(304b)に表示する。
第3実施形態の球面状画像VSS3a(VSS3b)は、第1実施形態の球面状画像VSS1に相当する。使用者USa(USb)は、コントローラ305a(305b)が装着されている手を、画像表示装置304a(304b)に表示されている球面状画像VSS3a(VSS3b)に対応する位置に移動させることにより、使用者USa(USb)の手が球面状画像VSS3a(VSS3b)に接触しているように感じる。
コントローラ305a(305b)は、使用者USa(USb)の手と接触する部分にアクチュエータが配置されていてもよい。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、使用者USa(USb)の手が球面状画像VSS3a(VSS3b)に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USa(USb)の手に圧力を加えることにより、使用者USa(USb)は、その手が球面状画像VSS3a(VSS3b)に接触する感覚を実感として得ることができる。
球面状画像VSS3a(VSS3b)が画像表示装置304a(304b)に表示されている状態において、使用者USa(USb)が、コントローラ305a(305b)が装着されている手を任意の方向へ移動させた場合、画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像表示装置304a(304b)に表示されている球面状画像VSS3a(VSS3b)と撮影画像IM3とが、使用者USa(USb)の手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
使用者USa(USb)は、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS3a(VSS3b)を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USa(USb)は、その手の動きによって球面状画像VSS3a(VSS3b)を回転させることができる。画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の回転に対応させて撮影画像IM3を移動させる。
画像処理部311a(311b)は、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させる前の天頂ZEが、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させることによって球面状画像VSS3a(VSS3b)の座標上のどの位置へ移動したかを判定することができる。
画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させる前と回転させた後との球面状画像VSS3a(VSS3b)の変化量を算出する。第3実施形態の球面状画像VSS3a(VSS3b)の変化量は、第1実施形態の球面状画像VSS1の変化量に相当する。
画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の変化量を補正値CV3a(CV3b)として保存する。第3実施形態の補正値CV3a(CV3b)は、第1実施形態の補正値CV1に相当する。画像処理部311a(311b)は、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させた後の天頂ZEの球面状画像VSS3a(VSS3b)上の座標を補正値CV3a(CV3b)として保存してもよい。
画像処理部311a(311b)は、補正値CV3a(CV3b)を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV3a(CV3b)を第2通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。サーバ306は、補正値CV3a(CV3b)を画像表示装置304a(304b)または使用者USa(USb)と関連付けて内蔵メモリまたは外部のメモリに保存する。
画像調整システム301は、使用者USa(USb)が装着している画像表示装置304a(304b)に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)を撮影画像IM3と合成して表示することができる。
使用者USa(USb)がカメラ302が撮影している撮影画像IM3を見たとき、使用者USa(USb)は、カメラ302の位置からその周囲を見ているように感じる。このような場合、使用者USa(USb)が見ている画像表示装置304a(304b)には、使用者USa(USb)の位置に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)が表示されているため、使用者USa(USb)は違和感を覚える。複数の他の使用者USがいる場合、使用者USaの位置に複数の他の使用者USb,USc,・・・のアバターが重なって表示される。
サーバ306には、複数の使用者USa,USb,・・・の位置関係が予め設定されている。言い換えれば、サーバ306には、複数の使用者USa,USb,・・・の位置関係を示す位置設定情報が保存されている。複数の使用者USa,USb,・・・の位置関係は、サーバ306が自動設定してもよいし、複数の使用者USa,USb,・・・が各自で設定してもよい。
図10は、第1使用者USaが第1画像表示装置304aを見ているときの第1使用者USaと第2使用者USbのアバターである合成画像CM3bとの位置関係の一例を示している。図11は、第2使用者USbが第2画像表示装置304bを見ているときの第2使用者USbと第1使用者USaのアバターである合成画像CM3aとの位置関係の一例を示している。
図10、11の各々に示す黒点はカメラ302の位置を示している。図10、11の各々に示す矢印はカメラ302の移動方向を示している。即ち、図10は、第1使用者USaがカメラ302の移動方向を向いている状態を示しており、図11は、第2使用者USbがカメラ302の移動方向を向いている状態を示している。従って、図10、11の各々では、第1使用者USaと第2使用者USbとは同じ撮影画像IM3を見ていることになる。
このような場合、第1使用者USaから離れた位置に合成画像CM3bを表示させたり、第2使用者USbから離れた位置に合成画像CM3aを表示させたりすると、第1使用者USaと第2使用者USbはともに違和感を覚える。従って、合成画像CM3b(CM3a)は使用者USa(USb)(カメラ302)の位置から所定の範囲RG内の位置に表示させることが望ましい。
図10に示すように、サーバ306には、例えば、第1使用者USaまたは第1画像表示装置304aにおいては、合成画像CM3bが第1使用者USaの右側に並んで配置されるように、第1使用者USaと第2使用者USbとの位置関係が設定されている。また、図11に示すように、サーバ306には、例えば、第2使用者USbまたは第2画像表示装置304bにおいては、合成画像CM3aが第2使用者USbの左側に並んで配置されるように、第1使用者USaと第2使用者USbとの位置関係が設定されている。
即ち、図10、11の各々は、カメラ302の移動方向を第1使用者USaと第2使用者USbの前方向としたときに、第2使用者USbが第1使用者USaの右側に並んで配置されるように、第1使用者USaと第2使用者USbとの位置関係が設定されている。そのため、第1使用者USaはその右側には常に第2使用者USbが見え、第2使用者USbはその左側には常に第1使用者USaが見えることになる。360度カメラであるカメラ302が静止している状態では、前後左右の基準がないため、第1使用者USaと第2使用者USbとの位置関係は初期設定時に決定しておくことが望ましい。
図12、13に示すフローチャートを用いて、第3実施形態に係る画像調整方法の一例を説明する。具体的には、撮影画像IM3に合成画像CM3を合成する方法の一例について説明する。以下、第1画像調整装置310a、第1画像表示装置304a、及び第1コントローラ305aにおける処理について説明する。括弧内の符号は、第2画像調整装置310b、第2画像表示装置304b、及び第2コントローラ305bにおける処理を示している。
画像表示装置304a(304b)が使用者USa(USb)の頭部に装着され、コントローラ305a(305b)が使用者USa(USb)の手に装着されている。画像表示装置304a(304b)には撮影画像IM3が表示されている。
使用者USa(USb)が画像表示装置304a(304b)に表示されている撮影画像IM3が水平でないと判断した場合、図12において、使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS301にて、画像表示装置304a(304b)に設定画面を表示させる。
使用者USa(USb)がコントローラ305a(305b)を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部311a(311b)は、ステップS302にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部311a(311b)は、撮影画像IM3の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。
画像処理部311a(311b)は、ステップS303にて、画像生成部312a(312b)で生成された球面状画像VSS3a(VSS3b)を取得し、画像表示装置304a(304b)に表示する。画像表示装置304a(304b)には、撮影画像IM3と球面状画像VSS3a(VSS3b)とが混合して表示される。
使用者USa(USb)は撮影画像IM3が水平となるように球面状画像VSS3a(VSS3b)を回転させることにより、画像処理部311a(311b)は、ステップS304にて、球面状画像VSS3a(VSS3b)の回転に対応させて、画像表示装置304a(304b)に表示されている撮影画像IM3を移動させる。使用者USa(USb)は撮影画像IM3が水平になるまで球面状画像VSS3a(VSS3b)を回転させる動作を複数回行ってもよい。
使用者USa(USb)は撮影画像IM3が水平になったと判断した場合にコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS305にて、球面状画像VSS3a(VSS3b)の表示を終了させ、画像表示装置304a(304b)に設定画面を表示させる。画像表示装置304a(304b)に表示されている撮影画像IM3を水平にすることにより、カメラ302の天頂と使用者USa(USb)の天頂とを一致させることができる。
使用者USa(USb)がコントローラ305a(305b)を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部311a(311b)は、ステップS306にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部311a(311b)は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。
画像処理部311a(311b)は、ステップS307にて、球面状画像VSS3a(VSS3b)が回転する前と後との回転量(回転角度)を、球面状画像VSS3a(VSS3b)の変化量として取得する。画像処理部311a(311b)は、ステップS308にて、球面状画像VSS3a(VSS3b)の変化量を補正値CV3a(CV3b)として保存し、処理を終了する。
図13に示すフローチャートを用いて、第1使用者USaが見ている第1画像表示装置304aに、第2使用者USbのアバターである合成画像CM3bを撮影画像IM3と合成して表示する場合について説明する。なお、括弧内の符号は、第2使用者USbが見ている第2画像表示装置304bに、第1使用者USaのアバターである合成画像CM3aを撮影画像IM3と合成して表示する場合を示している。
図13において、使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS311にて、画像表示装置304a(304b)に設定画面を表示させる。設定画面には、例えば他の使用者USのアバターを選択するためのアバター選択項目が表示される。
使用者USa(USb)は例えば他の使用者USとして使用者USb(USa)を選択する。コントローラ305a(305b)は、ステップS312にて、他の使用者USb(USa)の選択内容に応じて指示情報NN3a(NN3b)を生成し、画像処理部311a(311b)へ出力する。
画像処理部311a(311b)は、ステップS313にて、指示情報NN3a(NN3b)に基づいて、合成画像CM3b(CM3a)を取得する。合成画像CM3b(CM3a)がサーバ306に保存されている場合、画像処理部311a(311b)は、第2通信部313a(313b)とネットワークとを介してサーバ306から合成画像CM3b(CM3a)を取得する。
画像処理部311a(311b)は、ステップS314にて、カメラ302が移動中であるか否かを判定する。ステップS314においてカメラ302が移動中である(YES)と判定された場合、画像処理部311a(311b)は、ステップS315にて、カメラ302の移動方向を認識する。画像処理部311a(311b)は、撮影画像IM3に基づいて、カメラ302が移動中であるか否かを判定し、カメラ302の移動方向を認識することができる。
画像処理部311a(311b)は、ステップS316にて、カメラ302の移動方向に対して、合成画像CM3b(CM3a)が例えば使用者USa(USb)の右側(左側)に配置されるように、合成画像CM3b(CM3a)を撮影画像IM3と合成して、画像表示装置304a(304b)に表示させる。
ステップS314においてカメラ302が移動中ではない(NO)と判定された場合、画像処理部311a(311b)は、カメラ302が静止している状態であると判断し、ステップS316にて、初期設定時に決定された第1使用者USaと第2使用者USbとの位置関係に基づいて、合成画像CM3b(CM3a)を撮影画像IM3と合成して、画像表示装置304a(304b)に表示させる。
第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法では、画像表示装置304に球面状画像VSS3を表示させる。第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法によれば、撮影画像IM3の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ305を操作して球面状画像VSS3を回転させることにより、画像表示装置304に表示されている撮影画像IM3を水平になるように調整することができる。
従って、第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法によれば、撮影画像IM3の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM3の水平または天頂を簡便に補正することができる。
第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法によれば、補正値CV3が保存されている場合、画像処理部311は、補正値CV3を読み出し、カメラ302が撮影した撮影画像IM3を補正値CV3に基づいて画像調整し、画像表示装置304に表示することができる。
第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法では、複数の使用者USの位置関係が予め設定されている。これにより、画像表示装置304a(304b)に表示されている撮影画像IM3に、他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)を、予め設定されている位置関係に基づく位置に合成して表示することができる。
第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法によれば、使用者USa(USb)がカメラ302が撮影している撮影画像IM3を見たとき、使用者USa(USb)の近傍に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)が表示されるため、使用者USa(USb)は、違和感を覚えることなく、他の使用者USb(USa)と同じ撮影画像IM3を見ているように感じることができる。
[第4実施形態]
図14を用いて、第4実施形態に係る画像調整システム401の構成例を説明する。第4実施形態に係る画像調整システム401は、複数のカメラ402と、複数の第1通信部403と、複数の画像表示装置404と、複数のコントローラ405と、複数の画像調整装置410と、サーバ406とを備える。画像調整装置410は、画像処理部411と、画像生成部412と、第2通信部413とを備える。
図14を用いて、第4実施形態に係る画像調整システム401の構成例を説明する。第4実施形態に係る画像調整システム401は、複数のカメラ402と、複数の第1通信部403と、複数の画像表示装置404と、複数のコントローラ405と、複数の画像調整装置410と、サーバ406とを備える。画像調整装置410は、画像処理部411と、画像生成部412と、第2通信部413とを備える。
第4実施形態のカメラ402、通信部403、及び画像表示装置404は、それぞれ、第1実施形態のカメラ102、第1通信部103、及び、画像表示装置104に相当する。第4実施形態のコントローラ405、画像調整装置410、及びサーバ406は、それぞれ、第1実施形態のコントローラ105、画像調整装置110、及び、サーバ106に相当する。第4実施形態の画像処理部411、画像生成部412、及び第2通信部413は、それぞれ、第1実施形態の画像処理部111、画像生成部112、及び、第2通信部113に相当する。
図14では、説明をわかりやすくするために、それぞれ2つのカメラ402、第1通信部403、画像表示装置404、コントローラ405、及び画像調整装置410を示している。カメラ402、第1通信部403、画像表示装置404、コントローラ405、及び画像調整装置410は3つ以上であってもよい。第1使用者USaが使用する画像表示装置404、コントローラ405、及び画像調整装置410を、第1画像表示装置404a、第1コントローラ405a、及び第1画像調整装置410aとする。第2使用者USbが使用する画像表示装置404、コントローラ405、及び画像調整装置410を、第2画像表示装置404b、第2コントローラ405b、及び第2画像調整装置410bとする。
第2画像調整装置410aにおける画像処理部411、画像生成部412、及び第2通信部413を、画像処理部411a、画像生成部412a、及び第2通信部413aとする。また、画像調整装置410bにおける画像処理部411、画像生成部412、及び第2通信部413を、画像処理部411b、画像生成部412b、及び第2通信部413bとする。第1画像調整装置410aは、第1画像調整装置410aの第2通信部413aを介してネットワークに接続されている。第2画像調整装置410bは、第2画像調整装置410bの第2通信部413bを介してネットワークに接続されている。
2つのカメラ402の一方を第1カメラ4021とし、他方を第2カメラ4022とする。2つの第1通信部403の一方を第1通信部4031とし、他方を第1通信部4032とする。第1カメラ4021は、第1通信部4031を介してネットワークに接続され、第2カメラ4022は、第1通信部4032を介してネットワークに接続されている。第1カメラ4021と第2カメラ4022は、共通の第1通信部4031または第1通信部4032を介してネットワークに接続されていてもよい。サーバ406はネットワークに接続されている。
第1カメラ4021と第2カメラ4022は、それぞれ独立して移動することができる。第1カメラ4021と第2カメラ4022はGPS機能を有している。サーバ406は、ネットワークと一方の第1通信部4031と他方の第1通信部4032とを介して、第1カメラ4021と第2カメラ4022の位置(現在位置)を継続して取得することができる。
第1画像調整装置410aは、サーバ406から第1カメラ4021と第2カメラ4022の位置を、第1画像調整装置410aの第2通信部413aとネットワークとを介して取得することができる。第2画像調整装置410bは、サーバ406から第1カメラ4021と第2カメラ4022の位置を、第2画像調整装置410bの第2通信部413bとネットワークとを介して取得することができる。
第1画像調整装置410aは、第1カメラ4021が撮影した撮影画像IM41を、一方の第1通信部4031と第1画像調整装置410aの第2通信部413aとネットワークとを介して取得することができる。第2画像調整装置410bは、第1カメラ4021が撮影した撮影画像IM41を、一方の第1通信部4031と第2画像調整装置410bの第2通信部413bとネットワークとを介して取得することができる。
第1画像調整装置410aは、第2カメラ4022が撮影した撮影画像IM42を、他方の第1通信部4032と第1画像調整装置410aの第2通信部413aとネットワークとを介して取得することができる。第2画像調整装置410bは、第2カメラ4022が撮影した撮影画像IM42を、他方の第1通信部4032と第2画像調整装置410bの第2通信部413bとネットワークとを介して取得することができる。図14は、第1画像調整装置410aが第1カメラ4021が撮影した撮影画像IM41を取得し、第2画像調整装置410bが第2カメラ4022が撮影した撮影画像IM42を取得する場合を示している。
サーバ406は、第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42を一方の第1通信部4031と他方の第1通信部4032とネットワークとを介して取得してもよい。この場合、第1画像調整装置410aは、サーバ406から第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42をネットワークと第1画像調整装置410aの第2通信部413aを介して取得する。第2画像調整装置410bは、サーバ406から第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42をネットワークと第2画像調整装置410bの第2通信部413bを介して取得する。
サーバ406は、第1使用者USaがログイン操作を実行する、または、第1画像表示装置404aが第2通信部413aを介してネットワークに接続されることにより、第1使用者USaまたは第1画像表示装置404aを特定することができる。サーバ406は、第2使用者USbがログイン操作を実行する、または、第2画像表示装置404bが第2通信部413bを介してネットワークに接続されることにより、第2使用者USbまたは第2画像表示装置404bを特定することができる。
サーバ406は、どの画像表示装置にどの撮影画像が表示されているかを認識することができる。例えば、図14に示すように、第1カメラ4021が撮影した撮影画像IM41が第1画像表示装置404aに表示され、第2カメラ4022が撮影した撮影画像IM42が第2画像表示装置404bに表示されている場合、サーバ406は、第1画像表示装置404aに第1カメラ4021が撮影した撮影画像IM41が表示され、第2画像表示装置404bに第2カメラ4022が撮影した撮影画像IM42が表示されていることを認識する。言い換えれば、サーバ406は、第1使用者USaが第1カメラ4021が撮影した撮影画像IM41を見ていることを認識し、第2使用者USbが第2カメラ4022が撮影した撮影画像IM42を見ていることを認識することができる。
第1画像調整装置410aは、サーバ406から、撮影画像IM41を撮影している第1カメラ4021と撮影画像IM42を撮影している第2カメラ4022の現在位置、及び、第2画像調整装置410bが第2カメラ4022が撮影した撮影画像IM42を取得していることを認識することができる。第2画像調整装置410bは、サーバ406から、撮影画像IM41を撮影している第1カメラ4021と撮影画像IM42を撮影している第2カメラ4022の現在位置、及び、第1画像調整装置410aが第1カメラ4021が撮影した撮影画像IM41を取得していることを認識することができる。
第1画像調整装置410aが取得した撮影画像IM41(IM42)は、画像処理部411aへ入力される。画像処理部411aは、撮影画像IM41(IM42)を解析することにより、撮影画像IM41(IM42)における水平方向を認識する。画像処理部411aは、撮影画像IM41(IM42)を解析することにより、撮影画像IM41(IM42)における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。
第1画像調整装置410aは、撮影画像IM41(IM42)の歪みを補正し、撮影画像IM41(IM42)の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM41(IM42)を第1画像表示装置404aへ出力する。
第2画像調整装置410bが取得した撮影画像IM42(IM41)は、画像処理部411bへ入力される。画像処理部411bは、撮影画像IM42(IM41)を解析することにより、撮影画像IM42(IM41)における水平方向を認識する。画像処理部411bは、撮影画像IM42(IM41)を解析することにより、撮影画像IM42(IM41)における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。
第2画像調整装置410bは、撮影画像IM42(IM41)の歪みを補正し、撮影画像IM42(IM41)の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM42(IM41)を第2画像表示装置404bへ出力する。
サーバ406が第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42の歪みを補正し、第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM41と撮影画像IM42を、第1画像調整装置410aへ出力してもよいし、第2画像調整装置410bへ出力してもよい。
第1画像表示装置404aは、第1画像調整装置410aまたはサーバ406によって画像処理された撮影画像IM41(IM42)を表示する。第1使用者USaは、その頭部に第1画像表示装置404aを装着することにより、第1画像調整装置410aまたはサーバ406によって画像処理された撮影画像IM41(IM42)を見ることができる。
第2画像表示装置404bは、第2画像調整装置410bまたはサーバ406によって画像処理された撮影画像IM42(IM41)を表示する。第2使用者USbは、その頭部に第2画像表示装置404bを装着することにより、第2画像調整装置410bまたはサーバ406によって画像処理された撮影画像IM42(IM41)を見ることができる。
画像表示装置404a(404b)は、使用者USa(USb)の頭部に装着されている状態において、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に基づいて姿勢情報PN4a(PN4b)を生成する。画像処理部411a(411b)は、画像表示装置404a(404b)から姿勢情報PN4a(PN4b)を取得する。即ち、画像処理部411a(411b)は、画像表示装置404a(404b)の姿勢に基づいて姿勢情報PN4a(PN4b)を取得することになる。
第1画像調整装置410aの画像処理部411aは、姿勢情報PN4aに基づいて、第1カメラ4021が撮影した撮影画像IM41または第2カメラ4022が撮影した撮影画像IM42から、第1使用者USaが向いている方向、及び第1使用者USaの姿勢等の状態に対応する領域の画像を第1画像表示装置404aに表示する。第2画像調整装置410bの画像処理部411bは、姿勢情報PN4bに基づいて、第1カメラ4021が撮影した撮影画像IM41または第2カメラ4022が撮影した撮影画像IM42から、第2使用者USbが向いている方向、及び第2使用者USbの姿勢等の状態に対応する領域の画像を第2画像表示装置404bに表示する。
コントローラ405a(405b)は、使用者USa(USb)の手に装着されている状態において、使用者USa(USb)の手の動きまたは姿勢等の状態に基づいて指示情報NN4a(NN4b)を生成する。画像処理部411a(411b)は、コントローラ405a(405b)から指示情報NN4a(NN4b)を取得する。
第1画像調整装置410aの画像処理部411aは、指示情報NN4aに基づいて、第1画像表示装置404aに表示されている撮影画像IM41または撮影画像IM42を変化させたり調整したりすることができる。第2画像調整装置410bの画像処理部411bは、指示情報NN4bに基づいて、第2画像表示装置404bに表示されている撮影画像IM41または撮影画像IM42を変化させたり調整したりすることができる。
第1画像調整装置410aの画像生成部412aは、撮影画像IM41(IM42)と合成されるCGである合成画像CM4bを生成する。第2画像調整装置410bの画像生成部412bは、撮影画像IM42(IM41)と合成されるCGである合成画像CM4aを生成する。合成画像CM4a(CM4b)は、例えばアバター等のキャラクタの画像である。合成画像CM4aは第1使用者USaのアバターであり、合成画像CM4bは第2使用者USbのアバターである。
第1使用者USaが第1コントローラ405aを操作することにより、第1画像調整装置410aの画像生成部412aは、第2使用者USbのアバターである合成画像CM4bを生成し、内蔵メモリまたは外部のメモリに保存する。第2使用者USbが第2コントローラ405bを操作することにより、第2画像調整装置410bの画像生成部412bは、第1使用者USaのアバターである合成画像CM4aを生成し、内蔵メモリまたは外部のメモリに保存する。
画像処理部411a(411b)は、画像生成部412a(412b)で生成された合成画像CM4b(CM4a)を取得し、第2通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。
使用者USa(USb)がコントローラ405a(405b)を操作することにより、画像生成部412a(412b)は、使用者USa(USb)のアバターである合成画像CM4a(CM4b)を生成してもよい。画像処理部411a(411b)は、画像生成部412a(412b)で生成された合成画像CM4a(CM4b)を取得し、第2通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。即ち、第1使用者USaは、第2使用者USbのアバターを設定してもよいし、自身のアバターを設定してもよい。また、第2使用者USbは、第1使用者USaのアバターを設定してもよいし、自身のアバターを設定してもよい。
サーバ406は、合成画像CM4a(CM4b)を使用者USa(USb)と対応付けて内蔵メモリまたは外部のメモリに保存する。サーバ406が、合成画像CM4a(CM4b)を使用者USa(USb)と対応付けて自動設定し、内蔵メモリまたは外部のメモリに保存してもよい。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、画像生成部412a(412b)またはサーバ306から合成画像CM4b(CM4a)を取得し、画像表示装置404a(404b)に表示することができる。
画像生成部412a(412b)は、CGである球面により構成された仮想画像である球面状画像VSS4a(VSS4b)を生成する。画像生成部412a(412b)は、球面状画像VSS4a(VSS4b)を内蔵メモリまたは外部のメモリに保存する。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、画像生成部412a(412b)で生成された球面状画像VSS4a(VSS4b)を取得し、画像表示装置404a(404b)に表示する。
第4実施形態の球面状画像VSS4a(VSS4b)は、第1実施形態の球面状画像VSS1に相当する。使用者USa(USb)は、コントローラ405a(405b)が装着されている手を、画像表示装置404a(404b)に表示されている球面状画像VSS4a(VSS4b)に対応する位置に移動させることにより、使用者USa(USb)の手が球面状画像VSS4a(VSS4b)に接触しているように感じる。
コントローラ405a(405b)は、使用者USa(USb)の手と接触する部分にアクチュエータが配置されていてもよい。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、使用者USa(USb)の手が球面状画像VSS4a(VSS4b)に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USa(USb)の手に圧力を加えることにより、使用者USa(USb)は、その手が球面状画像VSS4a(VSS4b)に接触する感覚を実感として得ることができる。
球面状画像VSS4aが第1画像表示装置404aに表示されている状態において、第1使用者USaが、第1コントローラ405aが装着されている手を任意の方向へ移動させた場合、第1画像調整装置410aの画像処理部411aは、指示情報NN4aに基づいて、第1画像表示装置404aに表示されている球面状画像VSS4aと撮影画像IM41または撮影画像IM42とが、第1使用者USaの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
球面状画像VSS4bが第2画像表示装置404bに表示されている状態において、第2使用者USbが、第2コントローラ405bが装着されている手を任意の方向へ移動させた場合、第2画像調整装置410bの画像処理部411bは、指示情報NN4bに基づいて、第2画像表示装置404bに表示されている球面状画像VSS4bと撮影画像IM41または撮影画像IM42とが、第2使用者USbの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
使用者USa(USb)は、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS4a(VSS4b)を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USa(USb)は、その手の動きによって球面状画像VSS4a(VSS4b)を回転させることができる。画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の回転に対応させて撮影画像IM41(IM42)を移動させる。
画像処理部411a(411b)は、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させる前の天頂ZEが、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させることによって球面状画像VSS4a(VSS4b)の座標上のどの位置へ移動したかを判定することができる。
画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させる前と回転させた後との球面状画像VSS4a(VSS4b)の変化量を算出する。第4実施形態の球面状画像VSS4a(VSS4b)の変化量は、第1実施形態の球面状画像VSS1の変化量に相当する。
画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の変化量を補正値CV4a(CV4b)として保存する。第4実施形態の補正値CV4a(CV4b)は、第1実施形態の補正値CV1に相当する。画像処理部411a(411b)は、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させた後の天頂ZEの球面状画像VSS4a(VSS4b)上の座標を補正値CV4a(CV4b)として保存してもよい。
画像処理部411a(411b)は、補正値CV4a(CV4b)を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV4a(CV4b)を第2通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。サーバ406は、補正値CV4a(CV4b)を画像表示装置404a(404b)または使用者USa(USb)と関連付けて内蔵メモリまたは外部のメモリに保存する。
画像調整システム401は、第1使用者USaが装着している第1画像表示装置404aに第2使用者USbのアバターである合成画像CM4bを撮影画像IM41(IM42)と合成して表示することができる。画像調整システム401は、第2使用者USbが装着している第2画像表示装置404bに第1使用者USaのアバターである合成画像CM4aを撮影画像IM42(IM41)と合成して表示することができる。
図15、16に示すフローチャートを用いて、第4実施形態に係る画像調整方法の一例を説明する。具体的には、撮影画像IM41に合成画像CM4bを合成する方法の一例について説明する。第1画像表示装置404aが第1使用者USaの頭部に装着され、第1コントローラ405aが第1使用者USaの手に装着されている。第2画像表示装置404bが第2使用者USbの頭部に装着され、第2コントローラ405bが第2使用者USbの手に装着されている。第1画像表示装置404aには第1カメラ4021が撮影した撮影画像IM41が表示され、第2画像表示装置404bには第2カメラ4022が撮影した撮影画像IM42が表示されている。
使用者USa(USb)は画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)が水平でないと判断した場合、図15において、使用者USa(USb)がコントローラ405a(405b)を操作することにより、画像処理部411a(411b)は、ステップS401にて、画像表示装置404a(404b)に設定画面を表示させる。
使用者USa(USb)がコントローラ405a(405b)を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部411a(411b)は、ステップS402にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部411a(411b)は、撮影画像IM41(IM42)の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。
画像処理部411a(411b)は、ステップS403にて、画像生成部412a(412b)で生成された球面状画像VSS4a(VSS4b)を取得し、画像表示装置404a(404b)に表示する。画像表示装置404a(404b)には、撮影画像IM41(IM42)と球面状画像VSS4a(VSS4b)とが混合して表示される。
使用者USa(USb)は撮影画像IM41(IM42)が水平となるように球面状画像VSS4a(VSS4b)を回転させることにより、画像処理部411a(411b)は、ステップS404にて、球面状画像VSS4a(VSS4b)の回転に対応させて、画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を移動させる。使用者USa(USb)は撮影画像IM41(IM42)が水平になるまで球面状画像VSS4a(VSS4b)を回転させる動作を複数回行ってもよい。
使用者USa(USb)は撮影画像IM41(IM42)が水平になったと判断した場合にコントローラ405a(405b)を操作することにより、画像処理部411a(411b)は、ステップS405にて、球面状画像VSS4a(VSS4b)の表示を終了させ、画像表示装置404a(404b)に設定画面を表示させる。画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を水平にすることにより、カメラ4021(4022)の天頂と使用者USa(USb)の天頂とを一致させることができる。
使用者USa(USb)がコントローラ405a(405b)を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部411a(411b)は、ステップS406にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部411a(411b)は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。
画像処理部411a(411b)は、ステップS407にて、球面状画像VSS4a(VSS4b)が回転する前と後との回転量(回転角度)を、球面状画像VSS4a(VSS4b)の変化量として取得する。画像処理部411a(411b)は、ステップS408にて、球面状画像VSS4a(VSS4b)の変化量を補正値CV4a(CV4b)として保存し、処理を終了する。
図16に示すフローチャートを用いて、第1使用者USaが見ている第1画像表示装置404aに、第2使用者USbのアバターである合成画像CM4bを撮影画像IM41と合成して表示する場合について説明する。図16において、画像処理部411aは、ステップS411にて、取得している撮影画像IM41を撮影している第1カメラ4021を特定する。
画像処理部411aは、ステップS412にて、第1カメラ4021またはサーバ406から、第1カメラ4021の位置情報を取得する。第1カメラ4021の位置情報には、第1カメラ4021の現在位置、及び、第1カメラ4021が向いている方向または移動している方向の情報が含まれている。
画像処理部411aは、ステップS413にて、サーバ406から、他のカメラ(第1カメラ4021以外のカメラ)の情報を取得する。例えば、画像処理部411aは、ステップS413にて、サーバ406から、第2カメラ4022の情報を取得する。第2カメラ4022の情報には、第2カメラ4022が撮影している撮影画像IM42を見ている第2使用者USb、第2カメラ4022の現在位置、及び、第2カメラ4022が向いている方向または移動している方向の情報が含まれている。第2カメラ4022が向いている方向または移動している方向は、第2使用者USbが向いている方向に相当し、第2画像表示装置404bに表示されている撮影画像IM42に基づいて特定することができる。
画像処理部411aは、ステップS414にて、撮影画像IM41に他のカメラ(第1カメラ4021以外のカメラ)が映っているか否か、言い換えれば他のカメラを撮影しているか否かを、例えば画像認識により判定する。ステップS414において撮影画像IM41に他のカメラが映っていない(NO)と判定された場合、画像処理部411aは、処理をステップS414へ戻す。
ステップS414において撮影画像IM41に他のカメラが映っている(YES)と判定された場合、画像処理部411aは、ステップS415にて、ステップS413において取得した他のカメラの情報に基づいて、撮影画像IM41に映っている他のカメラを特定する。
図17は、第1カメラ4021が地点Aに位置し、第2カメラ4022が、第1カメラ4021の前方の地点Bに位置している状態を示している。図17に示す状態では、第1カメラ4021の撮影画像IM41には他のカメラである第2カメラ4022が映っている。画像処理部411aは、ステップS413において取得した第2カメラ4022の情報に基づいて、第1カメラ4021の撮影画像IM41に映っているカメラが第2カメラ4022であることを特定する。
画像処理部411aは、ステップS416にて、ステップS412において取得した第1カメラ4021の位置情報と、ステップS413において取得した第2カメラ4022の情報とに基づいて、第1カメラ4021に対する第2カメラ4022の位置、及び、第2カメラ4022が向いている方向または移動している方向を特定する。
画像処理部411aは、ステップS417にて、ステップS415において特定されたカメラが撮影している撮影画像IMを見ている使用者USを特定する。例えば、画像処理部411aは、第2カメラ4022が撮影している撮影画像IM42を見ている第2使用者USbを特定する。画像処理部411aは、ステップS418にて、第2使用者USbのアバターである合成画像CM4bを取得する。合成画像CM4bがサーバ406に保存されている場合、画像処理部411aは、サーバ406から合成画像CM4bを取得する。
画像処理部411aは、ステップS419にて、撮影画像IM41に映っている第2カメラ4022に対応する位置に合成画像CM4bを合成し、第1画像表示装置404aに表示する。ステップS401~S408にて撮影画像IM41が水平調整されている場合、画像処理部411aは、合成画像CM4bを、撮影画像IM41と同様に水平調整し、第1画像表示装置404aに表示する。補正値CV4aが保存されている場合、画像処理部411aは、合成画像CM4bを、補正値CV4aに基づいて水平調整し、第1画像表示装置404aに表示する。
画像処理部411aは、第1カメラ4021に対する第2カメラ4022の位置に対応させて合成画像CM4bの大きさを変えてもよい。例えば、画像処理部411aは、カメラ4022がカメラ4021から遠く離れたところに位置している場合には、合成画像CM4bの大きさが、第1カメラ4021と第2カメラ4022との距離に応じて小さくなるように合成画像CM4bを画像処理し、撮影画像IM41に合成する。
画像処理部411aは、第2カメラ4022が向いている方向または移動している方向に対応させて合成画像CM4bの向きを変えてもよい。画像処理部411aは、第2カメラ4022が向いている方向または移動している方向に対応する向きの合成画像CM4bを取得してもよい。
第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法では、画像表示装置404a(404b)に球面状画像VSS4a(VSS4b)を表示させる。第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法によれば、撮影画像IM41(IM42)の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USa(USb)は、コントローラ405a(405b)を操作して球面状画像VSS4a(VSS4b)を回転させることにより、画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を水平になるように調整することができる。
従って、第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法によれば、撮影画像IM41(IM42)の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM41(IM42)の水平または天頂を簡便に補正することができる。
第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法によれば、補正値CV4a(CV4b)が保存されている場合、画像処理部411a(411b)は、補正値CV4a(CV4b)を読み出し、カメラ4021(4022)が撮影した撮影画像IM41(IM42)を補正値CV4a(CV4b)に基づいて画像調整し、画像表示装置404a(404b)に表示することができる。
第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法では、第1カメラ4021に対する第2カメラ4022の位置を特定し、撮影画像IMにおける第2カメラ4022の位置に、第2カメラ4022が撮影している撮影画像IM42を見ている第2使用者USbのアバターである合成画像CM4bを合成する。これにより、第1使用者USaは第2使用者USbと同じ空間を共有しているような感覚を得ることができる。
本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。
例えば、CGにより生成される仮想画像VSSは、楕円体の表面(楕円面)であってもよく、さらには使用者USの手の届く範囲であれば、任意の閉じた面(閉曲面)であればよい。即ち、使用者USが内側からその閉曲面に接触するような感覚を得て、撮影画像IMの水平調整ができればよい。使用者USが仮想画像VSSを回転動作させることから、仮想画像VSSは球面または楕円面等の球面に近い球面状の形状であることが望ましい。
Claims (25)
- カメラと、
前記カメラが撮影した撮影画像を調整するための画像調整装置と、
前記画像調整装置により調整された前記撮影画像を表示するための画像表示装置と、
前記画像調整装置へ指示情報を出力するためのコントローラと
を備え、
前記画像調整装置は、
球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、
前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部と
を備える
画像調整システム。 - 前記カメラは、360度の範囲を撮影する全方位カメラであり、
前記画像表示装置は、使用者の頭部に装着可能なヘッドマウントディスプレイであり、
前記コントローラは、前記使用者の手に装着可能なグローブ型コントローラであり、
前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である
請求項1に記載の画像調整システム。 - 前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する
請求項2に記載の画像調整システム。 - 前記画像処理部は、前記球面状画像が回転する前と後との変化量を取得し、前記変化量に基づいて前記撮影画像及び前記合成画像を調整する
請求項3に記載の画像調整システム。 - 前記画像処理部は、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像及び前記合成画像の水平を調整する
請求項1~4のいずれか1項に記載の画像調整システム。 - 球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、
コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記画像表示装置に表示されている前記撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部と
を備える画像調整装置。 - 画像処理部が、コントローラから指示情報を取得し、
前記画像処理部が、前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、
画像表示装置が、前記球面状画像を表示し、
前記画像処理部が、前記指示情報に基づいて前記球面状画像を回転させ、
前記画像処理部が、カメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、
前記画像処理部が、前記画像生成部で生成され前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、
前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成する
ことを含む画像調整方法。 - カメラと、
前記カメラが撮影した撮影画像を調整するための画像調整装置と、
前記画像調整装置により調整された前記撮影画像を表示するための画像表示装置と、
前記画像調整装置へ指示情報を出力するためのコントローラと
を備え、
前記画像調整装置は、
球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、
前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記撮影画像の水平面と前記合成画像の水平面とを分離させ、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部と
を備える
画像調整システム。 - 前記カメラは、360度の範囲を撮影する全方位カメラであり、
前記画像表示装置は、使用者の頭部に装着可能なヘッドマウントディスプレイであり、
前記コントローラは、前記使用者の手に装着可能なグローブ型コントローラであり、
前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である
請求項8に記載の画像調整システム。 - 前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する
請求項9に記載の画像調整システム。 - 前記画像処理部は、前記球面状画像が回転する前と後との変化量を取得し、前記変化量に基づいて前記撮影画像を調整する
請求項10に記載の画像調整システム。 - 前記画像処理部は、前記変化量に基づいて前記合成画像の水平面と前記撮影画像の水平面とを一致させることにより、前記合成画像を調整する
請求項11に記載の画像調整システム。 - 球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、
コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記画像表示装置に表示されている前記前記撮影画像の水平面と前記合成画像の水平面とを分離させ、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部と
を備える画像調整装置。 - 画像処理部が、カメラにより撮影された撮影画像を画像表示装置に表示し、
前記画像処理部が、画像生成部で生成された合成画像を取得して前記画像表示装置に表示し、
前記画像処理部が、コントローラから指示情報を取得し、
前記画像処理部が、前記指示情報に基づいて、前記画像生成部で生成された球面状画像を取得して前記画像表示装置に表示し、
前記画像処理部が、前記撮影画像の水平面と前記合成画像の水平面とを分離させ、
前記画像処理部が、前記指示情報に基づいて前記球面状画像を回転させ、
前記画像処理部が、前記撮影画像を、前記球面状画像の回転に対応させて調整し、
前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成する
ことを含む画像調整方法。 - カメラと、
前記カメラが撮影した撮影画像を調整するための画像調整装置と、
複数の使用者に対応し、前記画像調整装置により調整された前記撮影画像を表示するための複数の画像表示装置と、
前記複数の使用者に対応し、前記複数の画像調整装置へ指示情報を出力するための複数のコントローラと、
前記複数の使用者のうちの第1の使用者、または、前記複数の画像表示装置のうちの第1の画像表示装置を特定するためのサーバと
を備え、
各々の前記複数の画像調整装置は、
球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、
前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて、かつ、前記複数の使用者の互いの位置関係を示す位置設定情報に基づいて前記合成画像を調整し、調整された前記合成画像を前記撮影画像と合成するための画像処理部と
を備える
画像調整システム。 - 前記カメラは、360度の範囲を撮影する全方位カメラであり、
前記画像表示装置は、使用者の頭部に装着可能なヘッドマウントディスプレイであり、
前記コントローラは、前記使用者の手に装着可能なグローブ型コントローラであり、
前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である
請求項15に記載の画像調整システム。 - 前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する
請求項16に記載の画像調整システム。 - 前記画像処理部は、前記複数の使用者のうちの前記第1の使用者以外の第2の使用者に対応する前記合成画像を前記位置設定情報に基づいて調整し、調整された前記合成画像を前記撮影画像と合成して前記第1の画像表示装置に表示する
請求項15~17のいずれか1項に記載の画像調整システム。 - 球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、
コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記画像表示装置に表示されている前記撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて、かつ、複数の使用者の互いの位置関係を示す位置設定情報に基づいて前記合成画像を調整し、調整された前記合成画像を前記撮影画像と合成するための画像処理部と
を備える画像調整装置。 - サーバが、複数の使用者のうちの第1の使用者、または、前記第1の使用者が使用する画像表示装置を特定し、
画像処理部が、コントローラから指示情報を取得し、
前記画像処理部が、前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、
画像表示装置が、前記球面状画像を表示し、
前記画像処理部が、前記指示情報に基づいて前記球面状画像を回転させ、
前記画像処理部が、カメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、
前記画像処理部が、前記画像生成部で生成され前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、
前記画像処理部が、調整された前記撮影画像に対応させて、かつ、前記複数の使用者の互いの位置関係を示す位置設定情報に基づいて前記合成画像を調整し、調整された前記合成画像を前記撮影画像と合成する
ことを含む画像調整方法。 - 複数のカメラと、
前記複数のカメラのうちの第1のカメラが撮影した撮影画像を調整するための画像調整装置と、
前記画像調整装置により調整された前記撮影画像を表示するための画像表示装置と、
前記画像調整装置へ指示情報を出力するためのコントローラと
を備え、
前記画像調整装置は、
球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、
前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成するための画像処理部と
を備える
画像調整システム。 - 前記カメラは、360度の範囲を撮影する全方位カメラであり、
前記画像表示装置は、使用者の頭部に装着可能なヘッドマウントディスプレイであり、
前記コントローラは、前記使用者の手に装着可能なグローブ型コントローラであり、
前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である
請求項21に記載の画像調整システム。 - 前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する
請求項22に記載の画像調整システム。 - 球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、
コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている前記撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第1のカメラが映っている位置に対応させて合成するための画像処理部と
を備える画像調整装置。 - 画像処理部が、コントローラから指示情報を取得し、
前記画像処理部が、前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、
画像表示装置が、前記球面状画像を表示し、
前記画像処理部が、前記指示情報に基づいて前記球面状画像を回転させ、
前記画像処理部が、複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、
前記画像処理部が、前記画像生成部で生成され前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、
前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整し、
前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記画像処理部が、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する
ことを含む画像調整方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/361,767 US11985298B2 (en) | 2019-02-15 | 2021-06-29 | Image adjustment system, image adjustor, and image adjustment method |
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019025763A JP2020134630A (ja) | 2019-02-15 | 2019-02-15 | 画像調整システム、画像調整装置、及び画像調整方法 |
JP2019025765A JP2020134631A (ja) | 2019-02-15 | 2019-02-15 | 画像調整システム、画像調整装置、及び画像調整方法 |
JP2019-025765 | 2019-02-15 | ||
JP2019025769A JP2020134632A (ja) | 2019-02-15 | 2019-02-15 | 画像調整システム、画像調整装置、及び画像調整方法 |
JP2019025762A JP7088068B2 (ja) | 2019-02-15 | 2019-02-15 | 画像調整システム、画像調整装置、及び画像調整方法 |
JP2019-025763 | 2019-02-15 | ||
JP2019-025769 | 2019-02-15 | ||
JP2019-025762 | 2019-02-15 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/361,767 Continuation US11985298B2 (en) | 2019-02-15 | 2021-06-29 | Image adjustment system, image adjustor, and image adjustment method |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020166492A1 true WO2020166492A1 (ja) | 2020-08-20 |
Family
ID=72045434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/004700 WO2020166492A1 (ja) | 2019-02-15 | 2020-02-07 | 画像調整システム、画像調整装置、及び画像調整方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11985298B2 (ja) |
WO (1) | WO2020166492A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11622100B2 (en) * | 2021-02-17 | 2023-04-04 | flexxCOACH VR | 360-degree virtual-reality system for dynamic events |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09114543A (ja) * | 1995-10-02 | 1997-05-02 | Xybernaut Corp | ハンドフリーコンピュータ装置 |
JP2005319136A (ja) * | 2004-05-10 | 2005-11-17 | Namco Ltd | プログラム、情報記憶媒体及び電子機器 |
JP2007116538A (ja) * | 2005-10-21 | 2007-05-10 | Canon Inc | 画像表示プログラム、画像表示装置および画像表示方法 |
US20070206030A1 (en) * | 2006-03-06 | 2007-09-06 | The Protomold Company, Inc. | Graphical user interface for three-dimensional manipulation of a part |
US20090153477A1 (en) * | 2007-12-12 | 2009-06-18 | Saenz Valentin L | Computer mouse glove |
JP2013016020A (ja) * | 2011-07-04 | 2013-01-24 | Nec Corp | 作業支援システム、装置、方法及びプログラム |
WO2013114844A1 (ja) * | 2012-02-03 | 2013-08-08 | パナソニック株式会社 | 触覚提示装置および触覚提示装置の駆動方法、駆動プログラム |
JP2016528592A (ja) * | 2013-06-18 | 2016-09-15 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | デバイスリーダ及びデバイスリーダのための画像を生成する手段 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4355535B2 (ja) | 2003-08-07 | 2009-11-04 | 株式会社岩根研究所 | 360度画像変換処理装置 |
US10664947B2 (en) * | 2017-06-30 | 2020-05-26 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method to represent part of spherical image in planar image using equidistant cylindrical projection |
US10841662B2 (en) * | 2018-07-27 | 2020-11-17 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for inserting advertisement content in 360° immersive video |
-
2020
- 2020-02-07 WO PCT/JP2020/004700 patent/WO2020166492A1/ja active Application Filing
-
2021
- 2021-06-29 US US17/361,767 patent/US11985298B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09114543A (ja) * | 1995-10-02 | 1997-05-02 | Xybernaut Corp | ハンドフリーコンピュータ装置 |
JP2005319136A (ja) * | 2004-05-10 | 2005-11-17 | Namco Ltd | プログラム、情報記憶媒体及び電子機器 |
JP2007116538A (ja) * | 2005-10-21 | 2007-05-10 | Canon Inc | 画像表示プログラム、画像表示装置および画像表示方法 |
US20070206030A1 (en) * | 2006-03-06 | 2007-09-06 | The Protomold Company, Inc. | Graphical user interface for three-dimensional manipulation of a part |
US20090153477A1 (en) * | 2007-12-12 | 2009-06-18 | Saenz Valentin L | Computer mouse glove |
JP2013016020A (ja) * | 2011-07-04 | 2013-01-24 | Nec Corp | 作業支援システム、装置、方法及びプログラム |
WO2013114844A1 (ja) * | 2012-02-03 | 2013-08-08 | パナソニック株式会社 | 触覚提示装置および触覚提示装置の駆動方法、駆動プログラム |
JP2016528592A (ja) * | 2013-06-18 | 2016-09-15 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | デバイスリーダ及びデバイスリーダのための画像を生成する手段 |
Also Published As
Publication number | Publication date |
---|---|
US20210329223A1 (en) | 2021-10-21 |
US11985298B2 (en) | 2024-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109952759B (zh) | 用于具有hmd的视频会议的改进的方法和系统 | |
JP6668170B2 (ja) | 情報処理装置、情報処理方法、およびコンピュータプログラム | |
JP7496460B2 (ja) | 画像生成装置および画像生成方法 | |
WO2017086263A1 (ja) | 情報処理装置および画像生成方法 | |
JP2012068964A (ja) | 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法 | |
WO2020026419A1 (ja) | 画像生成装置および画像生成方法 | |
JP2019046291A (ja) | 情報処理装置および画像表示方法 | |
WO2020166492A1 (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP6687751B2 (ja) | 画像表示システム、画像表示装置、その制御方法、及びプログラム | |
JP7088068B2 (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP2020134632A (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP7560835B2 (ja) | プログラム及び情報処理方法 | |
JP6664778B1 (ja) | 情報処理装置、情報処理方法、および、プログラム | |
WO2020166491A1 (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP2020134630A (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP2020134631A (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
WO2022075152A1 (ja) | 情報処理装置、情報処理方法及び情報配信システム | |
WO2020166582A1 (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP7088064B2 (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP7247636B2 (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP7167760B2 (ja) | 画像調整システム | |
JP2020136799A (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP2020134616A (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
JP2020136798A (ja) | 画像調整システム、画像調整装置、及び画像調整方法 | |
WO2022255058A1 (ja) | 情報処理装置および画像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20755737 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20755737 Country of ref document: EP Kind code of ref document: A1 |