WO2020166492A1 - Image adjustment system, image adjustment device, and image adjustment method - Google Patents

Image adjustment system, image adjustment device, and image adjustment method Download PDF

Info

Publication number
WO2020166492A1
WO2020166492A1 PCT/JP2020/004700 JP2020004700W WO2020166492A1 WO 2020166492 A1 WO2020166492 A1 WO 2020166492A1 JP 2020004700 W JP2020004700 W JP 2020004700W WO 2020166492 A1 WO2020166492 A1 WO 2020166492A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
captured
spherical
display device
processing unit
Prior art date
Application number
PCT/JP2020/004700
Other languages
French (fr)
Japanese (ja)
Inventor
崇 日昔
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019025769A external-priority patent/JP2020134632A/en
Priority claimed from JP2019025762A external-priority patent/JP7088068B2/en
Priority claimed from JP2019025763A external-priority patent/JP2020134630A/en
Priority claimed from JP2019025765A external-priority patent/JP2020134631A/en
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2020166492A1 publication Critical patent/WO2020166492A1/en
Priority to US17/361,767 priority Critical patent/US20210329223A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to an image adjusting system, an image adjusting device, and an image adjusting method.
  • the head mounted display displays an image in a state where the head mounted display is mounted on the user's head, so that the user can feel as if he/she entered the virtual space (immersive feeling).
  • the conventional head-mounted display described in Patent Document 1 can display an image captured by an external camera via a neckwork.
  • JP-A-2005-56295 JP2005-056295A
  • the horizontal direction of the image depending on the displayed image, and the horizontal direction may be detected incorrectly. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the image is erroneously detected, or the horizontal or zenith designation is deviated, the displayed image does not match the user's sense of gravity, and the user feels uncomfortable.
  • the present invention provides an image adjusting system, an image adjusting device, and an image adjusting system capable of easily correcting the horizontal or zenith of an image when the horizontal direction of the image is erroneously detected or the designation of the horizontal or zenith is deviated.
  • the purpose is to provide a method of adjustment.
  • An image adjustment system is for displaying a camera, an image adjustment device for adjusting a captured image captured by the camera, and the captured image adjusted by the image adjustment device.
  • An image display device and a controller for outputting instruction information to the image adjustment device, wherein the image adjustment device generates an image for generating a spherical image and a composite image to be combined with the captured image.
  • Section and the spherical image generated by the image generation unit based on the instruction information is acquired and displayed on the image display device, and the spherical image is rotated based on the instruction information to generate the spherical image.
  • An image adjusting apparatus includes an image generating unit for generating a spherical image and a composite image that is combined with a captured image captured by a camera and displayed on an image display device.
  • the spherical image generated by the image generation unit based on the instruction information acquired from the controller is acquired and displayed on the image display device, the spherical image is rotated based on the instruction information, and the image is displayed.
  • a processing unit for adjusting the captured image displayed on the display device in correspondence with the rotation of the spherical image, adjusting the composite image in association with the adjusted captured image, and combining the captured image with the captured image.
  • the image processing unit acquires the instruction information from the controller, and the image processing unit acquires the spherical image generated by the image generation unit based on the instruction information.
  • An image display device displays the spherical image
  • the image processing unit rotates the spherical image based on the instruction information
  • the image processing unit is photographed by a camera and displayed on the image display device.
  • a captured image that is adjusted in accordance with the rotation of the spherical image
  • the image processing unit generates a composite image that is generated by the image generation unit and that is combined with the captured image displayed on the image display device. Then, the image processing unit adjusts the composite image corresponding to the adjusted captured image and combines the adjusted image with the captured image.
  • the horizontal direction of the image is erroneously detected, When the designation of the zenith shifts, the horizontal or zenith of the image can be easily corrected.
  • FIG. 1 is a configuration diagram showing an image adjustment system according to the first embodiment and the second embodiment.
  • FIG. 2 is a diagram showing the relationship between the spherical image and the user.
  • FIG. 3 is a flowchart showing an example of the image adjusting method according to the first embodiment.
  • FIG. 4 is a flowchart showing an example of the image adjusting method according to the first embodiment.
  • FIG. 5 is a diagram showing the relationship between the horizontal plane of the captured image and the horizontal plane of the composite image.
  • FIG. 6A is a flowchart showing an example of the image adjusting method according to the second embodiment.
  • FIG. 6B is a flowchart showing an example of the image adjusting method according to the second embodiment.
  • FIG. 1 is a configuration diagram showing an image adjustment system according to the first embodiment and the second embodiment.
  • FIG. 2 is a diagram showing the relationship between the spherical image and the user.
  • FIG. 3 is a flowchart showing an example of the image adjusting method according to the
  • FIG. 7 is a flowchart showing an example of the image adjusting method according to the second embodiment.
  • FIG. 8 is a diagram showing the relationship between the horizontal plane of the captured image and the horizontal plane of the composite image.
  • FIG. 9 is a configuration diagram showing an image adjustment system according to the third embodiment.
  • FIG. 10 is a diagram showing an example of the positional relationship between the user when the user is looking at the image display device and a composite image corresponding to another user.
  • FIG. 11 is a diagram showing an example of a positional relationship between the user and a composite image corresponding to another user when the user is looking at the image display device.
  • FIG. 12 is a flowchart showing an example of the image adjusting method according to the third embodiment.
  • FIG. 13 is a flowchart showing an example of the image adjusting method according to the third embodiment.
  • FIG. 14 is a configuration diagram showing an image adjustment system according to the fourth embodiment.
  • FIG. 15 is a flowchart showing an example of the image adjusting method according to the third embodiment.
  • FIG. 16 is a flowchart showing an example of the image adjusting method according to the third embodiment.
  • FIG. 17 is a diagram showing an example of the positional relationship between a plurality of cameras and a composite image corresponding to another user.
  • the image adjustment system 101 according to the first embodiment includes a camera 102, a first communication unit 103, an image display device 104, a controller 105, an image adjustment device 110, and a server 106.
  • the image adjustment device 110 includes an image processing unit 111, an image generation unit 112, and a second communication unit 113.
  • the camera 102 is an omnidirectional camera (360 degree camera) capable of shooting a 360 degree range.
  • the first communication unit 103 and the second communication unit 113 are connected via a network.
  • the image adjustment apparatus 110 can acquire the captured image IM1 captured by the camera 102 via the first communication unit 103, the second communication unit 113, and the network.
  • a computer device may be used as the image adjustment device 110.
  • a CPU may be used as the image processing unit 111 and the image generation unit 112.
  • the image generation unit 112 and the second communication unit 113 may be provided outside the image adjustment device 110.
  • the server 106 is connected to the camera 102 via the network and the first communication unit 103, and is connected to the image adjustment apparatus 110 via the network and the second communication unit 113.
  • the server 106 acquires the captured image IM1 captured by the camera 102 via the first communication unit 103 and the network, and the image adjustment apparatus 110 acquires the captured image IM1 from the server 106 via the network and the second communication unit 113. Good.
  • the captured image IM1 acquired by the image adjusting apparatus 110 is input to the image processing unit 111.
  • the image processing unit 111 analyzes the captured image IM1 to recognize the horizontal direction in the captured image IM1.
  • the image processing unit 111 may recognize the vertical direction in the captured image IM1, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM1.
  • the image adjustment device 110 corrects the distortion of the captured image IM1, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the image display device 104.
  • the server 106 corrects the distortion of the captured image IM1 captured by the camera 102, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the image adjustment apparatus 110. May be.
  • the image display device 104 displays the captured image IM1 image-processed by the image adjustment device 110 or the server 106.
  • the image display device 104 is, for example, a head mounted display.
  • the controller 105 is, for example, a globe-type controller used for VR (Virtual Reality) or the like.
  • FIG. 2 schematically shows a state in which the image display device 104 is mounted on the head of the user US and the controller 105 is mounted on the hand of the user US.
  • Reference numeral ZE shown in FIG. 2 indicates the zenith. It is desirable that the zenith of the camera 102 and the zenith of the user US coincide.
  • the image display device 104 generates the posture information PN1 based on the direction in which the user US is facing, the posture of the user US, and the like while being mounted on the head of the user US.
  • the image processing unit 111 acquires the posture information PN1 from the image display device 104. That is, the image processing unit 111 acquires the posture information PN1 based on the posture of the image display device 104. Based on the posture information PN1, the image processing unit 111 displays an image of a region corresponding to the direction in which the user US is facing and the state such as the posture of the user US from the captured image IM1 captured by the camera 102. Display on the device 104.
  • the controller 105 generates the instruction information NN1 based on the movement or posture of the hand of the user US, the movement or posture of the finger of the user US, or the like in a state where the controller 105 is attached to the hand of the user US. ..
  • the hand or the finger is simply abbreviated as the hand.
  • the image processing unit 111 acquires the instruction information NN1 from the controller 105.
  • the image processing unit 111 can change or adjust the captured image IM1 displayed on the image display device 104 based on the instruction information NN1.
  • the image generation unit 112 generates a composite image CM1 which is a CG (Computer Graphics) composited with the captured image IM1.
  • the composite image CM1 is an image of a character such as an avatar.
  • the image generation unit 112 stores the composite image CM1 in a built-in memory or an external memory.
  • the image processing unit 111 may acquire the composite image CM1 generated by the image generation unit 112 and output it to the server 106 via the second communication unit 113 and the network.
  • the server 106 stores the composite image CM1 in the built-in memory or an external memory in association with the image display device 104 or the user US.
  • the image processing unit 111 acquires the combined image CM1 from the image generation unit 112 or the server 106 based on the instruction information NN1 and combines the combined image CM1 with the captured image IM1 displayed on the image display device 104. Therefore, the image display device 104 can display the captured image IM1 captured by the camera 102 and the composite image CM1 acquired from the image generation unit 112 or the server 106 and combined with the captured image IM1.
  • the image generation unit 112 generates a spherical image VSS1 which is a virtual image formed by a spherical surface which is CG.
  • the image generation unit 112 stores the spherical image VSS1 in a built-in memory or an external memory.
  • the image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 based on the instruction information NN1 and displays it on the image display device 104.
  • FIG. 2 shows an image of the user US when the user US views the spherical image VSS1 displayed on the image display device 104 with the image display device 104 mounted on the head of the user US. It is shown schematically.
  • the spherical image VSS1 is It is arranged around the US and the image display device 104, and is set so as to be displayed within a range where the hand of the user US reaches the spherical image VSS1.
  • the user US moves the hand on which the controller 105 is attached to the position corresponding to the spherical image VSS1 displayed on the image display device 104, so that the hand of the user US contacts the spherical image VSS1. I feel like I'm doing it.
  • the controller 105 may have an actuator arranged in a portion that comes into contact with the hand of the user US.
  • the image processing unit 111 determines that the hand of the user US has moved to the position corresponding to the spherical image VSS1 based on the instruction information NN1, the image processing unit 111 operates the actuator.
  • the actuator applies pressure to the hand of the user US, the user US can actually feel the touch of the hand with the spherical image VSS1.
  • the image processing unit 111 displays the instruction information NN1. Based on this, image processing is performed so that the spherical image VSS1 and the captured image IM1 displayed on the image display device 104 move in correspondence with the moving direction, moving speed, and position of the moving destination of the hand of the user US. To execute.
  • the user US can rotate the spherical image VSS1 in any direction at any speed to any position by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS1 by the movement of the hand.
  • the image processing unit 111 moves the captured image IM1 in correspondence with the rotation of the spherical image VSS1.
  • the image processing unit 111 determines to which position on the coordinates of the spherical image VSS1 the zenith ZE before the user US rotates the spherical image VSS1 moves as the user US rotates the spherical image VSS1. Can be determined.
  • the image processing unit 111 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS1, the spherical image before and after the user US rotates the spherical image VSS1.
  • the amount of change in VSS1 is calculated.
  • the amount of change of the spherical image VSS1 is the amount of rotation (rotation angle) with the X axis as the rotation axis, the amount of rotation (rotation angle) with the Y axis as the rotation axis, and the Z axis with respect to the spherical image VSS1.
  • the rotation amount (rotation angle) about the axis corresponds to the rotation amount (rotation angle) of the spherical image VSS1 combined.
  • the image processing unit 111 stores the change amount of the spherical image VSS1 as the correction value CV1. That is, the correction value CV1 is calculated based on the rotation direction of the spherical image VSS1 and the movement amount or movement angle of the zenith ZE (the rotation angle of the spherical image VSS1).
  • the image processing unit 111 may store the coordinates of the zenith ZE on the spherical image VSS1 after the user US rotates the spherical image VSS1 as the correction value CV1.
  • the image processing unit 111 may store the correction value CV1 in an internal memory or an external memory, or may output the correction value CV1 to the server 106 via the second communication unit 113 and the network.
  • the server 106 associates the correction value CV1 with the image display device 104 or the user US and stores the correction value CV1 in an internal memory or an external memory.
  • the image processing unit 111 detects the horizontal direction of the captured image IM1. However, it is difficult for the image processing unit 111 to detect the horizontal direction depending on the captured image IM1, and the horizontal direction may be erroneously detected. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the captured image IM1 is incorrectly detected or the horizontal or zenith designation is deviated, the captured image IM1 displayed on the image display device 104 does not match the sense of gravity of the user US. I feel uncomfortable.
  • FIGS. An example of the image adjustment method according to the first embodiment will be described using the flowcharts shown in FIGS. Specifically, an example of a method of adjusting the horizontalness of the captured image IM1 and the composite image CM1 will be described.
  • the image display device 104 is mounted on the head of the user US, and the controller 105 is mounted on the hand of the user US.
  • the captured image IM1 and the composite image CM1 are displayed on the image display device 104. At this point, the composite image CM1 may not be displayed.
  • the user US determines that the captured image IM1 displayed on the image display device 104 is not horizontal, the user US operates the controller 105 in FIG. 3 to cause the image processing unit 111 to operate in step S101. , The setting screen is displayed on the image display device 104.
  • the image processing unit 111 When the user US operates the controller 105 to select a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 111 causes the selected item to be displayed in step S102. The processing is shifted to the corresponding predetermined processing mode. When the horizontal adjustment item is selected, the image processing unit 111 shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM1.
  • a processing mode horizontal adjustment mode
  • the image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 and displays it on the image display device 104 in step S103.
  • the captured image IM1, the spherical image VSS1, and the composite image CM1 are mixed and displayed.
  • the image processing unit 111 causes the image display device 104 to correspond to the rotation of the spherical image VSS1 in step S104.
  • the displayed captured image IM1 is moved.
  • the user US may perform the operation of rotating the spherical image VSS1 a plurality of times until the captured image IM1 becomes horizontal.
  • the image processing unit 111 ends the display of the spherical image VSS1 and causes the image display device 104 to display the spherical image VSS1 in step S105. Display the setting screen.
  • the image processing unit 111 When the user US operates the controller 105 and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 111 corresponds to the selected item in step S106. The processing shifts to a predetermined processing mode. When the end item is selected, the image processing unit 111 shifts the processing to a processing mode (end mode) for ending the horizontal adjustment.
  • a predetermined item for example, an end item
  • end mode for ending the horizontal adjustment.
  • step S107 the image processing unit 111 acquires the rotation amount (rotation angle) before and after the spherical image VSS1 rotates as the change amount of the spherical image VSS1.
  • step S108 the image processing unit 111 stores the amount of change in the spherical image VSS1 as the correction value CV1 and ends the process.
  • the user US operates the controller 105 to cause the image adjusting device 110 (specifically, the image processing unit 111) to move to the image generating unit 112. It is possible to obtain the composite image CM1 generated in step (1), combine it with the captured image IM1 displayed on the image display device 104, and display the composite image CM1.
  • FIG. 5 schematically shows the relationship between the horizontal plane PHP1 of the captured image IM1 horizontally adjusted by the user US and the horizontal plane SHP1 of the composite image CM1 acquired by the image processing unit 111 from the image generation unit 112. If the horizontal plane PHP1 of the captured image IM1 and the horizontal plane SHP1 of the composite image CM1 are misaligned, the user US feels strange.
  • the image processing unit 111 determines in step S111 whether the captured image IM1 has been horizontally adjusted.
  • the image processing unit 111 can determine whether or not the captured image IM1 is horizontally adjusted based on the history of rotation of the spherical image VSS1 or the correction value CV1.
  • step S111 When it is determined in step S111 that the captured image IM1 has been horizontally adjusted (YES), the image processing unit 111 acquires the stored correction value CV1 in step S112. In step S113, the image processing unit 111 rotates the coordinate axes of the composite image CM1 based on the correction value CV1 so that the horizontal plane SHP1 of the composite image CM1 matches the horizontal plane PHP1 of the captured image IM1. In step S114, the image processing unit 111 performs arithmetic processing on the composite image CM1 based on the corrected horizontal plane SHP1 to adjust the image.
  • step S115 the image processing unit 111 combines the image-adjusted composite image CM1 with the captured image IM1 and displays the composite image CM1 on the image display device 104.
  • the image processing unit 111 shifts the processing to step S115.
  • the spherical image VSS1 is displayed on the image display device 104.
  • the image adjusting device 110, and the image adjusting method according to the first embodiment when the horizontal direction of the captured image IM1 is erroneously detected or the designation of the horizontal or the zenith ZE is deviated, The user US can adjust the captured image IM1 displayed on the image display device 104 to be horizontal by operating the controller 105 to rotate the spherical image VSS1.
  • the image adjustment apparatus 110 when the horizontal direction of the captured image IM1 is erroneously detected or the horizontal or zenith designation is deviated.
  • the user US can easily correct the horizontal or zenith of the captured image IM1.
  • the image processing unit 111 reads the correction value CV1 and the camera 102 captures the image.
  • the captured image IM1 can be image-adjusted based on the correction value CV1 and displayed on the image display device 104.
  • the image adjustment apparatus 110 when the captured image IM1 is horizontally adjusted, the coordinate axes of the composite image CM1 are rotated based on the correction value CV1, and the composite image CM1 is rotated.
  • the horizontal plane SHP1 of is matched with the horizontal plane PHP1 of the captured image IM1.
  • the captured image IM1 and the composite image CM1 are displayed on the image display device 104 without the user US feeling uncomfortable. can do.
  • the image adjustment system 201 according to the second embodiment includes a camera 202, a first communication unit 203, an image display device 204, a controller 205, an image adjustment device 210, and a server 206.
  • the image adjustment device 210 includes an image processing unit 211, an image generation unit 212, and a second communication unit 213.
  • the camera 202, the first communication unit 203, the image display device 204, the controller 205, the image adjustment device 210, and the server 206 of the second embodiment are the camera 102, the first communication unit 103, and the image display device 104 of the first embodiment.
  • the image processing unit 211, the image generation unit 212, and the second communication unit 213 of the second embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment.
  • the image adjustment device 210 can acquire the captured image IM2 captured by the camera 202 via the first communication unit 203, the second communication unit 213, and the network.
  • the server 206 acquires the captured image IM2 captured by the camera 202 via the first communication unit 203 and the network, and the image adjustment apparatus 210 acquires the captured image IM2 from the server 206 via the network and the second communication unit 213. Good.
  • the captured image IM2 acquired by the image adjustment device 210 is input to the image processing unit 211.
  • the image processing unit 211 recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2.
  • the image processing unit 211 may recognize the vertical direction in the captured image IM2, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM2.
  • the image adjustment device 210 corrects the distortion of the captured image IM2, executes image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image display device 204.
  • the server 206 corrects the distortion of the captured image IM2 captured by the camera 202, performs image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image adjustment apparatus 210. May be.
  • the image display device 204 displays the captured image IM2 image-processed by the image adjustment device 210 or the server 206.
  • the user US can mount the image display device 204 on his/her head to view the captured image IM2 image-processed by the image adjustment device 210 or the server 206.
  • the image display device 204 generates the posture information PN2 based on the direction in which the user US is facing, the posture of the user US, and the like while being mounted on the head of the user US.
  • the image processing unit 211 acquires the posture information PN2 from the image display device 204. That is, the image processing unit 211 acquires the posture information PN2 based on the posture of the image display device 204.
  • the image processing unit 211 displays an image of a region corresponding to the direction in which the user US faces and the state of the user US such as the posture from the captured image IM2 captured by the camera 202. Display on the device 204.
  • the controller 205 generates the instruction information NN2 based on the state of the movement or posture of the hand of the user US in the state of being attached to the hand of the user US.
  • the image processing unit 211 acquires the instruction information NN2 from the controller 205.
  • the image processing unit 211 can change or adjust the captured image IM2 displayed on the image display device 204 based on the instruction information NN2.
  • the image generation unit 212 generates a composite image CM2 that is a CG that is composited with the captured image IM2.
  • the composite image CM2 is an image of a character such as an avatar.
  • the image generation unit 212 saves the composite image CM2 in an internal memory or an external memory.
  • the image processing unit 211 may acquire the composite image CM2 generated by the image generation unit 212 and output it to the server 206 via the second communication unit 213 and the network.
  • the server 206 stores the composite image CM2 in the built-in memory or an external memory in association with the image display device 204 or the user US.
  • the image processing unit 211 acquires the combined image CM2 from the image generation unit 212 or the server 206 based on the instruction information NN2, and combines the combined image CM2 with the captured image IM2 displayed on the image display device 204. Therefore, the image display device 204 can display the captured image IM2 captured by the camera 202 and the composite image CM2 acquired from the image generation unit 212 or the server 206 and combined with the captured image IM2.
  • the image generation unit 212 generates a spherical image VSS2 that is a virtual image formed by a spherical surface that is CG.
  • the image generator 212 stores the spherical image VSS2 in the internal memory or an external memory.
  • the image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 based on the instruction information NN2, and displays it on the image display device 204.
  • the spherical image VSS2 of the second embodiment corresponds to the spherical image VSS1 of the first embodiment.
  • the user US moves the hand on which the controller 205 is attached to the position corresponding to the spherical image VSS2 displayed on the image display device 204, so that the hand of the user US contacts the spherical image VSS2. I feel like I'm doing it.
  • the controller 205 may have an actuator arranged in a portion that comes into contact with the hand of the user US.
  • the image processing unit 211 determines based on the instruction information NN2 that the hand of the user US has moved to the position corresponding to the spherical image VSS2, the image processing unit 211 operates the actuator. By applying pressure to the hand of the user US by the actuator, the user US can actually feel the touch of the hand with the spherical image VSS2.
  • the image processing unit 211 displays the instruction information NN2. Based on this, image processing is performed so that the spherical image VSS2 and the captured image IM2 displayed on the image display device 204 move corresponding to the moving direction, moving speed, and position of the moving destination of the hand of the user US. To execute.
  • the user US can rotate the spherical image VSS2 in any direction at any speed to any position by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS2 by the movement of the hand.
  • the image processing unit 211 moves the captured image IM2 in correspondence with the rotation of the spherical image VSS2.
  • the image processing unit 211 determines to which position on the coordinates of the spherical image VSS2 the zenith ZE before the user US rotates the spherical image VSS2 is moved by the rotation of the spherical image VSS2 by the user US. Can be determined.
  • the image processing unit 211 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS2, the spherical image before and after the user US rotates the spherical image VSS2.
  • the amount of change in VSS2 is calculated.
  • the amount of change of the spherical image VSS2 of the second embodiment corresponds to the amount of change of the spherical image VSS1 of the first embodiment.
  • the image processing unit 211 stores the variation amount of the spherical image VSS2 as the correction value CV2.
  • the correction value CV2 of the second embodiment corresponds to the correction value CV1 of the first embodiment.
  • the image processing unit 211 may store the coordinates on the spherical image VSS2 of the zenith ZE after the user US rotates the spherical image VSS2 as the correction value CV2.
  • the image processing unit 211 may store the correction value CV2 in a built-in memory or an external memory, or may output the correction value CV2 to the server 206 via the second communication unit 213 and the network.
  • the server 206 stores the correction value CV2 in the built-in memory or an external memory in association with the image display device 204 or the user US.
  • the image processing unit 211 detects the horizontal direction of the captured image IM2. However, it is difficult for the image processing unit 211 to detect the horizontal direction depending on the captured image IM2, and the horizontal direction may be erroneously detected. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the captured image IM2 is incorrectly detected or the horizontal or zenith designation is deviated, the captured image IM2 displayed on the image display device 204 does not match the sense of gravity of the user US. I feel uncomfortable.
  • the image display device 204 is mounted on the head of the user US, and the controller 205 is mounted on the hand of the user US.
  • the image display device 204 displays the captured image IM2 and the composite image CM2.
  • the composite image CM2 does not have to be displayed.
  • the user US determines that the captured image IM2 displayed on the image display device 204 is not horizontal, the user US operates the controller 205 in FIG. 6A to cause the image processing unit 211 to operate in step S201.
  • the setting screen is displayed on the image display device 204.
  • the image processing unit 211 sets the selected item in step S202. The processing is shifted to the corresponding predetermined processing mode.
  • the image processing unit 211 shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM2.
  • the image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 and displays it on the image display device 204 in step S203. On the image display device 204, the captured image IM2 and the spherical image VSS2 are mixed and displayed. In step S204, the image processing unit 211 determines whether the combined image CM2 is combined with the captured image IM2 and is displayed on the image display device 204.
  • step S204 When it is determined in step S204 that the composite image CM2 is combined with the captured image IM2 and is displayed on the image display device 204 (YES), the image processing unit 211 determines in step S205 that the composite image CM2 is the horizontal plane SHP2. A process of separating the captured image IM2 from the horizontal plane PHP2 is executed.
  • FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated.
  • step S204 If it is determined in step S204 that the combined image CM2 is combined with the captured image IM2 and is not displayed on the image display device 204 (NO), the image processing unit 211 advances the process to step S206.
  • the user US rotates the spherical image VSS2 so that the captured image IM2 becomes horizontal. Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, the composite image CM2 does not rotate even if the spherical image VSS2 is rotated. Therefore, the user US can easily correct the horizontal of the captured image IM2 without being confused by the rotation of the composite image CM2.
  • the image processing unit 211 may hide the composite image CM2. By hiding the composite image CM2, the composite image CM2 does not get in the way, so that the user US can easily correct the horizontal of the captured image IM2.
  • step S206 the image processing unit 211 moves the photographed image IM2 displayed on the image display device 204 in response to the rotation of the spherical image VSS2.
  • the user US may perform the operation of rotating the spherical image VSS2 a plurality of times until the captured image IM2 becomes horizontal.
  • the image processing unit 211 ends the display of the spherical image VSS2 in step S207 by operating the controller 205, and the image is displayed.
  • the setting screen is displayed on the display device 204.
  • the image processing unit 211 corresponds to the selected item in step S208.
  • the processing shifts to a predetermined processing mode.
  • the image processing unit 211 shifts the processing to a processing mode for ending the horizontal adjustment (horizontal adjustment end mode).
  • step S209 the image processing unit 211 acquires the rotation amount (rotation angle) before and after the spherical image VSS2 rotates as the change amount of the spherical image VSS2.
  • step S210 the image processing unit 211 stores the variation amount of the spherical image VSS2 as the correction value CV2.
  • the user US operates the controller 205 to cause the image adjusting apparatus 210 (specifically, the image processing unit 211) to generate an image.
  • the composite image CM2 generated by the unit 212 can be acquired and displayed on the image display device 204.
  • the image adjustment device 210 (specifically, the image processing unit 211) recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2 captured by the camera 202.
  • the image adjustment device 210 acquires the composite image CM2 generated by the image generation unit 212 and displays it on the image display device 204.
  • the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 do not match. If the horizontal plane PHP2 of the captured image IM2 and the horizontal plane SHP2 of the composite image CM2 are misaligned, the user US feels uncomfortable.
  • step S211 the image processing unit 211 determines whether the composite image CM2 is combined with the captured image IM2 and is displayed on the image display device 204. When it is determined that the combined image CM2 is combined with the captured image IM2 and displayed on the image display device 204 (YES), the image processing unit 211 acquires the stored correction value CV2 in step S212. ..
  • step S213 the image processing unit 211 rotates the coordinate axes of the composite image CM2 based on the correction value CV2 so that the horizontal plane SHP2 of the composite image CM2 matches the horizontal plane PHP2 of the captured image IM2 horizontally adjusted by the user US.
  • step S214 the image processing unit 211 performs arithmetic processing on the composite image CM2 based on the corrected horizontal plane SHP2 to adjust the image.
  • FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 match each other.
  • step S211 When it is determined in step S211 that the captured image IM2 has not been horizontally adjusted by the user US (NO), the image processing unit 211 shifts the processing to step S215.
  • step S215 the image processing unit 211 combines the image-adjusted composite image CM2 with the captured image IM2 and displays the composite image CM2 on the image display device 204.
  • the user US can view the captured image IM2 and the composite image CM2 which are displayed on the image display device 204 and whose horizontal levels match each other.
  • the spherical image VSS2 is displayed on the image display device 204.
  • the image adjusting device 210, and the image adjusting method according to the second embodiment when the horizontal direction of the captured image IM2 is erroneously detected or the designation of the horizontal or zenith ZE is deviated, The user US can adjust the captured image IM2 displayed on the image display device 204 to be horizontal by operating the controller 205 to rotate the spherical image VSS2.
  • the image adjusting device 210 when the horizontal direction of the captured image IM2 is erroneously detected or the horizontal or zenith designation is deviated.
  • the user US can easily correct the horizontal or zenith of the captured image IM2.
  • the image processing unit 211 reads the correction value CV2 and the camera 202 captures the image.
  • the captured image IM2 can be image-adjusted based on the correction value CV2 and displayed on the image display device 204.
  • the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, and the horizontal of the captured image IM2 is adjusted,
  • the horizontal of the composite image CM2 is adjusted based on the adjustment result (correction value CV2). Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, the composite image CM2 does not rotate even if the user US rotates the spherical image VSS2. Therefore, the user US can easily correct the horizontal of the captured image IM2.
  • the image adjusting apparatus 210 when the captured image IM2 is horizontally adjusted, the coordinate axes of the combined image CM2 are rotated based on the correction value CV2 to combine the images.
  • the horizontal plane SHP2 of the image CM2 is matched with the horizontal plane PHP2 of the captured image IM2. Therefore, the user US can see the captured image IM2 and the composite image CM2 displayed on the image display device 204 without feeling a sense of discomfort.
  • the image adjustment system 301 according to the third embodiment includes a camera 302, a first communication unit 303, a plurality of image display devices 304, a plurality of controllers 305, a plurality of image adjustment devices 310, and a server 306. .
  • the image adjustment device 310 includes an image processing unit 311, an image generation unit 312, and a second communication unit 313.
  • the camera 302, the first communication unit 303, the image display device 304, the controller 305, the image adjustment device 310, and the server 306 of the third embodiment are the camera 102, the first communication unit 103, and the image display of the first embodiment, respectively. It corresponds to the device 104, the controller 105, the image adjustment device 110, and the server 106.
  • the image processing unit 311, the image generation unit 312, and the second communication unit 313 of the third embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment, respectively. ..
  • FIG. 9 two image display devices 304, a controller 305, and an image adjustment device 310 are shown for the sake of clarity. There may be three or more image display devices 304, controllers 305, and image adjustment devices 310.
  • the image display device 304 used by the first user USa is the first image display device 304a
  • the controller 305 is the first controller 305a
  • the image adjustment device 310 is the first image adjustment device 310a.
  • the image display device 304 used by the second user USb is the second image display device 304b
  • the controller 305 is the second controller 305b
  • the image adjustment device 310 is the second image adjustment device 310b.
  • the image processing unit 311 in the first image adjustment apparatus 310a is the image processing unit 311a
  • the image generation unit 312 is the image generation unit 312a
  • the second communication unit 313 is the second communication unit 313a.
  • the image processing unit 311 is an image processing unit 311b
  • the image generation unit 312 is an image generation unit 312b
  • the second communication unit 313 is a second communication unit 313b.
  • the first image adjustment device 310a can acquire the captured image IM3 captured by the camera 302 via the first communication unit 303, the second communication unit 313a of the first image adjustment device 310a, and the network.
  • the second image adjustment device 310b can acquire the captured image IM3 captured by the camera 302 via the first communication unit 303, the second communication unit 313b of the second image adjustment device 310b, and the network.
  • the server 306 acquires the captured image IM3 captured by the camera 302 via the first communication unit 303 and the network, and the first image adjustment device 310a transmits the captured image IM3 from the server 306 to the network and the first image adjustment device 310a.
  • the second image adjustment device 310b may obtain the captured image IM3 from the server 306 via the network and the second communication unit 313b of the second image adjustment device 310b.
  • the first user USa performs the login operation, or the first image display device 304a is connected to the network via the second communication unit 313a of the first image adjustment device 310a, and thus the first The user USa or the first image display device 304a can be specified.
  • the second user USb performs the login operation, or the second image display device 304b is connected to the network via the second communication unit 313b of the second image adjustment device 310b, and thus the second The user USb or the second image display device 304b can be specified.
  • the reference numerals in parentheses indicate the processes performed by the second image adjustment device 310b, the second image display device 304b, and the second controller 305b.
  • the captured image IM3 acquired by the image adjusting apparatus 310a (310b) is input to the image processing unit 311a (311b).
  • the image processing unit 311a (311b) recognizes the horizontal direction in the captured image IM3 by analyzing the captured image IM3.
  • the image processing unit 311a (311b) may recognize the vertical direction in the captured image IM3, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM3.
  • the image adjustment device 310a (310b) corrects the distortion of the captured image IM3 and executes image processing such as adjusting the horizontal of the captured image IM3, and the image processed image IM3 is displayed on the image display device 304a (304b). Output to.
  • the server 306 corrects the distortion of the captured image IM3 captured by the camera 302, executes image processing such as adjusting the horizontal of the captured image IM3, and the image-processed captured image IM3 is adjusted by the image adjusting device 310a (310b). May be output to.
  • the image display device 304a (304b) displays the captured image IM3 image-processed by the image adjustment device 310a (310b) or the server 306.
  • the user USa can view the captured image IM3 image-processed by the image adjustment device 310a (310b) or the server 306 by mounting the image display device 304a (304b) on its head.
  • the image display device 304a (304b) is in a state in which the user USa (USb) is facing, the posture of the user USa (USb), and the like in a state where the image display device 304a (304b) is mounted on the head of the user USa (USb).
  • the posture information PN3a (PN3b) is generated based on
  • the image processing unit 311a (311b) acquires the posture information PN3a (PN3b) from the image display device 304a (304b). That is, the image processing unit 311a (311b) acquires the posture information PN3a (PN3b) based on the posture of the image display device 304a (304b).
  • the image processing unit 311a (311b), based on the posture information PN3a (PN3b), from the captured image IM3 captured by the camera 302, the direction in which the user USa (USb) is facing and the posture of the user USa (USb).
  • the image of the area corresponding to the above state is displayed on the image display device 304a (304b).
  • the controller 305a (305b) generates the instruction information NN3a (NN3b) based on the state of the movement or posture of the hand of the user USa (USb) while being attached to the hand of the user USa (USb). ..
  • the image processing unit 311a (311b) acquires the instruction information NN3a (NN3b) from the controller 305a (305b).
  • the image processing unit 311a (311b) can change or adjust the captured image IM3 displayed on the image display device 304a (304b) based on the instruction information NN3a (NN3b).
  • the image generation unit 312a (312b) generates a composite image CM3b (CM3a) that is a CG to be combined with the captured image IM3.
  • the composite image CM3a (CM3b) is an image of a character such as an avatar.
  • the synthetic image CM3a generated by the second image generating unit 312b is the avatar of the first user USa, and the synthetic image CM3b generated by the first image generating unit 312a is the avatar of the second user USb.
  • the image generation unit 312a When the user USa (USb) operates the controller 305a (305b), the image generation unit 312a (312b) generates a composite image CM3b (CM3a) which is an avatar of the user USb (USa), and the built-in memory or Save to external memory.
  • CM3a composite image
  • the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) generated by the image generation unit 312a (312b) and outputs it to the server 306 via the second communication unit 313a (313b) and the network. Good.
  • the image generation unit 312a (312b) may generate a composite image CM3a (CM3b) that is an avatar of the user USa (USb) by operating the controller 305a (305b) by the user USa (USb).
  • the image processing unit 311a (311b) acquires the composite image CM3a (CM3b) generated by the image generation unit 312a (312b) and outputs it to the server 306 via the second communication unit 313a (313b) and the network.
  • the first user USa may set the avatar of the second user USb or may set his own avatar.
  • the second user USb may set the avatar of the first user USa or may set his own avatar.
  • the server 306 stores the composite image CM3a (CM3b) in the internal memory or the external memory in association with the user USa (USb).
  • the server 306 may automatically set the composite image CM3a (CM3b) in association with the user USa (USb), and save the composite image CM3a (CM3b) in the built-in memory or an external memory.
  • the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) from the image generation unit 312a (312b) or the server 306 based on the instruction information NN3a (NN3b) and displays it on the image display device 304a (304b).
  • the synthesized image CM3b (CM3a) is synthesized with the captured image IM3. Therefore, the image display device 304a (304b) displays the captured image IM3 captured by the camera 302 and the composite image CM3b (CM3a) that is obtained from the image generation unit 312a (312b) or the server 306 and is combined with the captured image IM3. Can be displayed.
  • the image generation unit 312a (312b) generates a spherical image VSS3a (VSS3b) that is a virtual image formed by a spherical surface that is CG.
  • the image generation unit 312a (312b) stores the spherical image VSS3a (VSS3b) in a built-in memory or an external memory.
  • the image processing unit 311a (311b) acquires the spherical image VSS3a (VSS3b) generated by the image generation unit 312a (312b) based on the instruction information NN3a (NN3b) and displays it on the image display device 304a (304b). To do.
  • the spherical image VSS3a (VSS3b) of the third embodiment corresponds to the spherical image VSS1 of the first embodiment.
  • the user USa (USb) moves the hand on which the controller 305a (305b) is attached to a position corresponding to the spherical image VSS3a (VSS3b) displayed on the image display device 304a (304b), It is felt that the hand of the user USa (USb) is in contact with the spherical image VSS3a (VSS3b).
  • an actuator may be arranged in a portion that comes into contact with the hand of the user USa (USb).
  • the image processing unit 311a (311b) determines that the hand of the user USa (USb) has moved to the position corresponding to the spherical image VSS3a (VSS3b) based on the instruction information NN3a (NN3b)
  • the actuator is activated.
  • the actuator applies pressure to the hand of the user USa (USb)
  • the user USa (USb) can actually feel the touch of the hand with the spherical image VSS3a (VSS3b).
  • the image processing unit 311a (311b) determines that the spherical image VSS3a (VSS3b) and the captured image IM3 displayed on the image display device 304a (304b) are the user USa based on the instruction information NN3a (NN3b).
  • the image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination of (USb).
  • the user USa moves his or her hand to any position in any direction at any speed, thereby moving the spherical image VSS3a (VSS3b) in any direction at any speed at any speed. Can be rotated into position. That is, the user USa (USb) can rotate the spherical image VSS3a (VSS3b) by the movement of the hand.
  • the image processing unit 311a (311b) moves the captured image IM3 in correspondence with the rotation of the spherical image VSS3a (VSS3b).
  • the image processing unit 311a (311b) causes the zenith ZE before the user USa (USb) rotates the spherical image VSS3a (VSS3b) and the user USa (USb) rotates the spherical image VSS3a (VSS3b).
  • the position on the coordinate of the spherical image VSS3a (VSS3b) can be determined by the.
  • the image processing unit 311a (311b) rotates the spherical image VSS3a (VSS3b) by the user USa (USb) based on the movement direction and the position of the movement destination of the zenith ZE on the coordinates of the spherical image VSS3a (VSS3b).
  • the amount of change in the spherical image VSS3a (VSS3b) before and after rotation is calculated.
  • the change amount of the spherical image VSS3a (VSS3b) of the third embodiment corresponds to the change amount of the spherical image VSS1 of the first embodiment.
  • the image processing unit 311a (311b) stores the amount of change in the spherical image VSS3a (VSS3b) as a correction value CV3a (CV3b).
  • the correction value CV3a (CV3b) of the third embodiment corresponds to the correction value CV1 of the first embodiment.
  • the image processing unit 311a (311b) uses the coordinates on the spherical image VSS3a (VSS3b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS3a (VSS3b) as the correction value CV3a (CV3b). You may save.
  • the image processing unit 311a (311b) may store the correction value CV3a (CV3b) in an internal memory or an external memory, or may store the correction value CV3a (CV3b) via the second communication unit 313a (313b) and a network. May be output to the server 306.
  • the server 306 stores the correction value CV3a (CV3b) in the built-in memory or an external memory in association with the image display device 304a (304b) or the user USa (USb).
  • the image adjustment system 301 synthesizes a composite image CM3b (CM3a), which is an avatar of another user USb (USa), with the captured image IM3 on the image display device 304a (304b) worn by the user USa (USb). Can be displayed.
  • the user USa (USb) looks at the captured image IM3 taken by the camera 302, the user USa (USb) feels as if he or she is looking at the surroundings from the position of the camera 302.
  • a composite image CM3b an avatar of another user USb (USa) is displayed at the position of the user USa (USb). Since CM3a) is displayed, the user USa (USb) feels strange.
  • the avatars of the plurality of other users USb, USc,... are overlapped and displayed at the position of the user USa.
  • the positional relationship among a plurality of users USa, USb,... Is preset in the server 306.
  • the server 306 stores position setting information indicating the positional relationship among the plurality of users USa, USb,....
  • the positional relationship among the plurality of users USa, USb,... May be automatically set by the server 306, or may be set by the plurality of users USa, USb,.
  • FIG. 10 shows an example of the positional relationship between the first user USa and the synthetic image CM3b which is the avatar of the second user USb when the first user USa is looking at the first image display device 304a.
  • FIG. 11 shows an example of the positional relationship between the second user USb and the composite image CM3a which is the avatar of the first user USa when the second user USb is looking at the second image display device 304b. ..
  • Black dots shown in each of FIGS. 10 and 11 indicate the position of the camera 302.
  • the arrow shown in each of FIGS. 10 and 11 indicates the moving direction of the camera 302. That is, FIG. 10 shows a state in which the first user USa faces the moving direction of the camera 302, and FIG. 11 shows a state in which the second user USb faces the moving direction of the camera 302. There is. Therefore, in each of FIGS. 10 and 11, the first user USa and the second user USb see the same captured image IM3.
  • the composite image CM3b is displayed at a position away from the first user USa or the composite image CM3a is displayed at a position away from the second user USb, the first user USa and the second user Both users USb feel discomfort. Therefore, it is desirable to display the composite image CM3b (CM3a) at a position within a predetermined range RG from the position of the user USa (USb) (camera 302).
  • the composite image CM3b is arranged side by side on the right side of the first user USa.
  • the positional relationship between the first user USa and the second user USb is set.
  • the composite image CM3a is arranged side by side on the left side of the second user USb.
  • the positional relationship between the first user USa and the second user USb is set.
  • processing in the first image adjustment device 310a, the first image display device 304a, and the first controller 305a will be described.
  • the reference numerals in parentheses indicate the processes performed by the second image adjustment device 310b, the second image display device 304b, and the second controller 305b.
  • the image display device 304a (304b) is attached to the head of the user USa (USb), and the controller 305a (305b) is attached to the hand of the user USa (USb).
  • the captured image IM3 is displayed on the image display device 304a (304b).
  • the user USa (USb) determines that the captured image IM3 displayed on the image display device 304a (304b) is not horizontal
  • the user USa (USb) operates the controller 305a (305b) in FIG. Accordingly, the image processing unit 311a (311b) causes the image display device 304a (304b) to display the setting screen in step S301.
  • the image processing unit 311a (311b) When the user USa (USb) operates the controller 305a (305b) to select a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 311a (311b) causes the step In S302, the processing is shifted to a predetermined processing mode corresponding to the selected item. When the horizontal adjustment item is selected, the image processing unit 311a (311b) shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM3.
  • a processing mode horizontal adjustment mode
  • step S303 the image processing unit 311a (311b) acquires the spherical image VSS3a (VSS3b) generated by the image generation unit 312a (312b) and displays it on the image display device 304a (304b).
  • the captured image IM3 and the spherical image VSS3a (VSS3b) are mixed and displayed on the image display device 304a (304b).
  • the user USa rotates the spherical image VSS3a (VSS3b) so that the captured image IM3 becomes horizontal, so that the image processing unit 311a (311b) causes the spherical image VSS3a (VSS3b) in step S304.
  • the captured image IM3 displayed on the image display device 304a (304b) is moved in correspondence with the rotation of.
  • the user USa (USb) may perform the operation of rotating the spherical image VSS3a (VSS3b) multiple times until the captured image IM3 becomes horizontal.
  • the user USa operates the controller 305a (305b) when determining that the captured image IM3 has become horizontal, so that the image processing unit 311a (311b) causes the spherical image VSS3a (VSS3b) in step S305.
  • the image processing unit 311a (311b) When the user USa (USb) operates the controller 305a (305b) and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 311a (311b) causes the image processing unit 311a (311b) to perform step S306. At, the processing shifts to a predetermined processing mode corresponding to the selected item. When the end item is selected, the image processing unit 311a (311b) shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.
  • a predetermined item for example, an end item displayed on the setting screen
  • step S307 the image processing unit 311a (311b) acquires a rotation amount (rotation angle) before and after the spherical image VSS3a (VSS3b) rotates as a variation amount of the spherical image VSS3a (VSS3b). ..
  • step S308 the image processing unit 311a (311b) saves the amount of change in the spherical image VSS3a (VSS3b) as the correction value CV3a (CV3b), and ends the process.
  • the image processing unit 311a (311b) causes the image display device 304a (304b) to display the setting screen in step S311. For example, an avatar selection item for selecting an avatar of another user US is displayed on the setting screen.
  • the user USa selects the user USb (USa) as another user US, for example.
  • the controller 305a generates the instruction information NN3a (NN3b) according to the selection content of the other user USb (USa) and outputs it to the image processing unit 311a (311b).
  • the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) based on the instruction information NN3a (NN3b) in step S313.
  • the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) from the server 306 via the second communication unit 313a (313b) and the network. To do.
  • the image processing unit 311a (311b) determines in step S314 whether or not the camera 302 is moving. When it is determined that the camera 302 is moving (YES) in step S314, the image processing unit 311a (311b) recognizes the moving direction of the camera 302 in step S315. The image processing unit 311a (311b) can determine whether the camera 302 is moving based on the captured image IM3 and recognize the moving direction of the camera 302.
  • step S316 the image processing unit 311a (311b) synthesizes the synthesized image CM3b (CM3a) with respect to the moving direction of the camera 302, for example, on the right side (left side) of the user USa (USb).
  • the image CM3b (CM3a) is combined with the captured image IM3 and displayed on the image display device 304a (304b).
  • step S314 When it is determined in step S314 that the camera 302 is not moving (NO), the image processing unit 311a (311b) determines that the camera 302 is stationary, and in step S316, the initial setting is performed. Based on the determined positional relationship between the first user USa and the second user USb, the composite image CM3b (CM3a) is composited with the captured image IM3 and displayed on the image display device 304a (304b).
  • the spherical image VSS3 is displayed on the image display device 304.
  • the image adjusting apparatus 310, and the image adjusting method according to the third embodiment when the horizontal direction of the captured image IM3 is erroneously detected or the designation of the horizontal or zenith ZE is deviated, The user US can adjust the captured image IM3 displayed on the image display device 304 to be horizontal by operating the controller 305 to rotate the spherical image VSS3.
  • the image adjusting apparatus 310 when the horizontal direction of the captured image IM3 is erroneously detected or the horizontal or zenith designation is deviated.
  • the user US can easily correct the horizontal or zenith of the captured image IM3.
  • the image processing unit 311 reads the correction value CV3 and the camera 302 captures the image.
  • the captured image IM3 can be image-adjusted based on the correction value CV3 and displayed on the image display device 304.
  • the positional relationship among a plurality of users US is preset.
  • the composite image CM3b (CM3a) which is the avatar of another user USb (USa)
  • CM3a is added to the captured image IM3 displayed on the image display device 304a (304b) based on the preset positional relationship.
  • the image adjustment device 310 when the user USa (USb) views the captured image IM3 captured by the camera 302, the user USa( Since the composite image CM3b (CM3a) that is the avatar of the other user USb (USa) is displayed in the vicinity of (USb), the user USa (USb) does not feel uncomfortable and the other user USb (USa) does not feel uncomfortable. It is possible to feel as if the user is looking at the same captured image IM3 as shown in FIG.
  • the image adjustment system 401 according to the fourth embodiment includes a plurality of cameras 402, a plurality of first communication units 403, a plurality of image display devices 404, a plurality of controllers 405, a plurality of image adjustment devices 410, and a server. And 406.
  • the image adjustment device 410 includes an image processing unit 411, an image generation unit 412, and a second communication unit 413.
  • the camera 402, the communication unit 403, and the image display device 404 of the fourth embodiment correspond to the camera 102, the first communication unit 103, and the image display device 104 of the first embodiment, respectively.
  • the controller 405, the image adjustment device 410, and the server 406 of the fourth embodiment correspond to the controller 105, the image adjustment device 110, and the server 106 of the first embodiment, respectively.
  • the image processing unit 411, the image generation unit 412, and the second communication unit 413 of the fourth embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment, respectively. ..
  • FIG. 14 two cameras 402, a first communication unit 403, an image display device 404, a controller 405, and an image adjustment device 410 are shown for the sake of clarity.
  • the camera 402, the first communication unit 403, the image display device 404, the controller 405, and the image adjustment device 410 may be three or more.
  • the image display device 404, the controller 405, and the image adjustment device 410 used by the first user USa are referred to as a first image display device 404a, a first controller 405a, and a first image adjustment device 410a.
  • the image display device 404, the controller 405, and the image adjustment device 410 used by the second user USb are referred to as the second image display device 404b, the second controller 405b, and the second image adjustment device 410b.
  • the image processing unit 411, the image generation unit 412, and the second communication unit 413 in the second image adjustment device 410a are the image processing unit 411a, the image generation unit 412a, and the second communication unit 413a. Further, the image processing unit 411, the image generation unit 412, and the second communication unit 413 in the image adjustment device 410b are referred to as the image processing unit 411b, the image generation unit 412b, and the second communication unit 413b.
  • the first image adjustment device 410a is connected to the network via the second communication unit 413a of the first image adjustment device 410a.
  • the second image adjustment device 410b is connected to the network via the second communication unit 413b of the second image adjustment device 410b.
  • One of the two cameras 402 is the first camera 4021 and the other is the second camera 4022.
  • One of the two first communication units 403 is the first communication unit 4031 and the other is the first communication unit 4032.
  • the first camera 4021 is connected to the network via the first communication unit 4031
  • the second camera 4022 is connected to the network via the first communication unit 4032.
  • the first camera 4021 and the second camera 4022 may be connected to the network via the common first communication unit 4031 or first communication unit 4032.
  • the server 406 is connected to the network.
  • the first camera 4021 and the second camera 4022 can move independently.
  • the first camera 4021 and the second camera 4022 have a GPS function.
  • the server 406 can continuously acquire the positions (current positions) of the first camera 4021 and the second camera 4022 via the network, the first communication unit 4031 on one side, and the first communication unit 4032 on the other side. ..
  • the first image adjustment device 410a can acquire the positions of the first camera 4021 and the second camera 4022 from the server 406 via the second communication unit 413a of the first image adjustment device 410a and the network.
  • the second image adjustment device 410b can acquire the positions of the first camera 4021 and the second camera 4022 from the server 406 via the second communication unit 413b of the second image adjustment device 410b and the network.
  • the first image adjustment device 410a can acquire the captured image IM41 taken by the first camera 4021 via the one first communication unit 4031, the second communication unit 413a of the first image adjustment device 410a, and the network. it can.
  • the second image adjustment device 410b can acquire the captured image IM41 captured by the first camera 4021 via the one first communication unit 4031, the second communication unit 413b of the second image adjustment device 410b, and the network. it can.
  • the first image adjustment device 410a can acquire the captured image IM42 captured by the second camera 4022 via the other first communication unit 4032, the second communication unit 413a of the first image adjustment device 410a, and the network. It can.
  • the second image adjustment device 410b can acquire the captured image IM42 captured by the second camera 4022 via the other first communication unit 4032, the second communication unit 413b of the second image adjustment device 410b, and the network. it can.
  • FIG. 14 illustrates a case where the first image adjustment device 410a acquires the captured image IM41 captured by the first camera 4021 and the second image adjustment device 410b acquires the captured image IM42 captured by the second camera 4022. ..
  • the server 406 acquires the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 via the first communication unit 4031 on one side and the first communication unit 4032 on the other side and the network.
  • the first image adjustment apparatus 410a uses the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 from the server 406 to the network and the second communication unit 413a of the first image adjustment apparatus 410a. To get through.
  • the second image adjustment device 410b receives the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 from the server 406 via the network and the second communication unit 413b of the second image adjustment device 410b. get.
  • the first user USa performs the login operation, or the first image display device 404a is connected to the network via the second communication unit 413a, so that the first user USa or the first image is displayed.
  • the display device 404a can be specified.
  • the second user USb performs the login operation, or the second image display device 404b is connected to the network via the second communication unit 413b, so that the second user USb or the second image is displayed.
  • the display device 404b can be specified.
  • the server 406 can recognize which captured image is displayed on which image display device. For example, as shown in FIG. 14, the captured image IM41 captured by the first camera 4021 is displayed on the first image display device 404a, and the captured image IM42 captured by the second camera 4022 is displayed on the second image display device 404b. In this case, the server 406 displays the captured image IM41 captured by the first camera 4021 on the first image display device 404a and displays the captured image IM42 captured by the second camera 4022 on the second image display device 404b. Recognize that In other words, the server 406 recognizes that the first user USa views the captured image IM41 captured by the first camera 4021, and the second user USb views the captured image IM42 captured by the second camera 4022. Can recognize that.
  • the first image adjustment device 410a detects the current positions of the first camera 4021 that is capturing the captured image IM41 and the second camera 4022 that is capturing the captured image IM42, and the second image adjustment device 410b from the server 406. It can be recognized that the captured image IM42 captured by the second camera 4022 is acquired.
  • the second image adjustment device 410b detects the current positions of the first camera 4021 that is capturing the captured image IM41 and the second camera 4022 that is capturing the captured image IM42, and the first image adjustment device 410a from the server 406. It can be recognized that the captured image IM41 captured by the first camera 4021 is acquired.
  • the captured image IM41 (IM42) acquired by the first image adjustment device 410a is input to the image processing unit 411a.
  • the image processing unit 411a analyzes the captured image IM41 (IM42) to recognize the horizontal direction in the captured image IM41 (IM42).
  • the image processing unit 411a may recognize the vertical direction in the captured image IM41 (IM42) by analyzing the captured image IM41 (IM42), or may recognize the horizontal direction and the vertical direction.
  • the first image adjustment device 410a corrects the distortion of the captured image IM41 (IM42), performs image processing such as adjusting the horizontal of the captured image IM41 (IM42), and the like, and the image-processed captured image IM41 (IM42). Is output to the first image display device 404a.
  • the captured image IM42 (IM41) acquired by the second image adjustment device 410b is input to the image processing unit 411b.
  • the image processing unit 411b recognizes the horizontal direction in the captured image IM42 (IM41) by analyzing the captured image IM42 (IM41).
  • the image processing unit 411b may recognize the vertical direction in the captured image IM42 (IM41) by analyzing the captured image IM42 (IM41), or may recognize the horizontal direction and the vertical direction.
  • the second image adjustment device 410b corrects the distortion of the captured image IM42 (IM41), executes image processing such as adjusting the horizontal of the captured image IM42 (IM41), and the image processed captured image IM42 (IM41). Is output to the second image display device 404b.
  • the server 406 corrects the distortion between the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022, and the captured image IM41 captured by the first camera 4021 and the captured image captured by the second camera 4022.
  • Image processing such as horizontal adjustment of IM42 is executed, and the image-processed captured image IM41 and captured image IM42 may be output to the first image adjustment device 410a or the second image adjustment device 410b. You may.
  • the first image display device 404a displays a captured image IM41 (IM42) that has been image-processed by the first image adjustment device 410a or the server 406.
  • the first user USa can view the captured image IM41 (IM42) image-processed by the first image adjusting device 410a or the server 406 by mounting the first image display device 404a on the head.
  • the second image display device 404b displays the captured image IM42 (IM41) that has been image-processed by the second image adjustment device 410b or the server 406.
  • the second user USb can view the captured image IM42 (IM41) image-processed by the second image adjustment device 410b or the server 406 by mounting the second image display device 404b on its head.
  • the image display device 404a (404b) is in a state in which the user USa (USb) is facing, the posture of the user USa (USb), and the like in a state where the image display device 404a (404b) is mounted on the head of the user USa (USb).
  • the posture information PN4a (PN4b) is generated based on
  • the image processing unit 411a (411b) acquires the posture information PN4a (PN4b) from the image display device 404a (404b). That is, the image processing unit 411a (411b) acquires the posture information PN4a (PN4b) based on the posture of the image display device 404a (404b).
  • the image processing unit 411a of the first image adjustment device 410a is directed toward the first user USa from the captured image IM41 captured by the first camera 4021 or the captured image IM42 captured by the second camera 4022 based on the posture information PN4a.
  • the image of the area corresponding to the direction in which the user is moving and the state such as the posture of the first user USa is displayed on the first image display device 404a.
  • the image processing unit 411b of the second image adjustment device 410b faces the second user USb from the captured image IM41 captured by the first camera 4021 or the captured image IM42 captured by the second camera 4022 based on the posture information PN4b.
  • the second image display device 404b displays an image of a region corresponding to the direction in which the user is moving and the posture of the second user USb.
  • the controller 405a (405b) generates the instruction information NN4a (NN4b) based on the state of the movement or posture of the hand of the user USa (USb) in a state where the controller 405a (405b) is attached to the hand of the user USa (USb). ..
  • the image processing unit 411a (411b) acquires the instruction information NN4a (NN4b) from the controller 405a (405b).
  • the image processing unit 411a of the first image adjustment device 410a can change or adjust the captured image IM41 or the captured image IM42 displayed on the first image display device 404a based on the instruction information NN4a.
  • the image processing unit 411b of the second image adjustment device 410b can change or adjust the captured image IM41 or the captured image IM42 displayed on the second image display device 404b based on the instruction information NN4b.
  • the image generation unit 412a of the first image adjustment device 410a generates a combined image CM4b that is a CG combined with the captured image IM41 (IM42).
  • the image generation unit 412b of the second image adjustment device 410b generates a combined image CM4a that is a CG combined with the captured image IM42 (IM41).
  • the composite image CM4a (CM4b) is an image of a character such as an avatar.
  • the composite image CM4a is the avatar of the first user USa
  • the composite image CM4b is the avatar of the second user USb.
  • the image generation unit 412a of the first image adjustment device 410a When the first user USa operates the first controller 405a, the image generation unit 412a of the first image adjustment device 410a generates the composite image CM4b that is the avatar of the second user USb, and then the built-in memory or the external device. Save to memory.
  • the image generation unit 412b of the second image adjustment device 410b When the second user USb operates the second controller 405b, the image generation unit 412b of the second image adjustment device 410b generates the composite image CM4a which is the avatar of the first user USa, and is stored in the internal memory or the external device. Save to memory.
  • the image processing unit 411a (411b) acquires the composite image CM4b (CM4a) generated by the image generation unit 412a (412b) and outputs it to the server 406 via the second communication unit 413a (413b) and the network. Good.
  • the user USa may operate the controller 405a (405b) to cause the image generation unit 412a (412b) to generate a composite image CM4a (CM4b) that is an avatar of the user USa (USb).
  • the image processing unit 411a (411b) acquires the composite image CM4a (CM4b) generated by the image generation unit 412a (412b) and outputs it to the server 406 via the second communication unit 413a (413b) and the network.
  • the first user USa may set the avatar of the second user USb or may set his own avatar.
  • the second user USb may set the avatar of the first user USa or may set his own avatar.
  • the server 406 stores the composite image CM4a (CM4b) in the internal memory or the external memory in association with the user USa (USb).
  • the server 406 may automatically set the composite image CM4a (CM4b) in association with the user USa (USb), and save the composite image CM4a (CM4b) in the internal memory or an external memory.
  • the image processing unit 411a (411b) acquires the composite image CM4b (CM4a) from the image generation unit 412a (412b) or the server 306 based on the instruction information NN4a (NN4b) and displays it on the image display device 404a (404b). be able to.
  • the image generation unit 412a (412b) generates a spherical image VSS4a (VSS4b) that is a virtual image formed by a spherical surface that is CG.
  • the image generation unit 412a (412b) stores the spherical image VSS4a (VSS4b) in a built-in memory or an external memory.
  • the image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the image generation unit 412a (412b) based on the instruction information NN4a (NN4b) and displays it on the image display device 404a (404b). To do.
  • the spherical image VSS4a (VSS4b) of the fourth embodiment corresponds to the spherical image VSS1 of the first embodiment.
  • the user USa (USb) moves the hand on which the controller 405a (405b) is attached to a position corresponding to the spherical image VSS4a (VSS4b) displayed on the image display device 404a (404b), It feels as if the hand of the user USa (USb) is in contact with the spherical image VSS4a (VSS4b).
  • an actuator may be arranged in a portion that comes into contact with the hand of the user USa (USb).
  • the image processing unit 411a (411b) determines that the hand of the user USa (USb) has moved to the position corresponding to the spherical image VSS4a (VSS4b) based on the instruction information NN4a (NN4b)
  • the actuator is activated.
  • the actuator applies pressure to the hand of the user USa (USb)
  • the user USa (USb) can actually feel the touch of the hand with the spherical image VSS4a (VSS4b).
  • the first image adjustment The image processing unit 411a of the device 410a determines that the spherical image VSS4a and the captured image IM41 or the captured image IM42 displayed on the first image display device 404a are the hands of the first user USa based on the instruction information NN4a.
  • the image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination.
  • the second image adjustment The image processing unit 411b of the device 410b determines that the spherical image VSS4b and the captured image IM41 or the captured image IM42 displayed on the second image display device 404b are the hands of the second user USb based on the instruction information NN4b.
  • the image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination.
  • the user USa moves his or her hand to any position in any direction at any speed, thereby moving the spherical image VSS4a (VSS4b) in any direction at any speed at any speed. Can be rotated into position. That is, the user USa (USb) can rotate the spherical image VSS4a (VSS4b) by the movement of the hand.
  • the image processing unit 411a (411b) moves the captured image IM41 (IM42) in correspondence with the rotation of the spherical image VSS4a (VSS4b).
  • the image processing unit 411a (411b) causes the zenith ZE before the user USa (USb) rotates the spherical image VSS4a (VSS4b) and the user USa (USb) rotates the spherical image VSS4a (VSS4b). It is possible to determine which position on the coordinates of the spherical image VSS4a (VSS4b) is moved by.
  • the image processing unit 411a (411b) rotates the spherical image VSS4a (VSS4b) by the user USa (USb) based on the movement direction and the position of the movement destination of the zenith ZE on the coordinates of the spherical image VSS4a (VSS4b).
  • the amount of change in the spherical image VSS4a (VSS4b) before and after rotation is calculated.
  • the amount of change of the spherical image VSS4a (VSS4b) of the fourth embodiment corresponds to the amount of change of the spherical image VSS1 of the first embodiment.
  • the image processing unit 411a (411b) stores the amount of change in the spherical image VSS4a (VSS4b) as a correction value CV4a (CV4b).
  • the correction value CV4a (CV4b) of the fourth embodiment corresponds to the correction value CV1 of the first embodiment.
  • the image processing unit 411a (411b) uses the coordinates on the spherical image VSS4a (VSS4b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS4a (VSS4b) as the correction value CV4a (CV4b). You may save.
  • the image processing unit 411a (411b) may store the correction value CV4a (CV4b) in an internal memory or an external memory, or may store the correction value CV4a (CV4b) via the second communication unit 413a (413b) and a network. May be output to the server 406.
  • the server 406 stores the correction value CV4a (CV4b) in the built-in memory or an external memory in association with the image display device 404a (404b) or the user USa (USb).
  • the image adjustment system 401 may display the combined image CM4b, which is the avatar of the second user USb, with the captured image IM41 (IM42) on the first image display device 404a worn by the first user USa. it can.
  • the image adjustment system 401 may display the combined image CM4a, which is the avatar of the first user USa, on the second image display device 404b worn by the second user USb by combining the captured image IM42 (IM41). it can.
  • the first image display device 404a is attached to the head of the first user USa, and the first controller 405a is attached to the hand of the first user USa.
  • the second image display device 404b is attached to the head of the second user USb, and the second controller 405b is attached to the hand of the second user USb.
  • a captured image IM41 captured by the first camera 4021 is displayed on the first image display device 404a, and a captured image IM42 captured by the second camera 4022 is displayed on the second image display device 404b.
  • the user USa determines that the captured image IM41 (IM42) displayed on the image display device 404a (404b) is not horizontal
  • the user USa controls the controller 405a (405b) in FIG.
  • the image processing unit 411a (411b) causes the image display device 404a (404b) to display the setting screen in step S401.
  • the image processing unit 411a (411b) causes the step In S402, the processing is shifted to a predetermined processing mode corresponding to the selected item.
  • the image processing unit 411a (411b) shifts the processing to the processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM41 (IM42).
  • step S403 the image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the image generation unit 412a (412b) and displays it on the image display device 404a (404b).
  • the photographed image IM41 (IM42) and the spherical image VSS4a (VSS4b) are mixed and displayed on the image display device 404a (404b).
  • the user USa rotates the spherical image VSS4a (VSS4b) so that the captured image IM41 (IM42) becomes horizontal, so that the image processing unit 411a (411b) causes the spherical image VSS4a in step S404.
  • the captured image IM41 (IM42) displayed on the image display device 404a (404b) is moved in correspondence with the rotation of (VSS4b).
  • the user USa (USb) may perform the operation of rotating the spherical image VSS4a (VSS4b) multiple times until the captured image IM41 (IM42) becomes horizontal.
  • the user USa operates the controller 405a (405b) when it is determined that the captured image IM41 (IM42) has become horizontal, so that the image processing unit 411a (411b) causes the spherical image to be obtained in step S405.
  • the display of the VSS 4a (VSS 4b) is ended, and the setting screen is displayed on the image display device 404a (404b).
  • the image processing unit 411a (411b) causes the image processing unit 411a (411b) to perform step S406. At, the processing shifts to a predetermined processing mode corresponding to the selected item.
  • the image processing unit 411a (411b) shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.
  • step S407 the image processing unit 411a (411b) acquires the rotation amount (rotation angle) before and after the spherical image VSS4a (VSS4b) rotates as the change amount of the spherical image VSS4a (VSS4b). ..
  • step S408 the image processing unit 411a (411b) stores the amount of change in the spherical image VSS4a (VSS4b) as the correction value CV4a (CV4b), and ends the processing.
  • the image processing unit 411a identifies the first camera 4021 that is capturing the captured image IM41 that has been acquired in step S411.
  • the image processing unit 411a acquires the position information of the first camera 4021 from the first camera 4021 or the server 406 in step S412.
  • the position information of the first camera 4021 includes information on the current position of the first camera 4021 and the direction in which the first camera 4021 faces or is moving.
  • the image processing unit 411a acquires information of another camera (camera other than the first camera 4021) from the server 406 in step S413.
  • the image processing unit 411a acquires information on the second camera 4022 from the server 406 in step S413.
  • the information of the second camera 4022 includes the second user USb watching the captured image IM42 captured by the second camera 4022, the current position of the second camera 4022, and the direction in which the second camera 4022 faces. Or it contains information about the direction you are moving.
  • the direction in which the second camera 4022 is facing or the direction in which it is moving corresponds to the direction in which the second user USb is facing, and is specified based on the captured image IM42 displayed on the second image display device 404b. be able to.
  • step S414 the image processing unit 411a determines whether or not another camera (camera other than the first camera 4021) is captured in the captured image IM41, in other words, whether or not another camera is captured, for example, an image. Judge by recognition. When it is determined in step S414 that another camera is not included in the captured image IM41 (NO), the image processing unit 411a returns the process to step S414.
  • another camera camera other than the first camera 4021
  • step S414 When it is determined in step S414 that another camera is included in the captured image IM41 (YES), the image processing unit 411a determines in step S415 based on the information of the other camera acquired in step S413. Identify the other camera shown in IM41.
  • FIG. 17 shows a state in which the first camera 4021 is located at the point A and the second camera 4022 is located at the point B in front of the first camera 4021.
  • the second camera 4022 which is another camera, is shown in the captured image IM41 of the first camera 4021.
  • the image processing unit 411a identifies that the camera shown in the captured image IM41 of the first camera 4021 is the second camera 4022 based on the information of the second camera 4022 acquired in step S413.
  • step S416 the image processing unit 411a, based on the position information of the first camera 4021 acquired in step S412 and the information of the second camera 4022 acquired in step S413, the second camera 4022 for the first camera 4021. And the direction in which the second camera 4022 is facing or moving.
  • step S417 the image processing unit 411a identifies the user US who is viewing the captured image IM captured by the camera identified in step S415. For example, the image processing unit 411a identifies the second user USb who is looking at the captured image IM42 captured by the second camera 4022. In step S418, the image processing unit 411a acquires the composite image CM4b that is the avatar of the second user USb. When the composite image CM4b is stored in the server 406, the image processing unit 411a acquires the composite image CM4b from the server 406.
  • step S419 the image processing unit 411a combines the composite image CM4b at the position corresponding to the second camera 4022 shown in the captured image IM41, and displays the composite image CM4b on the first image display device 404a.
  • the image processing unit 411a horizontally adjusts the composite image CM4b in the same manner as the captured image IM41, and displays it on the first image display device 404a.
  • the correction value CV4a is stored, the image processing unit 411a horizontally adjusts the composite image CM4b based on the correction value CV4a and displays it on the first image display device 404a.
  • the image processing unit 411a may change the size of the composite image CM4b in correspondence with the position of the second camera 4022 with respect to the first camera 4021. For example, when the camera 4022 is located far away from the camera 4021, the image processing unit 411a determines that the size of the composite image CM4b depends on the distance between the first camera 4021 and the second camera 4022.
  • the combined image CM4b is subjected to image processing so as to be small and combined with the captured image IM41.
  • the image processing unit 411a may change the orientation of the composite image CM4b in accordance with the direction in which the second camera 4022 is facing or the direction in which the second camera 4022 is moving.
  • the image processing unit 411a may acquire the composite image CM4b in the direction corresponding to the direction in which the second camera 4022 is facing or the direction in which the second camera 4022 is moving.
  • the spherical image VSS4a (VSS4b) is displayed on the image display device 404a (404b).
  • the horizontal direction of the captured image IM41 (IM42) is erroneously detected, or the horizontal or zenith ZE is designated.
  • the user USa USb
  • IM41 (IM42) can be adjusted to be horizontal.
  • the horizontal direction of the captured image IM41 (IM42) is erroneously detected, or the horizontal or zenith is designated.
  • the user US can easily correct the horizontal or zenith of the captured image IM41 (IM42).
  • the image processing unit 411a (411b) performs the correction.
  • the value CV4a (CV4b) can be read, the captured image IM41 (IM42) captured by the camera 4021 (4022) can be image-adjusted based on the correction value CV4a (CV4b), and displayed on the image display device 404a (404b).
  • the position of the second camera 4022 with respect to the first camera 4021 is specified, and the position of the second camera 4022 in the captured image IM.
  • the composite image CM4b which is the avatar of the second user USb looking at the captured image IM42 captured by the second camera 4022 is synthesized.
  • the first user USa can feel as if sharing the same space as the second user USb.
  • the virtual image VSS generated by the CG may be a surface of an ellipsoid (elliptical surface), and may be an arbitrary closed surface (closed curved surface) within the reach of the user US. I wish I had it. That is, it is sufficient that the user US feels as if he/she touches the closed curved surface from the inside, and that the captured image IM can be horizontally adjusted. Since the user US rotates the virtual image VSS, it is desirable that the virtual image VSS has a spherical shape close to a spherical surface such as a spherical surface or an elliptic surface.

Abstract

An image adjustment system (101) comprises a camera (102), an image adjustment device (110), an image display device (104), and a controller (105). The image adjustment device (110) is equipped with an image generation unit (112) and an image processing unit (111). The image generation unit (112) generates a spherical image (VSS1) and a synthetic image (CM1) that is to be combined with a captured image (IM1) captured by the camera (102). The image processing unit (111) acquires the spherical image (VSS1) generated by the image generation unit (112), and displays said image on the image display device (104). The image processing unit (111) rotates the spherical image (VSS1) on the basis of instruction information (NN1) output from the controller (105), adjusts the captured image (IM1), which is displayed on the image display device (104), in accordance with the rotation of the spherical image (VSS1), adjusts the synthetic image (CM1) in accordance with the adjusted captured image (IM1), and combines the synthetic image (CM1) with the captured image (IM1).

Description

画像調整システム、画像調整装置、及び画像調整方法Image adjusting system, image adjusting apparatus, and image adjusting method
 本発明は、画像調整システム、画像調整装置、及び画像調整方法に関する。 The present invention relates to an image adjusting system, an image adjusting device, and an image adjusting method.
 近年、画像表示装置としてヘッドマウントディスプレイが注目されている。ヘッドマウントディスプレイは、使用者の頭部に装着された状態で画像を表示することにより、使用者は仮想空間に入り込んだような感覚(没入感)を得ることができる。特許文献1に記載されている従来例のヘッドマウントディスプレイは、外部のカメラで撮影した画像をネックワークを介して表示することができる。 In recent years, head-mounted displays have been attracting attention as image display devices. The head mounted display displays an image in a state where the head mounted display is mounted on the user's head, so that the user can feel as if he/she entered the virtual space (immersive feeling). The conventional head-mounted display described in Patent Document 1 can display an image captured by an external camera via a neckwork.
特開2005-56295号公報(JP 2005-056295 A)JP-A-2005-56295 (JP2005-056295A)
 しかし、従来例のヘッドマウントディスプレイでは、表示される画像によっては画像の水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、表示される画像が使用者の重力感覚と一致しないため、使用者は違和感を覚える。 However, with the conventional head-mounted display, it is difficult to detect the horizontal direction of the image depending on the displayed image, and the horizontal direction may be detected incorrectly. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the image is erroneously detected, or the horizontal or zenith designation is deviated, the displayed image does not match the user's sense of gravity, and the user feels uncomfortable.
 本発明は、画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、画像の水平または天頂を簡便に補正することができる画像調整システム、画像調整装置、及び画像調整方法を提供することを目的とする。 The present invention provides an image adjusting system, an image adjusting device, and an image adjusting system capable of easily correcting the horizontal or zenith of an image when the horizontal direction of the image is erroneously detected or the designation of the horizontal or zenith is deviated. The purpose is to provide a method of adjustment.
 本発明の第1の態様に係る画像調整システムは、カメラと、前記カメラが撮影した撮影画像を調整するための画像調整装置と、前記画像調整装置により調整された前記撮影画像を表示するための画像表示装置と、前記画像調整装置へ指示情報を出力するためのコントローラとを備え、前記画像調整装置は、球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部とを備える。 An image adjustment system according to a first aspect of the present invention is for displaying a camera, an image adjustment device for adjusting a captured image captured by the camera, and the captured image adjusted by the image adjustment device. An image display device and a controller for outputting instruction information to the image adjustment device, wherein the image adjustment device generates an image for generating a spherical image and a composite image to be combined with the captured image. Section and the spherical image generated by the image generation unit based on the instruction information is acquired and displayed on the image display device, and the spherical image is rotated based on the instruction information to generate the spherical image. Image processing for adjusting the captured image displayed on the image display device in correspondence with the rotation of the image, adjusting the composite image in association with the adjusted captured image, and combining with the captured image And a section.
 本発明の第2の態様に係る画像調整装置は、球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部とを備える。 An image adjusting apparatus according to a second aspect of the present invention includes an image generating unit for generating a spherical image and a composite image that is combined with a captured image captured by a camera and displayed on an image display device. The spherical image generated by the image generation unit based on the instruction information acquired from the controller is acquired and displayed on the image display device, the spherical image is rotated based on the instruction information, and the image is displayed. An image for adjusting the captured image displayed on the display device in correspondence with the rotation of the spherical image, adjusting the composite image in association with the adjusted captured image, and combining the captured image with the captured image. And a processing unit.
 本発明の第3の態様に係る画像調整方法は、画像処理部がコントローラから指示情報を取得し、前記画像処理部が前記指示情報に基づいて画像生成部で生成された球面状画像を取得し、画像表示装置が前記球面状画像を表示し、前記画像処理部が前記指示情報に基づいて前記球面状画像を回転させ、前記画像処理部がカメラにより撮影されて前記画像表示装置に表示されている撮影画像を前記球面状画像の回転に対応させて調整し、前記画像処理部が前記画像生成部で生成され、前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、前記画像処理部が調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成することを含む。 In the image adjusting method according to the third aspect of the present invention, the image processing unit acquires the instruction information from the controller, and the image processing unit acquires the spherical image generated by the image generation unit based on the instruction information. An image display device displays the spherical image, the image processing unit rotates the spherical image based on the instruction information, and the image processing unit is photographed by a camera and displayed on the image display device. A captured image that is adjusted in accordance with the rotation of the spherical image, and the image processing unit generates a composite image that is generated by the image generation unit and that is combined with the captured image displayed on the image display device. Then, the image processing unit adjusts the composite image corresponding to the adjusted captured image and combines the adjusted image with the captured image.
 本発明の第1の態様に係る画像調整システム、第2の態様に係る画像調整装置、及び第3の態様に係る画像調整方法によれば、画像の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、画像の水平または天頂を簡便に補正することができる。 According to the image adjustment system of the first aspect, the image adjustment device of the second aspect, and the image adjustment method of the third aspect, the horizontal direction of the image is erroneously detected, When the designation of the zenith shifts, the horizontal or zenith of the image can be easily corrected.
図1は、第1実施形態及び第2実施形態に係る画像調整システムを示す構成図である。FIG. 1 is a configuration diagram showing an image adjustment system according to the first embodiment and the second embodiment. 図2は、球面状画像と使用者との関係を示す図である。FIG. 2 is a diagram showing the relationship between the spherical image and the user. 図3は、第1実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of the image adjusting method according to the first embodiment. 図4は、第1実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the image adjusting method according to the first embodiment. 図5は、撮影画像の水平面と合成画像の水平面との関係を示す図である。FIG. 5 is a diagram showing the relationship between the horizontal plane of the captured image and the horizontal plane of the composite image. 図6Aは、第2実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 6A is a flowchart showing an example of the image adjusting method according to the second embodiment. 図6Bは、第2実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 6B is a flowchart showing an example of the image adjusting method according to the second embodiment. 図7は、第2実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the image adjusting method according to the second embodiment. 図8は、撮影画像の水平面と合成画像の水平面との関係を示す図である。FIG. 8 is a diagram showing the relationship between the horizontal plane of the captured image and the horizontal plane of the composite image. 図9は、第3実施形態に係る画像調整システムを示す構成図である。FIG. 9 is a configuration diagram showing an image adjustment system according to the third embodiment. 図10は、使用者が画像表示装置を見ているときの使用者と他の使用者に対応する合成画像との位置関係の一例を示す図である。FIG. 10 is a diagram showing an example of the positional relationship between the user when the user is looking at the image display device and a composite image corresponding to another user. 図11は、使用者が画像表示装置を見ているときの使用者と他の使用者に対応する合成画像との位置関係の一例を示す図である。FIG. 11 is a diagram showing an example of a positional relationship between the user and a composite image corresponding to another user when the user is looking at the image display device. 図12は、第3実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of the image adjusting method according to the third embodiment. 図13は、第3実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 13 is a flowchart showing an example of the image adjusting method according to the third embodiment. 図14は、第4実施形態に係る画像調整システムを示す構成図である。FIG. 14 is a configuration diagram showing an image adjustment system according to the fourth embodiment. 図15は、第3実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 15 is a flowchart showing an example of the image adjusting method according to the third embodiment. 図16は、第3実施形態に係る画像調整方法の一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of the image adjusting method according to the third embodiment. 図17は、複数のカメラと他の使用者に対応する合成画像との位置関係の一例を示す図である。FIG. 17 is a diagram showing an example of the positional relationship between a plurality of cameras and a composite image corresponding to another user.
 [第1実施形態]
 図1を用いて、第1実施形態に係る画像調整システム101の構成例を説明する。第1実施形態に係る画像調整システム101は、カメラ102と、第1通信部103と、画像表示装置104と、コントローラ105と、画像調整装置110と、サーバ106とを備える。画像調整装置110は、画像処理部111と、画像生成部112と、第2通信部113とを備える。
[First Embodiment]
A configuration example of the image adjustment system 101 according to the first embodiment will be described with reference to FIG. 1. The image adjustment system 101 according to the first embodiment includes a camera 102, a first communication unit 103, an image display device 104, a controller 105, an image adjustment device 110, and a server 106. The image adjustment device 110 includes an image processing unit 111, an image generation unit 112, and a second communication unit 113.
 カメラ102は、360度の範囲を撮影できる全方位カメラ(360度カメラ)である。第1通信部103と第2通信部113とはネットワークを介して接続されている。画像調整装置110は、カメラ102が撮影した撮影画像IM1を、第1通信部103と第2通信部113とネットワークとを介して取得することができる。 The camera 102 is an omnidirectional camera (360 degree camera) capable of shooting a 360 degree range. The first communication unit 103 and the second communication unit 113 are connected via a network. The image adjustment apparatus 110 can acquire the captured image IM1 captured by the camera 102 via the first communication unit 103, the second communication unit 113, and the network.
 画像調整装置110としてコンピュータ機器を用いてもよい。画像処理部111及び画像生成部112としてCPUを用いてもよい。画像生成部112及び第2通信部113は、画像調整装置110の外部に設けられていてもよい。 A computer device may be used as the image adjustment device 110. A CPU may be used as the image processing unit 111 and the image generation unit 112. The image generation unit 112 and the second communication unit 113 may be provided outside the image adjustment device 110.
 サーバ106は、ネットワークと第1通信部103とを介してカメラ102と接続し、ネットワークと第2通信部113とを介して画像調整装置110と接続する。サーバ106がカメラ102が撮影した撮影画像IM1を第1通信部103及びネットワークを介して取得し、画像調整装置110がサーバ106から撮影画像IM1をネットワーク及び第2通信部113を介して取得してもよい。 The server 106 is connected to the camera 102 via the network and the first communication unit 103, and is connected to the image adjustment apparatus 110 via the network and the second communication unit 113. The server 106 acquires the captured image IM1 captured by the camera 102 via the first communication unit 103 and the network, and the image adjustment apparatus 110 acquires the captured image IM1 from the server 106 via the network and the second communication unit 113. Good.
 画像調整装置110が取得した撮影画像IM1は、画像処理部111へ入力される。画像処理部111は、撮影画像IM1を解析することにより、撮影画像IM1における水平方向を認識する。画像処理部111は、撮影画像IM1を解析することにより、撮影画像IM1における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。画像調整装置110は、撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像表示装置104へ出力する。 The captured image IM1 acquired by the image adjusting apparatus 110 is input to the image processing unit 111. The image processing unit 111 analyzes the captured image IM1 to recognize the horizontal direction in the captured image IM1. The image processing unit 111 may recognize the vertical direction in the captured image IM1, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM1. The image adjustment device 110 corrects the distortion of the captured image IM1, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the image display device 104.
 サーバ106は、カメラ102が撮影した撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像調整装置110へ出力してもよい。画像表示装置104は、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を表示する。 The server 106 corrects the distortion of the captured image IM1 captured by the camera 102, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the image adjustment apparatus 110. May be. The image display device 104 displays the captured image IM1 image-processed by the image adjustment device 110 or the server 106.
 画像表示装置104は、例えばヘッドマウントディスプレイである。コントローラ105は、例えばVR(Virtual Reality)等に用いられるグローブ型コントローラである。 The image display device 104 is, for example, a head mounted display. The controller 105 is, for example, a globe-type controller used for VR (Virtual Reality) or the like.
 図2は、画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている状態を模式的に示している。図2に示す符号ZEは天頂を示している。カメラ102の天頂と使用者USの天頂とは一致していることが望ましい。使用者USは、その頭部に画像表示装置104を装着することにより、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を見ることができる。 FIG. 2 schematically shows a state in which the image display device 104 is mounted on the head of the user US and the controller 105 is mounted on the hand of the user US. Reference numeral ZE shown in FIG. 2 indicates the zenith. It is desirable that the zenith of the camera 102 and the zenith of the user US coincide. By mounting the image display device 104 on the head of the user US, the user US can see the captured image IM1 image-processed by the image adjustment device 110 or the server 106.
 画像表示装置104は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN1を生成する。画像処理部111は、画像表示装置104から姿勢情報PN1を取得する。即ち、画像処理部111は、画像表示装置104の姿勢に基づいて姿勢情報PN1を取得することになる。画像処理部111は、姿勢情報PN1に基づいて、カメラ102が撮影した撮影画像IM1から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置104に表示する。 The image display device 104 generates the posture information PN1 based on the direction in which the user US is facing, the posture of the user US, and the like while being mounted on the head of the user US. The image processing unit 111 acquires the posture information PN1 from the image display device 104. That is, the image processing unit 111 acquires the posture information PN1 based on the posture of the image display device 104. Based on the posture information PN1, the image processing unit 111 displays an image of a region corresponding to the direction in which the user US is facing and the state such as the posture of the user US from the captured image IM1 captured by the camera 102. Display on the device 104.
 コントローラ105は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢、または、使用者USの指の動きまたは姿勢等の状態に基づいて指示情報NN1を生成する。以下、手または指を、単に手と略記する。画像処理部111は、コントローラ105から指示情報NN1を取得する。画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている撮影画像IM1を変化させたり調整したりすることができる。 The controller 105 generates the instruction information NN1 based on the movement or posture of the hand of the user US, the movement or posture of the finger of the user US, or the like in a state where the controller 105 is attached to the hand of the user US. .. Hereinafter, the hand or the finger is simply abbreviated as the hand. The image processing unit 111 acquires the instruction information NN1 from the controller 105. The image processing unit 111 can change or adjust the captured image IM1 displayed on the image display device 104 based on the instruction information NN1.
 画像生成部112は、撮影画像IM1と合成されるCG(Computer Graphics)である合成画像CM1を生成する。合成画像CM1は、例えばアバター等のキャラクタの画像である。画像生成部112は、合成画像CM1を内蔵メモリまたは外部のメモリに保存する。画像処理部111は、画像生成部112で生成された合成画像CM1を取得し、第2通信部113とネットワークとを介してサーバ106へ出力してもよい。 The image generation unit 112 generates a composite image CM1 which is a CG (Computer Graphics) composited with the captured image IM1. The composite image CM1 is an image of a character such as an avatar. The image generation unit 112 stores the composite image CM1 in a built-in memory or an external memory. The image processing unit 111 may acquire the composite image CM1 generated by the image generation unit 112 and output it to the server 106 via the second communication unit 113 and the network.
 サーバ106は、合成画像CM1を画像表示装置104または使用者USと対応付けて内蔵メモリまたは外部のメモリに保存する。画像処理部111は、指示情報NN1に基づいて、画像生成部112またはサーバ106から合成画像CM1を取得し、画像表示装置104に表示されている撮影画像IM1に合成画像CM1を合成する。従って、画像表示装置104は、カメラ102が撮影した撮影画像IM1と、画像生成部112またはサーバ106から取得されて撮影画像IM1と合成された合成画像CM1とを表示することができる。 The server 106 stores the composite image CM1 in the built-in memory or an external memory in association with the image display device 104 or the user US. The image processing unit 111 acquires the combined image CM1 from the image generation unit 112 or the server 106 based on the instruction information NN1 and combines the combined image CM1 with the captured image IM1 displayed on the image display device 104. Therefore, the image display device 104 can display the captured image IM1 captured by the camera 102 and the composite image CM1 acquired from the image generation unit 112 or the server 106 and combined with the captured image IM1.
 画像生成部112は、CGである球面により構成された仮想画像である球面状画像VSS1を生成する。画像生成部112は、球面状画像VSS1を内蔵メモリまたは外部のメモリに保存する。画像処理部111は、指示情報NN1に基づいて、画像生成部112で生成された球面状画像VSS1を取得し、画像表示装置104に表示する。 The image generation unit 112 generates a spherical image VSS1 which is a virtual image formed by a spherical surface which is CG. The image generation unit 112 stores the spherical image VSS1 in a built-in memory or an external memory. The image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 based on the instruction information NN1 and displays it on the image display device 104.
 図2は、画像表示装置104が使用者USの頭部に装着された状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときの使用者USのイメージを模式的に示している。 FIG. 2 shows an image of the user US when the user US views the spherical image VSS1 displayed on the image display device 104 with the image display device 104 mounted on the head of the user US. It is shown schematically.
 画像表示装置104が使用者USの頭部に装着されている状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときに、球面状画像VSS1は、使用者US及び画像表示装置104の周囲に配置され、かつ、使用者USの手が球面状画像VSS1に届く範囲に表示されるように設定されている。使用者USは、コントローラ105が装着されている手を、画像表示装置104に表示されている球面状画像VSS1に対応する位置に移動させることにより、使用者USの手が球面状画像VSS1に接触しているように感じる。 When the user US views the spherical image VSS1 displayed on the image display device 104 while the image display device 104 is mounted on the head of the user US, the spherical image VSS1 is It is arranged around the US and the image display device 104, and is set so as to be displayed within a range where the hand of the user US reaches the spherical image VSS1. The user US moves the hand on which the controller 105 is attached to the position corresponding to the spherical image VSS1 displayed on the image display device 104, so that the hand of the user US contacts the spherical image VSS1. I feel like I'm doing it.
 コントローラ105は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部111は、指示情報NN1に基づいて、使用者USの手が球面状画像VSS1に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS1に接触する感覚を実感として得ることができる。 The controller 105 may have an actuator arranged in a portion that comes into contact with the hand of the user US. When the image processing unit 111 determines that the hand of the user US has moved to the position corresponding to the spherical image VSS1 based on the instruction information NN1, the image processing unit 111 operates the actuator. When the actuator applies pressure to the hand of the user US, the user US can actually feel the touch of the hand with the spherical image VSS1.
 球面状画像VSS1が画像表示装置104に表示されている状態において、使用者USが、コントローラ105が装着されている手を任意の方向へ移動させた場合、画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている球面状画像VSS1と撮影画像IM1とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the user US moves the hand on which the controller 105 is attached in any direction while the spherical image VSS1 is displayed on the image display device 104, the image processing unit 111 displays the instruction information NN1. Based on this, image processing is performed so that the spherical image VSS1 and the captured image IM1 displayed on the image display device 104 move in correspondence with the moving direction, moving speed, and position of the moving destination of the hand of the user US. To execute.
 使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS1を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS1を回転させることができる。画像処理部111は、球面状画像VSS1の回転に対応させて撮影画像IM1を移動させる。 The user US can rotate the spherical image VSS1 in any direction at any speed to any position by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS1 by the movement of the hand. The image processing unit 111 moves the captured image IM1 in correspondence with the rotation of the spherical image VSS1.
 画像処理部111は、使用者USが球面状画像VSS1を回転させる前の天頂ZEが、使用者USが球面状画像VSS1を回転させることによって球面状画像VSS1の座標上のどの位置へ移動したかを判定することができる。画像処理部111は、球面状画像VSS1の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS1を回転させる前と回転させた後との球面状画像VSS1の変化量を算出する。 The image processing unit 111 determines to which position on the coordinates of the spherical image VSS1 the zenith ZE before the user US rotates the spherical image VSS1 moves as the user US rotates the spherical image VSS1. Can be determined. The image processing unit 111, based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS1, the spherical image before and after the user US rotates the spherical image VSS1. The amount of change in VSS1 is calculated.
 球面状画像VSS1の変化量とは、球面状画像VSS1において、X軸を回転軸とした回転量(回転角度)と、Y軸を回転軸とした回転量(回転角度)と、Z軸を回転軸とした回転量(回転角度)とが合成された球面状画像VSS1の回転量(回転角度)に相当する。画像処理部111は、球面状画像VSS1の変化量を補正値CV1として保存する。即ち、補正値CV1は、球面状画像VSS1の回転方向と、天頂ZEの移動量または移動角度(球面状画像VSS1の回転角度)に基づいて算出されることになる。 The amount of change of the spherical image VSS1 is the amount of rotation (rotation angle) with the X axis as the rotation axis, the amount of rotation (rotation angle) with the Y axis as the rotation axis, and the Z axis with respect to the spherical image VSS1. The rotation amount (rotation angle) about the axis corresponds to the rotation amount (rotation angle) of the spherical image VSS1 combined. The image processing unit 111 stores the change amount of the spherical image VSS1 as the correction value CV1. That is, the correction value CV1 is calculated based on the rotation direction of the spherical image VSS1 and the movement amount or movement angle of the zenith ZE (the rotation angle of the spherical image VSS1).
 画像処理部111は、使用者USが球面状画像VSS1を回転させた後の天頂ZEの球面状画像VSS1上の座標を補正値CV1として保存してもよい。画像処理部111は、補正値CV1を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV1を第2通信部113及びネットワークを介してサーバ106へ出力してもよい。サーバ106は、補正値CV1を画像表示装置104または使用者USと関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 111 may store the coordinates of the zenith ZE on the spherical image VSS1 after the user US rotates the spherical image VSS1 as the correction value CV1. The image processing unit 111 may store the correction value CV1 in an internal memory or an external memory, or may output the correction value CV1 to the server 106 via the second communication unit 113 and the network. The server 106 associates the correction value CV1 with the image display device 104 or the user US and stores the correction value CV1 in an internal memory or an external memory.
 画像処理部111は、撮影画像IM1の水平方向を検出する。しかし、画像処理部111は、撮影画像IM1によってはその水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。撮影画像IM1の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、画像表示装置104に表示される撮影画像IM1が使用者USの重力感覚と一致しないため、使用者USは違和感を覚える。 The image processing unit 111 detects the horizontal direction of the captured image IM1. However, it is difficult for the image processing unit 111 to detect the horizontal direction depending on the captured image IM1, and the horizontal direction may be erroneously detected. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the captured image IM1 is incorrectly detected or the horizontal or zenith designation is deviated, the captured image IM1 displayed on the image display device 104 does not match the sense of gravity of the user US. I feel uncomfortable.
 図3、4に示すフローチャートを用いて、第1実施形態に係る画像調整方法の一例を説明する。具体的には、撮影画像IM1及び合成画像CM1の水平を調整する方法の一例について説明する。画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている。画像表示装置104には撮影画像IM1及び合成画像CM1が表示されている。この時点で、合成画像CM1は表示されていなくてもよい。 An example of the image adjustment method according to the first embodiment will be described using the flowcharts shown in FIGS. Specifically, an example of a method of adjusting the horizontalness of the captured image IM1 and the composite image CM1 will be described. The image display device 104 is mounted on the head of the user US, and the controller 105 is mounted on the hand of the user US. The captured image IM1 and the composite image CM1 are displayed on the image display device 104. At this point, the composite image CM1 may not be displayed.
 使用者USが画像表示装置104に表示されている撮影画像IM1が水平でないと判断した場合、図3において、使用者USがコントローラ105を操作することにより、画像処理部111は、ステップS101にて、画像表示装置104に設定画面を表示させる。 When the user US determines that the captured image IM1 displayed on the image display device 104 is not horizontal, the user US operates the controller 105 in FIG. 3 to cause the image processing unit 111 to operate in step S101. , The setting screen is displayed on the image display device 104.
 使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部111は、ステップS102にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部111は、撮影画像IM1の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user US operates the controller 105 to select a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 111 causes the selected item to be displayed in step S102. The processing is shifted to the corresponding predetermined processing mode. When the horizontal adjustment item is selected, the image processing unit 111 shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM1.
 画像処理部111は、ステップS103にて、画像生成部112で生成された球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1と球面状画像VSS1と合成画像CM1とが混合して表示される。使用者USが撮影画像IM1が水平となるように球面状画像VSS1を回転させることにより、画像処理部111は、ステップS104にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている撮影画像IM1を移動させる。使用者USは撮影画像IM1が水平になるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。 The image processing unit 111 acquires the spherical image VSS1 generated by the image generation unit 112 and displays it on the image display device 104 in step S103. On the image display device 104, the captured image IM1, the spherical image VSS1, and the composite image CM1 are mixed and displayed. When the user US rotates the spherical image VSS1 so that the captured image IM1 is horizontal, the image processing unit 111 causes the image display device 104 to correspond to the rotation of the spherical image VSS1 in step S104. The displayed captured image IM1 is moved. The user US may perform the operation of rotating the spherical image VSS1 a plurality of times until the captured image IM1 becomes horizontal.
 使用者USは撮影画像IM1が水平になったと判断した場合にコントローラ105を操作することにより、画像処理部111は、ステップS105にて、球面状画像VSS1の表示を終了させ、画像表示装置104に設定画面を表示させる。画像表示装置104に表示されている撮影画像IM1を水平にすることにより、カメラ102の天頂と使用者USの天頂とを一致させることができる。 When the user US determines that the captured image IM1 has become horizontal, the image processing unit 111 ends the display of the spherical image VSS1 and causes the image display device 104 to display the spherical image VSS1 in step S105. Display the setting screen. By making the captured image IM1 displayed on the image display device 104 horizontal, the zenith of the camera 102 and the zenith of the user US can be matched.
 使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部111は、ステップS106にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部111は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。 When the user US operates the controller 105 and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 111 corresponds to the selected item in step S106. The processing shifts to a predetermined processing mode. When the end item is selected, the image processing unit 111 shifts the processing to a processing mode (end mode) for ending the horizontal adjustment.
 画像処理部111は、ステップS107にて、球面状画像VSS1が回転する前と後との回転量(回転角度)を、球面状画像VSS1の変化量として取得する。画像処理部111は、ステップS108にて、球面状画像VSS1の変化量を補正値CV1として保存し、処理を終了する。 In step S107, the image processing unit 111 acquires the rotation amount (rotation angle) before and after the spherical image VSS1 rotates as the change amount of the spherical image VSS1. In step S108, the image processing unit 111 stores the amount of change in the spherical image VSS1 as the correction value CV1 and ends the process.
 図3のステップS101~S108において合成画像CM1が表示されていない場合、使用者USがコントローラ105を操作することにより、画像調整装置110(具体的には画像処理部111)は、画像生成部112で生成された合成画像CM1を取得し、画像表示装置104に表示されている撮影画像IM1に合成して表示させることができる。 If the composite image CM1 is not displayed in steps S101 to S108 of FIG. 3, the user US operates the controller 105 to cause the image adjusting device 110 (specifically, the image processing unit 111) to move to the image generating unit 112. It is possible to obtain the composite image CM1 generated in step (1), combine it with the captured image IM1 displayed on the image display device 104, and display the composite image CM1.
 図5は、使用者USによって水平調整された撮影画像IM1の水平面PHP1と、画像処理部111が画像生成部112から取得した合成画像CM1の水平面SHP1との関係を模式的に示している。撮影画像IM1の水平面PHP1と合成画像CM1の水平面SHP1とがずれていると、使用者USは違和感を覚える。 FIG. 5 schematically shows the relationship between the horizontal plane PHP1 of the captured image IM1 horizontally adjusted by the user US and the horizontal plane SHP1 of the composite image CM1 acquired by the image processing unit 111 from the image generation unit 112. If the horizontal plane PHP1 of the captured image IM1 and the horizontal plane SHP1 of the composite image CM1 are misaligned, the user US feels strange.
 図4において、画像処理部111は、ステップS111にて、撮影画像IM1が水平調整されたか否かを判定する。画像処理部111は、球面状画像VSS1が回転された履歴または補正値CV1等に基づいて、撮影画像IM1が水平調整されたか否かを判定することができる。 In FIG. 4, the image processing unit 111 determines in step S111 whether the captured image IM1 has been horizontally adjusted. The image processing unit 111 can determine whether or not the captured image IM1 is horizontally adjusted based on the history of rotation of the spherical image VSS1 or the correction value CV1.
 ステップS111において撮影画像IM1が水平調整された(YES)と判定された場合、画像処理部111は、ステップS112にて、保存されている補正値CV1を取得する。画像処理部111は、ステップS113にて、補正値CV1に基づいて合成画像CM1の座標軸を回転させ、合成画像CM1の水平面SHP1を撮影画像IM1の水平面PHP1と一致させる。画像処理部111は、ステップS114にて、合成画像CM1を、補正された水平面SHP1に基づいて演算処理し、画像調整する。 When it is determined in step S111 that the captured image IM1 has been horizontally adjusted (YES), the image processing unit 111 acquires the stored correction value CV1 in step S112. In step S113, the image processing unit 111 rotates the coordinate axes of the composite image CM1 based on the correction value CV1 so that the horizontal plane SHP1 of the composite image CM1 matches the horizontal plane PHP1 of the captured image IM1. In step S114, the image processing unit 111 performs arithmetic processing on the composite image CM1 based on the corrected horizontal plane SHP1 to adjust the image.
 画像処理部111は、ステップS115にて、画像調整された合成画像CM1を撮影画像IM1と合成して画像表示装置104に表示させる。ステップS111において撮影画像IM1が水平調整されていない(NO)と判定された場合、画像処理部111は、処理をステップS115へ移行させる。 In step S115, the image processing unit 111 combines the image-adjusted composite image CM1 with the captured image IM1 and displays the composite image CM1 on the image display device 104. When it is determined in step S111 that the captured image IM1 is not horizontally adjusted (NO), the image processing unit 111 shifts the processing to step S115.
 第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法では、画像表示装置104に球面状画像VSS1を表示させる。第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ105を操作して球面状画像VSS1を回転させることにより、画像表示装置104に表示されている撮影画像IM1を水平になるように調整することができる。 In the image adjusting system 101, the image adjusting device 110, and the image adjusting method according to the first embodiment, the spherical image VSS1 is displayed on the image display device 104. According to the image adjusting system 101, the image adjusting device 110, and the image adjusting method according to the first embodiment, when the horizontal direction of the captured image IM1 is erroneously detected or the designation of the horizontal or the zenith ZE is deviated, The user US can adjust the captured image IM1 displayed on the image display device 104 to be horizontal by operating the controller 105 to rotate the spherical image VSS1.
 従って、第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM1の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjustment system 101, the image adjustment apparatus 110, and the image adjustment method according to the first embodiment, when the horizontal direction of the captured image IM1 is erroneously detected or the horizontal or zenith designation is deviated. The user US can easily correct the horizontal or zenith of the captured image IM1.
 第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法によれば、補正値CV1が保存されている場合、画像処理部111は、補正値CV1を読み出し、カメラ102が撮影した撮影画像IM1を補正値CV1に基づいて画像調整し、画像表示装置104に表示することができる。 According to the image adjustment system 101, the image adjustment apparatus 110, and the image adjustment method according to the first embodiment, when the correction value CV1 is stored, the image processing unit 111 reads the correction value CV1 and the camera 102 captures the image. The captured image IM1 can be image-adjusted based on the correction value CV1 and displayed on the image display device 104.
 第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法では、撮影画像IM1が水平調整された場合、補正値CV1に基づいて合成画像CM1の座標軸を回転させ、合成画像CM1の水平面SHP1を撮影画像IM1の水平面PHP1と一致させる。第1実施形態に係る画像調整システム101、画像調整装置110、及び画像調整方法によれば、撮影画像IM1と合成画像CM1とを、使用者USが違和感を覚えることなく、画像表示装置104に表示することができる。 In the image adjustment system 101, the image adjustment apparatus 110, and the image adjustment method according to the first embodiment, when the captured image IM1 is horizontally adjusted, the coordinate axes of the composite image CM1 are rotated based on the correction value CV1, and the composite image CM1 is rotated. The horizontal plane SHP1 of is matched with the horizontal plane PHP1 of the captured image IM1. According to the image adjustment system 101, the image adjustment device 110, and the image adjustment method according to the first embodiment, the captured image IM1 and the composite image CM1 are displayed on the image display device 104 without the user US feeling uncomfortable. can do.
 [第2実施形態]
 図1を用いて、第2実施形態に係る画像調整システム201の構成例を説明する。第2実施形態に係る画像調整システム201は、カメラ202と、第1通信部203と、画像表示装置204と、コントローラ205と、画像調整装置210と、サーバ206とを備える。画像調整装置210は、画像処理部211と、画像生成部212と、第2通信部213とを備える。
[Second Embodiment]
A configuration example of the image adjustment system 201 according to the second embodiment will be described with reference to FIG. The image adjustment system 201 according to the second embodiment includes a camera 202, a first communication unit 203, an image display device 204, a controller 205, an image adjustment device 210, and a server 206. The image adjustment device 210 includes an image processing unit 211, an image generation unit 212, and a second communication unit 213.
 第2実施形態のカメラ202、第1通信部203、画像表示装置204、コントローラ205、画像調整装置210、及びサーバ206は、第1実施形態のカメラ102、第1通信部103、画像表示装置104、コントローラ105、画像調整装置110、及びサーバ106に相当する。第2実施形態の画像処理部211、画像生成部212、及び第2通信部213は、第1実施形態の画像処理部111、画像生成部112、及び第2通信部113に相当する。 The camera 202, the first communication unit 203, the image display device 204, the controller 205, the image adjustment device 210, and the server 206 of the second embodiment are the camera 102, the first communication unit 103, and the image display device 104 of the first embodiment. , The controller 105, the image adjustment apparatus 110, and the server 106. The image processing unit 211, the image generation unit 212, and the second communication unit 213 of the second embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment.
 画像調整装置210は、カメラ202が撮影した撮影画像IM2を、第1通信部203と第2通信部213とネットワークとを介して取得することができる。サーバ206がカメラ202が撮影した撮影画像IM2を第1通信部203及びネットワークを介して取得し、画像調整装置210がサーバ206から撮影画像IM2をネットワーク及び第2通信部213を介して取得してもよい。 The image adjustment device 210 can acquire the captured image IM2 captured by the camera 202 via the first communication unit 203, the second communication unit 213, and the network. The server 206 acquires the captured image IM2 captured by the camera 202 via the first communication unit 203 and the network, and the image adjustment apparatus 210 acquires the captured image IM2 from the server 206 via the network and the second communication unit 213. Good.
 画像調整装置210が取得した撮影画像IM2は、画像処理部211へ入力される。画像処理部211は、撮影画像IM2を解析することにより、撮影画像IM2における水平方向を認識する。画像処理部211は、撮影画像IM2を解析することにより、撮影画像IM2における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。画像調整装置210は、撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像表示装置204へ出力する。 The captured image IM2 acquired by the image adjustment device 210 is input to the image processing unit 211. The image processing unit 211 recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2. The image processing unit 211 may recognize the vertical direction in the captured image IM2, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM2. The image adjustment device 210 corrects the distortion of the captured image IM2, executes image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image display device 204.
 サーバ206は、カメラ202が撮影した撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像調整装置210へ出力してもよい。画像表示装置204は、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を表示する。使用者USは、その頭部に画像表示装置204を装着することにより、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を見ることができる。 The server 206 corrects the distortion of the captured image IM2 captured by the camera 202, performs image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image adjustment apparatus 210. May be. The image display device 204 displays the captured image IM2 image-processed by the image adjustment device 210 or the server 206. The user US can mount the image display device 204 on his/her head to view the captured image IM2 image-processed by the image adjustment device 210 or the server 206.
 画像表示装置204は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN2を生成する。画像処理部211は、画像表示装置204から姿勢情報PN2を取得する。即ち、画像処理部211は、画像表示装置204の姿勢に基づいて姿勢情報PN2を取得することになる。画像処理部211は、姿勢情報PN2に基づいて、カメラ202が撮影した撮影画像IM2から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置204に表示する。 The image display device 204 generates the posture information PN2 based on the direction in which the user US is facing, the posture of the user US, and the like while being mounted on the head of the user US. The image processing unit 211 acquires the posture information PN2 from the image display device 204. That is, the image processing unit 211 acquires the posture information PN2 based on the posture of the image display device 204. Based on the posture information PN2, the image processing unit 211 displays an image of a region corresponding to the direction in which the user US faces and the state of the user US such as the posture from the captured image IM2 captured by the camera 202. Display on the device 204.
 コントローラ205は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢等の状態に基づいて指示情報NN2を生成する。画像処理部211は、コントローラ205から指示情報NN2を取得する。画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている撮影画像IM2を変化させたり調整したりすることができる。 The controller 205 generates the instruction information NN2 based on the state of the movement or posture of the hand of the user US in the state of being attached to the hand of the user US. The image processing unit 211 acquires the instruction information NN2 from the controller 205. The image processing unit 211 can change or adjust the captured image IM2 displayed on the image display device 204 based on the instruction information NN2.
 画像生成部212は、撮影画像IM2と合成されるCGである合成画像CM2を生成する。合成画像CM2は、例えばアバター等のキャラクタの画像である。画像生成部212は、合成画像CM2を内蔵メモリまたは外部のメモリに保存する。画像処理部211は、画像生成部212で生成された合成画像CM2を取得し、第2通信部213とネットワークとを介してサーバ206へ出力してもよい。サーバ206は、合成画像CM2を画像表示装置204または使用者USと対応付けて内蔵メモリまたは外部のメモリに保存する。 The image generation unit 212 generates a composite image CM2 that is a CG that is composited with the captured image IM2. The composite image CM2 is an image of a character such as an avatar. The image generation unit 212 saves the composite image CM2 in an internal memory or an external memory. The image processing unit 211 may acquire the composite image CM2 generated by the image generation unit 212 and output it to the server 206 via the second communication unit 213 and the network. The server 206 stores the composite image CM2 in the built-in memory or an external memory in association with the image display device 204 or the user US.
 画像処理部211は、指示情報NN2に基づいて、画像生成部212またはサーバ206から合成画像CM2を取得し、画像表示装置204に表示されている撮影画像IM2に合成画像CM2を合成する。従って、画像表示装置204は、カメラ202が撮影した撮影画像IM2と、画像生成部212またはサーバ206から取得されて撮影画像IM2と合成された合成画像CM2とを表示することができる。 The image processing unit 211 acquires the combined image CM2 from the image generation unit 212 or the server 206 based on the instruction information NN2, and combines the combined image CM2 with the captured image IM2 displayed on the image display device 204. Therefore, the image display device 204 can display the captured image IM2 captured by the camera 202 and the composite image CM2 acquired from the image generation unit 212 or the server 206 and combined with the captured image IM2.
 画像生成部212は、CGである球面により構成された仮想画像である球面状画像VSS2を生成する。画像生成部212は、球面状画像VSS2を内蔵メモリまたは外部のメモリに保存する。画像処理部211は、指示情報NN2に基づいて、画像生成部212で生成された球面状画像VSS2を取得し、画像表示装置204に表示する。 The image generation unit 212 generates a spherical image VSS2 that is a virtual image formed by a spherical surface that is CG. The image generator 212 stores the spherical image VSS2 in the internal memory or an external memory. The image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 based on the instruction information NN2, and displays it on the image display device 204.
 第2実施形態の球面状画像VSS2は、第1実施形態の球面状画像VSS1に相当する。使用者USは、コントローラ205が装着されている手を、画像表示装置204に表示されている球面状画像VSS2に対応する位置に移動させることにより、使用者USの手が球面状画像VSS2に接触しているように感じる。 The spherical image VSS2 of the second embodiment corresponds to the spherical image VSS1 of the first embodiment. The user US moves the hand on which the controller 205 is attached to the position corresponding to the spherical image VSS2 displayed on the image display device 204, so that the hand of the user US contacts the spherical image VSS2. I feel like I'm doing it.
 コントローラ205は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部211は、指示情報NN2に基づいて、使用者USの手が球面状画像VSS2に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS2に接触する感覚を実感として得ることができる。 The controller 205 may have an actuator arranged in a portion that comes into contact with the hand of the user US. When the image processing unit 211 determines based on the instruction information NN2 that the hand of the user US has moved to the position corresponding to the spherical image VSS2, the image processing unit 211 operates the actuator. By applying pressure to the hand of the user US by the actuator, the user US can actually feel the touch of the hand with the spherical image VSS2.
 球面状画像VSS2が画像表示装置204に表示されている状態において、使用者USが、コントローラ205が装着されている手を任意の方向へ移動させた場合、画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている球面状画像VSS2と撮影画像IM2とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the user US moves the hand on which the controller 205 is attached in any direction while the spherical image VSS2 is displayed on the image display device 204, the image processing unit 211 displays the instruction information NN2. Based on this, image processing is performed so that the spherical image VSS2 and the captured image IM2 displayed on the image display device 204 move corresponding to the moving direction, moving speed, and position of the moving destination of the hand of the user US. To execute.
 使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS2を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS2を回転させることができる。画像処理部211は、球面状画像VSS2の回転に対応させて撮影画像IM2を移動させる。 The user US can rotate the spherical image VSS2 in any direction at any speed to any position by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS2 by the movement of the hand. The image processing unit 211 moves the captured image IM2 in correspondence with the rotation of the spherical image VSS2.
 画像処理部211は、使用者USが球面状画像VSS2を回転させる前の天頂ZEが、使用者USが球面状画像VSS2を回転させることによって球面状画像VSS2の座標上のどの位置へ移動したかを判定することができる。画像処理部211は、球面状画像VSS2の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS2を回転させる前と回転させた後との球面状画像VSS2の変化量を算出する。第2実施形態の球面状画像VSS2の変化量は、第1実施形態の球面状画像VSS1の変化量に相当する。 The image processing unit 211 determines to which position on the coordinates of the spherical image VSS2 the zenith ZE before the user US rotates the spherical image VSS2 is moved by the rotation of the spherical image VSS2 by the user US. Can be determined. The image processing unit 211, based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS2, the spherical image before and after the user US rotates the spherical image VSS2. The amount of change in VSS2 is calculated. The amount of change of the spherical image VSS2 of the second embodiment corresponds to the amount of change of the spherical image VSS1 of the first embodiment.
 画像処理部211は、球面状画像VSS2の変化量を補正値CV2として保存する。第2実施形態の補正値CV2は、第1実施形態の補正値CV1に相当する。画像処理部211は、使用者USが球面状画像VSS2を回転させた後の天頂ZEの球面状画像VSS2上の座標を補正値CV2として保存してもよい。画像処理部211は、補正値CV2を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV2を第2通信部213及びネットワークを介してサーバ206へ出力してもよい。サーバ206は、補正値CV2を画像表示装置204または使用者USと関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 211 stores the variation amount of the spherical image VSS2 as the correction value CV2. The correction value CV2 of the second embodiment corresponds to the correction value CV1 of the first embodiment. The image processing unit 211 may store the coordinates on the spherical image VSS2 of the zenith ZE after the user US rotates the spherical image VSS2 as the correction value CV2. The image processing unit 211 may store the correction value CV2 in a built-in memory or an external memory, or may output the correction value CV2 to the server 206 via the second communication unit 213 and the network. The server 206 stores the correction value CV2 in the built-in memory or an external memory in association with the image display device 204 or the user US.
 画像処理部211は、撮影画像IM2の水平方向を検出する。しかし、画像処理部211は、撮影画像IM2によってはその水平方向を検出することが難しく、水平方向を間違って検出してしまう場合がある。また、システムの同期等の問題により、水平または天頂の指定がずれてしまう場合がある。撮影画像IM2の水平方向が間違って検出されたり、水平または天頂の指定がずれたりすると、画像表示装置204に表示される撮影画像IM2が使用者USの重力感覚と一致しないため、使用者USは違和感を覚える。 The image processing unit 211 detects the horizontal direction of the captured image IM2. However, it is difficult for the image processing unit 211 to detect the horizontal direction depending on the captured image IM2, and the horizontal direction may be erroneously detected. Also, due to problems such as system synchronization, the horizontal or zenith designation may shift. If the horizontal direction of the captured image IM2 is incorrectly detected or the horizontal or zenith designation is deviated, the captured image IM2 displayed on the image display device 204 does not match the sense of gravity of the user US. I feel uncomfortable.
 図6A、6B、7に示すフローチャートを用いて、第2実施形態に係る画像調整方法の一例を説明する。具体的には、撮影画像IM2及び合成画像CM2の水平を調整する方法の一例について説明する。画像表示装置204が使用者USの頭部に装着され、コントローラ205が使用者USの手に装着されている。画像表示装置204には撮影画像IM2及び合成画像CM2が表示されている。なお、合成画像CM2は表示されていなくてもよい。 An example of the image adjustment method according to the second embodiment will be described using the flowcharts shown in FIGS. 6A, 6B, and 7. Specifically, an example of a method of adjusting the horizontalness of the captured image IM2 and the composite image CM2 will be described. The image display device 204 is mounted on the head of the user US, and the controller 205 is mounted on the hand of the user US. The image display device 204 displays the captured image IM2 and the composite image CM2. The composite image CM2 does not have to be displayed.
 使用者USが画像表示装置204に表示されている撮影画像IM2が水平でないと判断した場合、図6Aにおいて、使用者USがコントローラ205を操作することにより、画像処理部211は、ステップS201にて、画像表示装置204に設定画面を表示させる。 When the user US determines that the captured image IM2 displayed on the image display device 204 is not horizontal, the user US operates the controller 205 in FIG. 6A to cause the image processing unit 211 to operate in step S201. The setting screen is displayed on the image display device 204.
 使用者USがコントローラ205を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部211は、ステップS202にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部211は、撮影画像IM2の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user US operates the controller 205 and selects a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 211 sets the selected item in step S202. The processing is shifted to the corresponding predetermined processing mode. When the horizontal adjustment item is selected, the image processing unit 211 shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM2.
 画像処理部211は、ステップS203にて、画像生成部212で生成された球面状画像VSS2を取得し、画像表示装置204に表示する。画像表示装置204には、撮影画像IM2と球面状画像VSS2とが混合して表示される。画像処理部211は、ステップS204にて、合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されているか否かを判定する。 The image processing unit 211 acquires the spherical image VSS2 generated by the image generation unit 212 and displays it on the image display device 204 in step S203. On the image display device 204, the captured image IM2 and the spherical image VSS2 are mixed and displayed. In step S204, the image processing unit 211 determines whether the combined image CM2 is combined with the captured image IM2 and is displayed on the image display device 204.
 ステップS204において合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されている(YES)と判定された場合、画像処理部211は、ステップS205にて、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とを分離させる処理を実行する。図8は、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とが分離された状態を模式的に示している。 When it is determined in step S204 that the composite image CM2 is combined with the captured image IM2 and is displayed on the image display device 204 (YES), the image processing unit 211 determines in step S205 that the composite image CM2 is the horizontal plane SHP2. A process of separating the captured image IM2 from the horizontal plane PHP2 is executed. FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated.
 ステップS204において合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されていない(NO)と判定された場合、画像処理部211は、処理をステップS206へ進める。 If it is determined in step S204 that the combined image CM2 is combined with the captured image IM2 and is not displayed on the image display device 204 (NO), the image processing unit 211 advances the process to step S206.
 使用者USは、撮影画像IM2が水平となるように球面状画像VSS2を回転させる。合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とは分離しているため、球面状画像VSS2を回転させても、合成画像CM2は回転しない。そのため、使用者USは、合成画像CM2の回転に惑わされることなく、撮影画像IM2の水平を容易に補正することができる。 The user US rotates the spherical image VSS2 so that the captured image IM2 becomes horizontal. Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, the composite image CM2 does not rotate even if the spherical image VSS2 is rotated. Therefore, the user US can easily correct the horizontal of the captured image IM2 without being confused by the rotation of the composite image CM2.
 ステップS205において、画像処理部211は合成画像CM2を非表示にしてもよい。合成画像CM2を非表示にすることにより、合成画像CM2が邪魔にならないので、使用者USは、撮影画像IM2の水平を容易に補正することができる。 In step S205, the image processing unit 211 may hide the composite image CM2. By hiding the composite image CM2, the composite image CM2 does not get in the way, so that the user US can easily correct the horizontal of the captured image IM2.
 画像処理部211は、ステップS206にて、球面状画像VSS2の回転に対応させて、画像表示装置204に表示されている撮影画像IM2を移動させる。使用者USは撮影画像IM2が水平になるまで球面状画像VSS2を回転させる動作を複数回行ってもよい。 In step S206, the image processing unit 211 moves the photographed image IM2 displayed on the image display device 204 in response to the rotation of the spherical image VSS2. The user US may perform the operation of rotating the spherical image VSS2 a plurality of times until the captured image IM2 becomes horizontal.
 図6Bにおいて、使用者USは撮影画像IM2が水平になったと判断した場合にコントローラ205を操作することにより、画像処理部211は、ステップS207にて、球面状画像VSS2の表示を終了させ、画像表示装置204に設定画面を表示させる。画像表示装置204に表示されている撮影画像IM2を水平にすることにより、カメラ202の天頂と使用者USの天頂とを一致させることができる。 In FIG. 6B, when the user US determines that the captured image IM2 has become horizontal, the image processing unit 211 ends the display of the spherical image VSS2 in step S207 by operating the controller 205, and the image is displayed. The setting screen is displayed on the display device 204. By making the captured image IM2 displayed on the image display device 204 horizontal, the zenith of the camera 202 and the zenith of the user US can be matched.
 使用者USがコントローラ205を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部211は、ステップS208にて、選択された項目に対応する所定の処理モードへ処理を移行させる。終了の項目が選択された場合、画像処理部211は、水平調整を終了するための処理モード(水平調整終了モード)へ処理を移行させる。 When the user US operates the controller 205 and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 211 corresponds to the selected item in step S208. The processing shifts to a predetermined processing mode. When the end item is selected, the image processing unit 211 shifts the processing to a processing mode for ending the horizontal adjustment (horizontal adjustment end mode).
 画像処理部211は、ステップS209にて、球面状画像VSS2が回転する前と後との回転量(回転角度)を、球面状画像VSS2の変化量として取得する。画像処理部211は、ステップS210にて、球面状画像VSS2の変化量を補正値CV2として保存する。 In step S209, the image processing unit 211 acquires the rotation amount (rotation angle) before and after the spherical image VSS2 rotates as the change amount of the spherical image VSS2. In step S210, the image processing unit 211 stores the variation amount of the spherical image VSS2 as the correction value CV2.
 図6A、6BのステップS201~S210において合成画像CM2が表示されていない場合、使用者USがコントローラ205を操作することにより、画像調整装置210(具体的には画像処理部211)は、画像生成部212で生成された合成画像CM2を取得し、画像表示装置204に表示させることができる。 When the composite image CM2 is not displayed in steps S201 to S210 of FIGS. 6A and 6B, the user US operates the controller 205 to cause the image adjusting apparatus 210 (specifically, the image processing unit 211) to generate an image. The composite image CM2 generated by the unit 212 can be acquired and displayed on the image display device 204.
 画像調整装置210(具体的には画像処理部211)は、カメラ202が撮影する撮影画像IM2を解析することにより、撮影画像IM2における水平方向を認識する。使用者USが球面状画像VSS2を回転させて撮影画像IM2の水平を調整した後に、画像調整装置210が画像生成部212で生成された合成画像CM2を取得し、画像表示装置204に表示させると、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とは一致しなくなる。撮影画像IM2の水平面PHP2と合成画像CM2の水平面SHP2とがずれていると、使用者USは違和感を覚える。 The image adjustment device 210 (specifically, the image processing unit 211) recognizes the horizontal direction in the captured image IM2 by analyzing the captured image IM2 captured by the camera 202. When the user US rotates the spherical image VSS2 to adjust the horizontalness of the captured image IM2, the image adjustment device 210 acquires the composite image CM2 generated by the image generation unit 212 and displays it on the image display device 204. The horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 do not match. If the horizontal plane PHP2 of the captured image IM2 and the horizontal plane SHP2 of the composite image CM2 are misaligned, the user US feels uncomfortable.
 図7において、画像処理部211は、ステップS211にて、合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されているか否かを判定する。合成画像CM2が撮影画像IM2と合成されて画像表示装置204に表示されている(YES)と判定された場合、画像処理部211は、ステップS212にて、保存されている補正値CV2を取得する。 7, in step S211, the image processing unit 211 determines whether the composite image CM2 is combined with the captured image IM2 and is displayed on the image display device 204. When it is determined that the combined image CM2 is combined with the captured image IM2 and displayed on the image display device 204 (YES), the image processing unit 211 acquires the stored correction value CV2 in step S212. ..
 画像処理部211は、ステップS213にて、補正値CV2に基づいて合成画像CM2の座標軸を回転させ、合成画像CM2の水平面SHP2を、使用者USによって水平調整された撮影画像IM2の水平面PHP2と一致させる。画像処理部211は、ステップS214にて、合成画像CM2を、補正された水平面SHP2に基づいて演算処理し、画像調整する。図8は、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とが一致している状態を模式的に示している。 In step S213, the image processing unit 211 rotates the coordinate axes of the composite image CM2 based on the correction value CV2 so that the horizontal plane SHP2 of the composite image CM2 matches the horizontal plane PHP2 of the captured image IM2 horizontally adjusted by the user US. Let In step S214, the image processing unit 211 performs arithmetic processing on the composite image CM2 based on the corrected horizontal plane SHP2 to adjust the image. FIG. 8 schematically shows a state in which the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 match each other.
 ステップS211において撮影画像IM2が使用者USによって水平調整されていない(NO)と判定された場合、画像処理部211は、処理をステップS215へ移行させる。画像処理部211は、ステップS215にて、画像調整された合成画像CM2を撮影画像IM2と合成して画像表示装置204に表示させる。使用者USは、画像表示装置204に表示され、互いの水平が一致している撮影画像IM2及び合成画像CM2を見ることができる。 When it is determined in step S211 that the captured image IM2 has not been horizontally adjusted by the user US (NO), the image processing unit 211 shifts the processing to step S215. In step S215, the image processing unit 211 combines the image-adjusted composite image CM2 with the captured image IM2 and displays the composite image CM2 on the image display device 204. The user US can view the captured image IM2 and the composite image CM2 which are displayed on the image display device 204 and whose horizontal levels match each other.
 第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法では、画像表示装置204に球面状画像VSS2を表示させる。第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ205を操作して球面状画像VSS2を回転させることにより、画像表示装置204に表示されている撮影画像IM2を水平になるように調整することができる。 In the image adjustment system 201, the image adjustment device 210, and the image adjustment method according to the second embodiment, the spherical image VSS2 is displayed on the image display device 204. According to the image adjusting system 201, the image adjusting device 210, and the image adjusting method according to the second embodiment, when the horizontal direction of the captured image IM2 is erroneously detected or the designation of the horizontal or zenith ZE is deviated, The user US can adjust the captured image IM2 displayed on the image display device 204 to be horizontal by operating the controller 205 to rotate the spherical image VSS2.
 従って、第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM2の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjusting system 201, the image adjusting device 210, and the image adjusting method according to the second embodiment, when the horizontal direction of the captured image IM2 is erroneously detected or the horizontal or zenith designation is deviated. The user US can easily correct the horizontal or zenith of the captured image IM2.
 第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法によれば、補正値CV2が保存されている場合、画像処理部211は、補正値CV2を読み出し、カメラ202が撮影した撮影画像IM2を補正値CV2に基づいて画像調整し、画像表示装置204に表示することができる。 According to the image adjusting system 201, the image adjusting apparatus 210, and the image adjusting method according to the second embodiment, when the correction value CV2 is stored, the image processing unit 211 reads the correction value CV2 and the camera 202 captures the image. The captured image IM2 can be image-adjusted based on the correction value CV2 and displayed on the image display device 204.
 第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法では、合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とを分離させて、撮影画像IM2の水平を調整し、調整結果(補正値CV2)に基づいて合成画像CM2の水平を調整する。合成画像CM2の水平面SHP2と撮影画像IM2の水平面PHP2とが分離しているため、使用者USが球面状画像VSS2を回転させても、合成画像CM2は回転しない。そのため、使用者USは、撮影画像IM2の水平を容易に補正することができる。 In the image adjusting system 201, the image adjusting apparatus 210, and the image adjusting method according to the second embodiment, the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, and the horizontal of the captured image IM2 is adjusted, The horizontal of the composite image CM2 is adjusted based on the adjustment result (correction value CV2). Since the horizontal plane SHP2 of the composite image CM2 and the horizontal plane PHP2 of the captured image IM2 are separated, the composite image CM2 does not rotate even if the user US rotates the spherical image VSS2. Therefore, the user US can easily correct the horizontal of the captured image IM2.
 第2実施形態に係る画像調整システム201、画像調整装置210、及び画像調整方法によれば、撮影画像IM2が水平調整された場合、補正値CV2に基づいて合成画像CM2の座標軸を回転させ、合成画像CM2の水平面SHP2を撮影画像IM2の水平面PHP2と一致させる。そのため、使用者USは、画像表示装置204に表示されている撮影画像IM2と合成画像CM2とを、違和感を覚えることなく見ることができる。 According to the image adjusting system 201, the image adjusting apparatus 210, and the image adjusting method according to the second embodiment, when the captured image IM2 is horizontally adjusted, the coordinate axes of the combined image CM2 are rotated based on the correction value CV2 to combine the images. The horizontal plane SHP2 of the image CM2 is matched with the horizontal plane PHP2 of the captured image IM2. Therefore, the user US can see the captured image IM2 and the composite image CM2 displayed on the image display device 204 without feeling a sense of discomfort.
 [第3実施形態]
 図9を用いて、第3実施形態に係る画像調整システム301の構成例を説明する。第3実施形態に係る画像調整システム301は、カメラ302と、第1通信部303と、複数の画像表示装置304と、複数のコントローラ305と、複数の画像調整装置310と、サーバ306とを備える。画像調整装置310は、画像処理部311と、画像生成部312と、第2通信部313とを備える。
[Third Embodiment]
A configuration example of the image adjustment system 301 according to the third embodiment will be described with reference to FIG. 9. The image adjustment system 301 according to the third embodiment includes a camera 302, a first communication unit 303, a plurality of image display devices 304, a plurality of controllers 305, a plurality of image adjustment devices 310, and a server 306. .. The image adjustment device 310 includes an image processing unit 311, an image generation unit 312, and a second communication unit 313.
 第3実施形態のカメラ302、第1通信部303、画像表示装置304、コントローラ305、画像調整装置310、及びサーバ306は、それぞれ、第1実施形態のカメラ102、第1通信部103、画像表示装置104、コントローラ105、画像調整装置110、及び、サーバ106に相当する。第3実施形態の画像処理部311、画像生成部312、及び第2通信部313は、それぞれ、第1実施形態の画像処理部111、画像生成部112、及び、第2通信部113に相当する。 The camera 302, the first communication unit 303, the image display device 304, the controller 305, the image adjustment device 310, and the server 306 of the third embodiment are the camera 102, the first communication unit 103, and the image display of the first embodiment, respectively. It corresponds to the device 104, the controller 105, the image adjustment device 110, and the server 106. The image processing unit 311, the image generation unit 312, and the second communication unit 313 of the third embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment, respectively. ..
 図9では、説明をわかりやすくするために、それぞれ2つの画像表示装置304、コントローラ305、及び画像調整装置310を示している。画像表示装置304、コントローラ305、及び画像調整装置310は3つ以上であってもよい。第1の使用者USaが使用する画像表示装置304を第1画像表示装置304a、コントローラ305を第1コントローラ305a、画像調整装置310を第1画像調整装置310aとする。第2の使用者USbが使用する画像表示装置304を第2画像表示装置304b、コントローラ305を第2コントローラ305b、画像調整装置310を第2画像調整装置310bとする。 In FIG. 9, two image display devices 304, a controller 305, and an image adjustment device 310 are shown for the sake of clarity. There may be three or more image display devices 304, controllers 305, and image adjustment devices 310. The image display device 304 used by the first user USa is the first image display device 304a, the controller 305 is the first controller 305a, and the image adjustment device 310 is the first image adjustment device 310a. The image display device 304 used by the second user USb is the second image display device 304b, the controller 305 is the second controller 305b, and the image adjustment device 310 is the second image adjustment device 310b.
 第1画像調整装置310aにおける画像処理部311を画像処理部311a、画像生成部312を画像生成部312a、第2通信部313を第2通信部313aとする。第2画像調整装置310bにおける画像処理部311を画像処理部311b、画像生成部312を画像生成部312b、第2通信部313を第2通信部313bとする。 The image processing unit 311 in the first image adjustment apparatus 310a is the image processing unit 311a, the image generation unit 312 is the image generation unit 312a, and the second communication unit 313 is the second communication unit 313a. In the second image adjusting device 310b, the image processing unit 311 is an image processing unit 311b, the image generation unit 312 is an image generation unit 312b, and the second communication unit 313 is a second communication unit 313b.
 第1画像調整装置310aは、カメラ302が撮影した撮影画像IM3を、第1通信部303と第1画像調整装置310aの第2通信部313aとネットワークとを介して取得することができる。第2画像調整装置310bは、カメラ302が撮影した撮影画像IM3を、第1通信部303と第2画像調整装置310bの第2通信部313bとネットワークとを介して取得することができる。 The first image adjustment device 310a can acquire the captured image IM3 captured by the camera 302 via the first communication unit 303, the second communication unit 313a of the first image adjustment device 310a, and the network. The second image adjustment device 310b can acquire the captured image IM3 captured by the camera 302 via the first communication unit 303, the second communication unit 313b of the second image adjustment device 310b, and the network.
 サーバ306は、カメラ302が撮影した撮影画像IM3を第1通信部303及びネットワークを介して取得し、第1画像調整装置310aがサーバ306から撮影画像IM3をネットワーク及び第1画像調整装置310aの第2通信部313aを介して取得し、第2画像調整装置310bがサーバ306から撮影画像IM3をネットワーク及び第2画像調整装置310bの第2通信部313bを介して取得してもよい。 The server 306 acquires the captured image IM3 captured by the camera 302 via the first communication unit 303 and the network, and the first image adjustment device 310a transmits the captured image IM3 from the server 306 to the network and the first image adjustment device 310a. The second image adjustment device 310b may obtain the captured image IM3 from the server 306 via the network and the second communication unit 313b of the second image adjustment device 310b.
 サーバ306は、第1使用者USaがログイン操作を実行する、または、第1画像表示装置304aが第1画像調整装置310aの第2通信部313aを介してネットワークに接続されることにより、第1使用者USaまたは第1画像表示装置304aを特定することができる。サーバ306は、第2使用者USbがログイン操作を実行する、または、第2画像表示装置304bが第2画像調整装置310bの第2通信部313bを介してネットワークに接続されることにより、第2使用者USbまたは第2画像表示装置304bを特定することができる。 In the server 306, the first user USa performs the login operation, or the first image display device 304a is connected to the network via the second communication unit 313a of the first image adjustment device 310a, and thus the first The user USa or the first image display device 304a can be specified. In the server 306, the second user USb performs the login operation, or the second image display device 304b is connected to the network via the second communication unit 313b of the second image adjustment device 310b, and thus the second The user USb or the second image display device 304b can be specified.
 以下、第1画像調整装置310a、第1画像表示装置304a、及び第1コントローラ305aにおける処理について説明する。括弧内の符号は、第2画像調整装置310b、第2画像表示装置304b、及び第2コントローラ305bにおける処理を示している。 Hereinafter, processing in the first image adjustment device 310a, the first image display device 304a, and the first controller 305a will be described. The reference numerals in parentheses indicate the processes performed by the second image adjustment device 310b, the second image display device 304b, and the second controller 305b.
 画像調整装置310a(310b)が取得した撮影画像IM3は、画像処理部311a(311b)へ入力される。画像処理部311a(311b)は、撮影画像IM3を解析することにより、撮影画像IM3における水平方向を認識する。画像処理部311a(311b)は、撮影画像IM3を解析することにより、撮影画像IM3における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。 The captured image IM3 acquired by the image adjusting apparatus 310a (310b) is input to the image processing unit 311a (311b). The image processing unit 311a (311b) recognizes the horizontal direction in the captured image IM3 by analyzing the captured image IM3. The image processing unit 311a (311b) may recognize the vertical direction in the captured image IM3, or may recognize the horizontal direction and the vertical direction by analyzing the captured image IM3.
 画像調整装置310a(310b)は、撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像表示装置304a(304b)へ出力する。 The image adjustment device 310a (310b) corrects the distortion of the captured image IM3 and executes image processing such as adjusting the horizontal of the captured image IM3, and the image processed image IM3 is displayed on the image display device 304a (304b). Output to.
 サーバ306は、カメラ302が撮影した撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像調整装置310a(310b)へ出力してもよい。画像表示装置304a(304b)は、画像調整装置310a(310b)、またはサーバ306によって画像処理された撮影画像IM3を表示する。 The server 306 corrects the distortion of the captured image IM3 captured by the camera 302, executes image processing such as adjusting the horizontal of the captured image IM3, and the image-processed captured image IM3 is adjusted by the image adjusting device 310a (310b). May be output to. The image display device 304a (304b) displays the captured image IM3 image-processed by the image adjustment device 310a (310b) or the server 306.
 使用者USa(USb)は、その頭部に画像表示装置304a(304b)を装着することにより、画像調整装置310a(310b)またはサーバ306によって画像処理された撮影画像IM3を見ることができる。 The user USa (USb) can view the captured image IM3 image-processed by the image adjustment device 310a (310b) or the server 306 by mounting the image display device 304a (304b) on its head.
 画像表示装置304a(304b)は、使用者USa(USb)の頭部に装着されている状態において、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に基づいて姿勢情報PN3a(PN3b)を生成する。画像処理部311a(311b)は、画像表示装置304a(304b)から姿勢情報PN3a(PN3b)を取得する。即ち、画像処理部311a(311b)は、画像表示装置304a(304b)の姿勢に基づいて姿勢情報PN3a(PN3b)を取得することになる。 The image display device 304a (304b) is in a state in which the user USa (USb) is facing, the posture of the user USa (USb), and the like in a state where the image display device 304a (304b) is mounted on the head of the user USa (USb). The posture information PN3a (PN3b) is generated based on The image processing unit 311a (311b) acquires the posture information PN3a (PN3b) from the image display device 304a (304b). That is, the image processing unit 311a (311b) acquires the posture information PN3a (PN3b) based on the posture of the image display device 304a (304b).
 画像処理部311a(311b)は、姿勢情報PN3a(PN3b)に基づいて、カメラ302が撮影した撮影画像IM3から、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に対応する領域の画像を画像表示装置304a(304b)に表示する。 The image processing unit 311a (311b), based on the posture information PN3a (PN3b), from the captured image IM3 captured by the camera 302, the direction in which the user USa (USb) is facing and the posture of the user USa (USb). The image of the area corresponding to the above state is displayed on the image display device 304a (304b).
 コントローラ305a(305b)は、使用者USa(USb)の手に装着されている状態において、使用者USa(USb)の手の動きまたは姿勢等の状態に基づいて指示情報NN3a(NN3b)を生成する。画像処理部311a(311b)は、コントローラ305a(305b)から指示情報NN3a(NN3b)を取得する。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像表示装置304a(304b)に表示されている撮影画像IM3を変化させたり調整したりすることができる。 The controller 305a (305b) generates the instruction information NN3a (NN3b) based on the state of the movement or posture of the hand of the user USa (USb) while being attached to the hand of the user USa (USb). .. The image processing unit 311a (311b) acquires the instruction information NN3a (NN3b) from the controller 305a (305b). The image processing unit 311a (311b) can change or adjust the captured image IM3 displayed on the image display device 304a (304b) based on the instruction information NN3a (NN3b).
 画像生成部312a(312b)は、撮影画像IM3と合成されるCGである合成画像CM3b(CM3a)を生成する。合成画像CM3a(CM3b)は、例えばアバター等のキャラクタの画像である。第2画像生成部312bで生成される合成画像CM3aは第1使用者USaのアバターであり、第1画像生成部312aで生成される合成画像CM3bは第2使用者USbのアバターである。使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像生成部312a(312b)は、使用者USb(USa)のアバターである合成画像CM3b(CM3a)を生成し、内蔵メモリまたは外部のメモリに保存する。 The image generation unit 312a (312b) generates a composite image CM3b (CM3a) that is a CG to be combined with the captured image IM3. The composite image CM3a (CM3b) is an image of a character such as an avatar. The synthetic image CM3a generated by the second image generating unit 312b is the avatar of the first user USa, and the synthetic image CM3b generated by the first image generating unit 312a is the avatar of the second user USb. When the user USa (USb) operates the controller 305a (305b), the image generation unit 312a (312b) generates a composite image CM3b (CM3a) which is an avatar of the user USb (USa), and the built-in memory or Save to external memory.
 画像処理部311a(311b)は、画像生成部312a(312b)で生成された合成画像CM3b(CM3a)を取得し、第2通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。 The image processing unit 311a (311b) acquires the composite image CM3b (CM3a) generated by the image generation unit 312a (312b) and outputs it to the server 306 via the second communication unit 313a (313b) and the network. Good.
 使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像生成部312a(312b)は、使用者USa(USb)のアバターである合成画像CM3a(CM3b)を生成してもよい。画像処理部311a(311b)は、画像生成部312a(312b)で生成された合成画像CM3a(CM3b)を取得し、第2通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。即ち、第1使用者USaは、第2使用者USbのアバターを設定してもよいし、自身のアバターを設定してもよい。また、第2使用者USbは、第1使用者USaのアバターを設定してもよいし、自身のアバターを設定してもよい。 The image generation unit 312a (312b) may generate a composite image CM3a (CM3b) that is an avatar of the user USa (USb) by operating the controller 305a (305b) by the user USa (USb). The image processing unit 311a (311b) acquires the composite image CM3a (CM3b) generated by the image generation unit 312a (312b) and outputs it to the server 306 via the second communication unit 313a (313b) and the network. Good. That is, the first user USa may set the avatar of the second user USb or may set his own avatar. Further, the second user USb may set the avatar of the first user USa or may set his own avatar.
 サーバ306は、合成画像CM3a(CM3b)を使用者USa(USb)と対応付けて内蔵メモリまたは外部のメモリに保存する。サーバ306が、合成画像CM3a(CM3b)を使用者USa(USb)と対応付けて自動設定し、内蔵メモリまたは外部のメモリに保存してもよい。 The server 306 stores the composite image CM3a (CM3b) in the internal memory or the external memory in association with the user USa (USb). The server 306 may automatically set the composite image CM3a (CM3b) in association with the user USa (USb), and save the composite image CM3a (CM3b) in the built-in memory or an external memory.
 画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像生成部312a(312b)またはサーバ306から合成画像CM3b(CM3a)を取得し、画像表示装置304a(304b)に表示されている撮影画像IM3に合成画像CM3b(CM3a)を合成する。従って、画像表示装置304a(304b)は、カメラ302が撮影した撮影画像IM3と、画像生成部312a(312b)またはサーバ306から取得されて撮影画像IM3と合成された合成画像CM3b(CM3a)とを表示することができる。 The image processing unit 311a (311b) acquires the composite image CM3b (CM3a) from the image generation unit 312a (312b) or the server 306 based on the instruction information NN3a (NN3b) and displays it on the image display device 304a (304b). The synthesized image CM3b (CM3a) is synthesized with the captured image IM3. Therefore, the image display device 304a (304b) displays the captured image IM3 captured by the camera 302 and the composite image CM3b (CM3a) that is obtained from the image generation unit 312a (312b) or the server 306 and is combined with the captured image IM3. Can be displayed.
 画像生成部312a(312b)は、CGである球面により構成された仮想画像である球面状画像VSS3a(VSS3b)を生成する。画像生成部312a(312b)は、球面状画像VSS3a(VSS3b)を内蔵メモリまたは外部のメモリに保存する。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像生成部312a(312b)で生成された球面状画像VSS3a(VSS3b)を取得し、画像表示装置304a(304b)に表示する。 The image generation unit 312a (312b) generates a spherical image VSS3a (VSS3b) that is a virtual image formed by a spherical surface that is CG. The image generation unit 312a (312b) stores the spherical image VSS3a (VSS3b) in a built-in memory or an external memory. The image processing unit 311a (311b) acquires the spherical image VSS3a (VSS3b) generated by the image generation unit 312a (312b) based on the instruction information NN3a (NN3b) and displays it on the image display device 304a (304b). To do.
 第3実施形態の球面状画像VSS3a(VSS3b)は、第1実施形態の球面状画像VSS1に相当する。使用者USa(USb)は、コントローラ305a(305b)が装着されている手を、画像表示装置304a(304b)に表示されている球面状画像VSS3a(VSS3b)に対応する位置に移動させることにより、使用者USa(USb)の手が球面状画像VSS3a(VSS3b)に接触しているように感じる。 The spherical image VSS3a (VSS3b) of the third embodiment corresponds to the spherical image VSS1 of the first embodiment. The user USa (USb) moves the hand on which the controller 305a (305b) is attached to a position corresponding to the spherical image VSS3a (VSS3b) displayed on the image display device 304a (304b), It is felt that the hand of the user USa (USb) is in contact with the spherical image VSS3a (VSS3b).
 コントローラ305a(305b)は、使用者USa(USb)の手と接触する部分にアクチュエータが配置されていてもよい。画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、使用者USa(USb)の手が球面状画像VSS3a(VSS3b)に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USa(USb)の手に圧力を加えることにより、使用者USa(USb)は、その手が球面状画像VSS3a(VSS3b)に接触する感覚を実感として得ることができる。 In the controller 305a (305b), an actuator may be arranged in a portion that comes into contact with the hand of the user USa (USb). When the image processing unit 311a (311b) determines that the hand of the user USa (USb) has moved to the position corresponding to the spherical image VSS3a (VSS3b) based on the instruction information NN3a (NN3b), the actuator is activated. Let When the actuator applies pressure to the hand of the user USa (USb), the user USa (USb) can actually feel the touch of the hand with the spherical image VSS3a (VSS3b).
 球面状画像VSS3a(VSS3b)が画像表示装置304a(304b)に表示されている状態において、使用者USa(USb)が、コントローラ305a(305b)が装着されている手を任意の方向へ移動させた場合、画像処理部311a(311b)は、指示情報NN3a(NN3b)に基づいて、画像表示装置304a(304b)に表示されている球面状画像VSS3a(VSS3b)と撮影画像IM3とが、使用者USa(USb)の手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 In the state where the spherical image VSS3a (VSS3b) is displayed on the image display device 304a (304b), the user USa (USb) moves the hand on which the controller 305a (305b) is attached in any direction. In this case, the image processing unit 311a (311b) determines that the spherical image VSS3a (VSS3b) and the captured image IM3 displayed on the image display device 304a (304b) are the user USa based on the instruction information NN3a (NN3b). The image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination of (USb).
 使用者USa(USb)は、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS3a(VSS3b)を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USa(USb)は、その手の動きによって球面状画像VSS3a(VSS3b)を回転させることができる。画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の回転に対応させて撮影画像IM3を移動させる。 The user USa (USb) moves his or her hand to any position in any direction at any speed, thereby moving the spherical image VSS3a (VSS3b) in any direction at any speed at any speed. Can be rotated into position. That is, the user USa (USb) can rotate the spherical image VSS3a (VSS3b) by the movement of the hand. The image processing unit 311a (311b) moves the captured image IM3 in correspondence with the rotation of the spherical image VSS3a (VSS3b).
 画像処理部311a(311b)は、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させる前の天頂ZEが、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させることによって球面状画像VSS3a(VSS3b)の座標上のどの位置へ移動したかを判定することができる。 The image processing unit 311a (311b) causes the zenith ZE before the user USa (USb) rotates the spherical image VSS3a (VSS3b) and the user USa (USb) rotates the spherical image VSS3a (VSS3b). The position on the coordinate of the spherical image VSS3a (VSS3b) can be determined by the.
 画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させる前と回転させた後との球面状画像VSS3a(VSS3b)の変化量を算出する。第3実施形態の球面状画像VSS3a(VSS3b)の変化量は、第1実施形態の球面状画像VSS1の変化量に相当する。 The image processing unit 311a (311b) rotates the spherical image VSS3a (VSS3b) by the user USa (USb) based on the movement direction and the position of the movement destination of the zenith ZE on the coordinates of the spherical image VSS3a (VSS3b). The amount of change in the spherical image VSS3a (VSS3b) before and after rotation is calculated. The change amount of the spherical image VSS3a (VSS3b) of the third embodiment corresponds to the change amount of the spherical image VSS1 of the first embodiment.
 画像処理部311a(311b)は、球面状画像VSS3a(VSS3b)の変化量を補正値CV3a(CV3b)として保存する。第3実施形態の補正値CV3a(CV3b)は、第1実施形態の補正値CV1に相当する。画像処理部311a(311b)は、使用者USa(USb)が球面状画像VSS3a(VSS3b)を回転させた後の天頂ZEの球面状画像VSS3a(VSS3b)上の座標を補正値CV3a(CV3b)として保存してもよい。 The image processing unit 311a (311b) stores the amount of change in the spherical image VSS3a (VSS3b) as a correction value CV3a (CV3b). The correction value CV3a (CV3b) of the third embodiment corresponds to the correction value CV1 of the first embodiment. The image processing unit 311a (311b) uses the coordinates on the spherical image VSS3a (VSS3b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS3a (VSS3b) as the correction value CV3a (CV3b). You may save.
 画像処理部311a(311b)は、補正値CV3a(CV3b)を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV3a(CV3b)を第2通信部313a(313b)とネットワークとを介してサーバ306へ出力してもよい。サーバ306は、補正値CV3a(CV3b)を画像表示装置304a(304b)または使用者USa(USb)と関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 311a (311b) may store the correction value CV3a (CV3b) in an internal memory or an external memory, or may store the correction value CV3a (CV3b) via the second communication unit 313a (313b) and a network. May be output to the server 306. The server 306 stores the correction value CV3a (CV3b) in the built-in memory or an external memory in association with the image display device 304a (304b) or the user USa (USb).
 画像調整システム301は、使用者USa(USb)が装着している画像表示装置304a(304b)に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)を撮影画像IM3と合成して表示することができる。 The image adjustment system 301 synthesizes a composite image CM3b (CM3a), which is an avatar of another user USb (USa), with the captured image IM3 on the image display device 304a (304b) worn by the user USa (USb). Can be displayed.
 使用者USa(USb)がカメラ302が撮影している撮影画像IM3を見たとき、使用者USa(USb)は、カメラ302の位置からその周囲を見ているように感じる。このような場合、使用者USa(USb)が見ている画像表示装置304a(304b)には、使用者USa(USb)の位置に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)が表示されているため、使用者USa(USb)は違和感を覚える。複数の他の使用者USがいる場合、使用者USaの位置に複数の他の使用者USb,USc,・・・のアバターが重なって表示される。 When the user USa (USb) looks at the captured image IM3 taken by the camera 302, the user USa (USb) feels as if he or she is looking at the surroundings from the position of the camera 302. In such a case, on the image display device 304a (304b) viewed by the user USa (USb), a composite image CM3b (an avatar of another user USb (USa) is displayed at the position of the user USa (USb). Since CM3a) is displayed, the user USa (USb) feels strange. When there are a plurality of other users US, the avatars of the plurality of other users USb, USc,... Are overlapped and displayed at the position of the user USa.
 サーバ306には、複数の使用者USa,USb,・・・の位置関係が予め設定されている。言い換えれば、サーバ306には、複数の使用者USa,USb,・・・の位置関係を示す位置設定情報が保存されている。複数の使用者USa,USb,・・・の位置関係は、サーバ306が自動設定してもよいし、複数の使用者USa,USb,・・・が各自で設定してもよい。 The positional relationship among a plurality of users USa, USb,... Is preset in the server 306. In other words, the server 306 stores position setting information indicating the positional relationship among the plurality of users USa, USb,.... The positional relationship among the plurality of users USa, USb,... May be automatically set by the server 306, or may be set by the plurality of users USa, USb,.
 図10は、第1使用者USaが第1画像表示装置304aを見ているときの第1使用者USaと第2使用者USbのアバターである合成画像CM3bとの位置関係の一例を示している。図11は、第2使用者USbが第2画像表示装置304bを見ているときの第2使用者USbと第1使用者USaのアバターである合成画像CM3aとの位置関係の一例を示している。 FIG. 10 shows an example of the positional relationship between the first user USa and the synthetic image CM3b which is the avatar of the second user USb when the first user USa is looking at the first image display device 304a. .. FIG. 11 shows an example of the positional relationship between the second user USb and the composite image CM3a which is the avatar of the first user USa when the second user USb is looking at the second image display device 304b. ..
 図10、11の各々に示す黒点はカメラ302の位置を示している。図10、11の各々に示す矢印はカメラ302の移動方向を示している。即ち、図10は、第1使用者USaがカメラ302の移動方向を向いている状態を示しており、図11は、第2使用者USbがカメラ302の移動方向を向いている状態を示している。従って、図10、11の各々では、第1使用者USaと第2使用者USbとは同じ撮影画像IM3を見ていることになる。 Black dots shown in each of FIGS. 10 and 11 indicate the position of the camera 302. The arrow shown in each of FIGS. 10 and 11 indicates the moving direction of the camera 302. That is, FIG. 10 shows a state in which the first user USa faces the moving direction of the camera 302, and FIG. 11 shows a state in which the second user USb faces the moving direction of the camera 302. There is. Therefore, in each of FIGS. 10 and 11, the first user USa and the second user USb see the same captured image IM3.
 このような場合、第1使用者USaから離れた位置に合成画像CM3bを表示させたり、第2使用者USbから離れた位置に合成画像CM3aを表示させたりすると、第1使用者USaと第2使用者USbはともに違和感を覚える。従って、合成画像CM3b(CM3a)は使用者USa(USb)(カメラ302)の位置から所定の範囲RG内の位置に表示させることが望ましい。 In such a case, if the composite image CM3b is displayed at a position away from the first user USa or the composite image CM3a is displayed at a position away from the second user USb, the first user USa and the second user Both users USb feel discomfort. Therefore, it is desirable to display the composite image CM3b (CM3a) at a position within a predetermined range RG from the position of the user USa (USb) (camera 302).
 図10に示すように、サーバ306には、例えば、第1使用者USaまたは第1画像表示装置304aにおいては、合成画像CM3bが第1使用者USaの右側に並んで配置されるように、第1使用者USaと第2使用者USbとの位置関係が設定されている。また、図11に示すように、サーバ306には、例えば、第2使用者USbまたは第2画像表示装置304bにおいては、合成画像CM3aが第2使用者USbの左側に並んで配置されるように、第1使用者USaと第2使用者USbとの位置関係が設定されている。 As shown in FIG. 10, in the server 306, for example, in the first user USa or the first image display device 304a, the composite image CM3b is arranged side by side on the right side of the first user USa. The positional relationship between the first user USa and the second user USb is set. Further, as shown in FIG. 11, in the server 306, for example, in the second user USb or the second image display device 304b, the composite image CM3a is arranged side by side on the left side of the second user USb. , The positional relationship between the first user USa and the second user USb is set.
 即ち、図10、11の各々は、カメラ302の移動方向を第1使用者USaと第2使用者USbの前方向としたときに、第2使用者USbが第1使用者USaの右側に並んで配置されるように、第1使用者USaと第2使用者USbとの位置関係が設定されている。そのため、第1使用者USaはその右側には常に第2使用者USbが見え、第2使用者USbはその左側には常に第1使用者USaが見えることになる。360度カメラであるカメラ302が静止している状態では、前後左右の基準がないため、第1使用者USaと第2使用者USbとの位置関係は初期設定時に決定しておくことが望ましい。 That is, in each of FIGS. 10 and 11, when the moving direction of the camera 302 is the front direction of the first user USa and the second user USb, the second user USb is arranged on the right side of the first user USa. The positional relationship between the first user USa and the second user USb is set so as to be arranged in. Therefore, the first user USa always sees the second user USb on its right side, and the second user USb always sees the first user USa on its left side. When the camera 302, which is a 360-degree camera, is stationary, there is no front-back or left-right reference, so it is desirable to determine the positional relationship between the first user USa and the second user USb at the time of initial setting.
 図12、13に示すフローチャートを用いて、第3実施形態に係る画像調整方法の一例を説明する。具体的には、撮影画像IM3に合成画像CM3を合成する方法の一例について説明する。以下、第1画像調整装置310a、第1画像表示装置304a、及び第1コントローラ305aにおける処理について説明する。括弧内の符号は、第2画像調整装置310b、第2画像表示装置304b、及び第2コントローラ305bにおける処理を示している。 An example of the image adjusting method according to the third embodiment will be described with reference to the flowcharts shown in FIGS. Specifically, an example of a method of compositing the composite image CM3 with the captured image IM3 will be described. Hereinafter, processing in the first image adjustment device 310a, the first image display device 304a, and the first controller 305a will be described. The reference numerals in parentheses indicate the processes performed by the second image adjustment device 310b, the second image display device 304b, and the second controller 305b.
 画像表示装置304a(304b)が使用者USa(USb)の頭部に装着され、コントローラ305a(305b)が使用者USa(USb)の手に装着されている。画像表示装置304a(304b)には撮影画像IM3が表示されている。 The image display device 304a (304b) is attached to the head of the user USa (USb), and the controller 305a (305b) is attached to the hand of the user USa (USb). The captured image IM3 is displayed on the image display device 304a (304b).
 使用者USa(USb)が画像表示装置304a(304b)に表示されている撮影画像IM3が水平でないと判断した場合、図12において、使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS301にて、画像表示装置304a(304b)に設定画面を表示させる。 When the user USa (USb) determines that the captured image IM3 displayed on the image display device 304a (304b) is not horizontal, the user USa (USb) operates the controller 305a (305b) in FIG. Accordingly, the image processing unit 311a (311b) causes the image display device 304a (304b) to display the setting screen in step S301.
 使用者USa(USb)がコントローラ305a(305b)を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部311a(311b)は、ステップS302にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部311a(311b)は、撮影画像IM3の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user USa (USb) operates the controller 305a (305b) to select a predetermined item (for example, a horizontal adjustment item) displayed on the setting screen, the image processing unit 311a (311b) causes the step In S302, the processing is shifted to a predetermined processing mode corresponding to the selected item. When the horizontal adjustment item is selected, the image processing unit 311a (311b) shifts the processing to a processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM3.
 画像処理部311a(311b)は、ステップS303にて、画像生成部312a(312b)で生成された球面状画像VSS3a(VSS3b)を取得し、画像表示装置304a(304b)に表示する。画像表示装置304a(304b)には、撮影画像IM3と球面状画像VSS3a(VSS3b)とが混合して表示される。 In step S303, the image processing unit 311a (311b) acquires the spherical image VSS3a (VSS3b) generated by the image generation unit 312a (312b) and displays it on the image display device 304a (304b). The captured image IM3 and the spherical image VSS3a (VSS3b) are mixed and displayed on the image display device 304a (304b).
 使用者USa(USb)は撮影画像IM3が水平となるように球面状画像VSS3a(VSS3b)を回転させることにより、画像処理部311a(311b)は、ステップS304にて、球面状画像VSS3a(VSS3b)の回転に対応させて、画像表示装置304a(304b)に表示されている撮影画像IM3を移動させる。使用者USa(USb)は撮影画像IM3が水平になるまで球面状画像VSS3a(VSS3b)を回転させる動作を複数回行ってもよい。 The user USa (USb) rotates the spherical image VSS3a (VSS3b) so that the captured image IM3 becomes horizontal, so that the image processing unit 311a (311b) causes the spherical image VSS3a (VSS3b) in step S304. The captured image IM3 displayed on the image display device 304a (304b) is moved in correspondence with the rotation of. The user USa (USb) may perform the operation of rotating the spherical image VSS3a (VSS3b) multiple times until the captured image IM3 becomes horizontal.
 使用者USa(USb)は撮影画像IM3が水平になったと判断した場合にコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS305にて、球面状画像VSS3a(VSS3b)の表示を終了させ、画像表示装置304a(304b)に設定画面を表示させる。画像表示装置304a(304b)に表示されている撮影画像IM3を水平にすることにより、カメラ302の天頂と使用者USa(USb)の天頂とを一致させることができる。 The user USa (USb) operates the controller 305a (305b) when determining that the captured image IM3 has become horizontal, so that the image processing unit 311a (311b) causes the spherical image VSS3a (VSS3b) in step S305. ) Is ended and the setting screen is displayed on the image display device 304a (304b). By making the captured image IM3 displayed on the image display device 304a (304b) horizontal, the zenith of the camera 302 and the zenith of the user USa (USb) can be matched.
 使用者USa(USb)がコントローラ305a(305b)を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部311a(311b)は、ステップS306にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部311a(311b)は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。 When the user USa (USb) operates the controller 305a (305b) and selects a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 311a (311b) causes the image processing unit 311a (311b) to perform step S306. At, the processing shifts to a predetermined processing mode corresponding to the selected item. When the end item is selected, the image processing unit 311a (311b) shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.
 画像処理部311a(311b)は、ステップS307にて、球面状画像VSS3a(VSS3b)が回転する前と後との回転量(回転角度)を、球面状画像VSS3a(VSS3b)の変化量として取得する。画像処理部311a(311b)は、ステップS308にて、球面状画像VSS3a(VSS3b)の変化量を補正値CV3a(CV3b)として保存し、処理を終了する。 In step S307, the image processing unit 311a (311b) acquires a rotation amount (rotation angle) before and after the spherical image VSS3a (VSS3b) rotates as a variation amount of the spherical image VSS3a (VSS3b). .. In step S308, the image processing unit 311a (311b) saves the amount of change in the spherical image VSS3a (VSS3b) as the correction value CV3a (CV3b), and ends the process.
 図13に示すフローチャートを用いて、第1使用者USaが見ている第1画像表示装置304aに、第2使用者USbのアバターである合成画像CM3bを撮影画像IM3と合成して表示する場合について説明する。なお、括弧内の符号は、第2使用者USbが見ている第2画像表示装置304bに、第1使用者USaのアバターである合成画像CM3aを撮影画像IM3と合成して表示する場合を示している。 A case where the combined image CM3b, which is the avatar of the second user USb, is combined with the captured image IM3 and displayed on the first image display device 304a viewed by the first user USa using the flowchart shown in FIG. explain. It should be noted that the reference numerals in parentheses indicate the case where the second image display device 304b viewed by the second user USb displays the combined image CM3a, which is the avatar of the first user USa, in combination with the captured image IM3. ing.
 図13において、使用者USa(USb)がコントローラ305a(305b)を操作することにより、画像処理部311a(311b)は、ステップS311にて、画像表示装置304a(304b)に設定画面を表示させる。設定画面には、例えば他の使用者USのアバターを選択するためのアバター選択項目が表示される。 In FIG. 13, when the user USa (USb) operates the controller 305a (305b), the image processing unit 311a (311b) causes the image display device 304a (304b) to display the setting screen in step S311. For example, an avatar selection item for selecting an avatar of another user US is displayed on the setting screen.
 使用者USa(USb)は例えば他の使用者USとして使用者USb(USa)を選択する。コントローラ305a(305b)は、ステップS312にて、他の使用者USb(USa)の選択内容に応じて指示情報NN3a(NN3b)を生成し、画像処理部311a(311b)へ出力する。 The user USa (USb) selects the user USb (USa) as another user US, for example. In step S312, the controller 305a (305b) generates the instruction information NN3a (NN3b) according to the selection content of the other user USb (USa) and outputs it to the image processing unit 311a (311b).
 画像処理部311a(311b)は、ステップS313にて、指示情報NN3a(NN3b)に基づいて、合成画像CM3b(CM3a)を取得する。合成画像CM3b(CM3a)がサーバ306に保存されている場合、画像処理部311a(311b)は、第2通信部313a(313b)とネットワークとを介してサーバ306から合成画像CM3b(CM3a)を取得する。 The image processing unit 311a (311b) acquires the composite image CM3b (CM3a) based on the instruction information NN3a (NN3b) in step S313. When the composite image CM3b (CM3a) is stored in the server 306, the image processing unit 311a (311b) acquires the composite image CM3b (CM3a) from the server 306 via the second communication unit 313a (313b) and the network. To do.
 画像処理部311a(311b)は、ステップS314にて、カメラ302が移動中であるか否かを判定する。ステップS314においてカメラ302が移動中である(YES)と判定された場合、画像処理部311a(311b)は、ステップS315にて、カメラ302の移動方向を認識する。画像処理部311a(311b)は、撮影画像IM3に基づいて、カメラ302が移動中であるか否かを判定し、カメラ302の移動方向を認識することができる。 The image processing unit 311a (311b) determines in step S314 whether or not the camera 302 is moving. When it is determined that the camera 302 is moving (YES) in step S314, the image processing unit 311a (311b) recognizes the moving direction of the camera 302 in step S315. The image processing unit 311a (311b) can determine whether the camera 302 is moving based on the captured image IM3 and recognize the moving direction of the camera 302.
 画像処理部311a(311b)は、ステップS316にて、カメラ302の移動方向に対して、合成画像CM3b(CM3a)が例えば使用者USa(USb)の右側(左側)に配置されるように、合成画像CM3b(CM3a)を撮影画像IM3と合成して、画像表示装置304a(304b)に表示させる。 In step S316, the image processing unit 311a (311b) synthesizes the synthesized image CM3b (CM3a) with respect to the moving direction of the camera 302, for example, on the right side (left side) of the user USa (USb). The image CM3b (CM3a) is combined with the captured image IM3 and displayed on the image display device 304a (304b).
 ステップS314においてカメラ302が移動中ではない(NO)と判定された場合、画像処理部311a(311b)は、カメラ302が静止している状態であると判断し、ステップS316にて、初期設定時に決定された第1使用者USaと第2使用者USbとの位置関係に基づいて、合成画像CM3b(CM3a)を撮影画像IM3と合成して、画像表示装置304a(304b)に表示させる。 When it is determined in step S314 that the camera 302 is not moving (NO), the image processing unit 311a (311b) determines that the camera 302 is stationary, and in step S316, the initial setting is performed. Based on the determined positional relationship between the first user USa and the second user USb, the composite image CM3b (CM3a) is composited with the captured image IM3 and displayed on the image display device 304a (304b).
 第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法では、画像表示装置304に球面状画像VSS3を表示させる。第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法によれば、撮影画像IM3の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USは、コントローラ305を操作して球面状画像VSS3を回転させることにより、画像表示装置304に表示されている撮影画像IM3を水平になるように調整することができる。 In the image adjustment system 301, the image adjustment device 310, and the image adjustment method according to the third embodiment, the spherical image VSS3 is displayed on the image display device 304. According to the image adjusting system 301, the image adjusting apparatus 310, and the image adjusting method according to the third embodiment, when the horizontal direction of the captured image IM3 is erroneously detected or the designation of the horizontal or zenith ZE is deviated, The user US can adjust the captured image IM3 displayed on the image display device 304 to be horizontal by operating the controller 305 to rotate the spherical image VSS3.
 従って、第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法によれば、撮影画像IM3の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM3の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjusting system 301, the image adjusting apparatus 310, and the image adjusting method according to the third embodiment, when the horizontal direction of the captured image IM3 is erroneously detected or the horizontal or zenith designation is deviated. The user US can easily correct the horizontal or zenith of the captured image IM3.
 第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法によれば、補正値CV3が保存されている場合、画像処理部311は、補正値CV3を読み出し、カメラ302が撮影した撮影画像IM3を補正値CV3に基づいて画像調整し、画像表示装置304に表示することができる。 According to the image adjustment system 301, the image adjustment apparatus 310, and the image adjustment method according to the third embodiment, when the correction value CV3 is stored, the image processing unit 311 reads the correction value CV3 and the camera 302 captures the image. The captured image IM3 can be image-adjusted based on the correction value CV3 and displayed on the image display device 304.
 第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法では、複数の使用者USの位置関係が予め設定されている。これにより、画像表示装置304a(304b)に表示されている撮影画像IM3に、他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)を、予め設定されている位置関係に基づく位置に合成して表示することができる。 In the image adjustment system 301, the image adjustment device 310, and the image adjustment method according to the third embodiment, the positional relationship among a plurality of users US is preset. As a result, the composite image CM3b (CM3a), which is the avatar of another user USb (USa), is added to the captured image IM3 displayed on the image display device 304a (304b) based on the preset positional relationship. Can be combined and displayed.
 第3実施形態に係る画像調整システム301、画像調整装置310、及び画像調整方法によれば、使用者USa(USb)がカメラ302が撮影している撮影画像IM3を見たとき、使用者USa(USb)の近傍に他の使用者USb(USa)のアバターである合成画像CM3b(CM3a)が表示されるため、使用者USa(USb)は、違和感を覚えることなく、他の使用者USb(USa)と同じ撮影画像IM3を見ているように感じることができる。 According to the image adjustment system 301, the image adjustment device 310, and the image adjustment method according to the third embodiment, when the user USa (USb) views the captured image IM3 captured by the camera 302, the user USa( Since the composite image CM3b (CM3a) that is the avatar of the other user USb (USa) is displayed in the vicinity of (USb), the user USa (USb) does not feel uncomfortable and the other user USb (USa) does not feel uncomfortable. It is possible to feel as if the user is looking at the same captured image IM3 as shown in FIG.
 [第4実施形態]
 図14を用いて、第4実施形態に係る画像調整システム401の構成例を説明する。第4実施形態に係る画像調整システム401は、複数のカメラ402と、複数の第1通信部403と、複数の画像表示装置404と、複数のコントローラ405と、複数の画像調整装置410と、サーバ406とを備える。画像調整装置410は、画像処理部411と、画像生成部412と、第2通信部413とを備える。
[Fourth Embodiment]
A configuration example of the image adjustment system 401 according to the fourth embodiment will be described with reference to FIG. The image adjustment system 401 according to the fourth embodiment includes a plurality of cameras 402, a plurality of first communication units 403, a plurality of image display devices 404, a plurality of controllers 405, a plurality of image adjustment devices 410, and a server. And 406. The image adjustment device 410 includes an image processing unit 411, an image generation unit 412, and a second communication unit 413.
 第4実施形態のカメラ402、通信部403、及び画像表示装置404は、それぞれ、第1実施形態のカメラ102、第1通信部103、及び、画像表示装置104に相当する。第4実施形態のコントローラ405、画像調整装置410、及びサーバ406は、それぞれ、第1実施形態のコントローラ105、画像調整装置110、及び、サーバ106に相当する。第4実施形態の画像処理部411、画像生成部412、及び第2通信部413は、それぞれ、第1実施形態の画像処理部111、画像生成部112、及び、第2通信部113に相当する。 The camera 402, the communication unit 403, and the image display device 404 of the fourth embodiment correspond to the camera 102, the first communication unit 103, and the image display device 104 of the first embodiment, respectively. The controller 405, the image adjustment device 410, and the server 406 of the fourth embodiment correspond to the controller 105, the image adjustment device 110, and the server 106 of the first embodiment, respectively. The image processing unit 411, the image generation unit 412, and the second communication unit 413 of the fourth embodiment correspond to the image processing unit 111, the image generation unit 112, and the second communication unit 113 of the first embodiment, respectively. ..
 図14では、説明をわかりやすくするために、それぞれ2つのカメラ402、第1通信部403、画像表示装置404、コントローラ405、及び画像調整装置410を示している。カメラ402、第1通信部403、画像表示装置404、コントローラ405、及び画像調整装置410は3つ以上であってもよい。第1使用者USaが使用する画像表示装置404、コントローラ405、及び画像調整装置410を、第1画像表示装置404a、第1コントローラ405a、及び第1画像調整装置410aとする。第2使用者USbが使用する画像表示装置404、コントローラ405、及び画像調整装置410を、第2画像表示装置404b、第2コントローラ405b、及び第2画像調整装置410bとする。 In FIG. 14, two cameras 402, a first communication unit 403, an image display device 404, a controller 405, and an image adjustment device 410 are shown for the sake of clarity. The camera 402, the first communication unit 403, the image display device 404, the controller 405, and the image adjustment device 410 may be three or more. The image display device 404, the controller 405, and the image adjustment device 410 used by the first user USa are referred to as a first image display device 404a, a first controller 405a, and a first image adjustment device 410a. The image display device 404, the controller 405, and the image adjustment device 410 used by the second user USb are referred to as the second image display device 404b, the second controller 405b, and the second image adjustment device 410b.
 第2画像調整装置410aにおける画像処理部411、画像生成部412、及び第2通信部413を、画像処理部411a、画像生成部412a、及び第2通信部413aとする。また、画像調整装置410bにおける画像処理部411、画像生成部412、及び第2通信部413を、画像処理部411b、画像生成部412b、及び第2通信部413bとする。第1画像調整装置410aは、第1画像調整装置410aの第2通信部413aを介してネットワークに接続されている。第2画像調整装置410bは、第2画像調整装置410bの第2通信部413bを介してネットワークに接続されている。 The image processing unit 411, the image generation unit 412, and the second communication unit 413 in the second image adjustment device 410a are the image processing unit 411a, the image generation unit 412a, and the second communication unit 413a. Further, the image processing unit 411, the image generation unit 412, and the second communication unit 413 in the image adjustment device 410b are referred to as the image processing unit 411b, the image generation unit 412b, and the second communication unit 413b. The first image adjustment device 410a is connected to the network via the second communication unit 413a of the first image adjustment device 410a. The second image adjustment device 410b is connected to the network via the second communication unit 413b of the second image adjustment device 410b.
 2つのカメラ402の一方を第1カメラ4021とし、他方を第2カメラ4022とする。2つの第1通信部403の一方を第1通信部4031とし、他方を第1通信部4032とする。第1カメラ4021は、第1通信部4031を介してネットワークに接続され、第2カメラ4022は、第1通信部4032を介してネットワークに接続されている。第1カメラ4021と第2カメラ4022は、共通の第1通信部4031または第1通信部4032を介してネットワークに接続されていてもよい。サーバ406はネットワークに接続されている。 One of the two cameras 402 is the first camera 4021 and the other is the second camera 4022. One of the two first communication units 403 is the first communication unit 4031 and the other is the first communication unit 4032. The first camera 4021 is connected to the network via the first communication unit 4031, and the second camera 4022 is connected to the network via the first communication unit 4032. The first camera 4021 and the second camera 4022 may be connected to the network via the common first communication unit 4031 or first communication unit 4032. The server 406 is connected to the network.
 第1カメラ4021と第2カメラ4022は、それぞれ独立して移動することができる。第1カメラ4021と第2カメラ4022はGPS機能を有している。サーバ406は、ネットワークと一方の第1通信部4031と他方の第1通信部4032とを介して、第1カメラ4021と第2カメラ4022の位置(現在位置)を継続して取得することができる。 The first camera 4021 and the second camera 4022 can move independently. The first camera 4021 and the second camera 4022 have a GPS function. The server 406 can continuously acquire the positions (current positions) of the first camera 4021 and the second camera 4022 via the network, the first communication unit 4031 on one side, and the first communication unit 4032 on the other side. ..
 第1画像調整装置410aは、サーバ406から第1カメラ4021と第2カメラ4022の位置を、第1画像調整装置410aの第2通信部413aとネットワークとを介して取得することができる。第2画像調整装置410bは、サーバ406から第1カメラ4021と第2カメラ4022の位置を、第2画像調整装置410bの第2通信部413bとネットワークとを介して取得することができる。 The first image adjustment device 410a can acquire the positions of the first camera 4021 and the second camera 4022 from the server 406 via the second communication unit 413a of the first image adjustment device 410a and the network. The second image adjustment device 410b can acquire the positions of the first camera 4021 and the second camera 4022 from the server 406 via the second communication unit 413b of the second image adjustment device 410b and the network.
 第1画像調整装置410aは、第1カメラ4021が撮影した撮影画像IM41を、一方の第1通信部4031と第1画像調整装置410aの第2通信部413aとネットワークとを介して取得することができる。第2画像調整装置410bは、第1カメラ4021が撮影した撮影画像IM41を、一方の第1通信部4031と第2画像調整装置410bの第2通信部413bとネットワークとを介して取得することができる。 The first image adjustment device 410a can acquire the captured image IM41 taken by the first camera 4021 via the one first communication unit 4031, the second communication unit 413a of the first image adjustment device 410a, and the network. it can. The second image adjustment device 410b can acquire the captured image IM41 captured by the first camera 4021 via the one first communication unit 4031, the second communication unit 413b of the second image adjustment device 410b, and the network. it can.
 第1画像調整装置410aは、第2カメラ4022が撮影した撮影画像IM42を、他方の第1通信部4032と第1画像調整装置410aの第2通信部413aとネットワークとを介して取得することができる。第2画像調整装置410bは、第2カメラ4022が撮影した撮影画像IM42を、他方の第1通信部4032と第2画像調整装置410bの第2通信部413bとネットワークとを介して取得することができる。図14は、第1画像調整装置410aが第1カメラ4021が撮影した撮影画像IM41を取得し、第2画像調整装置410bが第2カメラ4022が撮影した撮影画像IM42を取得する場合を示している。 The first image adjustment device 410a can acquire the captured image IM42 captured by the second camera 4022 via the other first communication unit 4032, the second communication unit 413a of the first image adjustment device 410a, and the network. it can. The second image adjustment device 410b can acquire the captured image IM42 captured by the second camera 4022 via the other first communication unit 4032, the second communication unit 413b of the second image adjustment device 410b, and the network. it can. FIG. 14 illustrates a case where the first image adjustment device 410a acquires the captured image IM41 captured by the first camera 4021 and the second image adjustment device 410b acquires the captured image IM42 captured by the second camera 4022. ..
 サーバ406は、第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42を一方の第1通信部4031と他方の第1通信部4032とネットワークとを介して取得してもよい。この場合、第1画像調整装置410aは、サーバ406から第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42をネットワークと第1画像調整装置410aの第2通信部413aを介して取得する。第2画像調整装置410bは、サーバ406から第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42をネットワークと第2画像調整装置410bの第2通信部413bを介して取得する。 The server 406 acquires the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 via the first communication unit 4031 on one side and the first communication unit 4032 on the other side and the network. Good. In this case, the first image adjustment apparatus 410a uses the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 from the server 406 to the network and the second communication unit 413a of the first image adjustment apparatus 410a. To get through. The second image adjustment device 410b receives the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022 from the server 406 via the network and the second communication unit 413b of the second image adjustment device 410b. get.
 サーバ406は、第1使用者USaがログイン操作を実行する、または、第1画像表示装置404aが第2通信部413aを介してネットワークに接続されることにより、第1使用者USaまたは第1画像表示装置404aを特定することができる。サーバ406は、第2使用者USbがログイン操作を実行する、または、第2画像表示装置404bが第2通信部413bを介してネットワークに接続されることにより、第2使用者USbまたは第2画像表示装置404bを特定することができる。 In the server 406, the first user USa performs the login operation, or the first image display device 404a is connected to the network via the second communication unit 413a, so that the first user USa or the first image is displayed. The display device 404a can be specified. In the server 406, the second user USb performs the login operation, or the second image display device 404b is connected to the network via the second communication unit 413b, so that the second user USb or the second image is displayed. The display device 404b can be specified.
 サーバ406は、どの画像表示装置にどの撮影画像が表示されているかを認識することができる。例えば、図14に示すように、第1カメラ4021が撮影した撮影画像IM41が第1画像表示装置404aに表示され、第2カメラ4022が撮影した撮影画像IM42が第2画像表示装置404bに表示されている場合、サーバ406は、第1画像表示装置404aに第1カメラ4021が撮影した撮影画像IM41が表示され、第2画像表示装置404bに第2カメラ4022が撮影した撮影画像IM42が表示されていることを認識する。言い換えれば、サーバ406は、第1使用者USaが第1カメラ4021が撮影した撮影画像IM41を見ていることを認識し、第2使用者USbが第2カメラ4022が撮影した撮影画像IM42を見ていることを認識することができる。 The server 406 can recognize which captured image is displayed on which image display device. For example, as shown in FIG. 14, the captured image IM41 captured by the first camera 4021 is displayed on the first image display device 404a, and the captured image IM42 captured by the second camera 4022 is displayed on the second image display device 404b. In this case, the server 406 displays the captured image IM41 captured by the first camera 4021 on the first image display device 404a and displays the captured image IM42 captured by the second camera 4022 on the second image display device 404b. Recognize that In other words, the server 406 recognizes that the first user USa views the captured image IM41 captured by the first camera 4021, and the second user USb views the captured image IM42 captured by the second camera 4022. Can recognize that.
 第1画像調整装置410aは、サーバ406から、撮影画像IM41を撮影している第1カメラ4021と撮影画像IM42を撮影している第2カメラ4022の現在位置、及び、第2画像調整装置410bが第2カメラ4022が撮影した撮影画像IM42を取得していることを認識することができる。第2画像調整装置410bは、サーバ406から、撮影画像IM41を撮影している第1カメラ4021と撮影画像IM42を撮影している第2カメラ4022の現在位置、及び、第1画像調整装置410aが第1カメラ4021が撮影した撮影画像IM41を取得していることを認識することができる。 The first image adjustment device 410a detects the current positions of the first camera 4021 that is capturing the captured image IM41 and the second camera 4022 that is capturing the captured image IM42, and the second image adjustment device 410b from the server 406. It can be recognized that the captured image IM42 captured by the second camera 4022 is acquired. The second image adjustment device 410b detects the current positions of the first camera 4021 that is capturing the captured image IM41 and the second camera 4022 that is capturing the captured image IM42, and the first image adjustment device 410a from the server 406. It can be recognized that the captured image IM41 captured by the first camera 4021 is acquired.
 第1画像調整装置410aが取得した撮影画像IM41(IM42)は、画像処理部411aへ入力される。画像処理部411aは、撮影画像IM41(IM42)を解析することにより、撮影画像IM41(IM42)における水平方向を認識する。画像処理部411aは、撮影画像IM41(IM42)を解析することにより、撮影画像IM41(IM42)における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。 The captured image IM41 (IM42) acquired by the first image adjustment device 410a is input to the image processing unit 411a. The image processing unit 411a analyzes the captured image IM41 (IM42) to recognize the horizontal direction in the captured image IM41 (IM42). The image processing unit 411a may recognize the vertical direction in the captured image IM41 (IM42) by analyzing the captured image IM41 (IM42), or may recognize the horizontal direction and the vertical direction.
 第1画像調整装置410aは、撮影画像IM41(IM42)の歪みを補正し、撮影画像IM41(IM42)の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM41(IM42)を第1画像表示装置404aへ出力する。 The first image adjustment device 410a corrects the distortion of the captured image IM41 (IM42), performs image processing such as adjusting the horizontal of the captured image IM41 (IM42), and the like, and the image-processed captured image IM41 (IM42). Is output to the first image display device 404a.
 第2画像調整装置410bが取得した撮影画像IM42(IM41)は、画像処理部411bへ入力される。画像処理部411bは、撮影画像IM42(IM41)を解析することにより、撮影画像IM42(IM41)における水平方向を認識する。画像処理部411bは、撮影画像IM42(IM41)を解析することにより、撮影画像IM42(IM41)における垂直方向を認識してもよいし、水平方向及び垂直方向を認識してもよい。 The captured image IM42 (IM41) acquired by the second image adjustment device 410b is input to the image processing unit 411b. The image processing unit 411b recognizes the horizontal direction in the captured image IM42 (IM41) by analyzing the captured image IM42 (IM41). The image processing unit 411b may recognize the vertical direction in the captured image IM42 (IM41) by analyzing the captured image IM42 (IM41), or may recognize the horizontal direction and the vertical direction.
 第2画像調整装置410bは、撮影画像IM42(IM41)の歪みを補正し、撮影画像IM42(IM41)の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM42(IM41)を第2画像表示装置404bへ出力する。 The second image adjustment device 410b corrects the distortion of the captured image IM42 (IM41), executes image processing such as adjusting the horizontal of the captured image IM42 (IM41), and the image processed captured image IM42 (IM41). Is output to the second image display device 404b.
 サーバ406が第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42の歪みを補正し、第1カメラ4021が撮影した撮影画像IM41と第2カメラ4022が撮影した撮影画像IM42の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM41と撮影画像IM42を、第1画像調整装置410aへ出力してもよいし、第2画像調整装置410bへ出力してもよい。 The server 406 corrects the distortion between the captured image IM41 captured by the first camera 4021 and the captured image IM42 captured by the second camera 4022, and the captured image IM41 captured by the first camera 4021 and the captured image captured by the second camera 4022. Image processing such as horizontal adjustment of IM42 is executed, and the image-processed captured image IM41 and captured image IM42 may be output to the first image adjustment device 410a or the second image adjustment device 410b. You may.
 第1画像表示装置404aは、第1画像調整装置410aまたはサーバ406によって画像処理された撮影画像IM41(IM42)を表示する。第1使用者USaは、その頭部に第1画像表示装置404aを装着することにより、第1画像調整装置410aまたはサーバ406によって画像処理された撮影画像IM41(IM42)を見ることができる。 The first image display device 404a displays a captured image IM41 (IM42) that has been image-processed by the first image adjustment device 410a or the server 406. The first user USa can view the captured image IM41 (IM42) image-processed by the first image adjusting device 410a or the server 406 by mounting the first image display device 404a on the head.
 第2画像表示装置404bは、第2画像調整装置410bまたはサーバ406によって画像処理された撮影画像IM42(IM41)を表示する。第2使用者USbは、その頭部に第2画像表示装置404bを装着することにより、第2画像調整装置410bまたはサーバ406によって画像処理された撮影画像IM42(IM41)を見ることができる。 The second image display device 404b displays the captured image IM42 (IM41) that has been image-processed by the second image adjustment device 410b or the server 406. The second user USb can view the captured image IM42 (IM41) image-processed by the second image adjustment device 410b or the server 406 by mounting the second image display device 404b on its head.
 画像表示装置404a(404b)は、使用者USa(USb)の頭部に装着されている状態において、使用者USa(USb)が向いている方向、及び使用者USa(USb)の姿勢等の状態に基づいて姿勢情報PN4a(PN4b)を生成する。画像処理部411a(411b)は、画像表示装置404a(404b)から姿勢情報PN4a(PN4b)を取得する。即ち、画像処理部411a(411b)は、画像表示装置404a(404b)の姿勢に基づいて姿勢情報PN4a(PN4b)を取得することになる。 The image display device 404a (404b) is in a state in which the user USa (USb) is facing, the posture of the user USa (USb), and the like in a state where the image display device 404a (404b) is mounted on the head of the user USa (USb). The posture information PN4a (PN4b) is generated based on The image processing unit 411a (411b) acquires the posture information PN4a (PN4b) from the image display device 404a (404b). That is, the image processing unit 411a (411b) acquires the posture information PN4a (PN4b) based on the posture of the image display device 404a (404b).
 第1画像調整装置410aの画像処理部411aは、姿勢情報PN4aに基づいて、第1カメラ4021が撮影した撮影画像IM41または第2カメラ4022が撮影した撮影画像IM42から、第1使用者USaが向いている方向、及び第1使用者USaの姿勢等の状態に対応する領域の画像を第1画像表示装置404aに表示する。第2画像調整装置410bの画像処理部411bは、姿勢情報PN4bに基づいて、第1カメラ4021が撮影した撮影画像IM41または第2カメラ4022が撮影した撮影画像IM42から、第2使用者USbが向いている方向、及び第2使用者USbの姿勢等の状態に対応する領域の画像を第2画像表示装置404bに表示する。 The image processing unit 411a of the first image adjustment device 410a is directed toward the first user USa from the captured image IM41 captured by the first camera 4021 or the captured image IM42 captured by the second camera 4022 based on the posture information PN4a. The image of the area corresponding to the direction in which the user is moving and the state such as the posture of the first user USa is displayed on the first image display device 404a. The image processing unit 411b of the second image adjustment device 410b faces the second user USb from the captured image IM41 captured by the first camera 4021 or the captured image IM42 captured by the second camera 4022 based on the posture information PN4b. The second image display device 404b displays an image of a region corresponding to the direction in which the user is moving and the posture of the second user USb.
 コントローラ405a(405b)は、使用者USa(USb)の手に装着されている状態において、使用者USa(USb)の手の動きまたは姿勢等の状態に基づいて指示情報NN4a(NN4b)を生成する。画像処理部411a(411b)は、コントローラ405a(405b)から指示情報NN4a(NN4b)を取得する。 The controller 405a (405b) generates the instruction information NN4a (NN4b) based on the state of the movement or posture of the hand of the user USa (USb) in a state where the controller 405a (405b) is attached to the hand of the user USa (USb). .. The image processing unit 411a (411b) acquires the instruction information NN4a (NN4b) from the controller 405a (405b).
 第1画像調整装置410aの画像処理部411aは、指示情報NN4aに基づいて、第1画像表示装置404aに表示されている撮影画像IM41または撮影画像IM42を変化させたり調整したりすることができる。第2画像調整装置410bの画像処理部411bは、指示情報NN4bに基づいて、第2画像表示装置404bに表示されている撮影画像IM41または撮影画像IM42を変化させたり調整したりすることができる。 The image processing unit 411a of the first image adjustment device 410a can change or adjust the captured image IM41 or the captured image IM42 displayed on the first image display device 404a based on the instruction information NN4a. The image processing unit 411b of the second image adjustment device 410b can change or adjust the captured image IM41 or the captured image IM42 displayed on the second image display device 404b based on the instruction information NN4b.
 第1画像調整装置410aの画像生成部412aは、撮影画像IM41(IM42)と合成されるCGである合成画像CM4bを生成する。第2画像調整装置410bの画像生成部412bは、撮影画像IM42(IM41)と合成されるCGである合成画像CM4aを生成する。合成画像CM4a(CM4b)は、例えばアバター等のキャラクタの画像である。合成画像CM4aは第1使用者USaのアバターであり、合成画像CM4bは第2使用者USbのアバターである。 The image generation unit 412a of the first image adjustment device 410a generates a combined image CM4b that is a CG combined with the captured image IM41 (IM42). The image generation unit 412b of the second image adjustment device 410b generates a combined image CM4a that is a CG combined with the captured image IM42 (IM41). The composite image CM4a (CM4b) is an image of a character such as an avatar. The composite image CM4a is the avatar of the first user USa, and the composite image CM4b is the avatar of the second user USb.
 第1使用者USaが第1コントローラ405aを操作することにより、第1画像調整装置410aの画像生成部412aは、第2使用者USbのアバターである合成画像CM4bを生成し、内蔵メモリまたは外部のメモリに保存する。第2使用者USbが第2コントローラ405bを操作することにより、第2画像調整装置410bの画像生成部412bは、第1使用者USaのアバターである合成画像CM4aを生成し、内蔵メモリまたは外部のメモリに保存する。 When the first user USa operates the first controller 405a, the image generation unit 412a of the first image adjustment device 410a generates the composite image CM4b that is the avatar of the second user USb, and then the built-in memory or the external device. Save to memory. When the second user USb operates the second controller 405b, the image generation unit 412b of the second image adjustment device 410b generates the composite image CM4a which is the avatar of the first user USa, and is stored in the internal memory or the external device. Save to memory.
 画像処理部411a(411b)は、画像生成部412a(412b)で生成された合成画像CM4b(CM4a)を取得し、第2通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。 The image processing unit 411a (411b) acquires the composite image CM4b (CM4a) generated by the image generation unit 412a (412b) and outputs it to the server 406 via the second communication unit 413a (413b) and the network. Good.
 使用者USa(USb)がコントローラ405a(405b)を操作することにより、画像生成部412a(412b)は、使用者USa(USb)のアバターである合成画像CM4a(CM4b)を生成してもよい。画像処理部411a(411b)は、画像生成部412a(412b)で生成された合成画像CM4a(CM4b)を取得し、第2通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。即ち、第1使用者USaは、第2使用者USbのアバターを設定してもよいし、自身のアバターを設定してもよい。また、第2使用者USbは、第1使用者USaのアバターを設定してもよいし、自身のアバターを設定してもよい。 The user USa (USb) may operate the controller 405a (405b) to cause the image generation unit 412a (412b) to generate a composite image CM4a (CM4b) that is an avatar of the user USa (USb). The image processing unit 411a (411b) acquires the composite image CM4a (CM4b) generated by the image generation unit 412a (412b) and outputs it to the server 406 via the second communication unit 413a (413b) and the network. Good. That is, the first user USa may set the avatar of the second user USb or may set his own avatar. Further, the second user USb may set the avatar of the first user USa or may set his own avatar.
 サーバ406は、合成画像CM4a(CM4b)を使用者USa(USb)と対応付けて内蔵メモリまたは外部のメモリに保存する。サーバ406が、合成画像CM4a(CM4b)を使用者USa(USb)と対応付けて自動設定し、内蔵メモリまたは外部のメモリに保存してもよい。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、画像生成部412a(412b)またはサーバ306から合成画像CM4b(CM4a)を取得し、画像表示装置404a(404b)に表示することができる。 The server 406 stores the composite image CM4a (CM4b) in the internal memory or the external memory in association with the user USa (USb). The server 406 may automatically set the composite image CM4a (CM4b) in association with the user USa (USb), and save the composite image CM4a (CM4b) in the internal memory or an external memory. The image processing unit 411a (411b) acquires the composite image CM4b (CM4a) from the image generation unit 412a (412b) or the server 306 based on the instruction information NN4a (NN4b) and displays it on the image display device 404a (404b). be able to.
 画像生成部412a(412b)は、CGである球面により構成された仮想画像である球面状画像VSS4a(VSS4b)を生成する。画像生成部412a(412b)は、球面状画像VSS4a(VSS4b)を内蔵メモリまたは外部のメモリに保存する。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、画像生成部412a(412b)で生成された球面状画像VSS4a(VSS4b)を取得し、画像表示装置404a(404b)に表示する。 The image generation unit 412a (412b) generates a spherical image VSS4a (VSS4b) that is a virtual image formed by a spherical surface that is CG. The image generation unit 412a (412b) stores the spherical image VSS4a (VSS4b) in a built-in memory or an external memory. The image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the image generation unit 412a (412b) based on the instruction information NN4a (NN4b) and displays it on the image display device 404a (404b). To do.
 第4実施形態の球面状画像VSS4a(VSS4b)は、第1実施形態の球面状画像VSS1に相当する。使用者USa(USb)は、コントローラ405a(405b)が装着されている手を、画像表示装置404a(404b)に表示されている球面状画像VSS4a(VSS4b)に対応する位置に移動させることにより、使用者USa(USb)の手が球面状画像VSS4a(VSS4b)に接触しているように感じる。 The spherical image VSS4a (VSS4b) of the fourth embodiment corresponds to the spherical image VSS1 of the first embodiment. The user USa (USb) moves the hand on which the controller 405a (405b) is attached to a position corresponding to the spherical image VSS4a (VSS4b) displayed on the image display device 404a (404b), It feels as if the hand of the user USa (USb) is in contact with the spherical image VSS4a (VSS4b).
 コントローラ405a(405b)は、使用者USa(USb)の手と接触する部分にアクチュエータが配置されていてもよい。画像処理部411a(411b)は、指示情報NN4a(NN4b)に基づいて、使用者USa(USb)の手が球面状画像VSS4a(VSS4b)に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USa(USb)の手に圧力を加えることにより、使用者USa(USb)は、その手が球面状画像VSS4a(VSS4b)に接触する感覚を実感として得ることができる。 In the controller 405a (405b), an actuator may be arranged in a portion that comes into contact with the hand of the user USa (USb). When the image processing unit 411a (411b) determines that the hand of the user USa (USb) has moved to the position corresponding to the spherical image VSS4a (VSS4b) based on the instruction information NN4a (NN4b), the actuator is activated. Let When the actuator applies pressure to the hand of the user USa (USb), the user USa (USb) can actually feel the touch of the hand with the spherical image VSS4a (VSS4b).
 球面状画像VSS4aが第1画像表示装置404aに表示されている状態において、第1使用者USaが、第1コントローラ405aが装着されている手を任意の方向へ移動させた場合、第1画像調整装置410aの画像処理部411aは、指示情報NN4aに基づいて、第1画像表示装置404aに表示されている球面状画像VSS4aと撮影画像IM41または撮影画像IM42とが、第1使用者USaの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the first user USa moves the hand on which the first controller 405a is attached in any direction while the spherical image VSS4a is displayed on the first image display device 404a, the first image adjustment The image processing unit 411a of the device 410a determines that the spherical image VSS4a and the captured image IM41 or the captured image IM42 displayed on the first image display device 404a are the hands of the first user USa based on the instruction information NN4a. The image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination.
 球面状画像VSS4bが第2画像表示装置404bに表示されている状態において、第2使用者USbが、第2コントローラ405bが装着されている手を任意の方向へ移動させた場合、第2画像調整装置410bの画像処理部411bは、指示情報NN4bに基づいて、第2画像表示装置404bに表示されている球面状画像VSS4bと撮影画像IM41または撮影画像IM42とが、第2使用者USbの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。 When the second user USb moves the hand on which the second controller 405b is attached in any direction while the spherical image VSS4b is displayed on the second image display device 404b, the second image adjustment The image processing unit 411b of the device 410b determines that the spherical image VSS4b and the captured image IM41 or the captured image IM42 displayed on the second image display device 404b are the hands of the second user USb based on the instruction information NN4b. The image processing is executed so as to move in accordance with the moving direction, the moving speed, and the position of the moving destination.
 使用者USa(USb)は、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS4a(VSS4b)を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USa(USb)は、その手の動きによって球面状画像VSS4a(VSS4b)を回転させることができる。画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の回転に対応させて撮影画像IM41(IM42)を移動させる。 The user USa (USb) moves his or her hand to any position in any direction at any speed, thereby moving the spherical image VSS4a (VSS4b) in any direction at any speed at any speed. Can be rotated into position. That is, the user USa (USb) can rotate the spherical image VSS4a (VSS4b) by the movement of the hand. The image processing unit 411a (411b) moves the captured image IM41 (IM42) in correspondence with the rotation of the spherical image VSS4a (VSS4b).
 画像処理部411a(411b)は、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させる前の天頂ZEが、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させることによって球面状画像VSS4a(VSS4b)の座標上のどの位置へ移動したかを判定することができる。 The image processing unit 411a (411b) causes the zenith ZE before the user USa (USb) rotates the spherical image VSS4a (VSS4b) and the user USa (USb) rotates the spherical image VSS4a (VSS4b). It is possible to determine which position on the coordinates of the spherical image VSS4a (VSS4b) is moved by.
 画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させる前と回転させた後との球面状画像VSS4a(VSS4b)の変化量を算出する。第4実施形態の球面状画像VSS4a(VSS4b)の変化量は、第1実施形態の球面状画像VSS1の変化量に相当する。 The image processing unit 411a (411b) rotates the spherical image VSS4a (VSS4b) by the user USa (USb) based on the movement direction and the position of the movement destination of the zenith ZE on the coordinates of the spherical image VSS4a (VSS4b). The amount of change in the spherical image VSS4a (VSS4b) before and after rotation is calculated. The amount of change of the spherical image VSS4a (VSS4b) of the fourth embodiment corresponds to the amount of change of the spherical image VSS1 of the first embodiment.
 画像処理部411a(411b)は、球面状画像VSS4a(VSS4b)の変化量を補正値CV4a(CV4b)として保存する。第4実施形態の補正値CV4a(CV4b)は、第1実施形態の補正値CV1に相当する。画像処理部411a(411b)は、使用者USa(USb)が球面状画像VSS4a(VSS4b)を回転させた後の天頂ZEの球面状画像VSS4a(VSS4b)上の座標を補正値CV4a(CV4b)として保存してもよい。 The image processing unit 411a (411b) stores the amount of change in the spherical image VSS4a (VSS4b) as a correction value CV4a (CV4b). The correction value CV4a (CV4b) of the fourth embodiment corresponds to the correction value CV1 of the first embodiment. The image processing unit 411a (411b) uses the coordinates on the spherical image VSS4a (VSS4b) of the zenith ZE after the user USa (USb) rotates the spherical image VSS4a (VSS4b) as the correction value CV4a (CV4b). You may save.
 画像処理部411a(411b)は、補正値CV4a(CV4b)を内蔵メモリまたは外部のメモリに保存してもよいし、補正値CV4a(CV4b)を第2通信部413a(413b)とネットワークとを介してサーバ406へ出力してもよい。サーバ406は、補正値CV4a(CV4b)を画像表示装置404a(404b)または使用者USa(USb)と関連付けて内蔵メモリまたは外部のメモリに保存する。 The image processing unit 411a (411b) may store the correction value CV4a (CV4b) in an internal memory or an external memory, or may store the correction value CV4a (CV4b) via the second communication unit 413a (413b) and a network. May be output to the server 406. The server 406 stores the correction value CV4a (CV4b) in the built-in memory or an external memory in association with the image display device 404a (404b) or the user USa (USb).
 画像調整システム401は、第1使用者USaが装着している第1画像表示装置404aに第2使用者USbのアバターである合成画像CM4bを撮影画像IM41(IM42)と合成して表示することができる。画像調整システム401は、第2使用者USbが装着している第2画像表示装置404bに第1使用者USaのアバターである合成画像CM4aを撮影画像IM42(IM41)と合成して表示することができる。 The image adjustment system 401 may display the combined image CM4b, which is the avatar of the second user USb, with the captured image IM41 (IM42) on the first image display device 404a worn by the first user USa. it can. The image adjustment system 401 may display the combined image CM4a, which is the avatar of the first user USa, on the second image display device 404b worn by the second user USb by combining the captured image IM42 (IM41). it can.
 図15、16に示すフローチャートを用いて、第4実施形態に係る画像調整方法の一例を説明する。具体的には、撮影画像IM41に合成画像CM4bを合成する方法の一例について説明する。第1画像表示装置404aが第1使用者USaの頭部に装着され、第1コントローラ405aが第1使用者USaの手に装着されている。第2画像表示装置404bが第2使用者USbの頭部に装着され、第2コントローラ405bが第2使用者USbの手に装着されている。第1画像表示装置404aには第1カメラ4021が撮影した撮影画像IM41が表示され、第2画像表示装置404bには第2カメラ4022が撮影した撮影画像IM42が表示されている。 An example of the image adjustment method according to the fourth embodiment will be described using the flowcharts shown in FIGS. Specifically, an example of a method of combining the captured image IM41 with the composite image CM4b will be described. The first image display device 404a is attached to the head of the first user USa, and the first controller 405a is attached to the hand of the first user USa. The second image display device 404b is attached to the head of the second user USb, and the second controller 405b is attached to the hand of the second user USb. A captured image IM41 captured by the first camera 4021 is displayed on the first image display device 404a, and a captured image IM42 captured by the second camera 4022 is displayed on the second image display device 404b.
 使用者USa(USb)は画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)が水平でないと判断した場合、図15において、使用者USa(USb)がコントローラ405a(405b)を操作することにより、画像処理部411a(411b)は、ステップS401にて、画像表示装置404a(404b)に設定画面を表示させる。 When the user USa (USb) determines that the captured image IM41 (IM42) displayed on the image display device 404a (404b) is not horizontal, the user USa (USb) controls the controller 405a (405b) in FIG. By operating, the image processing unit 411a (411b) causes the image display device 404a (404b) to display the setting screen in step S401.
 使用者USa(USb)がコントローラ405a(405b)を操作して、設定画面に表示されている所定の項目(例えば水平調整の項目)を選択することにより、画像処理部411a(411b)は、ステップS402にて、選択された項目に対応する所定の処理モードへ処理を移行させる。水平調整の項目が選択された場合、画像処理部411a(411b)は、撮影画像IM41(IM42)の水平を調整するための処理モード(水平調整モード)へ処理を移行させる。 When the user USa (USb) operates the controller 405a (405b) to select a predetermined item (for example, an item for horizontal adjustment) displayed on the setting screen, the image processing unit 411a (411b) causes the step In S402, the processing is shifted to a predetermined processing mode corresponding to the selected item. When the horizontal adjustment item is selected, the image processing unit 411a (411b) shifts the processing to the processing mode (horizontal adjustment mode) for adjusting the horizontal of the captured image IM41 (IM42).
 画像処理部411a(411b)は、ステップS403にて、画像生成部412a(412b)で生成された球面状画像VSS4a(VSS4b)を取得し、画像表示装置404a(404b)に表示する。画像表示装置404a(404b)には、撮影画像IM41(IM42)と球面状画像VSS4a(VSS4b)とが混合して表示される。 In step S403, the image processing unit 411a (411b) acquires the spherical image VSS4a (VSS4b) generated by the image generation unit 412a (412b) and displays it on the image display device 404a (404b). The photographed image IM41 (IM42) and the spherical image VSS4a (VSS4b) are mixed and displayed on the image display device 404a (404b).
 使用者USa(USb)は撮影画像IM41(IM42)が水平となるように球面状画像VSS4a(VSS4b)を回転させることにより、画像処理部411a(411b)は、ステップS404にて、球面状画像VSS4a(VSS4b)の回転に対応させて、画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を移動させる。使用者USa(USb)は撮影画像IM41(IM42)が水平になるまで球面状画像VSS4a(VSS4b)を回転させる動作を複数回行ってもよい。 The user USa (USb) rotates the spherical image VSS4a (VSS4b) so that the captured image IM41 (IM42) becomes horizontal, so that the image processing unit 411a (411b) causes the spherical image VSS4a in step S404. The captured image IM41 (IM42) displayed on the image display device 404a (404b) is moved in correspondence with the rotation of (VSS4b). The user USa (USb) may perform the operation of rotating the spherical image VSS4a (VSS4b) multiple times until the captured image IM41 (IM42) becomes horizontal.
 使用者USa(USb)は撮影画像IM41(IM42)が水平になったと判断した場合にコントローラ405a(405b)を操作することにより、画像処理部411a(411b)は、ステップS405にて、球面状画像VSS4a(VSS4b)の表示を終了させ、画像表示装置404a(404b)に設定画面を表示させる。画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を水平にすることにより、カメラ4021(4022)の天頂と使用者USa(USb)の天頂とを一致させることができる。 The user USa (USb) operates the controller 405a (405b) when it is determined that the captured image IM41 (IM42) has become horizontal, so that the image processing unit 411a (411b) causes the spherical image to be obtained in step S405. The display of the VSS 4a (VSS 4b) is ended, and the setting screen is displayed on the image display device 404a (404b). By horizontally setting the captured image IM41 (IM42) displayed on the image display device 404a (404b), the zenith of the camera 4021 (4022) and the zenith of the user USa (USb) can be matched.
 使用者USa(USb)がコントローラ405a(405b)を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、画像処理部411a(411b)は、ステップS406にて、選択された項目に対応する所定の処理モードへ処理を移行する。終了の項目が選択された場合、画像処理部411a(411b)は、水平調整を終了するための処理モード(終了モード)へ処理を移行させる。 When the user USa (USb) operates the controller 405a (405b) to select a predetermined item (for example, an end item) displayed on the setting screen, the image processing unit 411a (411b) causes the image processing unit 411a (411b) to perform step S406. At, the processing shifts to a predetermined processing mode corresponding to the selected item. When the end item is selected, the image processing unit 411a (411b) shifts the processing to the processing mode (end mode) for ending the horizontal adjustment.
 画像処理部411a(411b)は、ステップS407にて、球面状画像VSS4a(VSS4b)が回転する前と後との回転量(回転角度)を、球面状画像VSS4a(VSS4b)の変化量として取得する。画像処理部411a(411b)は、ステップS408にて、球面状画像VSS4a(VSS4b)の変化量を補正値CV4a(CV4b)として保存し、処理を終了する。 In step S407, the image processing unit 411a (411b) acquires the rotation amount (rotation angle) before and after the spherical image VSS4a (VSS4b) rotates as the change amount of the spherical image VSS4a (VSS4b). .. In step S408, the image processing unit 411a (411b) stores the amount of change in the spherical image VSS4a (VSS4b) as the correction value CV4a (CV4b), and ends the processing.
 図16に示すフローチャートを用いて、第1使用者USaが見ている第1画像表示装置404aに、第2使用者USbのアバターである合成画像CM4bを撮影画像IM41と合成して表示する場合について説明する。図16において、画像処理部411aは、ステップS411にて、取得している撮影画像IM41を撮影している第1カメラ4021を特定する。 A case where the combined image CM4b, which is the avatar of the second user USb, is combined with the captured image IM41 and displayed on the first image display device 404a viewed by the first user USa using the flowchart shown in FIG. explain. In FIG. 16, the image processing unit 411a identifies the first camera 4021 that is capturing the captured image IM41 that has been acquired in step S411.
 画像処理部411aは、ステップS412にて、第1カメラ4021またはサーバ406から、第1カメラ4021の位置情報を取得する。第1カメラ4021の位置情報には、第1カメラ4021の現在位置、及び、第1カメラ4021が向いている方向または移動している方向の情報が含まれている。 The image processing unit 411a acquires the position information of the first camera 4021 from the first camera 4021 or the server 406 in step S412. The position information of the first camera 4021 includes information on the current position of the first camera 4021 and the direction in which the first camera 4021 faces or is moving.
 画像処理部411aは、ステップS413にて、サーバ406から、他のカメラ(第1カメラ4021以外のカメラ)の情報を取得する。例えば、画像処理部411aは、ステップS413にて、サーバ406から、第2カメラ4022の情報を取得する。第2カメラ4022の情報には、第2カメラ4022が撮影している撮影画像IM42を見ている第2使用者USb、第2カメラ4022の現在位置、及び、第2カメラ4022が向いている方向または移動している方向の情報が含まれている。第2カメラ4022が向いている方向または移動している方向は、第2使用者USbが向いている方向に相当し、第2画像表示装置404bに表示されている撮影画像IM42に基づいて特定することができる。 The image processing unit 411a acquires information of another camera (camera other than the first camera 4021) from the server 406 in step S413. For example, the image processing unit 411a acquires information on the second camera 4022 from the server 406 in step S413. The information of the second camera 4022 includes the second user USb watching the captured image IM42 captured by the second camera 4022, the current position of the second camera 4022, and the direction in which the second camera 4022 faces. Or it contains information about the direction you are moving. The direction in which the second camera 4022 is facing or the direction in which it is moving corresponds to the direction in which the second user USb is facing, and is specified based on the captured image IM42 displayed on the second image display device 404b. be able to.
 画像処理部411aは、ステップS414にて、撮影画像IM41に他のカメラ(第1カメラ4021以外のカメラ)が映っているか否か、言い換えれば他のカメラを撮影しているか否かを、例えば画像認識により判定する。ステップS414において撮影画像IM41に他のカメラが映っていない(NO)と判定された場合、画像処理部411aは、処理をステップS414へ戻す。 In step S414, the image processing unit 411a determines whether or not another camera (camera other than the first camera 4021) is captured in the captured image IM41, in other words, whether or not another camera is captured, for example, an image. Judge by recognition. When it is determined in step S414 that another camera is not included in the captured image IM41 (NO), the image processing unit 411a returns the process to step S414.
 ステップS414において撮影画像IM41に他のカメラが映っている(YES)と判定された場合、画像処理部411aは、ステップS415にて、ステップS413において取得した他のカメラの情報に基づいて、撮影画像IM41に映っている他のカメラを特定する。 When it is determined in step S414 that another camera is included in the captured image IM41 (YES), the image processing unit 411a determines in step S415 based on the information of the other camera acquired in step S413. Identify the other camera shown in IM41.
 図17は、第1カメラ4021が地点Aに位置し、第2カメラ4022が、第1カメラ4021の前方の地点Bに位置している状態を示している。図17に示す状態では、第1カメラ4021の撮影画像IM41には他のカメラである第2カメラ4022が映っている。画像処理部411aは、ステップS413において取得した第2カメラ4022の情報に基づいて、第1カメラ4021の撮影画像IM41に映っているカメラが第2カメラ4022であることを特定する。 FIG. 17 shows a state in which the first camera 4021 is located at the point A and the second camera 4022 is located at the point B in front of the first camera 4021. In the state shown in FIG. 17, the second camera 4022, which is another camera, is shown in the captured image IM41 of the first camera 4021. The image processing unit 411a identifies that the camera shown in the captured image IM41 of the first camera 4021 is the second camera 4022 based on the information of the second camera 4022 acquired in step S413.
 画像処理部411aは、ステップS416にて、ステップS412において取得した第1カメラ4021の位置情報と、ステップS413において取得した第2カメラ4022の情報とに基づいて、第1カメラ4021に対する第2カメラ4022の位置、及び、第2カメラ4022が向いている方向または移動している方向を特定する。 In step S416, the image processing unit 411a, based on the position information of the first camera 4021 acquired in step S412 and the information of the second camera 4022 acquired in step S413, the second camera 4022 for the first camera 4021. And the direction in which the second camera 4022 is facing or moving.
 画像処理部411aは、ステップS417にて、ステップS415において特定されたカメラが撮影している撮影画像IMを見ている使用者USを特定する。例えば、画像処理部411aは、第2カメラ4022が撮影している撮影画像IM42を見ている第2使用者USbを特定する。画像処理部411aは、ステップS418にて、第2使用者USbのアバターである合成画像CM4bを取得する。合成画像CM4bがサーバ406に保存されている場合、画像処理部411aは、サーバ406から合成画像CM4bを取得する。 In step S417, the image processing unit 411a identifies the user US who is viewing the captured image IM captured by the camera identified in step S415. For example, the image processing unit 411a identifies the second user USb who is looking at the captured image IM42 captured by the second camera 4022. In step S418, the image processing unit 411a acquires the composite image CM4b that is the avatar of the second user USb. When the composite image CM4b is stored in the server 406, the image processing unit 411a acquires the composite image CM4b from the server 406.
 画像処理部411aは、ステップS419にて、撮影画像IM41に映っている第2カメラ4022に対応する位置に合成画像CM4bを合成し、第1画像表示装置404aに表示する。ステップS401~S408にて撮影画像IM41が水平調整されている場合、画像処理部411aは、合成画像CM4bを、撮影画像IM41と同様に水平調整し、第1画像表示装置404aに表示する。補正値CV4aが保存されている場合、画像処理部411aは、合成画像CM4bを、補正値CV4aに基づいて水平調整し、第1画像表示装置404aに表示する。 In step S419, the image processing unit 411a combines the composite image CM4b at the position corresponding to the second camera 4022 shown in the captured image IM41, and displays the composite image CM4b on the first image display device 404a. When the captured image IM41 is horizontally adjusted in steps S401 to S408, the image processing unit 411a horizontally adjusts the composite image CM4b in the same manner as the captured image IM41, and displays it on the first image display device 404a. When the correction value CV4a is stored, the image processing unit 411a horizontally adjusts the composite image CM4b based on the correction value CV4a and displays it on the first image display device 404a.
 画像処理部411aは、第1カメラ4021に対する第2カメラ4022の位置に対応させて合成画像CM4bの大きさを変えてもよい。例えば、画像処理部411aは、カメラ4022がカメラ4021から遠く離れたところに位置している場合には、合成画像CM4bの大きさが、第1カメラ4021と第2カメラ4022との距離に応じて小さくなるように合成画像CM4bを画像処理し、撮影画像IM41に合成する。 The image processing unit 411a may change the size of the composite image CM4b in correspondence with the position of the second camera 4022 with respect to the first camera 4021. For example, when the camera 4022 is located far away from the camera 4021, the image processing unit 411a determines that the size of the composite image CM4b depends on the distance between the first camera 4021 and the second camera 4022. The combined image CM4b is subjected to image processing so as to be small and combined with the captured image IM41.
 画像処理部411aは、第2カメラ4022が向いている方向または移動している方向に対応させて合成画像CM4bの向きを変えてもよい。画像処理部411aは、第2カメラ4022が向いている方向または移動している方向に対応する向きの合成画像CM4bを取得してもよい。 The image processing unit 411a may change the orientation of the composite image CM4b in accordance with the direction in which the second camera 4022 is facing or the direction in which the second camera 4022 is moving. The image processing unit 411a may acquire the composite image CM4b in the direction corresponding to the direction in which the second camera 4022 is facing or the direction in which the second camera 4022 is moving.
 第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法では、画像表示装置404a(404b)に球面状画像VSS4a(VSS4b)を表示させる。第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法によれば、撮影画像IM41(IM42)の水平方向が間違って検出されたり、水平または天頂ZEの指定がずれたりした場合に、使用者USa(USb)は、コントローラ405a(405b)を操作して球面状画像VSS4a(VSS4b)を回転させることにより、画像表示装置404a(404b)に表示されている撮影画像IM41(IM42)を水平になるように調整することができる。 In the image adjustment system 401, the image adjustment device 410a (410b), and the image adjustment method according to the fourth embodiment, the spherical image VSS4a (VSS4b) is displayed on the image display device 404a (404b). According to the image adjustment system 401, the image adjustment device 410a (410b), and the image adjustment method according to the fourth embodiment, the horizontal direction of the captured image IM41 (IM42) is erroneously detected, or the horizontal or zenith ZE is designated. In the case of misalignment, the user USa (USb) operates the controller 405a (405b) to rotate the spherical image VSS4a (VSS4b), so that the captured image displayed on the image display device 404a (404b). IM41 (IM42) can be adjusted to be horizontal.
 従って、第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法によれば、撮影画像IM41(IM42)の水平方向が間違って検出されたり、水平または天頂の指定がずれたりした場合に、使用者USが撮影画像IM41(IM42)の水平または天頂を簡便に補正することができる。 Therefore, according to the image adjustment system 401, the image adjustment device 410a (410b), and the image adjustment method according to the fourth embodiment, the horizontal direction of the captured image IM41 (IM42) is erroneously detected, or the horizontal or zenith is designated. When there is a deviation, the user US can easily correct the horizontal or zenith of the captured image IM41 (IM42).
 第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法によれば、補正値CV4a(CV4b)が保存されている場合、画像処理部411a(411b)は、補正値CV4a(CV4b)を読み出し、カメラ4021(4022)が撮影した撮影画像IM41(IM42)を補正値CV4a(CV4b)に基づいて画像調整し、画像表示装置404a(404b)に表示することができる。 According to the image adjustment system 401, the image adjustment device 410a (410b), and the image adjustment method according to the fourth embodiment, when the correction value CV4a (CV4b) is stored, the image processing unit 411a (411b) performs the correction. The value CV4a (CV4b) can be read, the captured image IM41 (IM42) captured by the camera 4021 (4022) can be image-adjusted based on the correction value CV4a (CV4b), and displayed on the image display device 404a (404b).
 第4実施形態に係る画像調整システム401、画像調整装置410a(410b)、及び画像調整方法では、第1カメラ4021に対する第2カメラ4022の位置を特定し、撮影画像IMにおける第2カメラ4022の位置に、第2カメラ4022が撮影している撮影画像IM42を見ている第2使用者USbのアバターである合成画像CM4bを合成する。これにより、第1使用者USaは第2使用者USbと同じ空間を共有しているような感覚を得ることができる。 In the image adjustment system 401, the image adjustment device 410a (410b), and the image adjustment method according to the fourth embodiment, the position of the second camera 4022 with respect to the first camera 4021 is specified, and the position of the second camera 4022 in the captured image IM. Then, the composite image CM4b which is the avatar of the second user USb looking at the captured image IM42 captured by the second camera 4022 is synthesized. As a result, the first user USa can feel as if sharing the same space as the second user USb.
 本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
 例えば、CGにより生成される仮想画像VSSは、楕円体の表面(楕円面)であってもよく、さらには使用者USの手の届く範囲であれば、任意の閉じた面(閉曲面)であればよい。即ち、使用者USが内側からその閉曲面に接触するような感覚を得て、撮影画像IMの水平調整ができればよい。使用者USが仮想画像VSSを回転動作させることから、仮想画像VSSは球面または楕円面等の球面に近い球面状の形状であることが望ましい。 For example, the virtual image VSS generated by the CG may be a surface of an ellipsoid (elliptical surface), and may be an arbitrary closed surface (closed curved surface) within the reach of the user US. I wish I had it. That is, it is sufficient that the user US feels as if he/she touches the closed curved surface from the inside, and that the captured image IM can be horizontally adjusted. Since the user US rotates the virtual image VSS, it is desirable that the virtual image VSS has a spherical shape close to a spherical surface such as a spherical surface or an elliptic surface.

Claims (25)

  1.  カメラと、
     前記カメラが撮影した撮影画像を調整するための画像調整装置と、
     前記画像調整装置により調整された前記撮影画像を表示するための画像表示装置と、
     前記画像調整装置へ指示情報を出力するためのコントローラと
    を備え、
     前記画像調整装置は、
      球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、
      前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部と
    を備える
    画像調整システム。
    A camera,
    An image adjusting device for adjusting a captured image captured by the camera,
    An image display device for displaying the captured image adjusted by the image adjustment device,
    A controller for outputting instruction information to the image adjustment device,
    The image adjustment device,
    A spherical image, and an image generation unit for generating a composite image to be combined with the captured image,
    The spherical image generated by the image generation unit based on the instruction information is acquired and displayed on the image display device, the spherical image is rotated based on the instruction information, and the spherical image is rotated. And an image processing unit for adjusting the captured image displayed on the image display device in correspondence with the captured image, adjusting the composite image in association with the adjusted captured image, and combining the captured image with the captured image. Image adjustment system equipped.
  2.  前記カメラは、360度の範囲を撮影する全方位カメラであり、
     前記画像表示装置は、使用者の頭部に装着可能なヘッドマウントディスプレイであり、
     前記コントローラは、前記使用者の手に装着可能なグローブ型コントローラであり、
     前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である
    請求項1に記載の画像調整システム。
    The camera is an omnidirectional camera that captures a 360 degree range,
    The image display device is a head mounted display that can be mounted on the head of the user,
    The controller is a glove type controller that can be worn on the user's hand,
    When the user views the spherical image displayed on the image display device in a state where the image display device is mounted on the head of the user, the spherical image is The image according to claim 1, wherein the image is a virtual image that is arranged around a person and the image display device and is set to be displayed within a range where the hand or finger of the user reaches the spherical image. Adjustment system.
  3.  前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する
    請求項2に記載の画像調整システム。
    In a state where the controller is attached to the user's hand, when the user moves a hand or a finger in an arbitrary direction, the image processing unit, based on the instruction information, The image adjustment according to claim 2, wherein the spherical image is rotated in response to movement of a hand or a finger, and the captured image displayed on the image display device is adjusted in response to rotation of the spherical image. system.
  4.  前記画像処理部は、前記球面状画像が回転する前と後との変化量を取得し、前記変化量に基づいて前記撮影画像及び前記合成画像を調整する
    請求項3に記載の画像調整システム。
    The image adjustment system according to claim 3, wherein the image processing unit acquires a change amount before and after the spherical image is rotated, and adjusts the captured image and the composite image based on the change amount.
  5.  前記画像処理部は、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像及び前記合成画像の水平を調整する
    請求項1~4のいずれか1項に記載の画像調整システム。
    5. The image processing unit according to claim 1, wherein the image processing unit adjusts the horizontalness of the captured image and the composite image displayed on the image display device in response to the rotation of the spherical image. Image adjustment system.
  6.  球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、
     コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記画像表示装置に表示されている前記撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部と
    を備える画像調整装置。
    An image generation unit for generating a spherical image and a composite image that is captured by the camera and is combined with the captured image displayed on the image display device;
    The spherical image generated by the image generation unit is acquired based on the instruction information acquired from the controller, displayed on the image display device, and the spherical image is rotated based on the instruction information to display the image. An image for adjusting the captured image displayed on the device in correspondence with the rotation of the spherical image, adjusting the composite image in association with the adjusted captured image, and combining the captured image with the captured image. An image adjustment apparatus including a processing unit.
  7.  画像処理部が、コントローラから指示情報を取得し、
     前記画像処理部が、前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、
     画像表示装置が、前記球面状画像を表示し、
     前記画像処理部が、前記指示情報に基づいて前記球面状画像を回転させ、
     前記画像処理部が、カメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、
     前記画像処理部が、前記画像生成部で生成され前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、
     前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成する
    ことを含む画像調整方法。
    The image processing unit acquires the instruction information from the controller,
    The image processing unit, based on the instruction information, acquires the spherical image generated by the image generation unit,
    The image display device displays the spherical image,
    The image processing unit rotates the spherical image based on the instruction information,
    The image processing unit adjusts a captured image captured by a camera and displayed on the image display device in correspondence with rotation of the spherical image,
    The image processing unit acquires a composite image that is generated by the image generation unit and is combined with the captured image displayed on the image display device,
    An image adjusting method comprising: the image processing unit adjusting the composite image in correspondence with the adjusted captured image and combining the composite image with the captured image.
  8.  カメラと、
     前記カメラが撮影した撮影画像を調整するための画像調整装置と、
     前記画像調整装置により調整された前記撮影画像を表示するための画像表示装置と、
     前記画像調整装置へ指示情報を出力するためのコントローラと
    を備え、
     前記画像調整装置は、
      球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、
      前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記撮影画像の水平面と前記合成画像の水平面とを分離させ、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部と
    を備える
    画像調整システム。
    A camera,
    An image adjusting device for adjusting a captured image captured by the camera,
    An image display device for displaying the captured image adjusted by the image adjustment device,
    A controller for outputting instruction information to the image adjustment device,
    The image adjustment device,
    A spherical image, and an image generation unit for generating a composite image to be combined with the captured image,
    The spherical image generated by the image generation unit based on the instruction information is acquired and displayed on the image display device, the horizontal plane of the captured image and the horizontal plane of the composite image are separated, and the instruction information is stored. The spherical image is rotated based on the spherical image, the photographed image displayed on the image display device is adjusted in correspondence with the rotation of the spherical image, and the composite image is adjusted in correspondence with the adjusted photographed image. An image adjustment system comprising an image processing unit for adjusting and combining with the photographed image.
  9.  前記カメラは、360度の範囲を撮影する全方位カメラであり、
     前記画像表示装置は、使用者の頭部に装着可能なヘッドマウントディスプレイであり、
     前記コントローラは、前記使用者の手に装着可能なグローブ型コントローラであり、
     前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である
    請求項8に記載の画像調整システム。
    The camera is an omnidirectional camera that captures a 360 degree range,
    The image display device is a head mounted display that can be mounted on the head of the user,
    The controller is a glove type controller that can be worn on the user's hand,
    When the user views the spherical image displayed on the image display device in a state where the image display device is mounted on the head of the user, the spherical image is 9. The image according to claim 8, which is a virtual image that is arranged around a user and the image display device, and is set so as to be displayed within a range where the hand or finger of the user reaches the spherical image. Adjustment system.
  10.  前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する
    請求項9に記載の画像調整システム。
    In a state where the controller is attached to the user's hand, when the user moves a hand or a finger in an arbitrary direction, the image processing unit, based on the instruction information, The image adjustment according to claim 9, wherein the spherical image is rotated in response to movement of a hand or a finger, and the photographed image displayed on the image display device is adjusted in response to rotation of the spherical image. system.
  11.  前記画像処理部は、前記球面状画像が回転する前と後との変化量を取得し、前記変化量に基づいて前記撮影画像を調整する
    請求項10に記載の画像調整システム。
    The image adjustment system according to claim 10, wherein the image processing unit acquires a change amount before and after the spherical image is rotated, and adjusts the captured image based on the change amount.
  12.  前記画像処理部は、前記変化量に基づいて前記合成画像の水平面と前記撮影画像の水平面とを一致させることにより、前記合成画像を調整する
    請求項11に記載の画像調整システム。
    The image adjustment system according to claim 11, wherein the image processing unit adjusts the composite image by matching a horizontal plane of the composite image with a horizontal plane of the captured image based on the amount of change.
  13.  球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、
     コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記画像表示装置に表示されている前記前記撮影画像の水平面と前記合成画像の水平面とを分離させ、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成するための画像処理部と
    を備える画像調整装置。
    An image generation unit for generating a spherical image and a composite image that is captured by the camera and is combined with the captured image displayed on the image display device;
    The spherical image generated by the image generation unit is acquired based on the instruction information acquired from the controller, displayed on the image display device, and the horizontal plane of the captured image displayed on the image display device and the Separate the horizontal plane of the composite image, rotate the spherical image based on the instruction information, adjust the captured image in response to the rotation of the spherical image, in correspondence with the adjusted captured image An image adjusting apparatus, comprising: an image processing unit for adjusting the composite image to combine the captured image.
  14.  画像処理部が、カメラにより撮影された撮影画像を画像表示装置に表示し、
     前記画像処理部が、画像生成部で生成された合成画像を取得して前記画像表示装置に表示し、
     前記画像処理部が、コントローラから指示情報を取得し、
     前記画像処理部が、前記指示情報に基づいて、前記画像生成部で生成された球面状画像を取得して前記画像表示装置に表示し、
     前記画像処理部が、前記撮影画像の水平面と前記合成画像の水平面とを分離させ、
     前記画像処理部が、前記指示情報に基づいて前記球面状画像を回転させ、
     前記画像処理部が、前記撮影画像を、前記球面状画像の回転に対応させて調整し、
     前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整して前記撮影画像と合成する
    ことを含む画像調整方法。
    The image processing unit displays the captured image captured by the camera on the image display device,
    The image processing unit acquires the composite image generated by the image generation unit and displays it on the image display device,
    The image processing unit acquires instruction information from the controller,
    The image processing unit, based on the instruction information, acquires the spherical image generated by the image generation unit and displays it on the image display device,
    The image processing unit separates the horizontal plane of the captured image from the horizontal plane of the composite image,
    The image processing unit rotates the spherical image based on the instruction information,
    The image processing unit adjusts the captured image in correspondence with the rotation of the spherical image,
    An image adjusting method comprising: the image processing unit adjusting the composite image in correspondence with the adjusted captured image and combining the composite image with the captured image.
  15.  カメラと、
     前記カメラが撮影した撮影画像を調整するための画像調整装置と、
     複数の使用者に対応し、前記画像調整装置により調整された前記撮影画像を表示するための複数の画像表示装置と、
     前記複数の使用者に対応し、前記複数の画像調整装置へ指示情報を出力するための複数のコントローラと、
     前記複数の使用者のうちの第1の使用者、または、前記複数の画像表示装置のうちの第1の画像表示装置を特定するためのサーバと
    を備え、
     各々の前記複数の画像調整装置は、
      球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、
      前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて、かつ、前記複数の使用者の互いの位置関係を示す位置設定情報に基づいて前記合成画像を調整し、調整された前記合成画像を前記撮影画像と合成するための画像処理部と
    を備える
    画像調整システム。
    A camera,
    An image adjusting device for adjusting a captured image captured by the camera,
    A plurality of image display devices corresponding to a plurality of users, for displaying the photographed image adjusted by the image adjusting device;
    A plurality of controllers corresponding to the plurality of users, for outputting instruction information to the plurality of image adjusting devices;
    A server for identifying a first user of the plurality of users or a first image display device of the plurality of image display devices;
    Each of the plurality of image adjustment devices,
    A spherical image, and an image generation unit for generating a composite image to be combined with the captured image,
    The spherical image generated by the image generation unit based on the instruction information is acquired and displayed on the image display device, the spherical image is rotated based on the instruction information, and the spherical image is rotated. The photographed image displayed on the image display device according to the above, and corresponding to the adjusted photographed image, and based on position setting information indicating the mutual positional relationship of the plurality of users. And an image processing unit configured to combine the adjusted composite image with the captured image.
  16.  前記カメラは、360度の範囲を撮影する全方位カメラであり、
     前記画像表示装置は、使用者の頭部に装着可能なヘッドマウントディスプレイであり、
     前記コントローラは、前記使用者の手に装着可能なグローブ型コントローラであり、
     前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である
    請求項15に記載の画像調整システム。
    The camera is an omnidirectional camera that captures a 360 degree range,
    The image display device is a head mounted display that can be mounted on the head of the user,
    The controller is a glove type controller that can be worn on the user's hand,
    When the user views the spherical image displayed on the image display device in a state where the image display device is mounted on the head of the user, the spherical image is 16. The image according to claim 15, which is a virtual image that is arranged around a person and the image display device, and is set so as to be displayed within a range where the hand or finger of the user reaches the spherical image. Adjustment system.
  17.  前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する
    請求項16に記載の画像調整システム。
    In a state where the controller is attached to the user's hand, when the user moves a hand or a finger in an arbitrary direction, the image processing unit, based on the instruction information, The image adjustment according to claim 16, wherein the spherical image is rotated in response to movement of a hand or a finger, and the captured image displayed on the image display device is adjusted in response to rotation of the spherical image. system.
  18.  前記画像処理部は、前記複数の使用者のうちの前記第1の使用者以外の第2の使用者に対応する前記合成画像を前記位置設定情報に基づいて調整し、調整された前記合成画像を前記撮影画像と合成して前記第1の画像表示装置に表示する
    請求項15~17のいずれか1項に記載の画像調整システム。
    The image processing unit adjusts the composite image corresponding to a second user other than the first user of the plurality of users based on the position setting information, and the adjusted composite image 18. The image adjusting system according to claim 15, wherein the image is combined with the captured image and displayed on the first image display device.
  19.  球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、
     コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記画像表示装置に表示されている前記撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて、かつ、複数の使用者の互いの位置関係を示す位置設定情報に基づいて前記合成画像を調整し、調整された前記合成画像を前記撮影画像と合成するための画像処理部と
    を備える画像調整装置。
    An image generation unit for generating a spherical image and a composite image that is captured by the camera and is combined with the captured image displayed on the image display device;
    The spherical image generated by the image generation unit is acquired based on the instruction information acquired from the controller, displayed on the image display device, and the spherical image is rotated based on the instruction information to display the image. Position setting for adjusting the captured image displayed on the device in correspondence with the rotation of the spherical image, corresponding to the adjusted captured image, and indicating a positional relationship between a plurality of users. An image adjustment apparatus comprising: an image processing unit for adjusting the composite image based on information, and for combining the adjusted composite image with the captured image.
  20.  サーバが、複数の使用者のうちの第1の使用者、または、前記第1の使用者が使用する画像表示装置を特定し、
     画像処理部が、コントローラから指示情報を取得し、
     前記画像処理部が、前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、
     画像表示装置が、前記球面状画像を表示し、
     前記画像処理部が、前記指示情報に基づいて前記球面状画像を回転させ、
     前記画像処理部が、カメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、
     前記画像処理部が、前記画像生成部で生成され前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、
     前記画像処理部が、調整された前記撮影画像に対応させて、かつ、前記複数の使用者の互いの位置関係を示す位置設定情報に基づいて前記合成画像を調整し、調整された前記合成画像を前記撮影画像と合成する
    ことを含む画像調整方法。
    The server identifies a first user of a plurality of users or an image display device used by the first user,
    The image processing unit acquires the instruction information from the controller,
    The image processing unit, based on the instruction information, acquires the spherical image generated by the image generation unit,
    The image display device displays the spherical image,
    The image processing unit rotates the spherical image based on the instruction information,
    The image processing unit adjusts a captured image captured by a camera and displayed on the image display device in correspondence with rotation of the spherical image,
    The image processing unit acquires a composite image that is generated by the image generation unit and is combined with the captured image displayed on the image display device,
    The image processing unit adjusts the composite image corresponding to the adjusted captured image and based on position setting information indicating the mutual positional relationship of the plurality of users, and the adjusted composite image And an image adjusting method including synthesizing the same with the captured image.
  21.  複数のカメラと、
     前記複数のカメラのうちの第1のカメラが撮影した撮影画像を調整するための画像調整装置と、
     前記画像調整装置により調整された前記撮影画像を表示するための画像表示装置と、
     前記画像調整装置へ指示情報を出力するためのコントローラと
    を備え、
     前記画像調整装置は、
      球面状画像、及び、前記撮影画像と合成される合成画像を生成するための画像生成部と、
      前記指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成するための画像処理部と
    を備える
    画像調整システム。
    Multiple cameras,
    An image adjusting device for adjusting a captured image captured by a first camera of the plurality of cameras,
    An image display device for displaying the captured image adjusted by the image adjustment device,
    A controller for outputting instruction information to the image adjustment device,
    The image adjustment device,
    A spherical image, and an image generation unit for generating a composite image to be combined with the captured image,
    The spherical image generated by the image generation unit based on the instruction information is acquired and displayed on the image display device, the spherical image is rotated based on the instruction information, and the spherical image is rotated. The captured image displayed on the image display device, the composite image is adjusted in correspondence with the adjusted captured image, and the captured image is adjusted to the second of the plurality of cameras. When the second camera of the captured image is displayed, the adjusted composite image is displayed based on the position information of the first camera and the position information of the second camera. And an image processing unit for synthesizing the image corresponding to the position.
  22.  前記カメラは、360度の範囲を撮影する全方位カメラであり、
     前記画像表示装置は、使用者の頭部に装着可能なヘッドマウントディスプレイであり、
     前記コントローラは、前記使用者の手に装着可能なグローブ型コントローラであり、
     前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である
    請求項21に記載の画像調整システム。
    The camera is an omnidirectional camera that captures a 360 degree range,
    The image display device is a head mounted display that can be mounted on the head of the user,
    The controller is a glove type controller that can be worn on the user's hand,
    When the user views the spherical image displayed on the image display device in a state where the image display device is mounted on the head of the user, the spherical image is 22. The image according to claim 21, which is a virtual image that is arranged around a user and the image display device and is set so as to be displayed within a range where the hand or finger of the user reaches the spherical image. Adjustment system.
  23.  前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像を調整する
    請求項22に記載の画像調整システム。
    In a state where the controller is attached to the user's hand, when the user moves a hand or a finger in an arbitrary direction, the image processing unit, based on the instruction information, 23. The image adjustment according to claim 22, wherein the spherical image is rotated in response to movement of a hand or finger, and the captured image displayed on the image display device is adjusted in response to rotation of the spherical image. system.
  24.  球面状画像、及び、カメラにより撮影されて画像表示装置に表示されている撮影画像と合成される合成画像を生成するための画像生成部と、
     コントローラから取得した指示情報に基づいて前記画像生成部で生成された前記球面状画像を取得して画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている前記撮影画像を、前記球面状画像の回転に対応させて調整し、調整された前記撮影画像に対応させて前記合成画像を調整し、前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第1のカメラが映っている位置に対応させて合成するための画像処理部と
    を備える画像調整装置。
    An image generation unit for generating a spherical image and a composite image that is captured by the camera and is combined with the captured image displayed on the image display device;
    Based on the instruction information acquired from the controller, the spherical image generated by the image generation unit is acquired and displayed on the image display device, and the spherical image is rotated based on the instruction information. The captured image captured by the first camera of the two and displayed on the image display device is adjusted according to the rotation of the spherical image, and the composite image is adjusted according to the adjusted captured image. Is adjusted, and when the second camera of the plurality of cameras is reflected in the captured image, the adjustment is performed based on the position information of the first camera and the position information of the second camera. And an image processing unit for synthesizing the synthesized image corresponding to a position of the photographed image in which the first camera is shown.
  25.  画像処理部が、コントローラから指示情報を取得し、
     前記画像処理部が、前記指示情報に基づいて、画像生成部で生成された球面状画像を取得し、
     画像表示装置が、前記球面状画像を表示し、
     前記画像処理部が、前記指示情報に基づいて前記球面状画像を回転させ、
     前記画像処理部が、複数のカメラのうちの第1のカメラにより撮影されて前記画像表示装置に表示されている撮影画像を、前記球面状画像の回転に対応させて調整し、
     前記画像処理部が、前記画像生成部で生成され前記画像表示装置に表示されている前記撮影画像と合成される合成画像を取得し、
     前記画像処理部が、調整された前記撮影画像に対応させて前記合成画像を調整し、
     前記撮影画像に前記複数のカメラのうちの第2のカメラが映っている場合には、前記画像処理部が、前記第1のカメラの位置情報と前記第2のカメラの位置情報とに基づいて、調整された前記合成画像を前記撮影画像の前記第2のカメラが映っている位置に対応させて合成する
    ことを含む画像調整方法。
    The image processing unit acquires the instruction information from the controller,
    The image processing unit, based on the instruction information, acquires the spherical image generated by the image generation unit,
    The image display device displays the spherical image,
    The image processing unit rotates the spherical image based on the instruction information,
    The image processing unit adjusts a captured image captured by a first camera of a plurality of cameras and displayed on the image display device in correspondence with rotation of the spherical image,
    The image processing unit acquires a composite image that is generated by the image generation unit and is combined with the captured image displayed on the image display device,
    The image processing unit adjusts the composite image corresponding to the adjusted captured image,
    When the second camera of the plurality of cameras is reflected in the captured image, the image processing unit determines, based on the position information of the first camera and the position information of the second camera. An image adjusting method comprising: combining the adjusted combined image corresponding to a position of the photographed image in which the second camera appears.
PCT/JP2020/004700 2019-02-15 2020-02-07 Image adjustment system, image adjustment device, and image adjustment method WO2020166492A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/361,767 US20210329223A1 (en) 2019-02-15 2021-06-29 Image adjustment system, image adjustor, and image adjustment method

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2019025769A JP2020134632A (en) 2019-02-15 2019-02-15 Image adjustment system, image adjustment device, and image adjustment method
JP2019-025763 2019-02-15
JP2019025762A JP7088068B2 (en) 2019-02-15 2019-02-15 Image adjustment system, image adjustment device, and image adjustment method
JP2019-025762 2019-02-15
JP2019-025769 2019-02-15
JP2019-025765 2019-02-15
JP2019025763A JP2020134630A (en) 2019-02-15 2019-02-15 Image adjustment system, image adjustment device, and image adjustment method
JP2019025765A JP2020134631A (en) 2019-02-15 2019-02-15 Image adjustment system, image adjustment device, and image adjustment method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/361,767 Continuation US20210329223A1 (en) 2019-02-15 2021-06-29 Image adjustment system, image adjustor, and image adjustment method

Publications (1)

Publication Number Publication Date
WO2020166492A1 true WO2020166492A1 (en) 2020-08-20

Family

ID=72045434

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/004700 WO2020166492A1 (en) 2019-02-15 2020-02-07 Image adjustment system, image adjustment device, and image adjustment method

Country Status (2)

Country Link
US (1) US20210329223A1 (en)
WO (1) WO2020166492A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114543A (en) * 1995-10-02 1997-05-02 Xybernaut Corp Handfree computer system
JP2005319136A (en) * 2004-05-10 2005-11-17 Namco Ltd Program, information storage medium, and electronic apparatus
JP2007116538A (en) * 2005-10-21 2007-05-10 Canon Inc Image display program, picture display apparatus and method
US20070206030A1 (en) * 2006-03-06 2007-09-06 The Protomold Company, Inc. Graphical user interface for three-dimensional manipulation of a part
US20090153477A1 (en) * 2007-12-12 2009-06-18 Saenz Valentin L Computer mouse glove
JP2013016020A (en) * 2011-07-04 2013-01-24 Nec Corp Work support system, apparatus, method, and program
WO2013114844A1 (en) * 2012-02-03 2013-08-08 パナソニック株式会社 Tactile sense presentation device, method for driving tactile sense presentation device, and drive program
JP2016528592A (en) * 2013-06-18 2016-09-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Device reader and means for generating image for device reader

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664947B2 (en) * 2017-06-30 2020-05-26 Canon Kabushiki Kaisha Image processing apparatus and image processing method to represent part of spherical image in planar image using equidistant cylindrical projection
US10841662B2 (en) * 2018-07-27 2020-11-17 Telefonaktiebolaget Lm Ericsson (Publ) System and method for inserting advertisement content in 360° immersive video

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114543A (en) * 1995-10-02 1997-05-02 Xybernaut Corp Handfree computer system
JP2005319136A (en) * 2004-05-10 2005-11-17 Namco Ltd Program, information storage medium, and electronic apparatus
JP2007116538A (en) * 2005-10-21 2007-05-10 Canon Inc Image display program, picture display apparatus and method
US20070206030A1 (en) * 2006-03-06 2007-09-06 The Protomold Company, Inc. Graphical user interface for three-dimensional manipulation of a part
US20090153477A1 (en) * 2007-12-12 2009-06-18 Saenz Valentin L Computer mouse glove
JP2013016020A (en) * 2011-07-04 2013-01-24 Nec Corp Work support system, apparatus, method, and program
WO2013114844A1 (en) * 2012-02-03 2013-08-08 パナソニック株式会社 Tactile sense presentation device, method for driving tactile sense presentation device, and drive program
JP2016528592A (en) * 2013-06-18 2016-09-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Device reader and means for generating image for device reader

Also Published As

Publication number Publication date
US20210329223A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
CN109952759B (en) Improved method and system for video conferencing with HMD
JP6668170B2 (en) Information processing apparatus, information processing method, and computer program
JP6511386B2 (en) INFORMATION PROCESSING APPARATUS AND IMAGE GENERATION METHOD
JP4869430B1 (en) Image processing program, image processing apparatus, image processing system, and image processing method
JP7317024B2 (en) Image generation device and image generation method
US20060050070A1 (en) Information processing apparatus and method for presenting image combined with virtual image
WO2020026419A1 (en) Image generation device and image generation method
JP2019046291A (en) Information processing apparatus and image display method
WO2020166492A1 (en) Image adjustment system, image adjustment device, and image adjustment method
JP7088068B2 (en) Image adjustment system, image adjustment device, and image adjustment method
JP6687751B2 (en) Image display system, image display device, control method thereof, and program
JP2020134632A (en) Image adjustment system, image adjustment device, and image adjustment method
JP2012069126A (en) Image processing program, image processor, image processing system and image processing method
WO2020166491A1 (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020134630A (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020134631A (en) Image adjustment system, image adjustment device, and image adjustment method
WO2022075152A1 (en) Information processing device, information processing method, and information distribution system
JP6159455B1 (en) Method, program, and recording medium for providing virtual space
WO2020166582A1 (en) Image adjustment system, image adjustment device, and image adjustment method
GB2525304A (en) Interactive information display
JP7088064B2 (en) Image adjustment system, image adjustment device, and image adjustment method
JP7247636B2 (en) Image adjustment system, image adjustment device, and image adjustment method
JP7167760B2 (en) image adjustment system
JP2020136799A (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020134616A (en) Image adjustment system, image adjustment device, and image adjustment method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20755737

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20755737

Country of ref document: EP

Kind code of ref document: A1