WO2020166581A1 - 画像調整システム、画像調整装置、及び画像調整方法 - Google Patents

画像調整システム、画像調整装置、及び画像調整方法 Download PDF

Info

Publication number
WO2020166581A1
WO2020166581A1 PCT/JP2020/005238 JP2020005238W WO2020166581A1 WO 2020166581 A1 WO2020166581 A1 WO 2020166581A1 JP 2020005238 W JP2020005238 W JP 2020005238W WO 2020166581 A1 WO2020166581 A1 WO 2020166581A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
eye
camera
spherical
display device
Prior art date
Application number
PCT/JP2020/005238
Other languages
English (en)
French (fr)
Inventor
崇 日昔
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019025373A external-priority patent/JP7127569B2/ja
Priority claimed from JP2019025375A external-priority patent/JP2020134617A/ja
Priority claimed from JP2019025377A external-priority patent/JP2020136802A/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2020166581A1 publication Critical patent/WO2020166581A1/ja
Priority to US17/304,992 priority Critical patent/US11647292B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Definitions

  • the present invention relates to an image adjusting system, an image adjusting device, and an image adjusting method.
  • the head mounted display displays an image in a state where the head mounted display is mounted on the user's head, so that the user can feel as if he/she entered the virtual space (immersive feeling).
  • the head mounted display can display an image captured by an external camera via the neckwork.
  • a stereo camera capable of capturing an image for the right eye and an image for the left eye is used to display an image captured on the head mounted display so that the user can display the image on the head mounted display.
  • the displayed image can be viewed three-dimensionally.
  • VR sickness is likely to occur when the vertical deviation between the right-eye image and the left-eye image, the parallax between the right-eye image and the left-eye image, or the deviation between the right-eye image and the left-eye image is large.
  • An object of the present invention is to provide an image adjustment system, an image adjustment device, and an image adjustment method that can easily correct the deviation between the right-eye image and the left-eye image.
  • a camera that captures a right-eye image and a left-eye image, an image adjustment device that acquires the right-eye image and the left-eye image from the camera as a captured image, and adjusts the captured image
  • An image display device that displays the captured image adjusted by the image adjustment device; and a controller that outputs instruction information to the image adjustment device, wherein the image adjustment device includes an image generation unit that generates a spherical image.
  • the spherical image is acquired from the image generation unit based on the instruction information and displayed on the image display device, the spherical image is rotated based on the instruction information, and the spherical image is rotated.
  • An image adjustment system including an image processing unit that adjusts the right-eye image or the left-eye image in the captured image displayed on the image display device is provided.
  • an image generation unit that generates a spherical image, and the spherical image is acquired from the image generation unit based on the instruction information acquired from the controller and displayed on an image display device, and based on the instruction information.
  • an image processing unit that rotates the spherical image and adjusts the right-eye image or the left-eye image in the captured image captured by the camera and displayed on the image display device in accordance with the rotation of the spherical image.
  • An image adjusting apparatus including:
  • the camera captures a right-eye image and a left-eye image
  • the image processing unit acquires the right-eye image and the left-eye image from the camera as a captured image
  • the image display device captures the captured image.
  • the image processing unit acquires instruction information from a controller
  • the image processing unit acquires a spherical image from an image generation unit based on the instruction information
  • the image display device displays the spherical image.
  • the image processing unit rotates the spherical image based on the instruction information
  • the image processing unit displays the image for the right eye or the image for the left eye in the captured image displayed on the image display device.
  • the image adjusting system According to the image adjusting system, the image adjusting device, and the image adjusting method of the present embodiment, it is possible to easily correct the deviation between the right-eye image and the left-eye image.
  • FIG. 1 is a configuration diagram showing an image adjustment system of the first embodiment.
  • FIG. 2 is a diagram showing the relationship between the spherical image and the user.
  • FIG. 3A is a flowchart showing an example of the image adjustment method of the first embodiment.
  • FIG. 3B is a flowchart showing an example of the image adjustment method of the first embodiment.
  • FIG. 3C is a flowchart showing an example of the image adjustment method of the first embodiment.
  • FIG. 3D is a flowchart showing an example of the image adjustment method of the first embodiment.
  • FIG. 4 is a diagram showing an example of a state in which the right-eye image and the left-eye image are vertically displaced.
  • FIG. 4 is a diagram showing an example of a state in which the right-eye image and the left-eye image are vertically displaced.
  • FIG. 5 is a diagram illustrating an example of a state in which the parallax between the right-eye image and the left-eye image is large.
  • FIG. 6 is a diagram illustrating an example of a state in which the right eye image and the left eye image have large deviations in inclination.
  • FIG. 7 is a configuration diagram showing the image adjustment systems of the second and third embodiments.
  • FIG. 8 is a diagram illustrating an example of the camera and the attitude control device.
  • FIG. 9 is a diagram showing a state in which the attitude control device controls the tilt of the camera in the left-right direction.
  • FIG. 10 is a diagram showing a state in which the attitude control device controls the tilt of the camera in the front-rear direction.
  • FIG. 11 is a block diagram showing an example of the attitude control device.
  • FIG. 12A is a flowchart showing an example of the image adjusting method of the third embodiment.
  • FIG. 12B is a flowchart showing an example of the image adjusting method of the third embodiment
  • the image adjustment system 101 includes a camera 102, a communication unit 103, an image display device 104, a controller 105, an image adjustment device 110, and a server 106.
  • the image adjustment device 110 includes an image processing unit 111, an image generation unit 112, and a communication unit 113.
  • the camera 102 is an omnidirectional camera (360 degree camera) capable of capturing a 360 degree range, and is a stereo camera capable of capturing a right eye image and a left eye image.
  • the communication unit 103 and the communication unit 113 are connected via a network.
  • the image adjustment apparatus 110 can acquire the right-eye image IMR1 and the left-eye image IML1 captured by the camera 102 in the range of 360 degrees as the captured images IM1 via the communication units 103 and 113 and the network.
  • a computer device may be used as the image adjustment device 110.
  • a CPU may be used as the image processing unit 111 and the image generation unit 112.
  • the image generation unit 112 and the communication unit 113 may be provided outside the image adjustment device 110.
  • the server 106 is connected to the camera 102 via the network and the communication unit 103, and is connected to the image adjustment apparatus 110 via the network and the communication unit 113.
  • the server 106 may acquire the captured image IM1 from the camera 102 via the communication unit 103 and the network, and the image adjustment apparatus 110 may acquire the captured image IM1 from the server 106 via the network and the communication unit 113.
  • the captured image IM1 acquired by the image adjusting apparatus 110 is input to the image processing unit 111.
  • the image adjustment device 110 executes image processing such as correcting the distortion of the captured image IM1, and outputs the image-processed captured image IM1 to the image display device 104.
  • the image display device 104 is, for example, a head mounted display.
  • the controller 105 is, for example, a glove type controller used for VR or the like.
  • FIG. 2 schematically shows a state in which the image display device 104 is mounted on the head of the user US and the controller 105 is mounted on the hand of the user US.
  • Reference numeral ZE shown in FIG. 2 indicates the zenith. It is desirable that the zenith of the camera 102 and the zenith of the user US coincide.
  • the image display device 104 mounted on the head of the user US the image adjustment device 110 displays the right-eye image IMR1 in a region corresponding to the right eye of the user US, which corresponds to the left eye of the user US. By displaying the left-eye image IML1 in the area, the user US can see the captured image IM1 as a stereoscopic image.
  • the server 106 corrects the distortion of the captured image IM1 acquired from the camera 102, executes image processing such as adjusting the horizontal of the captured image IM1, and outputs the image-processed captured image IM1 to the image adjustment apparatus 110. Good.
  • image processing such as adjusting the horizontal of the captured image IM1
  • image adjustment apparatus 110 By mounting the image display device 104 on the head of the user US, the user US can see the captured image IM1 image-processed by the image adjustment device 110 or the server 106.
  • the image display device 104 generates the posture information PN1 based on the direction in which the user US is facing, the posture of the user US, and the like while being mounted on the head of the user US.
  • the image processing unit 111 acquires the posture information PN1 from the image display device 104. That is, the image processing unit 111 acquires the posture information PN1 based on the posture of the image display device 104. Based on the posture information PN1, the image processing unit 111 displays, on the image display device 104, an image of a region corresponding to the direction in which the user US is facing and the state such as the posture of the user US from the captured image IM1. ..
  • the controller 105 generates the instruction information NN1 based on the movement or posture of the hand of the user US, the movement or posture of the finger of the user US, or the like in a state where the controller 105 is attached to the hand of the user US. ..
  • the hand or the finger is simply abbreviated as the hand.
  • the image processing unit 111 acquires the instruction information NN1 from the controller 105.
  • the image processing unit 111 can change or adjust the captured image IM1 displayed on the image display device 104 based on the instruction information NN1.
  • the image generation unit 112 generates a spherical image VSS1 that is a virtual image formed by a spherical surface that is a CG (Computer Graphics), and saves it in an internal memory or an external memory.
  • VSS1 a virtual image formed by a spherical surface that is a CG (Computer Graphics)
  • the image processing unit 111 acquires the spherical image VSS1 from the image generation unit 112 based on the instruction information NN1 and displays it on the image display device 104.
  • FIG. 2 shows an image of the user US when the user US views the spherical image VSS1 displayed on the image display device 104 with the image display device 104 mounted on the head of the user US. It is shown schematically.
  • the spherical image VSS1 is It is arranged around the US and the image display device 104, and is set so as to be displayed within a range where the hand of the user US reaches the spherical image VSS1.
  • the user US moves the hand on which the controller 105 is attached to the position corresponding to the spherical image VSS1 displayed on the image display device 104, so that the hand of the user US contacts the spherical image VSS1. I feel like I'm doing it.
  • the controller 105 may have an actuator arranged in a portion that comes into contact with the hand of the user US.
  • the image processing unit 111 determines that the hand of the user US has moved to the position corresponding to the spherical image VSS1 based on the instruction information NN1, the image processing unit 111 operates the actuator.
  • the actuator applies pressure to the hand of the user US, the user US can actually feel the touch of the hand with the spherical image VSS1.
  • the image processing unit 111 displays the instruction information NN1. Based on this, image processing is performed so that the spherical image VSS1 and the captured image IM1 displayed on the image display device 104 move in correspondence with the moving direction, moving speed, and position of the moving destination of the hand of the user US. To execute.
  • the user US can rotate the spherical image VSS1 in any direction at any speed to any position by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS1 by the movement of the hand.
  • the image processing unit 111 moves the captured image IM1 in correspondence with the rotation of the spherical image VSS1.
  • FIGS. 3A to 3D An example of the image adjustment method of the first embodiment will be described using the flowcharts shown in FIGS. 3A to 3D. Specifically, an example of a method of adjusting the deviation between the right-eye image IMR1 and the left-eye image IML1 will be described.
  • the image display device 104 is mounted on the head of the user US, and the controller 105 is mounted on the hand of the user US.
  • a captured image IM1 (right-eye image IMR1 and left-eye image IML1) is displayed on the image display device 104.
  • the user US When the user US feels uncomfortable looking at the captured image IM1 displayed on the image display device 104 or causes VR sickness, the user US operates the controller 105 in FIG. 111 makes the image display device 104 display a setting screen in step S101.
  • an item of vertical correction for correcting a vertical (vertical) shift between the right-eye image IMR1 and the left-eye image IML1 the parallax between the right-eye image IMR1 and the left-eye image IML1 is corrected.
  • An item for parallax correction for correcting the tilt and an item for tilt correction for correcting the shift in tilt between the image IMR1 for the right eye and the image IML1 for the left eye are displayed as adjustment items.
  • the user US when the right-eye image IMR1 and the left-eye image IML1 are vertically deviated from each other, the user US operates the controller 105 to select the vertical correction item displayed on the setting screen. To do. As shown in FIG. 5, when the parallax between the right-eye image IMR1 and the left-eye image IML1 is large, the user US operates the controller 105 to select the parallax correction item displayed on the setting screen. As shown in FIG. 6, when the deviation between the right-eye image IMR1 and the left-eye image IML1 is large, the user US operates the controller 105 to select the tilt correction item displayed on the setting screen. ..
  • the controller 105 instructs in step S102 to include the selected item.
  • the information NN1 is output to the image processing unit 111.
  • step S101 the controller 105 outputs instruction information NN1 indicating that the vertical correction item has been selected to the image processing unit 111.
  • step S111 the image processing unit 111 corrects the vertical shift between the right-eye image IMR1 and the left-eye image IML1 based on the instruction information NN1 output from the controller 105 (vertical correction mode). ) To the process.
  • the image processing unit 111 causes the image display device 104 to display an item for selecting whether the image to be corrected is the right-eye image IMR1 or the left-eye image IML1.
  • the controller 105 outputs instruction information NN1 indicating that the right-eye image IMR1 has been selected to the image processing unit 111.
  • the image processing unit 111 shifts the processing to a processing mode for correcting the vertical direction of the right-eye image IMR1 (right-eye vertical correction mode) based on the instruction information NN1 output from the controller 105. ..
  • the image processing unit 111 acquires the spherical image VSS1 from the image generation unit 112 and displays it on the image display device 104 in step S114.
  • the captured image IM1 (the image for the right eye IMR1 and the image for the left eye IML1) and the spherical image VSS1 are mixed and displayed on the image display device 104.
  • the user US rotates the spherical image VSS1 vertically in the upward or downward direction so that the vertical shift between the right-eye image IMR1 and the left-eye image IML1 becomes small.
  • the image processing unit 111 moves the right-eye image IMR1 displayed on the image display device 104 upward or downward in response to the rotation of the spherical image VSS1.
  • the user US may perform the operation of rotating the spherical image VSS1 a plurality of times until there is no vertical shift between the right-eye image IMR1 and the left-eye image IML1.
  • step S112 When the user US selects the left-eye image IML1 in step S112, the controller 105 outputs instruction information NN1 indicating that the left-eye image IML1 has been selected to the image processing unit 111.
  • step S116 the image processing unit 111 shifts the processing to a processing mode (left-eye up-down correction mode) for correcting the up-down direction of the left-eye image IML1 based on the instruction information NN1 output from the controller 105. ..
  • the image processing unit 111 acquires the spherical image VSS1 from the image generation unit 112 and displays it on the image display device 104 in step S117.
  • the captured image IM1 (the image for the right eye IMR1 and the image for the left eye IML1) and the spherical image VSS1 are mixed and displayed on the image display device 104.
  • the user US rotates the spherical image VSS1 upward or downward so that the vertical shift between the right-eye image IMR1 and the left-eye image IML1 becomes small.
  • the image processing unit 111 moves the left-eye image IML1 displayed on the image display device 104 upward or downward in response to the rotation of the spherical image VSS1.
  • the user US may perform the operation of rotating the spherical image VSS1 a plurality of times until there is no vertical shift between the right-eye image IMR1 and the left-eye image IML1.
  • the image processing unit 111 displays the spherical shape.
  • the rotation direction of the spherical image VSS1 may be restricted so that the image VSS1 rotates only in the vertical direction.
  • the right eye image IMR1 or the left eye image IML1 may be moved upward or downward by moving the spherical image VSS1 up and down without rotating the spherical image VSS1.
  • step S101 When the item for parallax correction is selected in step S101, the controller 105 outputs instruction information NN1 indicating that the item for parallax correction has been selected to the image processing unit 111.
  • step S121 the image processing unit 111 corrects the parallax between the right-eye image IMR1 and the left-eye image IML1 based on the instruction information NN1 output from the controller 105 (parallax correction). Mode).
  • step S122 the image processing unit 111 causes the image display device 104 to display an item for selecting whether the image to be corrected is the right-eye image IMR1 or the left-eye image IML1.
  • the controller 105 outputs instruction information NN1 indicating that the right-eye image IMR1 has been selected to the image processing unit 111.
  • step S123 the image processing unit 111 shifts the process to a processing mode (right-eye parallax correction mode) for correcting parallax of the right-eye image IMR1 based on the instruction information NN1 output from the controller 105.
  • the image processing unit 111 acquires the spherical image VSS1 from the image generation unit 112 and displays it on the image display device 104 in step S124.
  • the captured image IM1 (the image for the right eye IMR1 and the image for the left eye IML1) and the spherical image VSS1 are mixed and displayed on the image display device 104.
  • the user US rotates the spherical image VSS1 in the horizontal direction to the right or left so that the parallax between the right-eye image IMR1 and the left-eye image IML1 becomes the target parallax.
  • the image processing unit 111 corrects the parallax of the right-eye image IMR1 displayed on the image display device 104 in response to the rotation of the spherical image VSS1.
  • the user US may perform the operation of rotating the spherical image VSS1 multiple times until the parallax between the right-eye image IMR1 and the left-eye image IML1 becomes the target parallax.
  • the controller 105 When the user US selects the left-eye image IML1 in step S122, the controller 105 outputs instruction information NN1 indicating that the left-eye image IML1 has been selected to the image processing unit 111.
  • the image processing unit 111 shifts the processing to the processing mode (left-eye parallax correction mode) for correcting the parallax of the left-eye image IML1 based on the instruction information NN1 output from the controller 105.
  • the image processing unit 111 acquires the spherical image VSS1 from the image generation unit 112 and displays it on the image display device 104 in step S127.
  • the captured image IM1 (the image for the right eye IMR1 and the image for the left eye IML1) and the spherical image VSS1 are mixed and displayed on the image display device 104.
  • the user US rotates the spherical image VSS1 rightward or leftward so that the parallax between the right-eye image IMR1 and the left-eye image IML1 becomes the target parallax.
  • the image processing unit 111 corrects the parallax of the left-eye image IML1 displayed on the image display device 104 in response to the rotation of the spherical image VSS1.
  • the user US may perform the operation of rotating the spherical image VSS1 multiple times until the parallax between the right-eye image IMR1 and the left-eye image IML1 becomes the target parallax.
  • the image processing unit 111 is spherical.
  • the rotation direction of the spherical image VSS1 may be restricted so that the image VSS1 rotates only in the horizontal direction.
  • step S101 the controller 105 outputs instruction information NN1 indicating that the tilt correction item has been selected to the image processing unit 111.
  • step S131 the image processing unit 111 corrects the inclination shift between the right-eye image IMR1 and the left-eye image IML1 based on the instruction information NN1 output from the controller 105 ( The processing shifts to the tilt correction mode).
  • step S132 the image processing unit 111 causes the image display device 104 to display an item for selecting whether the image to be corrected is the right-eye image IMR1 or the left-eye image IML1.
  • the controller 105 outputs instruction information NN1 indicating that the right-eye image IMR1 has been selected to the image processing unit 111.
  • step S133 the image processing unit 111 shifts the processing to a processing mode for correcting the inclination of the right-eye image IMR1 (right-eye inclination correction mode) based on the instruction information NN1 output from the controller 105.
  • the image processing unit 111 acquires the spherical image VSS1 from the image generation unit 112 and displays it on the image display device 104 in step S134.
  • the captured image IM1 (the image for the right eye IMR1 and the image for the left eye IML1) and the spherical image VSS1 are mixed and displayed on the image display device 104.
  • the user US rotates the spherical image VSS1 in an arbitrary direction so that the deviation between the right-eye image IMR1 and the left-eye image IML1 becomes small.
  • the image processing unit 111 corrects the inclination of the right-eye image IMR1 displayed on the image display device 104 in response to the rotation of the spherical image VSS1.
  • the user US may perform a plurality of operations of rotating the spherical image VSS1 until the right eye image IMR1 and the left eye image IML1 have no deviation in inclination.
  • step S132 When the user US selects the left-eye image IML1 in step S132, the controller 105 outputs instruction information NN1 indicating that the left-eye image IML1 has been selected, to the image processing unit 111.
  • step S136 the image processing unit 111 shifts the processing to the processing mode (left-eye inclination correction mode) for correcting the inclination of the left-eye image IML1 based on the instruction information NN1 output from the controller 105.
  • the image processing unit 111 acquires the spherical image VSS1 from the image generation unit 112 and displays it on the image display device 104 in step S137.
  • the captured image IM1 (the image for the right eye IMR1 and the image for the left eye IML1) and the spherical image VSS1 are mixed and displayed on the image display device 104.
  • the user US rotates the spherical image VSS1 in an arbitrary direction so that the deviation between the right-eye image IMR1 and the left-eye image IML1 becomes small.
  • the image processing unit 111 corrects the tilt of the left-eye image IML1 displayed on the image display device 104 in response to the rotation of the spherical image VSS1.
  • the user US may perform a plurality of operations of rotating the spherical image VSS1 until the right eye image IMR1 and the left eye image IML1 have no deviation in inclination.
  • the image processing unit 111 causes the spherical shape
  • the rotation direction of the image VSS1 is not limited. Therefore, the user US can rotate the spherical image VSS1 in any direction.
  • the image processing unit 111 determines to which position on the coordinates of the spherical image VSS1 the zenith ZE before the user US rotates the spherical image VSS1 moves as the user US rotates the spherical image VSS1. Can be determined.
  • the image processing unit 111 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS1, the spherical image before and after the user US rotates the spherical image VSS1.
  • the amount of change in VSS1 is calculated.
  • the amount of change of the spherical image VSS1 is the amount of rotation (rotation angle) with the X axis as the rotation axis, the amount of rotation (rotation angle) with the Y axis as the rotation axis, and the Z axis with respect to the spherical image VSS1.
  • the rotation amount (rotation angle) about the axis corresponds to the rotation amount (rotation angle) of the spherical image VSS1 combined.
  • the image processing unit 111 stores the amount of change of the spherical image VSS1 as the correction value CV1 in association with the image-processed captured image IM1 (right-eye image IMR1 or left-eye image IML1).
  • the correction value CV1 is calculated based on the rotation direction of the spherical image VSS1 and the movement amount or movement angle of the zenith ZE (rotation angle of the spherical image VSS1).
  • the image processing unit 111 may store the coordinates of the zenith ZE on the spherical image VSS1 after the user US rotates the spherical image VSS1 as the correction value CV1.
  • the image processing unit 111 may store the correction value CV1 in an internal memory or an external memory.
  • the server 106 may acquire the correction value CV1 from the image adjustment apparatus 110 via the network and the communication unit 113 in association with the image-processed captured image IM1 (right-eye image IMR1 or left-eye image IML1).
  • the server 106 stores the correction value CV1 in a built-in memory or an external memory.
  • the user US determines that the deviation between the right-eye image IMR1 and the left-eye image IML1 has been corrected, the user US operates the controller 105, so that the image processing unit 111 in FIG. The display of VSS1 is ended, and the setting screen is displayed on the image display device 104.
  • the controller 105 determines that the ending item is selected in step S142. Is output to the image processing unit 111. In step S143, the image processing unit 111 shifts the processing to a predetermined processing mode corresponding to the selected item. When the end item is selected, the image processing unit 111 shifts the processing to a processing mode (end mode) for ending the image adjustment between the right-eye image IMR1 and the left-eye image IML1.
  • a processing mode end mode
  • step S144 the image processing unit 111 acquires a rotation amount (rotation angle) before and after the spherical image VSS1 rotates as a variation amount of the spherical image VSS1.
  • step S145 the image processing unit 111 stores the amount of change of the spherical image VSS1 as the correction value CV1 in association with the image-processed captured image IM1 (right-eye image IMR1 or left-eye image IML1), and processes the image. To finish.
  • the spherical image VSS1 is displayed on the image display device 104.
  • the user US operates the controller 105 when the right-eye image IMR1 and the left-eye image IML1 are misaligned. Then, by rotating the spherical image VSS1, it is possible to easily adjust the deviation between the right-eye image IMR1 and the left-eye image IML1 displayed on the image display device 104.
  • the image processing unit 111 causes the image adjusting apparatus to operate. It is possible to read the correction value CV1 from 110 or the server 106, adjust the image of the captured image IM1 (the right-eye image IMR1 or the left-eye image IML1) captured by the camera 102 based on the correction value CV1, and display the image on the image display device 104. it can.
  • the image adjustment system 201 includes a camera 202, a posture control device 220, a communication unit 203, an image display device 204, a controller 205, an image adjustment device 210, and a server 206.
  • the image adjustment device 210 includes an image processing unit 211, an image generation unit 212, and a communication unit 213.
  • the camera 202, the communication unit 203, the image display device 204, the controller 205, the image adjustment device 210, and the server 206 are the camera 102, the communication unit 103, the image display device 104, the controller 105, and the image adjustment device of the first embodiment, respectively. It corresponds to 110 and the server 106.
  • the image processing unit 211, the image generation unit 212, and the communication unit 213 correspond to the image processing unit 111, the image generation unit 112, and the communication unit 113 of the first embodiment, respectively.
  • the camera 202 has a first surface PL1 and a second surface PL2 that is a surface opposite to the first surface PL1.
  • the camera 202 includes a right-eye fisheye lens LR1 and a left-eye fisheye lens LL1 arranged on the first surface PL1 side, and a right-eye fisheye lens LR2 and a left-eye fisheye lens LL2 arranged on the second surface PL2 side.
  • the right-eye fish-eye lens LR1 is the first right-eye lens LR1
  • the left-eye fish-eye lens LL1 is the first left-eye lens LL1
  • the right-eye fish-eye lens LR2 is the second right-eye lens LR2, and the left-eye fish-eye lens.
  • LL2 be the second left-eye lens LL2.
  • the camera 202 includes a first camera 2021 that photographs a range of 180 degrees on the first surface PL1 side using the first right-eye lens LR1 and the first left-eye lens LL1, and a second surface PL2 side. And a second camera 2022 for taking an image of a range of 180 degrees using the second right-eye lens LR2 and the second left-eye lens LL2. That is, the camera 202 is an omnidirectional camera (360 degree camera) capable of capturing a 360 degree range, and is a stereo camera capable of capturing a right-eye image and a left-eye image.
  • the camera 202 captures a 360-degree range using the first right-eye lens LR1 and the second right-eye lens LR2, which are photographic lenses, and generates a right-eye image IMR2.
  • the camera 202 shoots a range of 360 degrees using the first left-eye lens LL1 and the second left-eye lens LL2, which are shooting lenses, and generates a left-eye image IML2.
  • the attitude control device 220 controls the attitude of the camera 202. As shown in FIG. 9, the attitude control device 220 controls the tilt of the camera 202 in the left-right direction. For example, the attitude control device 220 is located at an intermediate position between the first right-eye lens LR1 and the first left-eye lens LL1 and at an intermediate position between the second right-eye lens LR2 and the second left-eye lens LL2.
  • the tilt of the camera 202 in the left-right direction To control. That is, the tilt of the camera 202 in the left-right direction is the tilt of the camera 202 about the rotation axis CLa.
  • the attitude control device 220 controls the tilt of the camera 202 in the front-rear direction.
  • the attitude control device 220 is located at an intermediate position between the first right-eye lens LR1 and the second left-eye lens LL2, and at an intermediate position between the first left-eye lens LL1 and the second right-eye lens LR2.
  • a rotation axis CLb second rotation axis
  • the tilt of the camera 202 in the front-rear direction To control. That is, the tilt of the camera 202 in the front-rear direction is the tilt of the camera 202 about the rotation axis CLb.
  • the first rotation axis CLa and the second rotation axis CLb are orthogonal to each other.
  • the first and second rotation axes CLa and CLb are parallel to the horizontal plane.
  • the attitude control device 220 includes a triaxial acceleration sensor 221, a triaxial magnetic sensor 222, a triaxial gyro sensor 223, a drive control unit 224, and drive units 225 and 226.
  • the triaxial acceleration sensor 221 is referred to as a first sensor 221
  • the triaxial magnetic sensor 222 is referred to as a second sensor 222
  • the triaxial gyro sensor 223 is referred to as a third sensor 223.
  • the drive unit 225 is a first drive unit
  • the drive unit 226 is a second drive unit.
  • the first sensor 221 acquires the tilt of the camera 202 in the left-right direction and the front-back direction by detecting the direction of gravity.
  • the second sensor 222 detects the magnitude and direction of the magnetic field (magnetic field), and the third sensor 223 detects the angular velocity.
  • the drive control unit 224 controls at least one of the drive units 225 and 226 based on the information detected by the first sensor 221.
  • the drive control unit 224 detects the information detected by the first sensor 221 and the information detected by at least one of the second and third sensors 222 and 223. Based on the above, at least one of the drive units 225 and 226 is controlled.
  • the drive unit 225 rotates the camera 202 in the left-right direction.
  • the drive unit 226 rotates the camera 202 in the front-rear direction.
  • the image adjusting apparatus 210 can acquire the right-eye image IMR2 and the left-eye image IML2 captured by the camera 202 in the range of 360 degrees as the captured images IM2 via the communication units 203 and 213 and the network.
  • the server 206 connects to the camera 202 via the network and the communication unit 203, and connects to the image adjusting apparatus 210 via the network and the communication unit 213.
  • the server 206 may acquire the captured image IM2 from the camera 202 via the communication unit 203 and the network, and the image adjustment apparatus 210 may acquire the captured image IM2 from the server 206 via the network and the communication unit 213.
  • the image adjustment device 210 or the server 206 is illustrated as acquiring the captured image IM2 via the attitude control device 220, but it may be acquired without the attitude control device 220.
  • the captured image IM2 acquired by the image adjustment device 210 is input to the image processing unit 211.
  • the image adjustment device 210 executes image processing such as correcting the distortion of the captured image IM2, and outputs the image-processed captured image IM2 to the image display device 204.
  • the image adjustment device 210 displays the right-eye image IMR2 in a region corresponding to the right eye of the user US, which corresponds to the left eye of the user US.
  • the user US can see the captured image IM2 as a stereoscopic image.
  • the server 206 corrects the distortion of the captured image IM2 acquired from the camera 202, executes image processing such as adjusting the horizontal of the captured image IM2, and outputs the image-processed captured image IM2 to the image adjustment apparatus 210.
  • the user US can mount the image display device 204 on his/her head to view the captured image IM2 image-processed by the image adjustment device 210 or the server 206.
  • the image display device 204 generates the posture information PN2 based on the direction in which the user US is facing, the posture of the user US, and the like while being mounted on the head of the user US.
  • the image processing unit 211 acquires the posture information PN2 from the image display device 204. That is, the image processing unit 211 acquires the posture information PN2 based on the posture of the image display device 204.
  • the image processing unit 211 displays, on the image display device 204, an image of an area corresponding to the direction in which the user US is facing and the state of the user US such as the attitude, based on the attitude information PN2. ..
  • the controller 205 generates the instruction information NN2 based on the state of the movement or posture of the hand of the user US in the state of being attached to the hand of the user US.
  • the image processing unit 211 acquires the instruction information NN2 from the controller 205.
  • the image processing unit 211 can change or adjust the captured image IM2 displayed on the image display device 204 based on the instruction information NN2.
  • the image generation unit 212 generates a spherical image VSS2, which is a virtual image formed by a spherical surface that is CG, and saves it in an internal memory or an external memory.
  • the image processing unit 211 acquires the spherical image VSS2 from the image generation unit 212 based on the instruction information NN2 and displays it on the image display device 204.
  • the spherical image VSS2 corresponds to the spherical image VSS1 of the first embodiment.
  • the user US moves the hand on which the controller 205 is attached to the position corresponding to the spherical image VSS2 displayed on the image display device 204, so that the hand of the user US contacts the spherical image VSS2. I feel like I'm doing it.
  • the controller 205 may have an actuator arranged in a portion that comes into contact with the hand of the user US.
  • the image processing unit 211 determines based on the instruction information NN2 that the hand of the user US has moved to the position corresponding to the spherical image VSS2, the image processing unit 211 operates the actuator. By applying pressure to the hand of the user US by the actuator, the user US can actually feel the touch of the hand with the spherical image VSS2.
  • the image processing unit 211 displays the instruction information NN2. Based on this, image processing is performed so that the spherical image VSS2 and the captured image IM2 displayed on the image display device 204 move corresponding to the moving direction, moving speed, and position of the moving destination of the hand of the user US. To execute.
  • the user US can rotate the spherical image VSS2 in any direction at any speed to any position by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS2 by the movement of the hand.
  • the image processing unit 211 moves the captured image IM2 in correspondence with the rotation of the spherical image VSS2.
  • the drive control unit 224 acquires the horizontal plane based on the information detected by at least one of the first to third sensors 221-223, and tilts the camera 202 in the left-right direction with respect to the horizontal plane.
  • the angle ⁇ a (first tilt angle) and the tilt angle ⁇ b in the front-back direction (second tilt angle) are acquired.
  • the drive control unit 224 controls the drive unit 225 so that the tilt angle ⁇ a is equal to or less than a predetermined angle ⁇ (first angle) ( ⁇ a ⁇ ), and adjusts the horizontal orientation of the camera 202. ..
  • the drive control unit 224 adjusts the posture of the camera 202 in the front-rear direction by controlling the drive unit 225 so that the inclination angle ⁇ b is equal to or smaller than a predetermined angle ⁇ (second angle) ( ⁇ b ⁇ ). ..
  • the first right-eye lens LR1 is located on the first surface PL1 side. It is located above the first left-eye lens LL1.
  • the second right-eye lens LR2 is located below the second left-eye lens LL2.
  • the parallax of the image IMR2 for the right eye and the image IML2 for the left eye is opposite between the first surface PL1 side and the second surface PL2 side, so that the user US can take the captured image displayed on the image display device 204. I feel uncomfortable with IM2.
  • the parallax between the right-eye image IMR2 and the left-eye image IML2 does not become opposite between the first surface PL1 side and the second surface PL2 side, so the user In the US, it is difficult for the captured image IM2 displayed on the image display device 204 to feel strange.
  • the angle ⁇ is set to be smaller than the angle ⁇ ( ⁇ ).
  • the angle ⁇ is set to 1 degree and the angle ⁇ is set to 5 degrees. Therefore, the drive control unit 224 controls at least one of the drive units 225 and 226 so that the tilt angle ⁇ a in the left-right direction is smaller than the tilt angle ⁇ b in the front-rear direction ( ⁇ a ⁇ b), and thus the camera 202 is controlled. Control your posture.
  • the image adjustment system 201 executes the same processing as steps S101, S111 to S118, S121 to S128, S131 to S138, or S141 to S144 of the first embodiment. To do.
  • the spherical image VSS2 is displayed on the image display device 204.
  • the user US operates the controller 205 when the right-eye image IMR2 and the left-eye image IML2 are misaligned. Then, by rotating the spherical image VSS2, it is possible to easily adjust the shift between the right-eye image IMR2 and the left-eye image IML2 displayed on the image display device 204.
  • the image processing unit 211 causes the correction value CV1 to be corrected.
  • the image adjustment device 210 or the server 206 can read from the image adjustment device 210 or the server 206, and the captured image IM2 (right-eye image IMR2 or left-eye image IML2) captured by the camera 202 can be image-adjusted based on the correction value CV1 and displayed on the image display device 204. it can.
  • the attitude of the camera 202 is controlled to be horizontal or nearly horizontal by the attitude control device 220. Since the user US adjusts the deviation between the right-eye image IMR2 and the left-eye image IML2 when the camera 202 is in the attitude-controlled state, the deviation can be easily adjusted.
  • the image adjustment system 301 includes a camera 302, a posture control device 320, a communication unit 303, an image display device 304, a controller 305, an image adjustment device 310, and a server 306.
  • the image adjustment device 310 has an image processing unit 311, an image generation unit 312, and a communication unit 313.
  • the camera 302, attitude control device 320, communication unit 303, image display device 304, controller 305, image adjustment device 310, and server 306 are the camera 202, attitude control device 220, communication unit 203, and image of the second embodiment, respectively. It corresponds to the display device 204, the controller 205, the image adjustment device 210, and the server 206.
  • the image processing unit 311, the image generation unit 312, and the communication unit 313 correspond to the image processing unit 211, the image generation unit 212, and the communication unit 213 of the second embodiment, respectively. To make the description easier to understand, the same reference numerals are given to the same components as those of the second embodiment.
  • the camera 302 includes a first camera 3021 that captures a range of 180 degrees on the first surface PL1 side by using the first right-eye lens LR1 and the first left-eye lens LL1.
  • a second camera 3022 for taking an image of a range of 180 degrees on the second surface PL2 side using the second right-eye lens LR2 and the second left-eye lens LL2.
  • the first and second cameras 3021 and 3022 correspond to the first and second cameras 2021 and 2022 of the second embodiment. That is, the camera 302 is an omnidirectional camera (360 degree camera) capable of capturing a 360-degree range, and is a stereo camera capable of capturing a right-eye image and a left-eye image.
  • the camera 302 captures a 360-degree range using the first and second right-eye lenses LR1 and LR2, and generates a right-eye image IMR3.
  • the camera 302 captures a 360-degree range using the first and second left-eye lenses LL1 and LL2, and generates a left-eye image IML3.
  • the attitude control device 320 controls the attitude of the camera 302. As shown in FIG. 9, the attitude control device 320 controls the tilt of the camera 302 in the left-right direction. For example, the attitude control device 320 controls the tilt of the camera 302 in the left-right direction by rotating the camera 302 about the rotation axis CLa. That is, the tilt of the camera 302 in the left-right direction is the tilt of the camera 302 about the rotation axis CLa. As shown in FIG. 10, the attitude control device 320 may control the tilt of the camera 302 in the front-rear direction. For example, the attitude control device 320 controls the tilt of the camera 302 in the front-rear direction by rotating the camera 302 about the rotation axis CLb. That is, the tilt of the camera 302 in the front-rear direction is the tilt of the camera 302 about the rotation axis CLb.
  • the attitude control device 320 includes a triaxial acceleration sensor 221 (first sensor), a triaxial magnetic sensor 222 (second sensor), and a triaxial gyro sensor 223 (third sensor). And a drive control unit 224, a drive unit 225, and a drive unit 226.
  • the drive control unit 224 detects the information detected by the first sensor 221 and the information detected by at least one of the second and third sensors 222 and 223. Based on the above, at least one of the drive units 225 and 226 is controlled.
  • the image adjustment apparatus 310 can acquire the right-eye image IMR3 and the left-eye image IML3 captured by the camera 302 in the range of 360 degrees as the captured image IM3 via the communication units 303 and 313 and the network.
  • the server 306 is connected to the camera 302 via the network and the communication unit 303, and is connected to the image adjustment device 310 via the network and the communication unit 313.
  • the server 306 may acquire the captured image IM3 from the camera 302 via the communication unit 303 and the network, and the image adjustment apparatus 310 may acquire the captured image IM3 from the server 306 via the network and the communication unit 313.
  • the image adjustment device 310 or the server 306 is illustrated as acquiring the captured image IM3 via the attitude control device 320, but it may be acquired without the attitude control device 320.
  • the captured image IM3 acquired by the image adjusting apparatus 310 is input to the image processing unit 311.
  • the image adjustment device 310 executes image processing such as correcting the distortion of the captured image IM3, and outputs the image-processed captured image IM3 to the image display device 304.
  • the image adjustment device 310 displays the right-eye image IMR3 in a region corresponding to the right eye of the user US, which corresponds to the left eye of the user US.
  • the user US can see the captured image IM3 as a stereoscopic image.
  • the server 306 corrects the distortion of the captured image IM3 acquired from the camera 302, executes image processing such as adjusting the horizontal of the captured image IM3, and outputs the image-processed captured image IM3 to the image adjustment apparatus 310. Good.
  • image processing such as adjusting the horizontal of the captured image IM3
  • image adjustment apparatus 310 By mounting the image display device 304 on the head of the user US, the user US can see the captured image IM3 image-processed by the image adjustment device 310 or the server 306.
  • the image display device 304 generates posture information PN3 based on the direction in which the user US is facing, the posture of the user US, and the like in a state where the image display device 304 is mounted on the head of the user US.
  • the image processing unit 311 acquires the posture information PN3 from the image display device 304. That is, the image processing unit 311 acquires the posture information PN3 based on the posture of the image display device 304.
  • the image processing unit 311 displays, on the image display device 304, an image of a region corresponding to the direction in which the user US faces and the state of the user US such as the attitude, from the captured image IM3, based on the attitude information PN3. ..
  • the controller 305 generates the instruction information NN3 based on the state such as the movement or posture of the hand of the user US while being attached to the hand of the user US.
  • the image processing unit 311 acquires the instruction information NN3 from the controller 305.
  • the image processing unit 311 can change or adjust the captured image IM3 displayed on the image display device 304 based on the instruction information NN3.
  • the image generation unit 312 generates a spherical image VSS3, which is a virtual image formed by a spherical surface that is CG, and saves it in an internal memory or an external memory.
  • the image processing unit 311 acquires the spherical image VSS3 from the image generation unit 312 based on the instruction information NN3, and displays it on the image display device 304.
  • the spherical image VSS3 corresponds to the spherical images VSS1 and VSS2 of the first and second embodiments.
  • the user US moves the hand on which the controller 305 is attached to the position corresponding to the spherical image VSS3 displayed on the image display device 304, so that the hand of the user US contacts the spherical image VSS3. I feel like I'm doing it.
  • the controller 305 may have an actuator arranged in a portion that comes into contact with the hand of the user US. If the image processing unit 311 determines that the hand of the user US has moved to the position corresponding to the spherical image VSS3, based on the instruction information NN3, it operates the actuator. When the actuator applies pressure to the hand of the user US, the user US can actually feel the touch of the hand with the spherical image VSS3.
  • the image processing unit 311 displays the instruction information NN3. Based on this, image processing is performed so that the spherical image VSS3 and the captured image IM3 displayed on the image display device 304 move in correspondence with the moving direction, moving speed, and position of the moving destination of the user US. To execute.
  • the user US can rotate the spherical image VSS3 in any direction at any speed by moving the hand to any position in any direction at any speed. it can. That is, the user US can rotate the spherical image VSS3 by the movement of the hand.
  • the image processing unit 311 moves the captured image IM3 in correspondence with the rotation of the spherical image VSS3.
  • FIGS. 12A and 12B An example of the image adjustment method of the third embodiment will be described using the flowcharts shown in FIGS. 12A and 12B. Specifically, an example of a method of adjusting the vertical shift between the right-eye image IMR3 and the left-eye image IML3 will be described.
  • the image display device 304 is attached to the head of the user US, and the controller 305 is attached to the hand of the user US.
  • a captured image IM3 (right-eye image IMR3 and left-eye image IML3) is displayed on the image display device 304.
  • the user US When the user US corrects the vertical shift between the right-eye image IMR3 and the left-eye image IML3 displayed on the image display device 304, in FIG. 12A, the user US operates the controller 305 to obtain an image.
  • the processing unit 311 causes the image display device 304 to display a setting screen in step S301.
  • a vertical correction item for correcting a vertical shift between the right-eye image IMR3 and the left-eye image IML3 is displayed as an adjustment item.
  • the image processing unit 311 corrects the parallax correction item for correcting the parallax between the right-eye image IMR3 and the left-eye image IML3, and the inclination shift between the right-eye image IMR3 and the left-eye image IML3 on the setting screen.
  • the tilt correction item for doing so may be displayed as an adjustment item.
  • step S302 the controller 305 outputs instruction information NN3 indicating that the vertical correction item has been selected to the image processing unit 311.
  • step S311 the image processing unit 311 corrects the vertical shift between the right-eye image IMR3 and the left-eye image IML3 based on the instruction information NN3 output from the controller 305 (up-down correction mode). ) To the process.
  • step S312 the image processing unit 311 displays on the image display device 304 an item for selecting whether the image to be corrected is the image for right eye IMR3 or the image for left eye IML3.
  • the controller 305 outputs instruction information NN3 indicating that the right-eye image IMR3 has been selected to the image processing unit 311.
  • the image processing unit 311 shifts the processing to a processing mode for correcting the vertical direction of the right-eye image IMR3 (right-eye vertical correction mode) based on the instruction information NN3 output from the controller 305. ..
  • the image processing unit 111 acquires the spherical image VSS3 from the image generation unit 312 and displays it on the image display device 204 in step S314.
  • the captured image IM3 (the image for right eye IMR3 and the image for left eye IML3) and the spherical image VSS3 are mixed and displayed on the image display device 204.
  • step S315 the image processing unit 311 moves the right-eye image IMR3 displayed on the image display device 304 upward or downward in response to the rotation of the spherical image VSS3.
  • the controller 305 When the user US selects the left-eye image IML3 in step S312, the controller 305 outputs instruction information NN3 indicating that the left-eye image IML3 has been selected to the image processing unit 311.
  • the image processing unit 311 shifts the processing to a processing mode for correcting the vertical direction of the left-eye image IML3 (left-eye vertical correction mode) based on the instruction information NN3 output from the controller 305. ..
  • the image processing unit 311 acquires the spherical image VSS3 from the image generation unit 312 and displays it on the image display device 304 in step S317.
  • the captured image IM3 (the right-eye image IMR3 and the left-eye image IML3) and the spherical image VSS3 are displayed in a mixed manner.
  • step S3108 the image processing unit 311 moves the left-eye image IML3 displayed on the image display device 304 upward or downward in response to the rotation of the spherical image VSS3.
  • the image processing unit 311 uses the spherical shape.
  • the rotation direction of the spherical image VSS3 may be restricted so that the image VSS3 rotates only in the vertical direction.
  • the right-eye image IMR3 or the left-eye image IML3 may be moved upward or downward by moving the spherical image VSS3 up and down without rotating the spherical image VSS3.
  • the image processing unit 311 determines to which position on the coordinates of the spherical image VSS3 the zenith ZE before the user US rotates the spherical image VSS3 is moved by the rotation of the spherical image VSS3 by the user US. Can be determined.
  • the image processing unit 311 uses the spherical image before and after the user US rotates the spherical image VSS3 based on the moving direction of the zenith ZE and the position of the moving destination on the coordinates of the spherical image VSS3.
  • the amount of change in VSS3 is calculated.
  • the amount of change in the spherical image VSS3 corresponds to the amount of change in the spherical image VSS1.
  • the right-eye image IMR3 and the left-eye image IML3 are vertically displaced as shown in FIG. Therefore, even if the user US rotates the spherical image VSS3 and adjusts the captured image IM3, the vertical shift between the right-eye image IMR3 and the left-eye image IML3 displayed on the image display device 304 is sufficiently large. It may not be possible to correct.
  • step S321 the image processing unit 311 determines that the captured image IM3 displayed on the image display device 304 is based on the posture information PN3 or the captured image IM3 displayed on the image display device 304. It is determined whether the image is taken by the first camera 3021 or the second camera 3022.
  • step S322 the image processing unit 311 adjusts the determination result (first camera 3021 or second camera 3022) in step S321, the instruction information NN3, or the captured image IM3 displayed on the image display device 304.
  • step S323 the image processing unit 311 generates correction information CN for correcting the posture of the camera 302 based on the estimation result in step S322 (specifically, the tilt direction and tilt angle of the camera 302). Further, the image processing unit 311 outputs the correction information CN to the attitude control device 320 via the communication units 313 and 303 and the network.
  • the image processing unit 311 may output the correction information CN to the server 306 via the communication unit 313 and the network, and the server 306 may output the correction information CN to the attitude control device 320 via the network and the communication unit 303. ..
  • the attitude control device 320 controls the attitude of the camera 302 based on the correction information CN in step S324.
  • the image processing unit 311 confirms that the attitude control of the camera 302 by the attitude control device 320 is completed.
  • the attitude control device 320 may generate an end signal ES indicating that the attitude control of the camera 302 has ended, and output the end signal ES to the image processing unit 311 via the communication units 303 and 313 and the network.
  • the image processing unit 311 terminates the display of the spherical image VSS3 in step S326, and performs a correction opposite to that in step S315 or S318. For example, when the right-eye image IMR3 is moved upward in step S315, the image processing unit 311 moves the right-eye image IMR3 downward and the right-eye image IMR3 before the process of step S315 is executed. The image processing is executed so that the state is achieved. For example, when the left-eye image IML3 is moved downward in step S318, the image processing unit 311 moves the left-eye image IML3 upward so that the left-eye image IML3 has not been processed in step S318. The image processing is executed so that the state is achieved.
  • the image processing unit 311 returns the process to the state before the process of step S315 is performed on the image IMR3 for the right eye, or the image for the left eye is obtained.
  • the image processing is executed so that the processing returns to the state before the processing of step S318 is executed on the image IML3, and the processing ends.
  • the spherical image VSS3 is displayed on the image display device 304.
  • the user US operates the controller 305 when the right-eye image IMR3 and the left-eye image IML3 are misaligned. Then, by rotating the spherical image VSS3, the shift between the right-eye image IMR3 and the left-eye image IML3 displayed on the image display device 304 can be easily adjusted.
  • the tilt direction and the tilt angle of the camera 302 are estimated based on the adjustment result of the captured image IM3 by the image adjusting apparatus 310, and the estimation result is obtained.
  • the attitude control device 320 controls the attitude of the camera 302 based on the above. Since the attitude of the camera 302 is horizontally or nearly horizontally controlled by the attitude control device 320, the user US easily adjusts the above deviation when adjusting the deviation between the right-eye image IMR3 and the left-eye image IML3. be able to.
  • the virtual image VSS generated by the CG may be a surface of an ellipsoid (elliptical surface), and may be an arbitrary closed surface (closed curved surface) within the reach of the user US. I wish I had it. That is, it is sufficient that the user US feels as if he/she touches the closed curved surface from the inside, and that the captured image IM can be horizontally adjusted. Since the user US rotates the virtual image VSS, it is desirable that the virtual image VSS has a spherical shape close to a spherical surface such as a spherical surface or an elliptic surface.
  • the image adjusting system According to the image adjusting system, the image adjusting device, and the image adjusting method of the present embodiment, it is possible to easily correct the deviation between the right-eye image and the left-eye image.

Abstract

画像調整システム(101)は、カメラ(102)と、画像調整装置(110)と、画像表示装置(104)と、コントローラ(105)とを備える。画像表示装置(104)は、画像調整装置(110)により調整された撮影画像(IM1)を表示する。画像調整装置(110)は、画像処理部(111)と画像生成部(112)とを有する。画像生成部(112)は、球面状画像(VSS1)を生成する。画像処理部(111)は、コントローラ(105)から出力された指示情報(NN1)に基づいて、画像生成部(112)から球面状画像(VSS1)を取得して画像表示装置(104)に表示する。画像処理部(111)は、指示情報(NN1)に基づいて、球面状画像(VSS1)を回転させる。画像処理部(111)は、球面状画像(VSS1)の回転に対応させて画像表示装置(104)に表示されている撮影画像(IM1)における右目用画像(IMR1)または左目用画像(IML1)を調整する。

Description

画像調整システム、画像調整装置、及び画像調整方法
 本発明は、画像調整システム、画像調整装置、及び画像調整方法に関する。
 近年、画像表示装置としてヘッドマウントディスプレイが注目されている。ヘッドマウントディスプレイは、使用者の頭部に装着された状態で画像を表示することにより、使用者は仮想空間に入り込んだような感覚(没入感)を得ることができる。特許文献1に記載されているように、ヘッドマウントディスプレイは、外部のカメラで撮影した画像をネックワークを介して表示することができる。
特開2005-56295号公報
 360度の範囲を撮影できる全方位カメラとして、右目用画像と左目用画像とを撮影できるステレオカメラを用いて撮影された画像をヘッドマウントディスプレイに表示することにより、使用者はヘッドマウントディスプレイに表示された画像を立体的に見ることができる。
 しかし、右目用画像と左目用画像とのずれが大きいと、使用者はVR(Virtual Reality)酔いと称される乗り物酔いに似た症状を生じる場合がある。VR酔いは、右目用画像と左目用画像との上下方向のずれ、右目用画像と左目用画像との視差または右目用画像と左目用画像との傾きのずれが大きい場合に生じやすい。
 本発明は、右目用画像と左目用画像とのずれを簡便に補正することができる画像調整システム、画像調整装置、及び画像調整方法を提供することを目的とする。
 本実施形態は、右目用画像と左目用画像とを撮影するカメラと、前記カメラから前記右目用画像と前記左目用画像とを撮影画像として取得し、前記撮影画像を調整する画像調整装置と、前記画像調整装置により調整された前記撮影画像を表示する画像表示装置と、前記画像調整装置へ指示情報を出力するコントローラとを備え、前記画像調整装置は、球面状画像を生成する画像生成部と、前記指示情報に基づいて前記画像生成部から前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像における前記右目用画像または前記左目用画像を調整する画像処理部とを有する画像調整システムを提供する。
 本実施形態は、球面状画像を生成する画像生成部と、コントローラから取得した指示情報に基づいて前記画像生成部から前記球面状画像を取得して画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、カメラにより撮影されて前記画像表示装置に表示されている撮影画像における右目用画像または左目用画像を、前記球面状画像の回転に対応させて調整する画像処理部とを備える画像調整装置を提供する。
 本実施形態は、カメラが右目用画像と左目用画像とを撮影し、画像処理部が前記カメラから前記右目用画像と前記左目用画像とを撮影画像として取得し、画像表示装置が前記撮影画像を表示し、前記画像処理部がコントローラから指示情報を取得し、前記画像処理部が前記指示情報に基づいて、画像生成部から球面状画像を取得し、前記画像表示装置が前記球面状画像を表示し、前記画像処理部が前記指示情報に基づいて前記球面状画像を回転させ、前記画像処理部が前記画像表示装置に表示されている前記撮影画像における前記右目用画像または前記左目用画像を、前記球面状画像の回転に対応させて調整する画像調整方法を提供する。
 本実施形態の画像調整システム、画像調整装置、及び画像調整方法によれば、右目用画像と左目用画像とのずれを簡便に補正することができる。
図1は、第1実施形態の画像調整システムを示す構成図である。 図2は、球面状画像と使用者との関係を示す図である。 図3Aは、第1実施形態の画像調整方法の一例を示すフローチャートである。 図3Bは、第1実施形態の画像調整方法の一例を示すフローチャートである。 図3Cは、第1実施形態の画像調整方法の一例を示すフローチャートである。 図3Dは、第1実施形態の画像調整方法の一例を示すフローチャートである。 図4は、右目用画像と左目用画像とが上下方向にずれている状態の一例を示す図である。 図5は、右目用画像と左目用画像との視差が大きい状態の一例を示す図である。 図6は、右目用画像と左目用画像との傾きのずれが大きい状態の一例を示す図である。 図7は、第2及び第3実施形態の画像調整システムを示す構成図である。 図8は、カメラ及び姿勢制御装置の一例を示す図である。 図9は、姿勢制御装置がカメラの左右方向の傾きを制御する状態を示す図である。 図10は、姿勢制御装置がカメラの前後方向の傾きを制御する状態を示す図である。 図11は、姿勢制御装置の一例を示す構成図である。 図12Aは、第3実施形態の画像調整方法の一例を示すフローチャートである。 図12Bは、第3実施形態の画像調整方法の一例を示すフローチャートである。
 (第1実施形態)
 図1を用いて、第1実施形態の画像調整システムの構成例を説明する。画像調整システム101は、カメラ102と、通信部103と、画像表示装置104と、コントローラ105と、画像調整装置110と、サーバ106とを備える。画像調整装置110は、画像処理部111と、画像生成部112と、通信部113とを有する。
 カメラ102は、360度の範囲を撮影できる全方位カメラ(360度カメラ)であり、右目用画像と左目用画像とを撮影できるステレオカメラである。通信部103と通信部113とはネットワークを介して接続されている。画像調整装置110は、カメラ102が360度の範囲を撮影した右目用画像IMR1及び左目用画像IML1を撮影画像IM1として、通信部103及び113とネットワークとを介して取得することができる。
 画像調整装置110としてコンピュータ機器を用いてもよい。画像処理部111及び画像生成部112としてCPUを用いてもよい。画像生成部112及び通信部113は、画像調整装置110の外部に設けられていてもよい。
 サーバ106は、ネットワークと通信部103とを介してカメラ102と接続し、ネットワークと通信部113とを介して画像調整装置110と接続する。サーバ106がカメラ102から撮影画像IM1を通信部103及びネットワークを介して取得し、画像調整装置110がサーバ106から撮影画像IM1をネットワーク及び通信部113を介して取得してもよい。
 画像調整装置110が取得した撮影画像IM1は、画像処理部111へ入力される。画像調整装置110は、撮影画像IM1の歪みを補正する等の画像処理を実行し、画像処理された撮影画像IM1を画像表示装置104へ出力する。画像表示装置104は、例えばヘッドマウントディスプレイである。コントローラ105は、例えばVR等に用いられるグローブ型コントローラである。
 図2は、画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている状態を模式的に示している。図2に示す符号ZEは天頂を示している。カメラ102の天頂と使用者USの天頂とは一致していることが望ましい。画像表示装置104が使用者USの頭部に装着されている状態で、画像調整装置110が使用者USの右目に対応する領域に右目用画像IMR1を表示し、使用者USの左目に対応する領域に左目用画像IML1を表示することにより、使用者USは、撮影画像IM1を立体画像として見ることができる。
 サーバ106がカメラ102から取得した撮影画像IM1の歪みを補正し、撮影画像IM1の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM1を画像調整装置110へ出力してもよい。使用者USは、その頭部に画像表示装置104を装着することにより、画像調整装置110またはサーバ106によって画像処理された撮影画像IM1を見ることができる。
 画像表示装置104は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN1を生成する。画像処理部111は、画像表示装置104から姿勢情報PN1を取得する。即ち、画像処理部111は、画像表示装置104の姿勢に基づいて姿勢情報PN1を取得することになる。画像処理部111は、姿勢情報PN1に基づいて、撮影画像IM1から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置104に表示する。
 コントローラ105は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢、または、使用者USの指の動きまたは姿勢等の状態に基づいて指示情報NN1を生成する。以下、手または指を、単に手と略記する。画像処理部111は、コントローラ105から指示情報NN1を取得する。画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている撮影画像IM1を変化させたり調整したりすることができる。
 画像生成部112は、CG(Computer Graphics)である球面により構成された仮想画像である球面状画像VSS1を生成し、内蔵メモリまたは外部のメモリに保存する。
 画像処理部111は、指示情報NN1に基づいて、画像生成部112から球面状画像VSS1を取得し、画像表示装置104に表示する。図2は、画像表示装置104が使用者USの頭部に装着された状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときの使用者USのイメージを模式的に示している。
 画像表示装置104が使用者USの頭部に装着されている状態において、使用者USが画像表示装置104に表示されている球面状画像VSS1を見たときに、球面状画像VSS1は、使用者US及び画像表示装置104の周囲に配置され、かつ、使用者USの手が球面状画像VSS1に届く範囲に表示されるように設定されている。使用者USは、コントローラ105が装着されている手を、画像表示装置104に表示されている球面状画像VSS1に対応する位置に移動させることにより、使用者USの手が球面状画像VSS1に接触しているように感じる。
 コントローラ105は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部111は、指示情報NN1に基づいて、使用者USの手が球面状画像VSS1に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS1に接触する感覚を実感として得ることができる。
 球面状画像VSS1が画像表示装置104に表示されている状態において、使用者USが、コントローラ105が装着されている手を任意の方向へ移動させた場合、画像処理部111は、指示情報NN1に基づいて、画像表示装置104に表示されている球面状画像VSS1と撮影画像IM1とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
 使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS1を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS1を回転させることができる。画像処理部111は、球面状画像VSS1の回転に対応させて撮影画像IM1を移動させる。
 図3A~図3Dに示すフローチャートを用いて、第1実施形態の画像調整方法の一例を説明する。具体的には、右目用画像IMR1と左目用画像IML1とのずれを調整する方法の一例について説明する。画像表示装置104が使用者USの頭部に装着され、コントローラ105が使用者USの手に装着されている。画像表示装置104には撮影画像IM1(右目用画像IMR1及び左目用画像IML1)が表示されている。
 使用者USが画像表示装置104に表示されている撮影画像IM1を見て違和感を覚えたりVR酔いが生じたりした場合、図3Aにおいて、使用者USがコントローラ105を操作することにより、画像処理部111は、ステップS101にて、画像表示装置104に設定画面を表示させる。
 設定画面には、例えば、右目用画像IMR1と左目用画像IML1との上下方向(垂直方向)のずれを補正するための上下補正の項目、右目用画像IMR1と左目用画像IML1との視差を補正するための視差補正の項目、及び、右目用画像IMR1と左目用画像IML1との傾きのずれを補正するための傾き補正の項目が調整項目として表示される。
 図4に示すように、右目用画像IMR1と左目用画像IML1とが上下方向にずれている場合、使用者USはコントローラ105を操作して、設定画面に表示されている上下補正の項目を選択する。図5に示すように、右目用画像IMR1と左目用画像IML1との視差が大きい場合、使用者USはコントローラ105を操作して、設定画面に表示されている視差補正の項目を選択する。図6に示すように、右目用画像IMR1と左目用画像IML1との傾きのずれが大きい場合、使用者USはコントローラ105を操作して、設定画面に表示されている傾き補正の項目を選択する。
 使用者USが設定画面に表示されている上下補正、視差補正、及び傾き補正の項目のうちのいずれかの項目を選択した場合、コントローラ105は、ステップS102にて、選択された項目を含む指示情報NN1を画像処理部111へ出力する。
 ステップS101において上下補正の項目が選択された場合、コントローラ105は、上下補正の項目が選択されたことを示す指示情報NN1を画像処理部111へ出力する。画像処理部111は、ステップS111にて、コントローラ105から出力される指示情報NN1に基づいて、右目用画像IMR1と左目用画像IML1との上下方向のずれを補正するための処理モード(上下補正モード)へ処理を移行させる。
 画像処理部111は、ステップS112にて、補正する画像が右目用画像IMR1か左目用画像IML1かを選択するための項目を画像表示装置104に表示させる。使用者USが右目用画像IMR1を選択した場合、コントローラ105は、右目用画像IMR1が選択されたことを示す指示情報NN1を画像処理部111へ出力する。画像処理部111は、ステップS113にて、コントローラ105から出力される指示情報NN1に基づいて、右目用画像IMR1の上下方向を補正するための処理モード(右目用上下補正モード)へ処理を移行させる。
 画像処理部111は、ステップS114にて、画像生成部112から球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1(右目用画像IMR1及び左目用画像IML1)と球面状画像VSS1とが混合して表示される。
 使用者USは、右目用画像IMR1と左目用画像IML1との上下方向のずれが小さくなるように球面状画像VSS1を垂直方向である上方向または下方向へ回転させる。画像処理部111は、ステップS115にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている右目用画像IMR1を上方向または下方向へ移動させる。使用者USは右目用画像IMR1と左目用画像IML1との上下方向のずれがなくなるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。
 ステップS112において使用者USが左目用画像IML1を選択した場合、コントローラ105は、左目用画像IML1が選択されたことを示す指示情報NN1を画像処理部111へ出力する。画像処理部111は、ステップS116にて、コントローラ105から出力される指示情報NN1に基づいて、左目用画像IML1の上下方向を補正するための処理モード(左目用上下補正モード)へ処理を移行させる。
 画像処理部111は、ステップS117にて、画像生成部112から球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1(右目用画像IMR1及び左目用画像IML1)と球面状画像VSS1とが混合して表示される。
 使用者USは、右目用画像IMR1と左目用画像IML1との上下方向のずれが小さくなるように球面状画像VSS1を上方向または下方向へ回転させる。画像処理部111は、ステップS118にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている左目用画像IML1を上方向または下方向へ移動させる。使用者USは右目用画像IMR1と左目用画像IML1との上下方向のずれがなくなるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。
 ステップS111において上下補正モードへ移行された場合、ステップS113において右目用上下補正モードへ移行された場合、または、ステップS116において左目用上下補正モードへ移行された場合、画像処理部111は、球面状画像VSS1が上下方向のみに回転するように球面状画像VSS1の回転方向を制限してもよい。また、球面状画像VSS1を回転させずに、球面状画像VSS1を上下に動かすことで右目用画像IMR1または左目用画像IML1を上方向または下方向へ移動させてもよい。
 ステップS101において視差補正の項目が選択された場合、コントローラ105は、視差補正の項目が選択されたことを示す指示情報NN1を画像処理部111へ出力する。図3Bにおいて、画像処理部111は、ステップS121にて、コントローラ105から出力される指示情報NN1に基づいて、右目用画像IMR1と左目用画像IML1との視差を補正するための処理モード(視差補正モード)へ処理を移行させる。
 画像処理部111は、ステップS122にて、補正する画像が右目用画像IMR1か左目用画像IML1かを選択するための項目を画像表示装置104に表示させる。使用者USが右目用画像IMR1を選択した場合、コントローラ105は、右目用画像IMR1が選択されたことを示す指示情報NN1を画像処理部111へ出力する。画像処理部111は、ステップS123にて、コントローラ105から出力される指示情報NN1に基づいて、右目用画像IMR1の視差を補正するための処理モード(右目用視差補正モード)へ処理を移行させる。
 画像処理部111は、ステップS124にて、画像生成部112から球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1(右目用画像IMR1及び左目用画像IML1)と球面状画像VSS1とが混合して表示される。
 使用者USは、右目用画像IMR1と左目用画像IML1との視差が目的の視差となるように球面状画像VSS1を水平方向である右方向または左方向へ回転させる。画像処理部111は、ステップS125にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている右目用画像IMR1の視差を補正する。使用者USは右目用画像IMR1と左目用画像IML1との視差が目的の視差となるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。
 ステップS122において使用者USが左目用画像IML1を選択した場合、コントローラ105は、左目用画像IML1が選択されたことを示す指示情報NN1を画像処理部111へ出力する。画像処理部111は、ステップS126にて、コントローラ105から出力される指示情報NN1に基づいて、左目用画像IML1の視差を補正するための処理モード(左目用視差補正モード)へ処理を移行させる。
 画像処理部111は、ステップS127にて、画像生成部112から球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1(右目用画像IMR1及び左目用画像IML1)と球面状画像VSS1とが混合して表示される。
 使用者USは、右目用画像IMR1と左目用画像IML1との視差が目的の視差となるように球面状画像VSS1を右方向または左方向へ回転させる。画像処理部111は、ステップS128にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている左目用画像IML1の視差を補正する。使用者USは右目用画像IMR1と左目用画像IML1との視差が目的の視差となるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。
 ステップS121において視差補正モードへ移行された場合、ステップS123において右目用視差補正モードへ移行された場合、または、ステップS126において左目用視差補正モードへ移行された場合、画像処理部111は、球面状画像VSS1が水平方向のみに回転するように球面状画像VSS1の回転方向を制限してもよい。
 ステップS101において傾き補正の項目が選択された場合、コントローラ105は、傾き補正の項目が選択されたことを示す指示情報NN1を画像処理部111へ出力する。図3Cにおいて、画像処理部111は、ステップS131にて、コントローラ105から出力される指示情報NN1に基づいて、右目用画像IMR1と左目用画像IML1との傾きのずれを補正するための処理モード(傾き補正モード)へ処理を移行させる。
 画像処理部111は、ステップS132にて、補正する画像が右目用画像IMR1か左目用画像IML1かを選択するための項目を画像表示装置104に表示させる。使用者USが右目用画像IMR1を選択した場合、コントローラ105は、右目用画像IMR1が選択されたことを示す指示情報NN1を画像処理部111へ出力する。画像処理部111は、ステップS133にて、コントローラ105から出力される指示情報NN1に基づいて、右目用画像IMR1の傾きを補正するための処理モード(右目用傾き補正モード)へ処理を移行させる。
 画像処理部111は、ステップS134にて、画像生成部112から球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1(右目用画像IMR1及び左目用画像IML1)と球面状画像VSS1とが混合して表示される。
 使用者USは、右目用画像IMR1と左目用画像IML1との傾きのずれが小さくなるように球面状画像VSS1を任意の方向へ回転させる。画像処理部111は、ステップS135にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている右目用画像IMR1の傾きを補正する。使用者USは右目用画像IMR1と左目用画像IML1との傾きのずれがなくなるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。
 ステップS132において使用者USが左目用画像IML1を選択した場合、コントローラ105は、左目用画像IML1が選択されたことを示す指示情報NN1を画像処理部111へ出力する。画像処理部111は、ステップS136にて、コントローラ105から出力される指示情報NN1に基づいて、左目用画像IML1の傾きを補正するための処理モード(左目用傾き補正モード)へ処理を移行させる。
 画像処理部111は、ステップS137にて、画像生成部112から球面状画像VSS1を取得し、画像表示装置104に表示する。画像表示装置104には、撮影画像IM1(右目用画像IMR1及び左目用画像IML1)と球面状画像VSS1とが混合して表示される。
 使用者USは、右目用画像IMR1と左目用画像IML1との傾きのずれが小さくなるように球面状画像VSS1を任意の方向へ回転させる。画像処理部111は、ステップS138にて、球面状画像VSS1の回転に対応させて、画像表示装置104に表示されている左目用画像IML1の傾きを補正する。使用者USは右目用画像IMR1と左目用画像IML1との傾きのずれがなくなるまで球面状画像VSS1を回転させる動作を複数回行ってもよい。
 ステップS131において傾き補正モードへ移行された場合、ステップS133において右目用傾き補正モードへ移行された場合、または、ステップS136において左目用傾き補正モードへ移行された場合、画像処理部111は、球面状画像VSS1の回転方向を制限しない。従って、使用者USは、球面状画像VSS1を任意の方向へ回転させることができる。
 画像処理部111は、使用者USが球面状画像VSS1を回転させる前の天頂ZEが、使用者USが球面状画像VSS1を回転させることによって球面状画像VSS1の座標上のどの位置へ移動したかを判定することができる。画像処理部111は、球面状画像VSS1の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS1を回転させる前と回転させた後との球面状画像VSS1の変化量を算出する。
 球面状画像VSS1の変化量とは、球面状画像VSS1において、X軸を回転軸とした回転量(回転角度)と、Y軸を回転軸とした回転量(回転角度)と、Z軸を回転軸とした回転量(回転角度)とが合成された球面状画像VSS1の回転量(回転角度)に相当する。画像処理部111は、球面状画像VSS1の変化量を補正値CV1として、画像処理された撮影画像IM1(右目用画像IMR1または左目用画像IML1)と対応付けて保存する。
 即ち、補正値CV1は、球面状画像VSS1の回転方向と、天頂ZEの移動量または移動角度(球面状画像VSS1の回転角度)に基づいて算出されることになる。画像処理部111は、使用者USが球面状画像VSS1を回転させた後の天頂ZEの球面状画像VSS1上の座標を補正値CV1として保存してもよい。
 画像処理部111は、補正値CV1を内蔵メモリまたは外部のメモリに保存してもよい。サーバ106がネットワーク及び通信部113を介して画像調整装置110から補正値CV1を画像処理された撮影画像IM1(右目用画像IMR1または左目用画像IML1)と対応付けて取得してもよい。サーバ106は、補正値CV1を内蔵メモリまたは外部のメモリに保存する。
 使用者USは右目用画像IMR1と左目用画像IML1とのずれが補正されたと判断した場合にコントローラ105を操作することにより、図3Dにおいて、画像処理部111は、ステップS141にて、球面状画像VSS1の表示を終了させ、画像表示装置104に設定画面を表示させる。
 使用者USがコントローラ105を操作して、設定画面に表示されている所定の項目(例えば終了の項目)を選択することにより、コントローラ105は、ステップS142にて、終了の項目が選択されたことを示す指示情報NN1を画像処理部111へ出力する。画像処理部111は、ステップS143にて、選択された項目に対応する所定の処理モードへ処理を移行させる。終了の項目が選択された場合、画像処理部111は、右目用画像IMR1と左目用画像IML1との画像調整を終了するための処理モード(終了モード)へ処理を移行させる。
 画像処理部111は、ステップS144にて、球面状画像VSS1が回転する前と後との回転量(回転角度)を、球面状画像VSS1の変化量として取得する。画像処理部111は、ステップS145にて、球面状画像VSS1の変化量を補正値CV1として、画像処理された撮影画像IM1(右目用画像IMR1または左目用画像IML1)と対応付けて保存し、処理を終了する。
 第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法では、画像表示装置104に球面状画像VSS1を表示させる。第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、右目用画像IMR1と左目用画像IML1とのずれが生じた場合に、使用者USは、コントローラ105を操作して球面状画像VSS1を回転させることにより、画像表示装置104に表示されている右目用画像IMR1と左目用画像IML1とのずれを簡便に調整することができる。
 第1実施形態の画像調整システム101、画像調整装置110、及び画像調整方法によれば、補正値CV1が画像調整装置110またはサーバ106に保存されている場合、画像処理部111は、画像調整装置110またはサーバ106から補正値CV1を読み出し、カメラ102が撮影した撮影画像IM1(右目用画像IMR1または左目用画像IML1)を補正値CV1に基づいて画像調整し、画像表示装置104に表示することができる。
 (第2実施形態)
 図7を用いて、第2実施形態の画像調整システムの構成例を説明する。画像調整システム201は、カメラ202と、姿勢制御装置220と、通信部203と、画像表示装置204と、コントローラ205と、画像調整装置210と、サーバ206とを備える。画像調整装置210は、画像処理部211と、画像生成部212と、通信部213とを有する。
 カメラ202、通信部203、画像表示装置204、コントローラ205、画像調整装置210、及びサーバ206は、それぞれ、第1実施形態のカメラ102、通信部103、画像表示装置104、コントローラ105、画像調整装置110、及びサーバ106に相当する。画像処理部211、画像生成部212、及び通信部213は、それぞれ、第1実施形態の画像処理部111、画像生成部112、及び通信部113に相当する。
 図8に示すように、カメラ202は、第1の面PL1と、第1の面PL1とは反対側の面である第2の面PL2とを有する。カメラ202は、第1の面PL1側に配置された右目用の魚眼レンズLR1及び左目用の魚眼レンズLL1と、第2の面PL2側に配置された右目用の魚眼レンズLR2及び左目用の魚眼レンズLL2とを有する。以下、右目用の魚眼レンズLR1を第1の右目用レンズLR1、左目用の魚眼レンズLL1を第1の左目用レンズLL1、右目用の魚眼レンズLR2を第2の右目用レンズLR2、及び、左目用の魚眼レンズLL2を第2の左目用レンズLL2とする。
 カメラ202は、第1の面PL1側の180度の範囲を第1の右目用レンズLR1と第1の左目用レンズLL1とを用いて撮影する第1のカメラ2021と、第2の面PL2側の180度の範囲を第2の右目用レンズLR2と第2の左目用レンズLL2とを用いて撮影する第2のカメラ2022とを有する。即ち、カメラ202は、360度の範囲を撮影できる全方位カメラ(360度カメラ)であり、右目用画像と左目用画像とを撮影できるステレオカメラである。
 カメラ202は、撮影レンズである第1の右目用レンズLR1及び第2の右目用レンズLR2を用いて360度の範囲を撮影し、右目用画像IMR2を生成する。カメラ202は、撮影レンズである第1の左目用レンズLL1及び第2の左目用レンズLL2を用いて360度の範囲を撮影し、左目用画像IML2を生成する。
 姿勢制御装置220は、カメラ202の姿勢を制御する。図9に示すように、姿勢制御装置220は、カメラ202の左右方向の傾きを制御する。例えば、姿勢制御装置220は、第1の右目用レンズLR1と第1の左目用レンズLL1との中間の位置、及び、第2の右目用レンズLR2と第2の左目用レンズLL2との中間の位置を通り、かつ、各レンズLR1、LL1、LR2、及びLL2の光軸と平行な回転軸CLa(第1の回転軸)を中心としてカメラ202を回転させることにより、カメラ202の左右方向の傾きを制御する。即ち、カメラ202の左右方向の傾きとは、回転軸CLaを中心とするカメラ202の傾きである。
 図10に示すように、姿勢制御装置220は、カメラ202の前後方向の傾きを制御する。例えば、姿勢制御装置220は、第1の右目用レンズLR1と第2の左目用レンズLL2との中間の位置、及び、第1の左目用レンズLL1と第2の右目用レンズLR2との中間の位置を通り、かつ、各レンズLR1、LL1、LR2、及びLL2の光軸に直交する回転軸CLb(第2の回転軸)を中心としてカメラ202を回転させることにより、カメラ202の前後方向の傾きを制御する。即ち、カメラ202の前後方向の傾きとは、回転軸CLbを中心とするカメラ202の傾きである。
 第1の回転軸CLaと第2の回転軸CLbとは互いに直交する。カメラ202が水平に姿勢制御されている状態では、第1及び第2の回転軸CLa及びCLbは、水平面と平行である。
 図11に示すように、姿勢制御装置220は、3軸加速度センサ221と、3軸磁気センサ222と、3軸ジャイロセンサ223と、駆動制御部224と、駆動部225及び226とを有する。3軸加速度センサ221を第1のセンサ221、3軸磁気センサ222を第2のセンサ222、3軸ジャイロセンサ223を第3のセンサ223とする。駆動部225を第1の駆動部、駆動部226を第2の駆動部とする。
 第1のセンサ221は、重力の方向を検知することによってカメラ202の左右方向及び前後方向の傾きを取得する。第2のセンサ222は磁場(磁界)の大きさと方向とを検知し、第3のセンサ223は角速度を検知する。
 駆動制御部224は、第1のセンサ221が検知した情報に基づいて駆動部225及び226の少なくともいずれかを制御する。カメラ202が加速または減速しながら移動している場合、駆動制御部224は、第1のセンサ221が検知した情報と、第2及び第3のセンサ222及び223の少なくともいずれかが検知した情報とに基づいて駆動部225及び226の少なくともいずれかを制御する。図9に示すように、駆動部225はカメラ202を左右方向へ回転させる。図10に示すように、駆動部226はカメラ202を前後方向へ回転させる。
 画像調整装置210は、カメラ202が360度の範囲を撮影した右目用画像IMR2及び左目用画像IML2を撮影画像IM2として、通信部203及び213とネットワークとを介して取得することができる。
 サーバ206は、ネットワークと通信部203とを介してカメラ202と接続し、ネットワークと通信部213とを介して画像調整装置210と接続する。サーバ206がカメラ202から撮影画像IM2を通信部203及びネットワークを介して取得し、画像調整装置210がサーバ206から撮影画像IM2をネットワーク及び通信部213を介して取得してもよい。図7では、画像調整装置210またはサーバ206は、撮影画像IM2を、姿勢制御装置220を介して取得するように示しているが、姿勢制御装置220を介さずに取得してもよい。
 画像調整装置210が取得した撮影画像IM2は、画像処理部211へ入力される。画像調整装置210は、撮影画像IM2の歪みを補正する等の画像処理を実行し、画像処理された撮影画像IM2を画像表示装置204へ出力する。
 画像表示装置204が使用者USの頭部に装着されている状態で、画像調整装置210が使用者USの右目に対応する領域に右目用画像IMR2を表示し、使用者USの左目に対応する領域に左目用画像IML2を表示することにより、使用者USは、撮影画像IM2を立体画像として見ることができる。
 サーバ206がカメラ202から取得した撮影画像IM2の歪みを補正し、撮影画像IM2の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM2を画像調整装置210へ出力してもよい。使用者USは、その頭部に画像表示装置204を装着することにより、画像調整装置210またはサーバ206によって画像処理された撮影画像IM2を見ることができる。
 画像表示装置204は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN2を生成する。画像処理部211は、画像表示装置204から姿勢情報PN2を取得する。即ち、画像処理部211は、画像表示装置204の姿勢に基づいて姿勢情報PN2を取得することになる。画像処理部211は、姿勢情報PN2に基づいて、撮影画像IM2から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置204に表示する。
 コントローラ205は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢等の状態に基づいて指示情報NN2を生成する。画像処理部211は、コントローラ205から指示情報NN2を取得する。画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている撮影画像IM2を変化させたり調整したりすることができる。
 画像生成部212は、CGである球面により構成された仮想画像である球面状画像VSS2を生成し、内蔵メモリまたは外部のメモリに保存する。画像処理部211は、指示情報NN2に基づいて、画像生成部212から球面状画像VSS2を取得し、画像表示装置204に表示する。球面状画像VSS2は、第1実施形態の球面状画像VSS1に相当する。使用者USは、コントローラ205が装着されている手を、画像表示装置204に表示されている球面状画像VSS2に対応する位置に移動させることにより、使用者USの手が球面状画像VSS2に接触しているように感じる。
 コントローラ205は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部211は、指示情報NN2に基づいて、使用者USの手が球面状画像VSS2に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS2に接触する感覚を実感として得ることができる。
 球面状画像VSS2が画像表示装置204に表示されている状態において、使用者USが、コントローラ205が装着されている手を任意の方向へ移動させた場合、画像処理部211は、指示情報NN2に基づいて、画像表示装置204に表示されている球面状画像VSS2と撮影画像IM2とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
 使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS2を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS2を回転させることができる。画像処理部211は、球面状画像VSS2の回転に対応させて撮影画像IM2を移動させる。
 姿勢制御装置220において、駆動制御部224は、第1~第3のセンサ221~223の少なくともいずれかのセンサが検知した情報に基づいて、水平面を取得し、水平面に対するカメラ202の左右方向の傾斜角度θa(第1の傾斜角度)と前後方向の傾斜角度θb(第2の傾斜角度)とを取得する。
 駆動制御部224は、傾斜角度θaが所定の角度α(第1の角度)以下(θa≦α)になるように、駆動部225を制御することにより、カメラ202の左右方向の姿勢を調整する。駆動制御部224は、傾斜角度θbが所定の角度β(第2の角度)以下(θb≦β)になるように、駆動部225を制御することにより、カメラ202の前後方向の姿勢を調整する。
 図9に示すように、第1の面PL1側からカメラ202を見たときに例えばカメラ202が右方向に傾いている状態では、第1の面PL1側では第1の右目用レンズLR1が第1の左目用レンズLL1よりも上側に位置する。それに対して、第2の面PL2側では第2の右目用レンズLR2が第2の左目用レンズLL2よりも下側に位置する。
 従って、右目用画像IMR2及び左目用画像IML2の視差が第1の面PL1側と第2の面PL2側とで逆になるため、使用者USは、画像表示装置204に表示されている撮影画像IM2に違和感を覚える。それに対して、カメラ202が前後方向に傾いている状態では、右目用画像IMR2及び左目用画像IML2の視差が第1の面PL1側と第2の面PL2側とで逆にならないため、使用者USは、画像表示装置204に表示されている撮影画像IM2に違和感を覚えにくい。
 上記の理由により、角度αは角度βよりも小さく(α<β)なるように設定されている。例えば、角度αは1度に設定され、角度βは5度に設定されている。従って、駆動制御部224は、左右方向の傾斜角度θaが前後方向の傾斜角度θbよりも小さく(θa<θb)なるように、駆動部225及び226の少なくともいずれかを制御することによって、カメラ202の姿勢を制御する。
 姿勢制御装置220がカメラ202の姿勢を制御した後、画像調整システム201は、第1実施形態のステップS101、S111~S118、S121~S128、S131~S138、またはS141~S144と同様の処理を実行する。
 第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法では、画像表示装置204に球面状画像VSS2を表示させる。第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、右目用画像IMR2と左目用画像IML2とのずれが生じた場合に、使用者USは、コントローラ205を操作して球面状画像VSS2を回転させることにより、画像表示装置204に表示されている右目用画像IMR2と左目用画像IML2とのずれを簡便に調整することができる。
 第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、補正値CV1が画像調整装置210またはサーバ206に保存されている場合、画像処理部211は、補正値CV1を画像調整装置210またはサーバ206から読み出し、カメラ202が撮影した撮影画像IM2(右目用画像IMR2または左目用画像IML2)を補正値CV1に基づいて画像調整し、画像表示装置204に表示することができる。
 第2実施形態の画像調整システム201、画像調整装置210、及び画像調整方法によれば、カメラ202は、姿勢制御装置220によって水平または水平に近い状態に姿勢制御される。カメラ202が姿勢制御された状態において、使用者USは右目用画像IMR2と左目用画像IML2とのずれを調整するため、上記のずれを簡便に調整することができる。
 (第3実施形態)
 図7を用いて、第3実施形態の画像調整システムの構成例を説明する。画像調整システム301は、カメラ302と、姿勢制御装置320と、通信部303と、画像表示装置304と、コントローラ305と、画像調整装置310と、サーバ306とを備える。画像調整装置310は、画像処理部311と、画像生成部312と、通信部313とを有する。
 カメラ302、姿勢制御装置320、通信部303、画像表示装置304、コントローラ305、画像調整装置310、及びサーバ306は、それぞれ、第2実施形態のカメラ202、姿勢制御装置220、通信部203、画像表示装置204、コントローラ205、画像調整装置210、及びサーバ206に相当する。画像処理部311、画像生成部312、及び通信部313は、それぞれ、第2実施形態の画像処理部211、画像生成部212、及び通信部213に相当する。説明をわかりやすくするために、第2実施形態の構成部と同じ構成部には同じ符号を付す。
 図8に示すように、カメラ302は、第1の面PL1側の180度の範囲を第1の右目用レンズLR1と第1の左目用レンズLL1とを用いて撮影する第1のカメラ3021と、第2の面PL2側の180度の範囲を第2の右目用レンズLR2と第2の左目用レンズLL2とを用いて撮影する第2のカメラ3022とを有する。第1及び第2のカメラ3021及び3022は、第2実施形態の第1及び第2のカメラ2021及び2022に相当する。即ち、カメラ302は、360度の範囲を撮影できる全方位カメラ(360度カメラ)であり、右目用画像と左目用画像とを撮影できるステレオカメラである。
 カメラ302は、第1及び第2の右目用レンズLR1及びLR2を用いて360度の範囲を撮影し、右目用画像IMR3を生成する。カメラ302は、第1及び第2の左目用レンズLL1及びLL2を用いて360度の範囲を撮影し、左目用画像IML3を生成する。
 姿勢制御装置320は、カメラ302の姿勢を制御する。図9に示すように、姿勢制御装置320は、カメラ302の左右方向の傾きを制御する。例えば、姿勢制御装置320は、回転軸CLaを中心としてカメラ302を回転させることにより、カメラ302の左右方向の傾きを制御する。即ち、カメラ302の左右方向の傾きとは、回転軸CLaを中心とするカメラ302の傾きである。図10に示すように、姿勢制御装置320は、カメラ302の前後方向の傾きを制御してもよい。例えば、姿勢制御装置320は、回転軸CLbを中心としてカメラ302を回転させることにより、カメラ302の前後方向の傾きを制御する。即ち、カメラ302の前後方向の傾きとは、回転軸CLbを中心とするカメラ302の傾きである。
 図11に示すように、姿勢制御装置320は、3軸加速度センサ221(第1のセンサ)と、3軸磁気センサ222(第2のセンサ)と、3軸ジャイロセンサ223(第3のセンサ)と、駆動制御部224と、駆動部225と、駆動部226とを有する。カメラ302が加速または減速しながら移動している場合、駆動制御部224は、第1のセンサ221が検知した情報と、第2及び第3のセンサ222及び223の少なくともいずれかが検知した情報とに基づいて駆動部225及び226の少なくともいずれかを制御する。
 画像調整装置310は、カメラ302が360度の範囲を撮影した右目用画像IMR3及び左目用画像IML3を撮影画像IM3として、通信部303及び313とネットワークとを介して取得することができる。
 サーバ306は、ネットワークと通信部303とを介してカメラ302と接続し、ネットワークと通信部313とを介して画像調整装置310と接続する。サーバ306がカメラ302から撮影画像IM3を通信部303及びネットワークを介して取得し、画像調整装置310がサーバ306から撮影画像IM3をネットワーク及び通信部313を介して取得してもよい。図7では、画像調整装置310またはサーバ306は、撮影画像IM3を、姿勢制御装置320を介して取得するように示しているが、姿勢制御装置320を介さずに取得してもよい。
 画像調整装置310が取得した撮影画像IM3は、画像処理部311へ入力される。画像調整装置310は、撮影画像IM3の歪みを補正する等の画像処理を実行し、画像処理された撮影画像IM3を画像表示装置304へ出力する。
 画像表示装置304が使用者USの頭部に装着されている状態で、画像調整装置310が使用者USの右目に対応する領域に右目用画像IMR3を表示し、使用者USの左目に対応する領域に左目用画像IML3を表示することにより、使用者USは、撮影画像IM3を立体画像として見ることができる。
 サーバ306がカメラ302から取得した撮影画像IM3の歪みを補正し、撮影画像IM3の例えば水平を調整する等の画像処理を実行し、画像処理された撮影画像IM3を画像調整装置310へ出力してもよい。使用者USは、その頭部に画像表示装置304を装着することにより、画像調整装置310またはサーバ306によって画像処理された撮影画像IM3を見ることができる。
 画像表示装置304は、使用者USの頭部に装着されている状態において、使用者USが向いている方向、及び使用者USの姿勢等の状態に基づいて姿勢情報PN3を生成する。画像処理部311は、画像表示装置304から姿勢情報PN3を取得する。即ち、画像処理部311は、画像表示装置304の姿勢に基づいて姿勢情報PN3を取得することになる。画像処理部311は、姿勢情報PN3に基づいて、撮影画像IM3から、使用者USが向いている方向、及び使用者USの姿勢等の状態に対応する領域の画像を画像表示装置304に表示する。
 コントローラ305は、使用者USの手に装着されている状態において、使用者USの手の動きまたは姿勢等の状態に基づいて指示情報NN3を生成する。画像処理部311は、コントローラ305から指示情報NN3を取得する。画像処理部311は、指示情報NN3に基づいて、画像表示装置304に表示されている撮影画像IM3を変化させたり調整したりすることができる。
 画像生成部312は、CGである球面により構成された仮想画像である球面状画像VSS3を生成し、内蔵メモリまたは外部のメモリに保存する。画像処理部311は、指示情報NN3に基づいて、画像生成部312から球面状画像VSS3を取得し、画像表示装置304に表示する。球面状画像VSS3は、第1及び第2実施形態の球面状画像VSS1及びVSS2に相当する。使用者USは、コントローラ305が装着されている手を、画像表示装置304に表示されている球面状画像VSS3に対応する位置に移動させることにより、使用者USの手が球面状画像VSS3に接触しているように感じる。
 コントローラ305は、使用者USの手と接触する部分にアクチュエータが配置されていてもよい。画像処理部311は、指示情報NN3に基づいて、使用者USの手が球面状画像VSS3に対応する位置に移動したと判断した場合、アクチュエータを作動させる。アクチュエータが使用者USの手に圧力を加えることにより、使用者USは、その手が球面状画像VSS3に接触する感覚を実感として得ることができる。
 球面状画像VSS3が画像表示装置304に表示されている状態において、使用者USが、コントローラ305が装着されている手を任意の方向へ移動させた場合、画像処理部311は、指示情報NN3に基づいて、画像表示装置304に表示されている球面状画像VSS3と撮影画像IM3とが、使用者USの手の移動方向、移動速度、及び移動先の位置に対応して移動するように画像処理を実行する。
 使用者USは、その手を任意の方向に、任意の速度で、任意の位置へ移動させることにより、球面状画像VSS3を任意の方向に、任意の速度で、任意の位置へ回転させることができる。即ち、使用者USは、その手の動きによって球面状画像VSS3を回転させることができる。画像処理部311は、球面状画像VSS3の回転に対応させて撮影画像IM3を移動させる。
 図12A及び図12Bに示すフローチャートを用いて、第3実施形態の画像調整方法の一例を説明する。具体的には、右目用画像IMR3と左目用画像IML3との上下方向のずれを調整する方法の一例について説明する。画像表示装置304が使用者USの頭部に装着され、コントローラ305が使用者USの手に装着されている。画像表示装置304には撮影画像IM3(右目用画像IMR3及び左目用画像IML3)が表示されている。
 使用者USが画像表示装置304に表示されている右目用画像IMR3と左目用画像IML3との上下方向のずれを補正する場合、図12Aにおいて、使用者USがコントローラ305を操作することにより、画像処理部311は、ステップS301にて、画像表示装置304に設定画面を表示させる。
 設定画面には、例えば、右目用画像IMR3と左目用画像IML3との上下方向のずれを補正するための上下補正の項目が調整項目として表示される。画像処理部311は、設定画面に、右目用画像IMR3と左目用画像IML3との視差を補正するための視差補正の項目、及び、右目用画像IMR3と左目用画像IML3との傾きのずれを補正するための傾き補正の項目を調整項目として表示してもよい。
 図4に示すように、右目用画像IMR3と左目用画像IML3とが上下方向にずれている場合、使用者USは設定画面に表示されている上下補正の項目を選択する。コントローラ305は、ステップS302にて、上下補正の項目が選択されたことを示す指示情報NN3を画像処理部311へ出力する。画像処理部311は、ステップS311にて、コントローラ305から出力される指示情報NN3に基づいて、右目用画像IMR3と左目用画像IML3との上下方向のずれを補正するための処理モード(上下補正モード)へ処理を移行させる。
 画像処理部311は、ステップS312にて、補正する画像が右目用画像IMR3か左目用画像IML3かを選択するための項目を画像表示装置304に表示する。使用者USが右目用画像IMR3を選択した場合、コントローラ305は、右目用画像IMR3が選択されたことを示す指示情報NN3を画像処理部311へ出力する。画像処理部311は、ステップS313にて、コントローラ305から出力される指示情報NN3に基づいて、右目用画像IMR3の上下方向を補正するための処理モード(右目用上下補正モード)へ処理を移行させる。
 画像処理部111は、ステップS314にて、画像生成部312から球面状画像VSS3を取得し、画像表示装置204に表示する。画像表示装置204には、撮影画像IM3(右目用画像IMR3及び左目用画像IML3)と球面状画像VSS3とが混合して表示される。
 使用者USは、右目用画像IMR3と左目用画像IML3との上下方向のずれが小さくなるように球面状画像VSS3を上方向または下方向へ回転させる。画像処理部311は、ステップS315にて、球面状画像VSS3の回転に対応させて、画像表示装置304に表示されている右目用画像IMR3を上方向または下方向へ移動させる。
 ステップS312において使用者USが左目用画像IML3を選択した場合、コントローラ305は、左目用画像IML3が選択されたことを示す指示情報NN3を画像処理部311へ出力する。画像処理部311は、ステップS316にて、コントローラ305から出力される指示情報NN3に基づいて、左目用画像IML3の上下方向を補正するための処理モード(左目用上下補正モード)へ処理を移行させる。
 画像処理部311は、ステップS317にて、画像生成部312から球面状画像VSS3を取得し、画像表示装置304に表示する。画像表示装置304には、撮影画像IM3(右目用画像IMR3及び左目用画像IML3)と球面状画像VSS3とが混合して表示される。
 使用者USは、右目用画像IMR3と左目用画像IML3との上下方向のずれが小さくなるように球面状画像VSS3を上方向または下方向へ回転させる。画像処理部311は、ステップS318にて、球面状画像VSS3の回転に対応させて、画像表示装置304に表示されている左目用画像IML3を上方向または下方向へ移動させる。
 ステップS311において上下補正モードへ移行された場合、ステップS313において右目用上下補正モードへ移行された場合、または、ステップS316において左目用上下補正モードへ移行された場合、画像処理部311は、球面状画像VSS3が上下方向のみに回転するように球面状画像VSS3の回転方向を制限してもよい。また、球面状画像VSS3を回転させずに、球面状画像VSS3を上下に動かすことで右目用画像IMR3または左目用画像IML3を上方向または下方向へ移動させてもよい。
 画像処理部311は、使用者USが球面状画像VSS3を回転させる前の天頂ZEが、使用者USが球面状画像VSS3を回転させることによって球面状画像VSS3の座標上のどの位置へ移動したかを判定することができる。画像処理部311は、球面状画像VSS3の座標上における天頂ZEの移動方向及び移動先の位置に基づいて、使用者USが球面状画像VSS3を回転させる前と回転させた後との球面状画像VSS3の変化量を算出する。球面状画像VSS3の変化量は球面状画像VSS1の変化量に相当する。
 図9に示すようにカメラ302が左右方向に傾いていると、図4に示すように右目用画像IMR3と左目用画像IML3とは上下方向にずれる。そのため、使用者USが球面状画像VSS3を回転させて撮影画像IM3を調整しても、画像表示装置304に表示されている右目用画像IMR3と左目用画像IML3との上下方向のずれを十分に補正できない場合がある。
 図12Bにおいて、画像処理部311は、ステップS321にて、姿勢情報PN3、または画像表示装置304に表示されている撮影画像IM3に基づいて、画像表示装置304に表示されている撮影画像IM3が、第1のカメラ3021が撮影したものか第2のカメラ3022が撮影したものかを判定する。
 画像処理部311は、ステップS322にて、ステップS321における判定結果(第1のカメラ3021または第2のカメラ3022)と、指示情報NN3、または画像表示装置304に表示されている撮影画像IM3の調整方向(上方向または下方向)及び調整量とから、カメラ302の傾斜方向と傾斜角度とを推定する。画像表示装置304に表示されている右目用画像IMR3と左目用画像IML3との距離をd、上方向または下方向の調整量をhとすると、カメラ302の傾斜角度θaは、関係式θa=tan-1(h/d)により算出することができる。
 画像処理部311は、ステップS323にて、ステップS322における推定結果(具体的にはカメラ302の傾斜方向及び傾斜角度)に基づいて、カメラ302の姿勢を補正するための補正情報CNを生成する。さらに、画像処理部311は、補正情報CNを、通信部313及び303とネットワークとを介して姿勢制御装置320へ出力する。画像処理部311が補正情報CNを通信部313とネットワークとを介してサーバ306へ出力し、サーバ306が補正情報CNをネットワークと通信部303とを介して姿勢制御装置320へ出力してもよい。
 姿勢制御装置320は、ステップS324にて、補正情報CNに基づいて、カメラ302の姿勢を制御する。画像処理部311は、ステップS325にて、姿勢制御装置320によるカメラ302の姿勢制御が終了したことを確認する。姿勢制御装置320がカメラ302の姿勢制御が終了したことを示す終了信号ESを生成し、通信部303及び313とネットワークとを介して画像処理部311へ出力してもよい。
 画像処理部311は、ステップS326にて、球面状画像VSS3の表示を終了させ、ステップS315またはS318とは逆の補正を実行する。例えば、ステップS315において右目用画像IMR3を上方向へ移動させた場合、画像処理部311は、右目用画像IMR3を下方向へ移動させて右目用画像IMR3がステップS315の処理が実行される前の状態となるように画像処理を実行する。例えば、ステップS318において左目用画像IML3を下方向へ移動させた場合、画像処理部311は、左目用画像IML3を上方向へ移動させて左目用画像IML3がステップS318の処理が実行される前の状態となるように画像処理を実行する。
 即ち、姿勢制御装置320がカメラ302の姿勢を制御することにより、画像処理部311は、右目用画像IMR3に対してステップS315の処理が実行される前の状態に処理を戻す、または、左目用画像IML3に対してステップS318の処理が実行される前の状態に処理を戻すように画像処理を実行し、処理を終了する。
 第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法では、画像表示装置304に球面状画像VSS3を表示させる。第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法によれば、右目用画像IMR3と左目用画像IML3とのずれが生じた場合に、使用者USは、コントローラ305を操作して球面状画像VSS3を回転させることにより、画像表示装置304に表示されている右目用画像IMR3と左目用画像IML3とのずれを簡便に調整することができる。
 第3実施形態の画像調整システム301、画像調整装置310、及び画像調整方法では、画像調整装置310による撮影画像IM3の調整結果に基づいてカメラ302の傾斜方向と傾斜角度とを推定し、推定結果に基づいて姿勢制御装置320がカメラ302の姿勢を制御する。カメラ302は姿勢制御装置320によって水平または水平に近い状態に姿勢制御されるため、使用者USは右目用画像IMR3と左目用画像IML3とのずれを調整する場合に上記のずれを簡便に調整することができる。
 本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。
 例えば、CGにより生成される仮想画像VSSは、楕円体の表面(楕円面)であってもよく、さらには使用者USの手の届く範囲であれば、任意の閉じた面(閉曲面)であればよい。即ち、使用者USが内側からその閉曲面に接触するような感覚を得て、撮影画像IMの水平調整ができればよい。使用者USが仮想画像VSSを回転動作させることから、仮想画像VSSは球面または楕円面等の球面に近い球面状の形状であることが望ましい。
 本実施形態の画像調整システム、画像調整装置、及び画像調整方法によれば、右目用画像と左目用画像とのずれを簡便に補正することができる。

Claims (14)

  1.  右目用画像と左目用画像とを撮影するカメラと、
     前記カメラから前記右目用画像と前記左目用画像とを撮影画像として取得し、前記撮影画像を調整する画像調整装置と、
     前記画像調整装置により調整された前記撮影画像を表示する画像表示装置と、
     前記画像調整装置へ指示情報を出力するコントローラと、
     を備え、
     前記画像調整装置は、
     球面状画像を生成する画像生成部と、
     前記指示情報に基づいて前記画像生成部から前記球面状画像を取得して前記画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、前記球面状画像の回転に対応させて前記画像表示装置に表示されている前記撮影画像における前記右目用画像または前記左目用画像を調整する画像処理部と、
     を有する画像調整システム。
  2.  前記カメラの左右方向の傾斜角度が前記カメラの前後方向の傾斜角度よりも小さくなるように前記カメラの姿勢を制御する姿勢制御装置を更に備える、
     請求項1に記載の画像調整システム。
  3.  前記カメラは撮影レンズを有し、
     前記姿勢制御装置は、前記撮影レンズの光軸と平行な第1の回転軸を中心として前記カメラの左右方向の傾きを制御し、前記撮影レンズの光軸に直交する第2の回転軸を中心として前記カメラの前後方向の傾きを制御する、
     請求項2に記載の画像調整システム。
  4.  前記カメラの姿勢を制御する姿勢制御装置を更に備え、
     前記画像処理部は、前記指示情報、または、前記画像表示装置に表示されている前記撮影画像の調整方向及び調整量に基づいて前記カメラの傾斜方向及び傾斜角度を推定し、推定結果に基づいて補正情報を生成し、
     前記姿勢制御装置は、前記補正情報に基づいて前記カメラの姿勢を制御する、
     請求項1に記載の画像調整システム。
  5.   前記姿勢制御装置による前記カメラの姿勢制御が終了したときに、
     前記画像処理部は、前記右目用画像または前記左目用画像を調整する前の状態に戻す、
     請求項4に記載の画像調整システム。
  6.  前記カメラは360度の範囲を撮影する全方位カメラであり、
     前記画像表示装置は使用者の頭部に装着されるヘッドマウントディスプレイであり、
     前記コントローラは前記使用者の手に装着されるグローブ型コントローラであり、
     前記画像表示装置が前記使用者の頭部に装着されている状態において、前記使用者が前記画像表示装置に表示されている前記球面状画像を見たときに、前記球面状画像は、前記使用者及び前記画像表示装置の周囲に配置され、かつ、前記使用者の手または指が前記球面状画像に届く範囲に表示されるように設定されている仮想画像である、
     請求項1に記載の画像調整システム。
  7.  前記コントローラが前記使用者の手に装着されている状態において、前記使用者が手または指を任意の方向へ移動させた場合、前記画像処理部は、前記指示情報に基づいて、前記使用者の手または指の移動に対応して前記球面状画像を回転させ、前記球面状画像の回転に対応して前記画像表示装置に表示されている前記撮影画像における前記右目用画像または前記左目用画像を調整する、
     請求項6に記載の画像調整システム。
  8.  前記画像処理部は、前記球面状画像が回転する前と後との変化量を取得し、前記変化量に基づいて前記撮影画像を調整する、
     請求項7に記載の画像調整システム。
  9.  球面状画像を生成する画像生成部と、
     コントローラから取得した指示情報に基づいて前記画像生成部から前記球面状画像を取得して画像表示装置に表示し、前記指示情報に基づいて前記球面状画像を回転させ、カメラにより撮影されて前記画像表示装置に表示されている撮影画像における右目用画像または左目用画像を、前記球面状画像の回転に対応させて調整する画像処理部と、
     を備える画像調整装置。
  10.  前記カメラは、姿勢制御装置によって左右方向の傾斜角度が前後方向の傾斜角度よりも小さくなるように姿勢制御されている、
     請求項9に記載の画像調整装置。
  11.  前記画像処理部は、前記指示情報、または、前記画像表示装置に表示されている前記撮影画像の調整方向及び調整量に基づいて前記カメラの傾斜方向及び傾斜角度を推定し、推定結果に基づいて姿勢制御装置が前記カメラの姿勢を制御するための補正情報を生成する、
     請求項10に記載の画像調整装置。
  12.  カメラが右目用画像と左目用画像とを撮影し、
     画像処理部が前記カメラから前記右目用画像と前記左目用画像とを撮影画像として取得し、
     画像表示装置が前記撮影画像を表示し、
     前記画像処理部がコントローラから指示情報を取得し、
     前記画像処理部が前記指示情報に基づいて、画像生成部から球面状画像を取得し、
     前記画像表示装置が前記球面状画像を表示し、
     前記画像処理部が前記指示情報に基づいて前記球面状画像を回転させ、
     前記画像処理部が前記画像表示装置に表示されている前記撮影画像における前記右目用画像または前記左目用画像を、前記球面状画像の回転に対応させて調整する、
     画像調整方法。
  13.  姿勢制御装置が前記カメラの左右方向の傾斜角度が前記カメラの前後方向の傾斜角度よりも小さくなるように前記カメラの姿勢を制御する、
     請求項12に記載の画像調整方法。
  14.  前記画像処理部が前記指示情報、または、前記画像表示装置に表示されている前記撮影画像の調整方向及び調整量に基づいて前記カメラの傾斜方向及び傾斜角度を推定し、
     前記画像処理部が推定結果に基づいて補正情報を生成し、
     姿勢制御装置が前記補正情報に基づいて前記カメラの姿勢を制御する、
     請求項12に記載の画像調整方法。
PCT/JP2020/005238 2019-02-15 2020-02-12 画像調整システム、画像調整装置、及び画像調整方法 WO2020166581A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/304,992 US11647292B2 (en) 2019-02-15 2021-06-29 Image adjustment system, image adjustment device, and image adjustment

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2019025373A JP7127569B2 (ja) 2019-02-15 2019-02-15 画像調整システム、画像調整装置、及び画像調整方法
JP2019025375A JP2020134617A (ja) 2019-02-15 2019-02-15 画像調整システム、画像調整装置、及び画像調整方法
JP2019-025373 2019-02-15
JP2019025377A JP2020136802A (ja) 2019-02-15 2019-02-15 画像調整システム、画像調整装置、及び画像調整方法
JP2019-025375 2019-02-15
JP2019-025377 2019-02-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/304,992 Continuation US11647292B2 (en) 2019-02-15 2021-06-29 Image adjustment system, image adjustment device, and image adjustment

Publications (1)

Publication Number Publication Date
WO2020166581A1 true WO2020166581A1 (ja) 2020-08-20

Family

ID=72044909

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005238 WO2020166581A1 (ja) 2019-02-15 2020-02-12 画像調整システム、画像調整装置、及び画像調整方法

Country Status (2)

Country Link
US (1) US11647292B2 (ja)
WO (1) WO2020166581A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7291594B2 (ja) * 2019-10-02 2023-06-15 株式会社Subaru 画像処理装置
JP2021089382A (ja) * 2019-12-05 2021-06-10 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体
US11622100B2 (en) * 2021-02-17 2023-04-04 flexxCOACH VR 360-degree virtual-reality system for dynamic events

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191419A (ja) * 1995-01-10 1996-07-23 Yamaha Corp 頭部装着型表示システム
JP2002354505A (ja) * 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2018056889A (ja) * 2016-09-30 2018-04-05 株式会社リコー 表示端末、表示方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4355535B2 (ja) 2003-08-07 2009-11-04 株式会社岩根研究所 360度画像変換処理装置
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191419A (ja) * 1995-01-10 1996-07-23 Yamaha Corp 頭部装着型表示システム
JP2002354505A (ja) * 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2018056889A (ja) * 2016-09-30 2018-04-05 株式会社リコー 表示端末、表示方法、及びプログラム

Also Published As

Publication number Publication date
US11647292B2 (en) 2023-05-09
US20210329171A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
WO2020166581A1 (ja) 画像調整システム、画像調整装置、及び画像調整方法
EP3379525B1 (en) Image processing device and image generation method
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
CN110320999B (zh) 用于三维(3d)注视预测的深度学习的方法和系统
US10115235B2 (en) Method for controlling head mounted display, and system for implemeting the method
JP6479199B2 (ja) 情報処理装置
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
JP6649010B2 (ja) 情報処理装置
JP6450226B2 (ja) カメラ制御装置及びそのプログラム
CN113438465A (zh) 一种显示调节方法、装置、设备及介质
JP7127569B2 (ja) 画像調整システム、画像調整装置、及び画像調整方法
JP7122372B2 (ja) 画像生成装置、画像生成システム、および画像生成方法
US11703948B2 (en) Image adjustment system, image adjustment device, and image adjustment method
JP2020136802A (ja) 画像調整システム、画像調整装置、及び画像調整方法
JP2020134617A (ja) 画像調整システム、画像調整装置、及び画像調整方法
JP7167760B2 (ja) 画像調整システム
JP7247636B2 (ja) 画像調整システム、画像調整装置、及び画像調整方法
JP7471497B2 (ja) 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法
JP7301567B2 (ja) 画像表示システム、画像表示プログラム、画像表示装置、および画像表示方法
US20190130177A1 (en) Posture control system
JP2022104972A (ja) 画像処理装置、画像処理方法、およびプログラム
CN116342838A (zh) 一种头戴设备及头戴设备中的建图初始化方法
JP2020136798A (ja) 画像調整システム、画像調整装置、及び画像調整方法
JP2020134616A (ja) 画像調整システム、画像調整装置、及び画像調整方法
JP2020134615A (ja) 画像調整システム、画像調整装置、及び画像調整方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20756287

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20756287

Country of ref document: EP

Kind code of ref document: A1