WO2022054118A1 - 画像表示システム、ヘッドマウントディスプレイ、および画像表示方法 - Google Patents

画像表示システム、ヘッドマウントディスプレイ、および画像表示方法 Download PDF

Info

Publication number
WO2022054118A1
WO2022054118A1 PCT/JP2020/033858 JP2020033858W WO2022054118A1 WO 2022054118 A1 WO2022054118 A1 WO 2022054118A1 JP 2020033858 W JP2020033858 W JP 2020033858W WO 2022054118 A1 WO2022054118 A1 WO 2022054118A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
distortion
display
eyepiece
distorted
Prior art date
Application number
PCT/JP2020/033858
Other languages
English (en)
French (fr)
Inventor
徹悟 稲田
章男 大場
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to JP2022548260A priority Critical patent/JPWO2022054118A1/ja
Priority to US18/041,916 priority patent/US20230289929A1/en
Priority to PCT/JP2020/033858 priority patent/WO2022054118A1/ja
Publication of WO2022054118A1 publication Critical patent/WO2022054118A1/ja

Links

Images

Classifications

    • G06T5/80
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel

Definitions

  • the present invention relates to an image display system, a head-mounted display, and an image display method for displaying an image to be viewed through an eyepiece.
  • An image display system that allows you to view the target space from a free viewpoint is widespread.
  • electronic content that realizes VR (virtual reality) by displaying a virtual three-dimensional space as a display target and displaying an image according to the line-of-sight direction of a user wearing a head-mounted display.
  • VR virtual reality
  • a head-mounted display it is possible to enhance the immersive feeling in the image and improve the operability of applications such as games.
  • a walk-through system has been developed that allows a user wearing a head-mounted display to virtually walk around in the space displayed as an image by physically moving.
  • the present invention has been made in view of these problems, and an object of the present invention is to provide a technique capable of achieving both responsiveness and quality of image display.
  • This image display system is an image display system that displays a distorted image in which the source image to be displayed is changed in the opposite direction to the change due to the aberration of the eyepiece lens for viewing through the eyepiece, and is based on the primary color.
  • An image generator that draws a distorted image with common distortion, and a display device that determines pixel values based on the results of sampling for each primary color from different positions of the distorted image according to the chromatic aberration of the eyepiece and outputs it to the display panel. It is characterized by having.
  • This head-mounted display is a head-mounted display that displays a distorted image in which the source image to be displayed is changed in the opposite direction to the change due to the aberration of the eyepiece lens for viewing through the eyepiece, and is based on the primary color.
  • the pixel value is determined based on the result of sampling for each primary color from different positions of the distorted image according to the chromatic aberration of the eyepiece lens and the image data acquisition unit that acquires the data of the distorted image with common distortion, and outputs it to the display panel. It is characterized by having a display unit.
  • Yet another aspect of the present invention relates to an image display method.
  • This image display method is common regardless of the primary color in an image display system that displays a distorted image in which the source image to be displayed is changed in the opposite direction to the change due to the aberration of the eyepiece lens for viewing through the eyepiece. It includes a step of drawing a distorted image having distortion of the above, and a step of determining a pixel value based on the result of sampling for each primary color from different positions of the distorted image according to the chromatic aberration of the eyepiece lens and outputting it to the display panel.
  • FIG. 3 it is a figure which shows the appearance example of the head-mounted display in this embodiment. It is a figure which shows the configuration example of the image processing system in this embodiment. It is a figure for demonstrating the example of the image world which an image generator displays on a head-mounted display in this embodiment. In the form shown in FIG. 3, it is a figure which shows the transition of the general image until it is displayed on the head-mounted display. It is a figure for demonstrating the color shift in the distorted image of this embodiment. It is a figure which shows the general processing procedure which displays the distorted image which considered the chromatic aberration of an eyepiece. It is a figure which shows another processing procedure which displays a distorted image which considered the chromatic aberration of an eyepiece.
  • FIG. 1 It is a figure which shows the processing procedure which displays the distorted image which considered the chromatic aberration of an eyepiece in this embodiment. It is a figure which shows the internal circuit structure of the image generation apparatus in this embodiment. It is a figure which illustrates the internal structure of the head-mounted display in this embodiment. It is a figure which shows the structure of the functional block of the image generator and the head-mounted display in this embodiment. It is a figure for demonstrating the technique which the distortion image generation part determines the pixel value of a distortion image in this embodiment. It is a figure for demonstrating the sampling process of the pixel value in the head-mounted display of this embodiment.
  • FIG. 1 shows an example of the appearance of the head-mounted display 100.
  • the head-mounted display 100 is composed of an output mechanism unit 102 and a mounting mechanism unit 104.
  • the mounting mechanism unit 104 includes a mounting band 106 that goes around the head and realizes fixing of the device when the user wears it.
  • the output mechanism unit 102 includes a housing 108 having a shape that covers the left and right eyes when the head-mounted display 100 is worn by the user, and has a display panel inside so as to face the eyes when the head-mounted display 100 is worn.
  • the inside of the housing 108 further includes an eyepiece that is located between the display panel and the user's eyes when the head-mounted display 100 is attached and expands the viewing angle of the user.
  • the head-mounted display 100 may further include a speaker or earphone at a position corresponding to the user's ear when worn.
  • the head-mounted display 100 has a built-in motion sensor, and detects the translational motion and the rotational motion of the head of the user wearing the head-mounted display 100, and by extension, the position and posture at each time.
  • the head-mounted display 100 is provided with a stereo camera 110 on the front surface of the housing 108, and shoots a moving image of the surrounding real space with a field of view corresponding to the user's line of sight.
  • a stereo camera 110 on the front surface of the housing 108, and shoots a moving image of the surrounding real space with a field of view corresponding to the user's line of sight.
  • video see-through By displaying the captured image immediately, it is possible to realize so-called video see-through, in which the state of the real space in the direction the user is facing can be seen as it is.
  • AR augmented reality
  • FIG. 2 shows a configuration example of the image processing system according to the present embodiment.
  • the head-mounted display 100 is connected to the image generator 200 by wireless communication or an interface for connecting peripheral devices such as USB.
  • the image generator 200 may be further connected to the server via a network.
  • the server may provide the image generator 200 with an online application such as a game in which a plurality of users can participate via a network.
  • the image generation device 200 specifies the position of the viewpoint and the direction of the line of sight based on the position and posture of the head of the user wearing the head-mounted display 100, and generates a display image so as to have a corresponding field of view and head-mounts the display. Output to the display 100.
  • the purpose of displaying the image may be various.
  • the image generation device 200 may generate a virtual world, which is the stage of the game, as a display image while advancing the electronic game, or may use a still image or a still image for viewing or providing information regardless of whether the virtual world is the real world.
  • a moving image may be displayed.
  • the image generator 200 may be provided inside the head-mounted display 100.
  • the image processing system shown in the figure is realized by one head-mounted display 100.
  • FIG. 3 is a diagram for explaining an example of an image world displayed on the head-mounted display 100 by the image generator 200 in the present embodiment.
  • the user 12 is in a room which is a virtual space.
  • objects such as walls, floors, windows, tables, and objects on the table are arranged in the world coordinate system that defines the virtual space.
  • the image generation device 200 defines a view screen 14 in the world coordinate system according to the position of the viewpoint of the user 12 and the direction of the line of sight, and draws a display image by representing an image of an object on the view screen 14.
  • the image can be displayed in the field of view corresponding to the user's viewpoint.
  • the virtual space can be viewed stereoscopically. This allows the user 12 to experience virtual reality as if he were in a room in the display world.
  • FIG. 4 shows the transition of a general image until it is displayed on the head-mounted display 100 in the form shown in FIG.
  • an image 16 corresponding to the user's field of view is generated by projecting an object existing in the virtual world on the view screen corresponding to the user's viewpoint.
  • the image in the image 16 is laterally shifted by the visual difference according to the distance between the left and right eyes, or the image 16 is generated for each eye, so that the image 18a for the left eye and the image 18b for the right eye are generated.
  • the final display image 22 is generated by reverse-correcting each of the left-eye image 18a and the right-eye image 18b according to the distortion and chromatic aberration of the eyepiece.
  • the reverse correction is to distort the image in advance or to give a primary color (RGB) by giving a change opposite to the change due to the aberration of the lens so that the original image 16 can be visually recognized when viewed through the eyepiece.
  • RGB primary color
  • a distorted image an image to which distortion or color shift corresponding to the eyepiece is given is referred to as a "distorted image”.
  • FIG. 5 is a diagram for explaining color shift in a distorted image.
  • the distorted image 24 represents a room with a black and white checkered floor.
  • the distorted image 24 is distorted to a greater degree toward the peripheral portion. Due to the chromatic aberration of the eyepiece, how the distortion is applied differs depending on the primary colors of R (red), G (green), and B (blue).
  • R red
  • G green
  • B blue
  • a large color shift occurs toward the peripheral portion.
  • the color gradually changes at the portion 28 that originally represents the boundary between white and black.
  • the boundary for switching from white to black is different in RGB, for example, red remains at maximum brightness in the part that should be the black area, and colors other than white and black are produced. The result is that it occurs.
  • the distorted image 24 can be generated, for example, by once generating an image without distortion and distorting the image to a different degree according to the aberration for each primary color.
  • FIG. 6 shows a general processing procedure for displaying a distorted image in consideration of chromatic aberration of the eyepiece.
  • the image generation device generates a distortion-free image 32 by projecting scene data 30 such as three-dimensional information representing a virtual world onto a view screen (S10).
  • scene data 30 such as three-dimensional information representing a virtual world onto a view screen (S10).
  • This image corresponds to the image 16 of FIG. 4, and is a general image in which each pixel has an RGB pixel value without deviation.
  • the image generator distorts the image of each of the three RGB planes with different degrees of distortion depending on the chromatic aberration (S12).
  • distorted images 34a, 34b, 34c of RGB having a slight deviation in the image are generated.
  • an image having these distorted images as a pixel value element is displayed.
  • the image generation device 200 generates RGB distorted images 34a, 34b, 34c and transmits them as display image data, so that the head-mounted display 100 transmits the transmitted data. It can be displayed as it is.
  • FIG. 7 shows another processing procedure for displaying a distorted image in consideration of chromatic aberration of the eyepiece.
  • the image generation device generates a distortion-free image 32 by projecting the scene data 30 onto the view screen (S10).
  • the image generator 200 transmits the distortion-free image 32 data to the head-mounted display as it is, and gives distortion according to distortion and chromatic aberration in the head-mounted display.
  • the image generator transmits the distortion-free image 32 data to the head-mounted display in the order of the drawn pixel strings (S16).
  • the pixel strings are transmitted with a time difference by drawing the partial data 38a, 38b, 38c, ... By shifting them.
  • the head-mounted display 100 stores the transmitted pixel string data in a line buffer and samples it from a position based on distortion and chromatic aberration to determine the pixel value of the display image 36 and display it on the display panel (S18, S20).
  • the head-mounted display acquires color information from a position different for each RGB, which depends on chromatic aberration, among the distortion-free partial data 40 stored in the line buffer.
  • RGB partial data 42a, 42b, 42c having different distortions are generated and displayed.
  • the partial data 40, 42a, 42b, and 42c are represented by the width of the grid unit on the image, but in reality, the data can be updated or output in the row unit of the pixel. The same applies to FIG. 8, which will be described later.
  • the image generation apparatus it is possible to omit the buffer memory for storing the intermediate data for one frame and the access process to the memory.
  • the data of the sampling destination 46 of the distorted image is required.
  • the line connecting the sampling destinations 46 is curved according to the distortion applied, so that the data required to output one line of the display image is a pixel sequence of y0 lines.
  • the required number of lines increases toward the top and bottom of the image, and may differ depending on RGB.
  • it is necessary to prepare a line buffer that can store the required maximum number of lines which increases the memory cost in the head-mounted display 100.
  • the processing time for reading increases, which leads to a delay from receiving the image data to displaying it. Therefore, in the present embodiment, in the image generation device 200, the same distortion is applied to all three planes of RGB, and in the head-mounted display 100, only the remaining distortion is applied.
  • FIG. 8 shows a processing procedure for displaying a distorted image in consideration of chromatic aberration of the eyepiece in the present embodiment.
  • the image generation device 200 directly generates a distorted image 50 having a common distortion in RGB directly from the scene data 30.
  • the image generation device 200 generates a distorted image 50 in which distortion to be given to the G plane of RGB is given to all planes.
  • the image generation device 200 transmits the data of the distorted image 50 to the head-mounted display in the order of the drawn pixel strings (S24).
  • the frame buffer for temporarily storing the distorted image becomes unnecessary. Further, by applying the same distortion to all planes and outputting in the order of drawing, the delay time from drawing to output can be suppressed.
  • the pixel strings are transmitted with a time difference by drawing the partial data 52a, 52b, 52c, ... By shifting them.
  • the actual transmission may be in pixel string units.
  • the head-mounted display 100 stores the transmitted pixel string data in a line buffer and samples the data from the line buffer to determine the pixel value of the display image 36 and display it on the display panel (S26, S28). Similar to the procedure of FIG. 7, in the sampling process, as shown in the upper part of the figure, the head-mounted display 100 acquires color information from a position different for each RGB, which depends on chromatic aberration, among the partial data 56 stored in the line buffer. do. As a result, RGB partial data 58a, 58b, 58c having different distortions are generated and displayed.
  • the head-mounted display 100 may acquire the pixel value at the same position in the line buffer for the plane of G and output it as it is. For the planes of R and B, it is sufficient to acquire the color information of the destination displaced by the difference from the distortion of G.
  • the data of the sampling destination 62 of the original distorted image is required, but the sampling destination 62 has a distribution close to a straight line, so that it is necessary y.
  • the number of pixel strings for one row is clearly smaller than that in the case of FIG. 7.
  • the image generator 200 may correspond to R or B, or may be a predetermined one other than that. However, if any of the RGB distortions is applied, it is advantageous in that the pixel value of the color can be output as it is on the head-mounted display 100.
  • FIG. 9 shows the internal circuit configuration of the image generator 200.
  • the image generation device 200 includes a CPU (Central Processing Unit) 222, a GPU (Graphics Processing Unit) 224, and a main memory 226. Each of these parts is connected to each other via a bus 230. An input / output interface 228 is further connected to the bus 230.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the input / output interface 228 outputs data to a peripheral device interface such as USB or IEEE1394, a communication unit 232 consisting of a wired or wireless LAN network interface, a storage unit 234 such as a hard disk drive or non-volatile memory, and a head mount display 100.
  • a peripheral device interface such as USB or IEEE1394
  • a communication unit 232 consisting of a wired or wireless LAN network interface
  • a storage unit 234 such as a hard disk drive or non-volatile memory
  • An output unit 236, an input unit 238 for inputting data from the head mount display 100, and a recording medium driving unit 240 for driving a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected.
  • the CPU 222 controls the entire image generation device 200 by executing the operating system stored in the storage unit 234.
  • the CPU 222 also executes various programs read from the removable recording medium, loaded into the main memory 226, or downloaded via the communication unit 232.
  • the GPU 224 has a geometry engine function and a rendering processor function, performs drawing processing according to a drawing command from the CPU 222, and outputs the result to the output unit 236.
  • the main memory 226 is composed of a RAM (Random Access Memory) and stores programs and data required for processing.
  • FIG. 10 illustrates the internal configuration of the head-mounted display 100.
  • the control unit 150 is a main processor that processes and outputs signals such as image signals and sensor signals, as well as instructions and data.
  • the stereo camera 110 supplies the captured image data to the control unit 150 at a predetermined rate.
  • the display panel 152 is composed of a light emitting panel such as a liquid crystal display or an organic EL and a control mechanism thereof, and receives and displays an image signal from the control unit 150.
  • the communication control unit 154 transmits data input from the control unit 150 to the outside via a network adapter or an antenna (not shown) by wired or wireless communication.
  • the communication control unit 154 also receives data from the outside via a network adapter or an antenna by wired or wireless communication and outputs the data to the control unit 150.
  • the storage unit 160 temporarily stores data, parameters, operation signals, and the like processed by the control unit 150.
  • the motion sensor 162 measures posture information such as the rotation angle and tilt of the head-mounted display 100, and sequentially supplies it to the control unit 150.
  • the external input / output terminal interface 164 is an interface for connecting peripheral devices such as a USB (Universal Serial Bus) controller.
  • the external memory 166 is an external memory such as a flash memory.
  • the control unit 150 can supply image and audio data to the display panel 152 and earphones and speakers (not shown) for output, or supply the communication control unit 154 to the outside for transmission.
  • FIG. 11 shows the configuration of the functional blocks of the image generator 200 and the head-mounted display 100 according to the present embodiment.
  • the image generation device 200 may perform general information processing such as progressing an electronic game or communicating with a server, but FIG. 11 particularly focuses on a function of generating a display image. ..
  • At least a part of the functions of the image generation device 200 shown in FIG. 11 may be mounted on the head-mounted display 100.
  • at least a part of the functions of the image generator 200 may be implemented in a server connected to the image generator 200 via a network.
  • the functional block shown in FIG. 11 can be realized by the configuration of the CPU, GPU, control unit, various memories, sensors and the like shown in FIG. 9 or 10 in terms of hardware, and the memory from a recording medium or the like in terms of software. It is realized by a program that exerts various functions such as data input function, data retention function, image processing function, communication function, etc. loaded in. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and the present invention is not limited to any of them.
  • the image generation device 200 generates an input data acquisition unit 260 for acquiring data transmitted from the head mount display 100, a viewpoint information acquisition unit 261 for acquiring information related to the user's viewpoint, and a distorted image representing the space to be displayed. It is provided with a distorted image generation unit 266 and an output unit 268 that outputs distorted image data to the head mount display 100.
  • the image generation device 200 further includes a scene data storage unit 254 for storing scene data to be displayed, and a distortion information storage unit 256 for storing distortion information to be given by the image generation device 200.
  • the input data acquisition unit 260 is composed of the input unit 238, the CPU 222, and the like in FIG. 9, and data such as measured values of a motion sensor transmitted from the head-mounted display 100 and images taken by the stereo camera 110 at a predetermined rate. get.
  • the viewpoint information acquisition unit 261 is composed of the CPU 222 and the like shown in FIG. 9, and acquires the position of the user's viewpoint and the direction of the line of sight at a predetermined rate. For example, the viewpoint information acquisition unit 261 specifies the position and posture of the head based on the measured values of the motion sensor of the head-mounted display 100.
  • a light emitting marker (not shown) is provided outside the head-mounted display 100, and the viewpoint information acquisition unit 261 acquires information on the position and posture of the head by acquiring and analyzing the captured image from an image pickup device (not shown). May be good.
  • the viewpoint information acquisition unit 261 may acquire the position and posture of the head by a technique such as SLAM based on the captured image of the stereo camera 110. If the position and posture of the head can be acquired in this way, the position of the user's viewpoint and the direction of the line of sight can be roughly specified.
  • the viewpoint information acquisition unit 261 may predict the position of the viewpoint and the direction of the line of sight at the timing when the image is displayed on the head-mounted display 100 based on the movement of the viewpoint in the past. It is understood by those skilled in the art that various other possible means for acquiring and predicting information related to the user's viewpoint.
  • the distorted image generation unit 266 is composed of the GPU 224, the main memory 226, and the like in FIG. 6, and a predetermined image representing the space to be displayed in the field of view corresponding to the viewpoint or line of sight acquired or predicted by the viewpoint information acquisition unit 261. Draw at a rate. This image may be the result of information processing such as a game.
  • the scene data storage unit 254 stores object model data necessary for image drawing and information related to the progress of the scene. As described above, the distorted image generation unit 266 uses the data stored in the scene data storage unit 254 and the captured image data transmitted from the head-mounted display 100 as needed, and is common regardless of RGB. Directly draw an image with distortion.
  • the method used by the distorted image generation unit 266 for drawing is not particularly limited, and may be any of ray tracing and rasterization.
  • the distortion information storage unit 256 stores information related to distortion given to the image by the distortion image generation unit 266.
  • the distortion information storage unit 256 stores a displacement vector map showing which position each pixel in the plane of the distorted image corresponds to in the image plane without distortion.
  • the distorted image generation unit 266 obtains the color of the image to be represented at the corresponding position of the distorted image for each pixel in the plane of the distorted image by ray tracing or the like, and uses it as the pixel value of the original pixel.
  • the "distortion-free image" is not actually generated, and only the position coordinates of the corresponding points are used as a medium for acquiring color information by the conventional method. That is, the distorted image generation unit 266 determines the pixel value of the distorted image by directly acquiring the color information at the corresponding point. As described above, the distortion given by the distortion image generation unit 266 is common to RGB. Therefore, the distortion information storage unit 256 stores one type of data representing distortion such as a displacement vector map. For example, the information storage unit 256 stores data representing the distortion of G.
  • the distorted image generation unit 266 When the displayed image is viewed stereoscopically, the distorted image generation unit 266 generates a distorted image for each of the left eye and the right eye. That is, a distorted image assuming an eyepiece for the left eye with the left eye as the viewpoint and a distorted image assuming the eyepiece for the right eye with the right eye as the viewpoint are generated.
  • the output unit 268 includes the CPU 222 of FIG. 6, the main memory 226, the output unit 236, and the like, and sequentially sends the distortion image data generated by the distortion image generation unit 266 to the head-mounted display 100.
  • the output unit 268 may immediately output the data of the pixel values determined by the distortion image generation unit 266 in the order of the predetermined pixel sequence.
  • the output data is data in which a distorted image for the left eye is arranged in the left half of the image and a distorted image for the right eye is arranged in the right half.
  • the head mount display 100 has an output data transmission unit 272 that transmits various data used for generating a display image to the image generation device 200, an image data acquisition unit 270 that acquires the data of the distorted image transmitted from the image generation device 200, and transmission.
  • a differential distortion imparting unit 274 that further applies the necessary distortion to the distorted image
  • a distortion information storage unit 276 that stores distortion information to be applied by the head mount display 100
  • a display unit 278 that displays the final distorted image.
  • the output data transmission unit 272 includes the stereo camera 110, the motion sensor 162, the communication control unit 154, and the like shown in FIG. 10, and is necessary for generating a display image such as an image taken by the stereo camera 110 and a measured value of the motion sensor 162.
  • the data is transmitted to the image generator 200 at a predetermined rate.
  • the image data acquisition unit 270 is composed of the communication control unit 154, the control unit 150, and the like in FIG. 10, and acquires the data of the distorted image transmitted from the image generation device 200. At this time, the image data acquisition unit 270 sequentially acquires the pixel value data transmitted by the image generation device 200 in the raster order or the like, and supplies the data to the difference distortion imparting unit 274.
  • the difference distortion applying unit 274 is composed of the control unit 150, the storage unit 160, and the like in FIG. 10, and imparts the remaining distortion to the distorted image transmitted from the image generation device 200 as needed.
  • the differential distortion adding unit 274 temporarily stores the distorted image data transmitted from the image generation device 200 in pixel string units, and the line buffer 280 in the pixel order or pixel string order to be output to the display panel. It is provided with a sampling unit 282 that samples the data stored in the cellar and determines the pixel value.
  • the sampling destination of the component of G when displaying one row of pixel strings is one row of pixel strings at the same position.
  • the sampling destinations of the components R and B are distributed in a somewhat curved shape reflecting the difference from the strain of G.
  • the sampling unit 282 determines the color information by interpolating the values of a plurality of pixels around the sampling destination, and uses the pixel values of R and B of the display image.
  • the distortion information storage unit 276 stores information related to the distortion to be given to the image by the differential distortion imparting unit 274. That is, information related to the difference between the distortion given by the image generator 200 and the distortion originally given to each plane of RGB is stored.
  • the information related to distortion is, for example, a difference vector map showing which position of the distorted image transmitted from the image generation device 200 corresponds to each pixel on the plane of the final display image.
  • the sampling unit 282 acquires color information from an appropriate position for each RGB based on the correspondence between the line to be output to the display unit 278 and the line stored in the line buffer 280.
  • the line buffer 280 stores the data of the distorted image of the number of lines including the maximum amount of deviation from the line to be output to the sampling position.
  • the display unit 278 is composed of the control unit 150, the display panel 152, and the like in FIG. 10, and is finally fired by causing the corresponding element to emit light with the brightness corresponding to the RGB pixel value acquired by the difference distortion applying unit 274. Display a distorted image.
  • the difference distortion imparting unit 274 sequentially determines the pixel value for the row to be output to the display panel by sampling, and the display unit 278 starts outputting the row together with the determination of the pixel value, thereby sampling. From to display can be done with low delay.
  • FIG. 12 is a diagram for explaining a method in which the distorted image generation unit 266 determines the pixel value of the distorted image.
  • the pixel value is calculated by projecting the object 72 to be displayed on the view screen or calculating the color of the object 72 reached by the light beam generated from the viewpoint. decide.
  • the distorted image 70b is directly drawn so that the image 70a can be visually recognized through the eyepiece.
  • the distorted image generation unit 266 calculates the position where the target pixel A of the distorted image 70b is displaced when viewed through the lens, and uses the color information of the displaced pixel B as the pixel value of the target pixel A. do.
  • the relationship between the distorted image 70b drawn in this way and the distortion-free image 70a is equal to the relationship between the captured image distorted by the lens of a general camera and the distorted image. Therefore, the displacement vector ( ⁇ x, ⁇ y) of the position coordinates (x, y) with respect to the target pixel can be calculated by the following general formula.
  • the distorted image generation unit 266 refers to the displacement vector ( ⁇ x, ⁇ y) obtained by Equation 1 with respect to the position coordinates (x, y) of the target pixel A, and the pixel of the position coordinates (x + ⁇ x, y + ⁇ y) which is the displacement destination.
  • a pixel value is obtained for B by a general method, and this is used as the pixel value of the target pixel A.
  • the pixel value of the pixel B and the pixel A is determined by generating a light ray passing through the pixel B from the viewpoint and deriving the color of the arrival point on the object 72.
  • a displacement vector map in which a displacement vector ( ⁇ x, ⁇ y) is associated with each pixel on the plane of the distorted image is generated in advance and stored in the distortion information storage unit 256.
  • the distorted image generation unit 266 can determine the pixel values of the distorted image in a predetermined order such as the raster order.
  • Equation 1 is a typical mathematical expression for correcting the distortion caused by the eyepiece, it is not intended to limit the distortion calculation performed in the present embodiment to this.
  • the format of the distortion information stored in the distortion information storage unit 256 is not particularly limited.
  • the difference distortion applying unit 274 of the head-mounted display 100 acquires color information from a position deviated by the difference vector obtained by subtracting the displacement vector used when applying distortion in the image generation device 200 from the original displacement vector of RGB. do.
  • the original displacement vector of RGB is a value obtained by substituting the lens distortion coefficients of R, G, and B into Equation 1, for example.
  • the displacement vector used in the image generator 200 is DO (x, y), and the original RGB displacement vector is DR (x, y), DG (x, y), Assuming DB (x, y), the RGB difference vectors ⁇ R (x, y), ⁇ G (x, y), and ⁇ B (x, y) can be expressed as follows.
  • the distortion information storage unit 276 of the head-mounted display 100 stores a difference vector map in which the above difference vector is associated with each pixel of the display image.
  • the difference distortion imparting unit 274 can appropriately sample the color information at the position corresponding to the pixel to be displayed from the line buffer.
  • FIG. 13 is a diagram for explaining a pixel value sampling process in the head-mounted display 100.
  • the left side of the figure schematically shows the line buffer 74, and the right side shows the pixel column 76 for one row of the display image schematically, and one rectangle represents an area of one pixel.
  • the line buffer 74 stores the pixel strings for three rows of the distorted image.
  • the difference distortion imparting unit 274 first stores the difference vectors ⁇ R, ⁇ G, and ⁇ B for each color associated with the position of the pixel in the distortion information storage. Obtained from part 276.
  • the difference distortion adding unit 274 acquires the color information of the position shifted by the difference vector in the line buffer 74.
  • the displacement destination by the difference vector that is, the sampling position is not always the center of the pixel region.
  • the sampling position 80a of R and the sampling position 80c of B are located off the center of the pixel regions at different positions.
  • the difference distortion imparting unit 274 obtains the R component and the B component of the sampling positions 80a and 80c by interpolation by a general method such as the nearest neighbor method, the bilinear method, and the bicubic method.
  • the pixel value of the pixel 78 in the display image is determined.
  • the display unit 278 sequentially emits light from each line of the display panel with the luminance corresponding to the pixel value determined in this way, so that the final distorted image is displayed.
  • the processing progresses in the state of the distorted image in the entire system, the difference between the position of the target pixel and the sampling position can be reduced when outputting to the display panel.
  • the storage area required before display can be saved, and the memory cost and the load required for the read process can be reduced.
  • the present invention can be used for various information processing devices such as image generation devices, head-mounted displays, game devices, image display devices, mobile terminals, personal computers, and image processing systems including any of them. ..

Abstract

画像生成装置は、シーンデータ30を用い、RGBの原色に共通の歪みを与えた歪み画像50を直接描画し(S22)、描画した画素列順にヘッドマウントディスプレイに送信する(S24)。ヘッドマウントディスプレイは、ラインバッファに格納した歪み画像の部分データ56のうち、接眼レンズの色収差に依存する、RGBごとに異なる位置から色情報を取得することにより、異なる歪みを有するRGBの部分データ58a、58b、58cを生成し、表示パネルに即時出力する。

Description

画像表示システム、ヘッドマウントディスプレイ、および画像表示方法
 本発明は、接眼レンズを介して鑑賞する画像を表示する画像表示システム、ヘッドマウントディスプレイ、および画像表示方法に関する。
 対象空間を自由な視点から鑑賞できる画像表示システムが普及している。例えば仮想3次元空間を表示対象とし、ヘッドマウントディスプレイを装着したユーザの視線方向に応じた画像が表示されるようにすることでVR(仮想現実)を実現する電子コンテンツが知られている。ヘッドマウントディスプレイを利用することで、映像への没入感を高めたり、ゲームなどのアプリケーションの操作性を向上させたりすることもできる。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで、映像として表示された空間内を仮想的に歩き回ることのできるウォークスルーシステムも開発されている。
 表示装置の種類や視点の自由度によらず、視野が変化したり表示世界が動いていたりする場合、画像表示には高い応答性が求められる。一方でよりリアルな画像表現を実現するには、解像度を高めたり複雑な計算が必要になったりして画像処理の負荷が増大する。そのため視野や表示世界の動きに対し表示が追いつかず、臨場感が損なわれたり映像酔いを引き起こしたりすることもあり得る。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、画像表示の応答性と品質を両立させることのできる技術を提供することにある。
 本発明のある態様は画像表示システムに関する。この画像表示システムは、接眼レンズを介して鑑賞するために、表示対象のソース画像に接眼レンズの収差による変化と逆の変化を与えた歪み画像を表示する画像表示システムであって、原色によらず共通の歪みを有する歪み画像を描画する画像生成装置と、接眼レンズの色収差に応じ、歪み画像の異なる位置から原色ごとにサンプリングした結果に基づき画素値を決定し表示パネルに出力する表示装置と、を備えたことを特徴とする。
 本発明の別の態様はヘッドマウントディスプレイに関する。このヘッドマウントディスプレイは、接眼レンズを介して鑑賞するために、表示対象のソース画像に接眼レンズの収差による変化と逆の変化を与えた歪み画像を表示するヘッドマウントディスプレイであって、原色によらず共通の歪みを有する歪み画像のデータを取得する画像データ取得部と、接眼レンズの色収差に応じ、歪み画像の異なる位置から原色ごとにサンプリングした結果に基づき画素値を決定し表示パネルに出力する表示部と、を備えたことを特徴とする。
 本発明のさらに別の態様は画像表示方法に関する。この画像表示方法は、接眼レンズを介して鑑賞するために、表示対象のソース画像に接眼レンズの収差による変化と逆の変化を与えた歪み画像を表示する画像表示システムにおいて、原色によらず共通の歪みを有する歪み画像を描画するステップと、接眼レンズの色収差に応じ、歪み画像の異なる位置から原色ごとにサンプリングした結果に基づき画素値を決定し表示パネルに出力するステップと、を含むことを特徴とする
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、画像表示の応答性と品質を両立させることができる。
本実施の形態におけるヘッドマウントディスプレイの外観例を示す図である。 本実施の形態における画像処理システムの構成例を示す図である。 本実施の形態で画像生成装置がヘッドマウントディスプレイに表示させる画像世界の例を説明するための図である。 図3で示した形態において、ヘッドマウントディスプレイに表示させるまでの一般的な画像の変遷を示す図である。 本実施の形態の歪み画像における色ずれを説明するための図である。 接眼レンズの色収差を考慮した歪み画像を表示する一般的な処理手順を示す図である。 接眼レンズの色収差を考慮した歪み画像を表示する別の処理手順を示す図である。 本実施の形態において接眼レンズの色収差を考慮した歪み画像を表示する処理手順を示す図である。 本実施の形態における画像生成装置の内部回路構成を示す図である。 本実施の形態におけるヘッドマウントディスプレイの内部構成を例示する図である。 本実施の形態における画像生成装置およびヘッドマウントディスプレイの機能ブロックの構成を示す図である。 本実施の形態において歪み画像生成部が歪み画像の画素値を決定する手法を説明するための図である。 本実施の形態のヘッドマウントディスプレイにおける画素値のサンプリング処理を説明するための図である。
 本実施の形態では、ユーザは表示パネルに表示された画像を、接眼レンズを介して鑑賞することを想定する。この限りにおいて画像を表示させる装置の種類は特に限定されないが、ここではヘッドマウントディスプレイを例に説明する。図1はヘッドマウントディスプレイ100の外観例を示す。この例においてヘッドマウントディスプレイ100は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。
 出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、ユーザの視野角を拡大する接眼レンズを備える。またヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。またヘッドマウントディスプレイ100はモーションセンサを内蔵し、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進運動や回転運動、ひいては各時刻の位置や姿勢を検出する。
 この例でヘッドマウントディスプレイ100は、筐体108の前面にステレオカメラ110を備え、ユーザの視線に対応する視野で周囲の実空間を動画撮影する。撮影した画像を即時に表示させれば、ユーザが向いた方向の実空間の様子がそのまま見える、いわゆるビデオシースルーを実現できる。さらに撮影画像に写っている実物体の像上に仮想オブジェクトを描画すればAR(拡張現実)を実現できる。
 図2は、本実施の形態における画像処理システムの構成例を示す。ヘッドマウントディスプレイ100は、無線通信またはUSBなどの周辺機器を接続するインターフェースにより画像生成装置200に接続される。画像生成装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを画像生成装置200に提供してもよい。
 画像生成装置200は、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢に基づき視点の位置や視線の方向を特定し、それに応じた視野となるように表示画像を生成してヘッドマウントディスプレイ100に出力する。この限りにおいて画像を表示する目的は様々であってよい。例えば画像生成装置200は、電子ゲームを進捗させつつゲームの舞台である仮想世界を表示画像として生成してもよいし、仮想世界が実世界かに関わらず観賞や情報提供のために静止画像または動画像を表示させてもよい。ユーザの視点を中心に広い画角でパノラマ画像を表示すれば、表示世界に没入した感覚を与えることができる。
 なお画像生成装置200の機能の一部または全てを、ヘッドマウントディスプレイ100の内部に設けてもよい。画像生成装置200の全ての機能をヘッドマウントディスプレイ100に内蔵させた場合、図示する画像処理システムが1つのヘッドマウントディスプレイ100により実現される。
 図3は、本実施の形態で画像生成装置200がヘッドマウントディスプレイ100に表示させる画像世界の例を説明するための図である。この例ではユーザ12が仮想空間である部屋にいる状態を作り出している。仮想空間を定義するワールド座標系には図示するように、壁、床、窓、テーブル、テーブル上の物などのオブジェクトを配置している。画像生成装置200は当該ワールド座標系に、ユーザ12の視点の位置や視線の方向に応じてビュースクリーン14を定義し、そこにオブジェクトの像を表すことで表示画像を描画する。
 ユーザ12の視点の位置や視線の方向(以後、これらを包括的に「視点」と呼ぶ場合がある)を所定のレートで取得し、これに応じてビュースクリーン14の位置や方向を変化させれば、ユーザの視点に対応する視野で画像を表示させることができる。視差を有するステレオ画像を生成し、表示パネルの左右の領域にそれぞれ表示させれば、仮想空間を立体視させることもできる。これによりユーザ12は、あたかも表示世界の部屋の中にいるような仮想現実を体験することができる。
 図4は、図3で示した形態において、ヘッドマウントディスプレイ100に表示させるまでの一般的な画像の変遷を示している。まずユーザの視点に対応するビュースクリーンに、仮想世界に存在するオブジェクトを射影することにより、ユーザの視野に対応する画像16が生成される。立体視させる場合は、左右の目の間隔に応じた視差分だけ画像16中の像を横方向にずらすか、画像16を各目に対し生成することにより、左目用画像18a、右目用画像18bからなるステレオ画像を生成する。
 そして左目用画像18a、右目用画像18bのそれぞれについて、接眼レンズによる歪曲収差や色収差に合わせて逆補正することで、最終的な表示画像22が生成される。ここで逆補正とは、接眼レンズを介して見たときに元の画像16が視認されるように、レンズの収差による変化と逆の変化を与えることにより、画像をあらかじめ歪ませたり原色(RGB)ごとに画素をずらしたりしておく処理である。例えば画像の四辺が糸巻き状に凹んで見えるレンズの場合、図示するように画像を樽型に湾曲させておく。以後、接眼レンズに対応する歪みや色ずれが与えられた画像を「歪み画像」と呼ぶ。
 図5は、歪み画像における色ずれを説明するための図である。この例で歪み画像24は、白黒の市松模様の床を有する室内を表している。図示するように、歪み画像24には、接眼レンズの特性上、周辺部に向かうほど大きい度合いで歪みが与えられる。接眼レンズの色収差により、歪みの与えられ方はR(赤)、G(緑)、B(青)の原色によって異なる。結果として、歪み画像24においては周辺部に向かうほど大きな色ずれが生じる。例えば歪み画像24の右下の領域を拡大した画像26に示すように、本来は白と黒の境界を表す箇所28において、色が徐々に変化する。
 すなわち図の上段に表すように、白から黒へ切り替わる境界がRGBで異なることにより、例えば本来、黒の領域であるべき部分に赤が最大輝度で残るなどして、白や黒以外の色が生じる結果となる。このように色がずれた歪み画像24を、接眼レンズを介して見ることにより、色収差によって色の変化が正しい位置に修正され、色ずれのない画像が視認される。歪み画像24は、例えば歪みのない画像を一旦生成し、原色ごとに収差に応じた異なる度合いで画像を歪ませることによって生成できる。
 図6は、接眼レンズの色収差を考慮した歪み画像を表示する一般的な処理手順を示している。まず画像生成装置は、仮想世界を表す3次元情報などのシーンデータ30をビュースクリーンに射影するなどして、歪みのない画像32を生成する(S10)。この画像は図4の画像16に対応し、各画素がずれなくRGBの画素値を有する一般的な画像である。次に画像生成装置は、RGBの3プレーンのそれぞれについて、色収差に応じた異なる歪みの度合いで画像を歪ませる(S12)。
 これにより、像に微小なずれのあるRGBそれぞれの歪み画像34a、34b、34cが生成される。これらの歪み画像を画素値の要素とする画像を表示画像36として表示パネルに出力することにより(S14)、図5の歪み画像24のような色ずれのある画像が表示される。図2で示した画像処理システムであれば、画像生成装置200がRGBの歪み画像34a、34b、34cを生成し、表示画像のデータとして送信することにより、ヘッドマウントディスプレイ100は送信されたデータをそのまま表示できる。
 しかしながらこのような処理手順によれば、まず歪みのない画像32をフレームバッファに格納し、そこから各色の値を読み出したうえで歪み画像34a、34b、34cに変形させる、という処理が必要になる。そのためバッファに供する記憶領域を1フレーム分以上、確保する必要があるうえ、メモリアクセスのために時間を要し、ヘッドマウントディスプレイ100に出力するまでの遅延が長くなる。
 図7は、接眼レンズの色収差を考慮した歪み画像を表示する別の処理手順を示している。この場合も画像生成装置は、シーンデータ30をビュースクリーンに射影するなどして歪みのない画像32を生成する(S10)。一方、この例では、画像生成装置200は歪みのない画像32のデータをヘッドマウントディスプレイにそのまま送信し、ヘッドマウントディスプレイにおいて歪曲収差と色収差に応じた歪みを与える。
 すなわち画像生成装置は、歪みのない画像32のデータを、描画した画素列順にヘッドマウントディスプレイに送信する(S16)。図では画素列が時間差をもって送信されることを、部分データ38a、38b、38c、・・・をずらして描くことで示している。ヘッドマウントディスプレイ100は送信された画素列のデータをラインバッファに格納したうえ、歪曲収差と色収差を踏まえた位置からサンプリングすることで、表示画像36の画素値を決定し表示パネルに表す(S18、S20)。
 サンプリング処理においてヘッドマウントディスプレイは、図の上段に示すように、ラインバッファに格納した歪みのない画像の部分データ40のうち、色収差に依存する、RGBごとに異なる位置から色情報を取得する。これにより、異なる歪みを有するRGBの部分データ42a、42b、42cが生成され表示される。なお図では部分データ40、42a、42b、42cを、画像上の格子単位の幅で表象しているが、実際には画素の行単位でデータが更新あるいは出力され得る。後に説明する図8も同様である。
 このようにすると図6の手順と比較し、画像生成装置において、中間データを1フレーム分格納するためのバッファメモリや、当該メモリへのアクセス処理を省略できる。一方、ヘッドマウントディスプレイ100において色ごとの歪みを与えて出力するには、サンプリング先の領域のデータを全てラインバッファに保持しておく必要がある。例えば歪みのある表示画像のうち画素列44を出力するには、歪みのない画像のサンプリング先46のデータが必要になる。図示するようにサンプリング先46を結ぶ線は、与える歪みに応じて湾曲していることから、表示画像を1行分出力するのに必要なデータはy行分の画素列となる。
 レンズの特性上、必要な行数は画像の上端や下端に向かうほど多くなり、さらにRGBによっても異なり得る。結果として、必要となる最大行数を格納できるラインバッファを準備する必要があり、ヘッドマウントディスプレイ100内でのメモリコストが増大する。また読み出しに係る処理時間が増え、画像データを受信してから表示するまでの遅延につながる。そこで本実施の形態では、画像生成装置200において、RGBの3プレーンの全てに同じ歪みを与えておき、ヘッドマウントディスプレイ100においては残りの歪みのみを与える。
 図8は、本実施の形態において接眼レンズの色収差を考慮した歪み画像を表示する処理手順を示している。この例で画像生成装置200は、シーンデータ30から直接、RGBに共通の歪みを与えた歪み画像50を生成する。例えば画像生成装置200は、RGBのうちGのプレーンに与えるべき歪みを全てのプレーンに与えた歪み画像50を生成する。そして画像生成装置200は、歪み画像50のデータを、描画した画素列順にヘッドマウントディスプレイに送信する(S24)。
 歪み画像50を直接描画することにより、歪みのない画像を一時保存するためのフレームバッファは必要なくなる。また全てのプレーンに同じ歪みを与えたうえで、描画した順に出力することにより、描画から出力までの遅延時間を抑えることができる。図では画素列が時間差をもって送信されることを、部分データ52a、52b、52c、・・・をずらして描くことで示している。ただし実際の送信は画素列単位でよい。
 ヘッドマウントディスプレイ100は送信された画素列のデータをラインバッファに格納したうえ、そこからサンプリングすることで、表示画像36の画素値を決定し表示パネルに表す(S26、S28)。図7の手順と同様、サンプリング処理においてヘッドマウントディスプレイ100は、図の上段に示すように、ラインバッファに格納した部分データ56のうち、色収差に依存する、RGBごとに異なる位置から色情報を取得する。これにより、異なる歪みを有するRGBの部分データ58a、58b、58cが生成され表示される。
 一方、本実施の形態では、元から歪みが与えられた画像がラインバッファに格納されているため、表示画像の画素列とサンプリング先の位置との差が、図7の場合より格段に小さくなる。例えば画像生成装置200においてGに対応する歪みを与えた場合、ヘッドマウントディスプレイ100では、Gのプレーンについてはラインバッファにおける同じ位置の画素値を取得しそのまま出力すればよくなる。RおよびBのプレーンについては、Gの歪みとの差分だけ変位させた先の色情報を取得すればよい。例えば、図において表示画像のうち画素列60を出力する場合、元の歪み画像のうちサンプリング先62のデータが必要となるが、当該サンプリング先62は直線に近い分布となるため、必要となるy行分の画素列は、図7の場合より明らかに少なくなる。
 結果として、画像生成装置200におけるフレームバッファやヘッドマウントディスプレイ10におけるラインバッファなど、システム全体で確保すべきメモリの容量を削減できる。またメモリアクセスに要する時間を軽減でき、画像生成装置200内部での段階を経た画像生成を簡略化することとの相乗効果で、描画から表示までを低遅延化できる。なお画像生成装置200でRGBの画像ブレーンに共通に与える歪みは、RあるいはBに対応するものでもよいし、それ以外の所定のものでもよい。ただしRGBのいずれかの歪みを与えておくと、ヘッドマウントディスプレイ100において当該色の画素値についてはそのまま出力できる点で有利となる。
 図9は、画像生成装置200の内部回路構成を示している。画像生成装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続されている。バス230にはさらに入出力インターフェース228が接続されている。
 入出力インターフェース228には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部232、ハードディスクドライブや不揮発性メモリなどの記憶部234、ヘッドマウントディスプレイ100へデータを出力する出力部236、ヘッドマウントディスプレイ100からデータを入力する入力部238、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240が接続される。
 CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することにより画像生成装置200の全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラムを実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令に従って描画処理を行い、その結果を出力部236に出力する。メインメモリ226はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
 図10は、ヘッドマウントディスプレイ100の内部構成を例示している。制御部150は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。ステレオカメラ110は、撮影画像のデータを所定のレートで制御部150に供給する。表示パネル152は液晶や有機ELなどの発光パネルとその制御機構で構成され、制御部150から画像信号を受け取り表示する。
 通信制御部154は、図示しないネットワークアダプタまたはアンテナを介して、有線または無線通信により、制御部150から入力されるデータを外部に送信する。通信制御部154はまた、ネットワークアダプタまたはアンテナを介して、有線または無線通信により、外部からデータを受信し、制御部150に出力する。記憶部160は、制御部150が処理するデータやパラメータ、操作信号などを一時的に記憶する。
 モーションセンサ162は、ヘッドマウントディスプレイ100の回転角や傾きなどの姿勢情報を計測し、制御部150に逐次供給する。外部入出力端子インターフェース164は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインターフェースである。外部メモリ166は、フラッシュメモリなどの外部メモリである。制御部150は、画像や音声データを表示パネル152や図示しないイヤホンやスピーカーに供給して出力させたり、通信制御部154に供給して外部に送信させたりすることができる。
 図11は、本実施の形態における画像生成装置200およびヘッドマウントディスプレイ100の機能ブロックの構成を示している。画像生成装置200は上述のとおり、電子ゲームを進捗させたりサーバと通信したりする一般的な情報処理を行ってよいが、図11では特に、表示画像を生成する機能に着目して示している。なお図11で示される画像生成装置200の機能のうち少なくとも一部を、ヘッドマウントディスプレイ100に実装してもよい。あるいは、画像生成装置200の少なくとも一部の機能を、ネットワークを介して画像生成装置200に接続されたサーバに実装してもよい。
 また図11に示す機能ブロックは、ハードウェア的には、図9または10に示したCPU、GPU、制御部、各種メモリ、センサなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 画像生成装置200は、ヘッドマウントディスプレイ100から送信されるデータを取得する入力データ取得部260、ユーザの視点に係る情報を取得する視点情報取得部261、表示対象の空間を表した歪み画像を生成する歪み画像生成部266、歪み画像のデータをヘッドマウントディスプレイ100に出力する出力部268を備える。画像生成装置200はさらに、表示対象のシーンデータを記憶するシーンデータ記憶部254、および、画像生成装置200で与えるべき歪みの情報を記憶する歪み情報記憶部256を備える。
 入力データ取得部260は図9の入力部238、CPU222などで構成され、ヘッドマウントディスプレイ100から送信される、モーションセンサの計測値や、ステレオカメラ110が撮影した画像などのデータを所定のレートで取得する。視点情報取得部261は図9のCPU222などで構成され、ユーザの視点の位置や視線の方向を所定のレートで取得する。例えば視点情報取得部261は、ヘッドマウントディスプレイ100のモーションセンサの計測値に基づき頭部の位置や姿勢を特定する。ヘッドマウントディスプレイ100の外部に図示しない発光マーカーを設け、視点情報取得部261が、その撮影画像を図示しない撮像装置から取得して解析することで、頭部の位置や姿勢の情報を取得してもよい。
 あるいは視点情報取得部261は、ステレオカメラ110の撮影画像に基づきSLAMなどの技術により頭部の位置や姿勢を取得してもよい。このように頭部の位置や姿勢を取得できれば、ユーザの視点の位置および視線の方向はおよそ特定できる。なお視点情報取得部261は、過去の視点の動きに基づき、ヘッドマウントディスプレイ100において画像が表示されるタイミングでの視点の位置や視線の方向を予測してもよい。ユーザの視点に係る情報を取得したり予測したりする手段として、この他にも様々に考えられることは当業者には理解されるところである。
 歪み画像生成部266は、図6のGPU224、メインメモリ226などで構成され、視点情報取得部261が取得、あるいは予測した視点や視線に対応する視野で表示対象の空間を表した画像を所定のレートで描画する。この画像は、ゲームなどの情報処理を行った結果であってもよい。シーンデータ記憶部254には、画像描画に必要なオブジェクトモデルのデータやシーンの進捗に係る情報を格納しておく。歪み画像生成部266は、シーンデータ記憶部254に格納されたデータや、必要に応じてヘッドマウントディスプレイ100から送信された撮影画像のデータなどを用いて、上述のとおり、RGBの別なく共通の歪みを有する画像を直接描画する。
 歪み画像生成部266が描画に用いる手法は特に限定されず、レイトレーシングやラスタライズなどのいずれであってもよい。歪み情報記憶部256には、歪み画像生成部266が画像に与える歪みに係る情報を格納しておく。例えば歪み情報記憶部256は、歪み画像の平面における各画素が、歪みのない画像平面におけるどの位置に対応するかを表す変位ベクトルマップを格納する。これにより歪み画像生成部266は、歪み画像の平面における画素ごとに、歪みのない画像の対応する位置に表されるべき像の色をレイトレーシングなどによって求め、元の画素の画素値とする。
 ここで「歪みのない画像」は実際に生成されるものではなく、従来手法により色情報を取得するための媒介として対応点の位置座標のみ利用する。つまり歪み画像生成部266は、歪み画像の画素値を、対応点における色情報を直接取得することにより決定する。上述のとおり歪み画像生成部266が与える歪みはRGBで共通とする。したがって歪み情報記憶部256には、変位ベクトルマップなどの歪みを表すデータを1種類、格納する。例えば情報記憶部256には、Gの歪みを表すデータを格納する。
 表示画像を立体視させる場合、歪み画像生成部266は、左目用、右目用のそれぞれに対し歪み画像を生成する。すなわち左目を視点とし左目用の接眼レンズを想定した歪み画像と、右目を視点として右目用の接眼レンズを想定した歪み画像を生成する。出力部268は、図6のCPU222、メインメモリ226、出力部236などで構成され、歪み画像生成部266が生成した歪み画像のデータをヘッドマウントディスプレイ100に順次送出する。ここで出力部268は、歪み画像生成部266が所定の画素列順に決定した画素値のデータを、その順序で即時出力してよい。立体視させる場合、出力されるデータは、画像の左半分に左目用の歪み画像、右半分に右目用の歪み画像が配置されたデータとなる。
 ヘッドマウントディスプレイ100は、表示画像の生成に用いる各種データを画像生成装置200に送信する出力データ送信部272、画像生成装置200から送信された歪み画像のデータを取得する画像データ取得部270、送信された歪み画像に、さらに必要な歪みを与える差分歪み付与部274、ヘッドマウントディスプレイ100で与えるべき歪みの情報を記憶する歪み情報記憶部276、および、最終的な歪み画像を表示する表示部278を備える。
 出力データ送信部272は、図10のステレオカメラ110、モーションセンサ162、通信制御部154などで構成され、ステレオカメラ110が撮影した画像やモーションセンサ162の計測値など、表示画像の生成に必要なデータを所定のレートで画像生成装置200に送信する。画像データ取得部270は、図10の通信制御部154、制御部150などで構成され、画像生成装置200から送信された歪み画像のデータを取得する。この際、画像データ取得部270は、画像生成装置200がラスタ順などで送出した画素値のデータを順次取得し、差分歪み付与部274に供給する。
 差分歪み付与部274は、図10の制御部150、記憶部160などで構成され、画像生成装置200から送信された歪み画像に、必要に応じて残りの歪みを付与する。詳細には差分歪み付与部274は、画像生成装置200から送信された歪み画像のデータを画素列単位で一時保存するラインバッファ280と、表示パネルに出力する画素順あるいは画素列順に、ラインバッファ280に格納されたデータをサンプリングして画素値を決定するサンプリング部282と、を備える。元の画像にGの歪みが与えられている場合、1行の画素列を表示する際のGの成分のサンプリング先は、同じ位置の画素列1行分である。RやBの成分のサンプリング先は、Gの歪みとの差分を反映した、いくらか湾曲した形状で分布する。
 このときサンプリング部282は、サンプリング先の周囲にある複数の画素の値を補間することにより色情報を決定し、表示画像のRおよびBの画素値とする。歪み情報記憶部276には差分歪み付与部274が画像に与えるべき歪みに係る情報を格納しておく。すなわち画像生成装置200が与えた歪みと、本来RGBのそれぞれのプレーンに与えるべき歪みとの差分に係る情報を格納しておく。
 歪みに係る情報は例えば、最終的な表示画像の平面における各画素が、画像生成装置200から送信された歪み画像のどの位置に対応するかを表す差分ベクトルマップとする。これによりサンプリング部282は、表示部278に出力すべき行と、ラインバッファ280に格納されている行との対応に基づき、RGBごとに適切な位置から色情報を取得する。ラインバッファ280は、出力対象の行からサンプリング位置までの最大のずれ量を包含する行数の歪み画像のデータを格納する。
 表示部278は、図10の制御部150、表示パネル152などで構成され、差分歪み付与部274が取得したRGBの画素値に対応する輝度で、対応する素子を発光させることにより、最終的な歪み画像を表示する。ここで差分歪み付与部274が、表示パネルへの出力対象の行に対し、サンプリングにより順次画素値を決定し、表示部278が、画素値の決定とともに当該行の出力を開始することで、サンプリングから表示までを低遅延で行える。
 図12は、歪み画像生成部266が歪み画像の画素値を決定する手法を説明するための図である。図の左側に示すように一般的な画像70aの場合、表示対象のオブジェクト72をビュースクリーンに射影したり、視点から発生させた光線が到達するオブジェクト72の色を計算したりして画素値を決定する。一方、本実施の形態では接眼レンズを介して画像70aが視認されるように、歪み画像70bを直接描画する。
 すなわち歪み画像生成部266は、歪み画像70bの対象画素Aが、レンズを介して見た時にどの位置に変位するかを計算し、変位先の画素Bの色情報を対象画素Aの画素値とする。そのようにして描画される歪み画像70bと、歪みのない画像70aとの関係は、一般的なカメラのレンズによって歪みが生じた撮影画像と、歪みを補正した画像との関係に等しい。したがって位置座標(x,y)の対象画素に対する変位ベクトル(Δx,Δy)は、次の一般式で算出できる。
Figure JPOXMLDOC01-appb-M000001
 ここでrはレンズの光軸から対象画素までの距離、(Cx,Cy)はレンズの光軸の位置である。またk、k、k、・・・はレンズ歪み係数でありレンズの設計や光の波長帯に依存する。補正の次数は特に限定されない。歪み画像生成部266は、対象画素Aの位置座標(x,y)に対し式1により求められた変位ベクトル(Δx,Δy)を参照し、変位先である位置座標(x+Δx,y+Δy)の画素Bについて一般的な手法で画素値を求め、それを対象画素Aの画素値とする。例えば視点から画素Bを通る光線を発生させ、オブジェクト72上での到達点の色を導出することにより、画素B、ひいては画素Aの画素値を決定する。
 上述のとおり、歪み画像の平面の各画素に対し変位ベクトル(Δx,Δy)を対応づけた変位ベクトルマップをあらかじめ生成し、歪み情報記憶部256に格納しておく。これにより歪み画像生成部266は、ラスタ順など所定の順序で歪み画像の画素値を決定していくことができる。なお式1は、接眼レンズによる歪みを補正するための代表的な数式であるが、本実施の形態で実施する歪みの演算をこれに限定する主旨ではない。また歪み情報記憶部256に格納する歪みの情報の形式も特に限定されない。
 ヘッドマウントディスプレイ100の差分歪み付与部274は、RGB本来の変位ベクトルから、画像生成装置200で歪みを与える際に使用した変位ベクトルを差し引いた、差分ベクトルの分だけずれた位置から色情報を取得する。ここでRGB本来の変位ベクトルとは例えば、R、G、B、それぞれのレンズ歪み係数を式1に代入することで得られる値である。
 位置座標(x,y)の画素に対し、画像生成装置200で用いられた変位ベクトルをDO(x,y)、RGB本来の変位ベクトルをDR(x,y)、DG(x,y)、DB(x,y)とすると、RGBの差分ベクトルΔR(x,y)、ΔG(x,y)、ΔB(x,y)は次のように表せる。
 ΔR(x,y)=DR(x,y)-DO(x,y)
 ΔG(x,y)=DG(x,y)-DO(x,y)
 ΔB(x,y)=DB(x,y)-DO(x,y)
 例えば画像生成装置200において、Gに対応する歪みを与えた場合、DO(x,y)=DG(x,y)となる。したがって各色の差分ベクトルは次のようになる。
 ΔR(x,y)=DR(x,y)-DG(x,y)
 ΔG(x,y)=0
 ΔB(x,y)=DB(x,y)-DG(x,y)
 ヘッドマウントディスプレイ100の歪み情報記憶部276には、上記のような差分ベクトルを、表示画像の各画素に対応づけた差分ベクトルマップを格納しておく。これにより差分歪み付与部274は、表示対象の画素に対応する位置の色情報を、ラインバッファから適切にサンプリングできる。
 図13は、ヘッドマウントディスプレイ100における画素値のサンプリング処理を説明するための図である。図の左はラインバッファ74、右は表示画像の1行分の画素列76を模式的に示しており、1つの矩形が1画素の領域を表す。この例でラインバッファ74は、歪み画像の3行分の画素列を格納する。表示画像の画素列76のうち画素78の画素値を決定する際、差分歪み付与部274はまず、当該画素の位置に対応づけられた色ごとの差分ベクトルΔR、ΔG、ΔBを、歪み情報記憶部276から取得する。
 そして差分歪み付与部274は、ラインバッファ74において、差分ベクトル分だけずれた位置の色情報を取得する。ここで差分ベクトルによる変位先、すなわちサンプリング位置は、画素領域の中心とは限らない。図では、R、G、Bのサンプリング位置80a、80b、80cを例示している。ラインバッファ74に格納された歪み画像にGの歪みが与えられていれば、ΔG=0のため、そのサンプリング位置80bは同じ位置の画素領域の中心となる。したがって差分歪み付与部274は、サンプリング位置80bのGの値をそのまま読み出し、表示画像における画素78のG成分の画素値とする。
 一方、Rのサンプリング位置80aとBのサンプリング位置80cは、別の位置の画素領域のうち中心から外れた位置にある。このような場合、差分歪み付与部274は、ニアレストネイバー法、バイリニア法、バイキュービック法など一般的な手法によりサンプリング位置80a、80cのR成分、B成分を補間により求める。これにより、表示画像における画素78の画素値が決定される。表示部278は、このように決定された画素値に対応する輝度で表示パネルの各行を順次発光させることにより、最終的な歪み画像が表示される。
 以上述べた本実施の形態によれば、接眼レンズを介して画像を鑑賞する形式の画像表示システムにおいて、接眼レンズの歪曲収差および色収差に応じた逆補正を、描画処理と組み合わせて2段階で行う。具体的には、表示画像の描画時にRGBで共通の歪みを与えておき、表示パネルへの出力時に、残りの歪みを与えるように画素値のサンプリングを行う。これにより、歪みのない画像を一旦生成し、色ごとに歪みを与えるのと比較し、中間データを一時保存するための記憶領域や、メモリアクセスを含む処理のコストを削減できる。
 またシステム全体において、歪み画像の状態で処理が進捗するため、表示パネルへの出力時に、対象画素の位置とサンプリング位置との差を小さくできる。これにより、表示前に必要な記憶領域を節約でき、メモリコストや読み出し処理に要する負荷を軽減できる。結果として、レイトレーシングなどにより高画質の画像を描画する場合であっても、描画から表示までを低遅延で行える。
 以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 100 ヘッドマウントディスプレイ、 150 制御部、 152 表示パネル、 154 通信制御部、 160 記憶部、 200 画像生成装置、 222 CPU、 224 GPU、 226 メインメモリ、 234 記憶部、 236 出力部、 254 シーンデータ記憶部、 256 歪み情報記憶部、 260 入力データ取得部、 261 視点情報取得部、 266 歪み画像生成部、 268 出力部、 270 画像データ取得部、 272 出力データ送信部、 274 差分歪み付与部、 276 歪み情報記憶部、 278 表示部。
 以上のように本発明は、画像生成装置、ヘッドマウントディスプレイ、ゲーム装置、画像表示装置、携帯端末、パーソナルコンピュータなど各種情報処理装置や、それらのいずれかを含む画像処理システムなどに利用可能である。

Claims (9)

  1.  接眼レンズを介して鑑賞するために、表示対象のソース画像に前記接眼レンズの収差による変化と逆の変化を与えた歪み画像を表示する画像表示システムであって、
     原色によらず共通の歪みを有する歪み画像を描画する画像生成装置と、
     前記接眼レンズの色収差に応じ、前記歪み画像の異なる位置から原色ごとにサンプリングした結果に基づき画素値を決定し表示パネルに出力する表示装置と、
     を備えたことを特徴とする画像表示システム。
  2.  前記表示装置は、
     前記歪み画像の所定行数のデータを一時保存するバッファメモリと、
     表示パネルに出力する画素順または画素列順に、前記バッファメモリに格納されたデータをサンプリングして画素値を決定するサンプリング部と、
     を備えたことを特徴とする請求項1に記載の画像表示システム。
  3.  前記表示装置は、
     前記画像生成装置において前記歪み画像に与えられた歪みと、前記色収差に応じて原色ごとに与えるべき歪みとの差分に係る情報を格納する歪み情報記憶部を備えることを特徴とする請求項1または2に記載の画像表示システム。
  4.  前記画像生成装置は、
     前記歪み画像の平面における各画素と、歪みのない画像の平面における対応する位置との関係を表す歪み情報を格納した歪み情報記憶部と、
     前記歪み情報を参照し、前記歪み画像の画素値を、前記対応する位置の色情報を直接取得することにより決定する歪み画像生成部と、
     画素値が決定された順に、前記歪み画像のデータを前記表示装置に出力する出力部と、
     を備えたことを特徴とする請求項1から3のいずれかに記載の画像表示システム。
  5.  前記歪み画像生成部は、原色のうちの1つの色の収差に対応する歪みを有する前記歪み画像を描画することを特徴とする請求項4に記載の画像表示システム。
  6.  前記表示装置は、前記1つの色の画素値として、前記歪み画像の同じ位置の当該色の成分を読み出し出力することを特徴とする請求項5に記載の画像表示システム。
  7.  接眼レンズを介して鑑賞するために、表示対象のソース画像に前記接眼レンズの収差による変化と逆の変化を与えた歪み画像を表示するヘッドマウントディスプレイであって、
     原色によらず共通の歪みを有する歪み画像のデータを取得する画像データ取得部と、
     前記接眼レンズの色収差に応じ、前記歪み画像の異なる位置から原色ごとにサンプリングした結果に基づき画素値を決定し表示パネルに出力する表示部と、
     を備えたことを特徴とするヘッドマウントディスプレイ。
  8.  接眼レンズを介して鑑賞するために、表示対象のソース画像に前記接眼レンズの収差による変化と逆の変化を与えた歪み画像を表示する画像表示システムにおいて、
     原色によらず共通の歪みを有する歪み画像を描画するステップと、
     前記接眼レンズの色収差に応じ、前記歪み画像の異なる位置から原色ごとにサンプリングした結果に基づき画素値を決定し表示パネルに出力するステップと、
     を含むことを特徴とする画像表示方法。
  9.  接眼レンズを介して鑑賞するために、表示対象のソース画像に前記接眼レンズの収差による変化と逆の変化を与えた歪み画像を表示させるコンピュータに、
     原色によらず共通の歪みを有する歪み画像のデータを取得する機能と、
     前記接眼レンズの色収差に応じ、前記歪み画像の異なる位置から原色ごとにサンプリングした結果に基づき画素値を決定し表示パネルに出力する機能と、
     を実現させることを特徴とするコンピュータプログラム。
PCT/JP2020/033858 2020-09-08 2020-09-08 画像表示システム、ヘッドマウントディスプレイ、および画像表示方法 WO2022054118A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022548260A JPWO2022054118A1 (ja) 2020-09-08 2020-09-08
US18/041,916 US20230289929A1 (en) 2020-09-08 2020-09-08 Image display system, head mounted display, and image display method
PCT/JP2020/033858 WO2022054118A1 (ja) 2020-09-08 2020-09-08 画像表示システム、ヘッドマウントディスプレイ、および画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/033858 WO2022054118A1 (ja) 2020-09-08 2020-09-08 画像表示システム、ヘッドマウントディスプレイ、および画像表示方法

Publications (1)

Publication Number Publication Date
WO2022054118A1 true WO2022054118A1 (ja) 2022-03-17

Family

ID=80631381

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/033858 WO2022054118A1 (ja) 2020-09-08 2020-09-08 画像表示システム、ヘッドマウントディスプレイ、および画像表示方法

Country Status (3)

Country Link
US (1) US20230289929A1 (ja)
JP (1) JPWO2022054118A1 (ja)
WO (1) WO2022054118A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4184236A1 (en) * 2021-11-18 2023-05-24 Canon Kabushiki Kaisha Image display apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298924A (ja) * 1998-04-14 1999-10-29 Sharp Corp 頭部装着型ディスプレイ
US20200143516A1 (en) * 2018-11-07 2020-05-07 Arm Limited Data processing systems
WO2020170456A1 (ja) * 2019-02-22 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント 表示装置および画像表示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11298924A (ja) * 1998-04-14 1999-10-29 Sharp Corp 頭部装着型ディスプレイ
US20200143516A1 (en) * 2018-11-07 2020-05-07 Arm Limited Data processing systems
WO2020170456A1 (ja) * 2019-02-22 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント 表示装置および画像表示方法

Also Published As

Publication number Publication date
JPWO2022054118A1 (ja) 2022-03-17
US20230289929A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
JP7358448B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法
JP6310898B2 (ja) 画像処理装置、情報処理装置、および画像処理方法
JP7150134B2 (ja) ヘッドマウントディスプレイおよび画像表示方法
US11892637B2 (en) Image generation apparatus, head-mounted display, content processing system, and image display method
US11640058B2 (en) Image processing method, image processing apparatus, and head-mounted display
WO2022054118A1 (ja) 画像表示システム、ヘッドマウントディスプレイ、および画像表示方法
JP7142762B2 (ja) 表示装置および画像表示方法
JP7365184B2 (ja) 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法
WO2022070270A1 (ja) 画像生成装置および画像生成方法
JP7429515B2 (ja) 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法
US11614627B2 (en) Image processing apparatus, head-mounted display, and image displaying method
JP7365185B2 (ja) 画像データ伝送方法、コンテンツ処理装置、ヘッドマウントディスプレイ、中継装置、および、コンテンツ処理システム
US11106042B2 (en) Image processing apparatus, head-mounted display, and image displaying method
WO2019026183A1 (ja) 画像生成装置および画像生成方法
US20240087101A1 (en) Image displaying system, display apparatus, and image displaying method
WO2023140033A1 (ja) 表示制御装置、ヘッドマウントディスプレイ、および表示制御方法
JP7365183B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、コンテンツ処理システム、および画像表示方法
WO2022244131A1 (ja) 画像データ生成装置、表示装置、画像表示システム、画像データ生成方法、画像表示方法、および、画像データのデータ構造
WO2019026184A1 (ja) 画像生成装置および画像生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20953186

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022548260

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20953186

Country of ref document: EP

Kind code of ref document: A1