WO2022163213A1 - 表示システム - Google Patents

表示システム Download PDF

Info

Publication number
WO2022163213A1
WO2022163213A1 PCT/JP2021/047139 JP2021047139W WO2022163213A1 WO 2022163213 A1 WO2022163213 A1 WO 2022163213A1 JP 2021047139 W JP2021047139 W JP 2021047139W WO 2022163213 A1 WO2022163213 A1 WO 2022163213A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
sub
image
pixels
control circuit
Prior art date
Application number
PCT/JP2021/047139
Other languages
English (en)
French (fr)
Inventor
好浩 渡邉
Original Assignee
株式会社ジャパンディスプレイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジャパンディスプレイ filed Critical 株式会社ジャパンディスプレイ
Priority to JP2022578149A priority Critical patent/JPWO2022163213A1/ja
Publication of WO2022163213A1 publication Critical patent/WO2022163213A1/ja
Priority to US18/223,204 priority patent/US20230368744A1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3607Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals for displaying colours or for displaying grey scales with a specific pixel layout, e.g. using sub-pixels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2074Display of intermediate tones using sub-pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • G09G3/3648Control of matrices with row and column drivers using an active matrix
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0457Improvement of perceived resolution by subpixel rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning

Definitions

  • the present invention relates to display systems.
  • a VR (Virtual Reality) system gives the user a sense of virtual reality by changing the display of an image as the viewpoint moves.
  • a display device for realizing such a VR system for example, a head-mounted display (Head Mounted Display, hereinafter also referred to as "HMD") is attached to the head, and the Techniques for displaying images have been disclosed (for example, Patent Literature 1).
  • HMD Head Mounted Display
  • the image displayed on the display panel appears distorted because the displayed image is magnified by the eyepiece. For this reason, considering image distortion due to the lens in advance, the original image is distorted before being sent to the display panel. Conversion processing is generally performed. However, when the resolution of the display panel is lower than that of the image being sent, or when the display panel is premised on performing so-called sub-pixel rendering processing, the amount of data sent is larger than the amount of data that is actually displayed. The amount of data is large and wasteful.
  • the present disclosure has been made in view of the above problems, and aims to provide a display system capable of transmitting and receiving data in an amount corresponding to the pixel array of the display panel.
  • a display system includes a liquid crystal display panel including a plurality of sub-pixels and having pixels arranged in a matrix in a first direction and in a second direction different from the first direction. and an image generation device including a control circuit that performs image deformation processing of an input image according to the pixel structure of the liquid crystal display panel, and the image generation device and the display device are connected by wired or wireless communication.
  • the control circuit generates pixel values of all the sub-pixels of the liquid crystal display panel in the image transformation process.
  • FIG. 1 is a configuration diagram showing an example of a display system according to an embodiment.
  • FIG. 2 is a schematic diagram showing an example of the relative relationship between the display panel and the user's eyes.
  • FIG. 3 is a block diagram showing an example of each configuration of an image generation device and a display device in the display system shown in FIG.
  • FIG. 4 is a circuit diagram showing the display area according to the embodiment.
  • FIG. 5 is a schematic diagram showing an example of the display panel according to the embodiment.
  • FIG. 6 is a cross-sectional view schematically showing a cross section of the display panel according to the embodiment.
  • FIG. 7 is a diagram illustrating an example of the shape of an image to be subjected to image deformation processing in the display system according to the embodiment;
  • FIG. 1 is a configuration diagram showing an example of a display system according to an embodiment.
  • FIG. 2 is a schematic diagram showing an example of the relative relationship between the display panel and the user's eyes.
  • FIG. 3 is a block diagram showing an
  • FIG. 8 is a diagram illustrating an example of the shape of an image subjected to image deformation processing in the display system according to the embodiment
  • FIG. 9 is a diagram illustrating an example of image data input to the display system according to the embodiment
  • FIG. 10 is a diagram showing virtual positions of each data definition point shown in FIG.
  • FIG. 11 is a diagram illustrating the positional relationship of images after image deformation processing corresponding to display areas of the display system according to the embodiment.
  • FIG. 12A is a diagram showing the positional relationship of each sub-pixel with respect to a representative position of the pixel.
  • FIG. 12B is a diagram showing the positional relationship of each sub-pixel with respect to a representative position of the pixel.
  • FIG. 12A is a diagram showing the positional relationship of each sub-pixel with respect to a representative position of the pixel.
  • FIG. 12B is a diagram showing the positional relationship of each sub-pixel with respect to a representative position of the pixel.
  • FIG. 13 is a diagram illustrating an example of chromatic aberration characteristics of a lens, which indicates the amount of change in image magnification for each sub-pixel with respect to the distance from the optical axis of the lens.
  • FIG. 14 is a diagram showing the magnitude of the distance from the optical axis of the lens to the sub-pixels.
  • FIG. 15 is a diagram showing a first example of the coordinate conversion table.
  • FIG. 16 is a diagram showing a second example of the coordinate conversion table.
  • FIG. 17 is a flowchart illustrating a first example of a coordinate conversion table derivation process according to the embodiment.
  • FIG. 18 is a flowchart illustrating a second example of the coordinate conversion table derivation process according to the embodiment.
  • FIG. 19 is a diagram showing a first example of relative positions between texels and a plane filling figure on the texture corresponding to the one pixel size plane filling figure on the display panel when sampling using the area averaging method.
  • FIG. 20 is a diagram showing a second example of the relative positions of texels and plane filling figures when sampling using the area average method.
  • FIG. 21 is a diagram showing the vector indicating the size of the plane filling figure on the XY coordinates and the center position when sampling using the multi-point averaging method.
  • FIG. 22 is a diagram showing a figure on the uv coordinate system corresponding to the plane filling figure on the XY coordinate system shown in FIG. FIG.
  • FIG. 23A is a diagram showing an example in which a plane filling figure is divided into four when sampling using the multi-point averaging method.
  • FIG. 23B is a diagram showing an example in which a plane filling figure is divided into four when sampling using the multi-point averaging method.
  • FIG. 23C is a diagram showing an example in which a plane filling figure is divided into four when sampling using the multipoint averaging method.
  • FIG. 23D is a diagram showing an example in which a plane filling figure is divided into four when sampling using the multi-point averaging method.
  • FIG. 24 is a diagram showing an example in which a plane filling figure is divided into six when sampling using the multi-point average method.
  • FIG. 24 is a diagram showing an example in which a plane filling figure is divided into six when sampling using the multi-point average method.
  • FIG. 25 is a flowchart illustrating a first example of image transformation processing according to the embodiment.
  • FIG. 26 is a flowchart illustrating a second example of image transformation processing according to the embodiment.
  • FIG. 27 is a diagram showing a first example of a pixel array of the display panel according to the embodiment; 28 is a diagram showing a first example of a pixel configuration in the pixel array shown in FIG. 27.
  • FIG. 29 is a conceptual diagram for explaining the definition of pixel data in the pixel configuration shown in FIG. 28.
  • FIG. 30 is a diagram showing four coefficient values for each sub-pixel in the pixel configuration shown in FIG. 28.
  • FIG. 31 is a diagram showing an example of a plane filling figure applied to the sampling method using the multi-point average method in the pixel configuration shown in FIG.
  • FIG. 32 is a diagram showing vectors indicating the magnitude and direction of the plane filling figure shown in FIG. 31 on the XY coordinates.
  • FIG. 33 is a diagram showing an example of a vector of a plane-filling figure applied to the sampling method using the multipoint averaging method in the pixel array shown in FIG.
  • FIG. 34 is a diagram showing a second example of the pixel configuration of the display panel according to the embodiment; 35 is a diagram showing four coefficient values for each sub-pixel in the pixel configuration shown in FIG. 34.
  • FIG. FIG. 36A is a conceptual diagram showing an example different from FIG.
  • FIG. 36B is a conceptual diagram showing an example different from FIG. 28 of the transmission format of pixel data.
  • FIG. 37A is a conceptual diagram showing a modification of the coordinate conversion table.
  • FIG. 37B is a conceptual diagram showing a modification of the coordinate conversion table.
  • FIG. 38 is a diagram showing a second example of the pixel arrangement of the display panel according to the embodiment;
  • FIG. 39 is a diagram showing four coefficient values for each sub-pixel in the pixel configuration of the RGB stripe arrangement shown in FIG.
  • FIG. 1 is a configuration diagram showing an example of a display system according to an embodiment.
  • FIG. 2 is a schematic diagram showing an example of the relative relationship between the display panel and the user's eyes.
  • the display system 1 is a display system that changes display according to the user's movement.
  • the display system 1 stereoscopically displays a VR (Virtual Reality) image showing a three-dimensional object or the like in a virtual space, and by changing the stereoscopic display according to the direction (position) of the user's head, the user can It is a VR system that creates a sense of virtual reality in
  • the display system 1 has a display device 100 and an image generation device 200, for example.
  • the display device 100 and the image generation device 200 are wired, for example, by a cable 300 .
  • the cable 300 includes, for example, USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface) cables, and the like.
  • the display device 100 and the image generation device 200 may be configured to be connected by wireless communication.
  • the display device 100 is used, for example, as a head-mounted display device fixed to the mounting member 400 and worn on the user's head.
  • the display device 100 includes a display panel 110 for displaying images generated by the image generation device 2 .
  • the mode in which the display device 100 is fixed to the mounting member 400 is also referred to as "HMD (Head Mounted Display)".
  • the image generating device 200 is exemplified by an electronic device such as a personal computer and a game machine.
  • the image generation device 200 generates a VR image corresponding to the position and posture of the user's head and outputs the VR image to the display device 100 .
  • the image generated by the image generation device 200 is not limited to the VR image.
  • the display device 100 is fixed at a position where the display panel 110 is arranged in front of the user's eyes when the user wears the HMD.
  • the display device 100 may include audio output devices such as speakers at positions corresponding to both ears of the user when the user wears the HMD.
  • the display device 100 is provided with a sensor (for example, a gyro sensor, an acceleration sensor, an orientation sensor, etc.) that detects the position and orientation of the head of the user wearing the display device 100.
  • the display device 100 may be configured to include the functions of the image generation device 200 .
  • the mounting member 400 has, for example, lenses 410 corresponding to both eyes E of the user.
  • the lens 410 enlarges an image displayed on the display panel 110 and forms an image on the retina of the user's eye E when the user wears the HMD.
  • the user visually recognizes an image displayed on display panel 110 and magnified by lens 410 .
  • FIG. 2 shows an example in which one lens is arranged between the user's eye E and the display panel 110, but for example, it may be configured with a plurality of lenses corresponding to both eyes of the user. Also good.
  • the display panel 110 may be arranged at a position different from the front of the user.
  • the display panel 110 is assumed to be a liquid crystal display panel.
  • an image displayed on the display panel 110 is enlarged and formed on the retina of the user's eye E as shown in FIG. Therefore, there is a demand for a display panel with higher definition. Further, by enlarging the displayed image, the gaps between the pixels can be easily seen in a grid pattern. Therefore, by using a liquid crystal display panel with a high pixel aperture ratio, there is an advantage that it is possible to display an image with less lattice feeling.
  • FIG. 3 is a block diagram showing an example of each configuration of the image generation device and the display device in the display system shown in FIG. As shown in FIG. 3, the display device 100 includes two display panels 110, a sensor 120, an image separation circuit 150, and an interface 160.
  • FIG. 3 is a block diagram showing an example of each configuration of the image generation device and the display device in the display system shown in FIG. As shown in FIG. 3, the display device 100 includes two display panels 110, a sensor 120, an image separation circuit 150, and an interface 160.
  • FIG. 3 is a block diagram showing an example of each configuration of the image generation device and the display device in the display system shown in FIG. As shown in FIG. 3, the display device 100 includes two display panels 110, a sensor 120, an image separation circuit 150, and an interface 160.
  • the display device 100 has two display panels 110 . Of the two display panels 110, one is used as the display panel 110 for the left eye and the other is used as the display panel 110 for the right eye.
  • Each of the two display panels 110 has a display area 111 and a display control circuit 112 .
  • the display panel 110 has a light source device (not shown) that illuminates the display area 111 from behind.
  • n ⁇ m pixels Pix (n in the row direction (X direction) and m in the column direction (Y direction)) are arranged in a two-dimensional matrix.
  • the pixel density in the display area 111 is assumed to be 806 ppi, for example.
  • FIG. 3 schematically shows the arrangement of a plurality of pixels Pix, and the detailed arrangement of the pixels Pix will be described later.
  • the display panel 110 has scanning lines extending in the X direction and signal lines extending in the Y direction intersecting the X direction.
  • pixels Pix are arranged in a region surrounded by the signal lines SL and the scanning lines GL.
  • the pixel Pix has a switching element (TFT: thin film transistor) connected to the signal line SL and the scanning line GL, and a pixel electrode connected to the switching element.
  • TFT thin film transistor
  • a plurality of pixels Pix arranged along the extending direction of the scanning line GL are connected to one scanning line GL.
  • a plurality of pixels Pix arranged along the extending direction of the signal line SL are connected to one signal line SL.
  • the display area 111 of one display panel 110 is for the right eye
  • the display area 111 of the other display panel 110 is for the left eye
  • the display panel 110 is illustrated as having two display panels 110 for the left eye and the right eye, but the display device 100 is not limited to the structure using the two display panels 110 .
  • there is one display panel 110 and one display panel 110 displays an image for the right eye in the right half area and an image for the left eye in the left half area.
  • a mode in which the area is divided into two may also be used.
  • the display control circuit 112 includes a driver IC (Integrated Circuit) 115 , a signal line connection circuit 113 and a scanning line drive circuit 114 .
  • the signal line connection circuit 113 is electrically connected to the signal line SL.
  • the driver IC 115 controls ON/OFF of a switching element (for example, TFT) for controlling the operation (light transmittance) of the pixel Pix by the scanning line driving circuit 114 .
  • the scanning line driving circuit 114 is electrically connected to the scanning lines GL.
  • the sensor 120 detects information that can estimate the orientation of the user's head. For example, the sensor 120 detects information indicating the movement of the display device 100, and the display system 1 detects the orientation of the head of the user wearing the display device 100 based on the information indicating the movement of the display device 100. to estimate the orientation of the user's head. For example, the sensor 120 detects information indicating the movement of the display device 100, and the display system 1 detects the orientation of the head of the user wearing the display device 100 based on the information indicating the movement of the display device 100. to estimate
  • the sensor 120 uses, for example, at least one of the angle, acceleration, angular velocity, azimuth, and distance of the display device 100 to detect information that can estimate the line-of-sight direction.
  • a gyro sensor, an acceleration sensor, an orientation sensor, or the like can be used as the sensor 120, for example.
  • the sensor 120 may detect the angle and angular velocity of the display device 100 by, for example, a gyro sensor.
  • the sensor 120 may detect the direction and magnitude of acceleration acting on the display device 100 by, for example, an acceleration sensor.
  • the sensor 120 may detect the orientation of the display device 100 by, for example, an orientation sensor.
  • the sensor 120 may detect movement of the display device 100 by, for example, a distance sensor, a GPS (Global Positioning System) receiver, or the like.
  • the sensor 120 may be another sensor such as an optical sensor as long as it is a sensor for detecting the orientation of the user's head, changes in line of sight, movement, and the like, or may be a combination of multiple sensors.
  • the sensor 120 is electrically connected to the image separating circuit 150 via an interface 160 which will be described later.
  • the image separation circuit 150 receives the image data for the left eye and the image data for the right eye sent from the image generation device 200 via the cable 300, sends the image data for the left eye to the display panel 110 that displays the image for the left eye, The image data for the right eye is sent to the display panel 110 that displays the image for the right eye.
  • the interface 160 includes a connector to which the cable 300 (Fig. 1) is connected. Interface 160 receives a signal from image generation device 200 via cable 300 connected thereto. Image separation circuit 150 outputs the signal input from sensor 120 to image generation device 200 via interface 160 and interface 240 .
  • the signal input from the sensor 120 includes information that enables estimation of the direction of the line of sight described above.
  • the signal input from sensor 120 may be directly output to control circuit 230 of image generating device 200 via interface 160 .
  • the interface 160 may be a wireless communication device, for example, and may transmit and receive information to and from the image generating device 200 via wireless communication.
  • the image generation device 200 includes an operation unit 210 , a storage unit 220 , a control circuit 230 and an interface 240 .
  • the operation unit 210 accepts user operations.
  • the operation unit 210 can use input devices such as a keyboard, buttons, and a touch screen, for example.
  • Operation unit 210 is electrically connected to control circuit 230 .
  • the operation unit 210 outputs information according to the operation to the control circuit 230 .
  • the storage unit 220 stores programs and data.
  • the storage unit 220 temporarily stores the processing result of the control circuit 230 .
  • Storage unit 220 includes a storage medium.
  • Storage media include, for example, ROMs, RAMs, memory cards, optical disks, or magneto-optical disks.
  • the storage unit 220 may store data of images to be displayed on the display device 100 .
  • the storage unit 220 stores, for example, a control program 211, a VR application 212, and the like.
  • the control program 211 can provide functions related to various controls for operating the image generation device 200, for example.
  • the VR application 212 can provide functionality for displaying VR images on the display device 100 .
  • the storage unit 220 can store various types of information input from the display device 100, such as data indicating detection results of the sensor 120, for example.
  • the control circuit 230 includes, for example, an MCU (Micro Control Unit), a CPU (Central Processing Unit), and the like.
  • the control circuit 230 can centrally control the operation of the image generation device 200 .
  • Various functions of the control circuit 230 are realized based on the control of the control circuit 230 .
  • the control circuit 230 includes, for example, a GPU (Graphics Processing Unit) that generates images to be displayed.
  • the GPU generates images to be displayed on the display device 100 .
  • the control circuit 230 outputs images generated by the GPU to the display device 100 via the interface 240 .
  • the control circuit 230 of the image generation device 200 includes a GPU, but the present invention is not limited to this.
  • the GPU may be provided in the display device 100 or the image separation circuit 150 of the display device 100 .
  • the display device 100 may acquire data from, for example, the image generation device 200 or an external electronic device, and the GPU may generate an image based on the data.
  • the interface 240 includes a connector to which the cable 300 (see FIG. 1) is connected. A signal from the display device 100 is input to the interface 240 via the cable 300 . Interface 240 outputs a signal input from control circuit 230 to display device 100 via cable 300 .
  • the interface 240 may be, for example, a wireless communication device, and may transmit and receive information to and from the display device 100 via wireless communication.
  • the control circuit 230 causes the display device 100 to display an image corresponding to the movement of the user (the display device 100).
  • the control circuit 230 detects a change of the user (display device 100) while an image is displayed on the display device 100, the control circuit 230 changes the image displayed on the display device 100 to the image in the changed direction.
  • the control circuit 230 creates an image based on the reference viewpoint and the reference line of sight in the virtual space at the start of creating the image, and when detecting a change in the user (display device 100), the control circuit 230 changes the time when creating the displayed image.
  • the viewpoint or line of sight is changed from the reference viewpoint or the reference line of sight direction according to the movement of the user (display device 100), and the display device 100 is caused to display an image based on the changed viewpoint or line of sight.
  • control circuit 230 detects rightward movement of the user's head based on the detection result of the sensor 120 .
  • the control circuit 230 changes the currently displayed image to an image when the line of sight is changed to the right. The user can visually recognize the right image of the image displayed on the display device 100 .
  • control circuit 230 when the control circuit 230 detects movement of the display device 100 based on the detection result of the sensor 120, it changes the image according to the detected movement.
  • the control circuit 230 detects that the display device 100 has moved forward, the currently displayed image is changed to an image that will be displayed when the display device 100 moves forward.
  • the control circuit 230 detects that the display device 100 has moved in the backward direction, it changes the currently displayed image to an image in the case of the backward movement. The user can visually recognize the image in the moving direction of the user from the image displayed on the display device 100 .
  • FIG. 4 is a circuit diagram showing the display area according to the embodiment.
  • the scanning line GL described above collectively refers to a plurality of scanning lines G1, G2, and G3.
  • the signal line SL mentioned above collectively refers to the plurality of signal lines S1, S2, and S3.
  • the scanning lines GL and the signal lines SL are orthogonal to each other, but the present invention is not limited to this.
  • the scanning lines GL and the signal lines SL may not be orthogonal.
  • the pixel Pix includes, for example, a sub-pixel SPixR for displaying red (first color: R), a sub-pixel SPixG for displaying green (second color: G), It includes a sub-pixel SPixB for displaying blue (third color: B).
  • switching elements TrD1, TrD2 and TrD3 of the sub-pixels SPixR, SPixG and SPixB, signal lines SL, scanning lines GL and the like are formed.
  • the signal lines S1, S2, S3 are wirings for supplying pixel signals to the pixel electrodes PE1, PE2, PE3 (see FIG. 6).
  • the scanning lines G1, G2, and G3 are wirings for supplying gate signals for driving the switching elements TrD1, TrD2, and TrD3.
  • the sub-pixels SPixR, SPixG, and SPixB are also called sub-pixels SPix.
  • Each of the sub-pixels SPixR, SPixG, and SPixB has switching elements TrD1, TrD2, and TrD3 and the capacitance of the liquid crystal layer LC, respectively.
  • the switching elements TrD1, TrD2, and TrD3 are configured by thin film transistors, and in this example, are configured by n-channel MOS (Metal Oxide Semiconductor) type TFTs.
  • a sixth insulating film 16 (see FIG. 6) is provided between pixel electrodes PE1, PE2, and PE3, which will be described later, and a common electrode COM, thereby forming a storage capacitor Cs shown in FIG.
  • the color filters CFR, CFG, and CFB shown in FIG. 4 have three color areas, for example, red (first color: R), green (second color: G), and blue (third color: B). arranged periodically.
  • Each of the sub-pixels SPixR, SPixG, and SPixB shown in FIG. 4 described above is associated with a set of three color regions of R, G, and B.
  • FIG. Then, the sub-pixels SPixR, SPixG, and SPixB corresponding to the three color regions are set as one set of pixels Pix.
  • the color filter may include color areas of four or more colors.
  • FIG. 5 is a schematic diagram showing an example of the display panel according to the embodiment.
  • FIG. 6 is a cross-sectional view schematically showing a cross section of the display panel according to the embodiment.
  • the display panel 110 has a side 110e1, a side 110e2, a side 110e3, and a side 110e4 at the end of the substrate. Areas between the display area 111 and the sides 110e1, 110e2, 110e3, and 110e4 of the substrate end of the display panel are called peripheral areas.
  • the scanning line driving circuit 114 is arranged in the peripheral area between the display area 111 and the edge 110 e 1 of the substrate of the display panel 110 .
  • the signal line connection circuit 113 is arranged in the peripheral area between the edge 110 e 4 of the substrate edge of the display panel 110 and the display area 111 .
  • the driver IC 115 is arranged in the peripheral area between the display area 111 and the side 110 e 4 of the substrate edge of the display panel 110 .
  • the sides 110e3 and 110e4 of the substrate edge of the display panel 110 are parallel to the X direction.
  • Sides 110e1 and 110e2 of the substrate edge of the display panel 110 are parallel to the Y direction.
  • the signal lines SL extend parallel to the Y direction, and the scanning lines GL extend parallel to the X direction.
  • the direction in which the scanning lines GL extend is orthogonal to the direction in which the signal lines SL extend.
  • the array substrate SUB1 is based on a translucent first insulating substrate 10 such as a glass substrate or a resin substrate.
  • the array substrate SUB1 has a first insulating film 11, a second insulating film 12, a third insulating film 13, a fourth insulating film 14, a fifth insulating film 15, a It includes a sixth insulating film 16, signal lines S1 to S3, pixel electrodes PE1 to PE3, a common electrode COM, a first alignment film AL1, and the like.
  • the direction from the array substrate SUB1 to the counter substrate SUB2 is referred to as upward or simply as upward.
  • the first insulating film 11 is located on the first insulating substrate 10 .
  • the second insulating film 12 is located on the first insulating film 11 .
  • the third insulating film 13 is located on the second insulating film 12 .
  • the signal lines S1 to S3 are located on the third insulating film 13 .
  • the fourth insulating film 14 is located on the third insulating film 13 and covers the signal lines S1 to S3.
  • a wiring may be arranged on the fourth insulating film 14 if necessary. This wiring is covered with the fifth insulating film 15 . In this embodiment, wiring is omitted.
  • the first insulating film 11, the second insulating film 12, the third insulating film 13, and the sixth insulating film 16 are formed of, for example, a translucent inorganic material such as silicon oxide or silicon nitride. there is
  • the fourth insulating film 14 and the fifth insulating film 15 are made of a translucent resin material and have a greater film thickness than other insulating films made of an inorganic material.
  • the fifth insulating film 15 may be made of an inorganic material.
  • a common electrode COM is located on the fifth insulating film 15 .
  • the common electrode COM is covered with a sixth insulating film 16 .
  • the sixth insulating film 16 is made of, for example, a translucent inorganic material such as silicon oxide or silicon nitride.
  • the pixel electrodes PE1 to PE3 are located on the sixth insulating film 16 and face the common electrode COM with the sixth insulating film 16 interposed therebetween.
  • the pixel electrodes PE1 to PE3 and the common electrode COM are made of a translucent conductive material such as ITO (Indium Tin Oxide) or IZO (Indium Zinc Oxide).
  • the pixel electrodes PE1 to PE3 are covered with a first alignment film AL1.
  • the first alignment film AL1 also covers the sixth insulating film 16 .
  • the counter substrate SUB2 is based on a transparent second insulating substrate 20 such as a glass substrate or a resin substrate.
  • the counter substrate SUB2 includes, on the side of the second insulating substrate 20 facing the array substrate SUB1, a light shielding layer BM, color filters CFR, CFG, CFB, an overcoat layer OC, a second alignment film AL2, and the like.
  • the light shielding layer BM is located on the side of the second insulating substrate 20 facing the array substrate SUB1.
  • the light shielding layer BM defines the sizes of the openings facing the pixel electrodes PE1 to PE3.
  • the light shielding layer BM is made of a black resin material or a light shielding metal material.
  • Each of the color filters CFR, CFG, and CFB is located on the side of the second insulating substrate 20 facing the array substrate SUB1, and their ends overlap the light shielding layer BM.
  • the color filter CFR faces the pixel electrode PE1.
  • the color filter CFG faces the pixel electrode PE2.
  • the color filter CFB faces the pixel electrode PE3.
  • the color filters CFR, CFG, and CFB are made of resin materials colored blue, red, and green, respectively.
  • the overcoat layer OC covers the color filters CFR, CFG, and CFB.
  • the overcoat layer OC is made of a translucent resin material.
  • the second alignment film AL2 covers the overcoat layer OC.
  • the first alignment film AL1 and the second alignment film AL2 are made of, for example, a material exhibiting horizontal alignment.
  • the counter substrate SUB2 includes the light shielding layer BM, color filters CFR, CFG, CFB, and the like.
  • the light shielding layer BM is formed in a region facing wiring portions such as the scanning lines G1, G2 and G3, the signal lines S1, S2 and S3, the contact portions PA1, PA2 and PA3, and the switching elements TrD1, TrD2 and TrD3 shown in FIG. are placed.
  • the counter substrate SUB2 has three color filters CFR, CFG, and CFB, but other colors other than blue, red, and green, such as white, transparent, yellow, magenta, and cyan, may be used. color filters of four or more colors, including color filters of four or more colors. Also, these color filters CFR, CFG, and CFB may be provided on the array substrate SUB1.
  • color filters CF are provided on the counter substrate SUB2 in FIG. 6, the so-called COA (Color filter on Array) structure may be employed, in which the array substrate SUB1 is provided with the color filters CF.
  • COA Color filter on Array
  • the array substrate SUB1 and counter substrate SUB2 described above are arranged such that the first alignment film AL1 and the second alignment film AL2 face each other.
  • the liquid crystal layer LC is enclosed between the first alignment film AL1 and the second alignment film AL2.
  • the liquid crystal layer LC is composed of a negative liquid crystal material with negative dielectric anisotropy or a positive liquid crystal material with positive dielectric anisotropy.
  • the array substrate SUB1 faces the backlight unit IL, and the counter substrate SUB2 is positioned on the display surface side.
  • the backlight unit IL various forms are applicable, but the detailed structure thereof will not be described.
  • the first optical element OD1 including the first polarizing plate PL1 is arranged on the outer surface of the first insulating substrate 10 or on the surface facing the backlight unit IL.
  • a second optical element OD2 including a second polarizing plate PL2 is arranged on the outer surface of the second insulating substrate 20 or on the observation position side surface.
  • the first polarizing axis of the first polarizing plate PL1 and the second polarizing axis of the second polarizing plate PL2 are in a crossed Nicol positional relationship on the XY plane, for example.
  • the first optical element OD1 and the second optical element OD2 may include other optical functional elements such as retardation plates.
  • the liquid crystal molecules LM when the liquid crystal layer LC is a negative liquid crystal material and no voltage is applied to the liquid crystal layer LC, the liquid crystal molecules LM have their long axes along the X direction in the XY plane. direction is initially oriented.
  • a voltage is applied to the liquid crystal layer LC, that is, when an electric field is formed between the pixel electrodes PE1 to PE3 and the common electrode COM, the liquid crystal molecules LM are oriented under the influence of the electric field. state changes. In the ON state, the incident linearly polarized light changes its polarization state according to the alignment state of the liquid crystal molecules LM when passing through the liquid crystal layer LC.
  • an image displayed on the display panel 110 is magnified by a lens 410 and observed. Since the lens 410 is close to the display panel 110, the image viewed by the user is geometrically distorted due to the aberration of the lens 410 (hereinafter also simply referred to as “lens distortion”). Since the HMD mounted on the head is limited in weight and size, it is difficult to suppress the aberration of the lens 410 . For this reason, the display system 1 performs image deformation processing for compensating for lens distortion on an image input to the display system 1 (hereinafter also referred to as an “input image”), and converts the image to be displayed on the display panel 110 into an image to be displayed on the display panel 110. Generate.
  • FIG. 7 is a diagram showing an example of the shape of an image to be subjected to image deformation processing in the display system according to the embodiment.
  • FIG. 8 is a diagram illustrating an example of the shape of an image subjected to image deformation processing in the display system according to the embodiment;
  • an image Mn to be viewed by the user has a plurality of pixels arranged in rows and columns in the X and Y directions.
  • the control circuit 230 shown in FIG. 3 generates an image MIg (FIG. 8) by applying image deformation processing to the image Mn shown in FIG.
  • an image MIg (FIG. 8) by applying image deformation processing to the image Mn shown in FIG.
  • pincushion distortion occurs since the lens 410 observes a close object, so-called pincushion distortion occurs.
  • the image Mn input to the display system 1 is caused to undergo barrel distortion as shown in FIG.
  • the shape of the image MIg after the image deformation processing shown in FIG. 8 is an example, and is not limited to the shape shown in FIG.
  • the image deformation processing in the display system 1 is performed using texture mapping that is commonly used in image processing. Image deformation processing based on texture mapping will be briefly described below.
  • a polygon mesh in which a plurality of triangular polygons are arranged in a mesh shape is superimposed on the image Mn that the user wants to visually recognize.
  • FIG. 9 is a diagram showing an example of image data input to the display system according to the embodiment.
  • FIG. 10 is a diagram showing virtual positions of each data definition point shown in FIG. Each data definition point P0,0, P1,0, . . . , Pn-1,m-1 shown in FIG.
  • Color data GN,M indicating pixel intensity of green (second color: G), color data BN,M indicating pixel intensity of blue (third color: B)
  • N is an integer from 0 to n ⁇ 1, M is defined as an integer from 0 to m ⁇ 1). That is, the input image has a plurality of data definition points that are virtually arranged in a matrix in the X and Y directions, and color and brightness information is recorded for each data definition point. In the example of FIG. 9, the brightness and color are recorded in the form of the intensity of the three primary colors R, G, and B.
  • Data for each data definition point is not limited to color data, and may be luminance and color difference data.
  • FIG. 11 is a diagram illustrating the positional relationship of images after image deformation processing corresponding to display areas of the display system according to the embodiment.
  • a grid figure in FIG. 11 indicates the display area 111 of the display panel 110 .
  • texture coordinates a two-dimensional numerical value indicating the data position on the image (on the texture) of the image data forming the texture.
  • texture coordinates The range of values in texture coordinates is normalized by the number n ⁇ 1 in the X direction and the number m ⁇ 1 in the Y direction of the XY coordinate system shown in FIG. PN, M shown in FIG. 10, that is, a unit of data constituting a texture is called a "texel”.
  • the coordinates that define the texture coordinates be the uv coordinate system.
  • k be the position of a texel in the u direction
  • l be the position in the v direction
  • q be the number of texels in the u direction
  • p be the number in the v direction. It can be expressed by the following formulas (1) and (2).
  • processing according to the pixel structure of the display panel 110 is added to the image deformation processing described above.
  • the control circuit 230 of the image generation device 200 generates pixel values of all sub-pixels SPix of the display panel 110 and transmits them to the display device 100 via the interface 240 . Accordingly, in the display panel 110, image conversion processing such as resolution conversion processing and pixel value conversion processing according to the pixel structure of the display panel 110 can be omitted.
  • the texture coordinates (u c , v c ) of the image Mn before the image transformation process corresponding to the pixel position (x, y) of the image MIg after the image transformation process are obtained by the image transformation process based on the texture mapping described above. .
  • the texture coordinates (u c , v c ) have no sub-pixel concept, and are coordinates corresponding to the representative position (x, y) of the pixel Pix. That is, the positions of the sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB are relatively different from the representative positions of the pixels Pix.
  • the corrected texture coordinates (u Q (x, y), v Q (x, y)) for each sub-pixel SPix of the display panel 110 can be expressed by the following formulas (3) and (4).
  • Q R, G, B in the following formulas (3) and (4). That is, the coordinates (u R (x, y), v R (x, y)) indicate the texture coordinates of the sub-pixel SPixR, and the coordinates (u G (x, y), v G (x, y)) are , indicates the texture coordinates of the sub-pixel SPixG, and the coordinates (u B (x, y), v B (x, y)) indicate the texture coordinates of the sub-pixel SPixB.
  • vQ (x,y) vcQ (x,y)+ ⁇ vsQ (x,y) (4)
  • the texture coordinates (u cQ (x, y), v cQ (x, y)) are obtained by the lens 410 between subpixels SPixR, subpixels SPixG, and subpixels SPixB.
  • the texture coordinate difference value ( ⁇ u sQ (x, y), ⁇ v sQ (x, y)) indicates the difference value for each sub-pixel SPixR, sub-pixel SPixG, and sub-pixel SPixB with respect to the texture coordinates (u c , v c ). ing.
  • 12A and 12B are diagrams showing the positional relationship of each sub-pixel with respect to the representative position of the pixel.
  • 12A and 12B show the displacement of the sub-pixel SPix with respect to the representative position u(x, y) of the pixel Pix.
  • FIG. 12A shows an example in which the sub-pixel SPix is shifted to the negative side with respect to the representative position u(x, y) of the pixel Pix.
  • FIG. 12B shows an example in which the sub-pixel SPix is shifted to the positive side with respect to the representative position u(x, y) of the pixel Pix.
  • the four coefficients k xp , k xm , k yp , and kym shown in FIGS. 12A and 12B indicate the deviation width when the pixel width is 1, and are different for the sub-pixel SPixR, the sub-pixel SPixG, and the sub-pixel SPixB. value.
  • the texture coordinates (u sQ (x, y), v sQ (x, y)) are the four coefficients k
  • Two-dimensional linear interpolation using xp , kxm , kyp , and kym can be expressed by the following equations (5) and (6).
  • Q R, G, B in the following formulas (5) and (6). That is, for example, the coefficient k xp for the sub-pixel SPixR is expressed as k xpR . Also, for example, the coefficient k xp for the sub-pixel SPixG is expressed as k xpG . Also, for example, the coefficient k xp for the sub-pixel SPixB is expressed as k xpB . The same applies to other coefficients.
  • texture coordinate difference values ( ⁇ u sQ (x, y), ⁇ v sQ (x, y)) can be expressed by the following equations (7) and (8).
  • Two methods are conceivable for correcting the chromatic aberration due to the lens 410 .
  • the shape of the polygon mesh used when obtaining the texture coordinates (u c , v c ) is reflected in the sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB according to the chromatic aberration of the lens 410.
  • a texture image with reduced chromatic aberration corresponding to the image magnification of each of the sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB of the lens 410 is mapped. That is, the coordinates (u cQ (x, y), v cQ (x, y)) are obtained for each sub-pixel SPixR, sub-pixel SPixG, and sub-pixel SPixB.
  • a correction coefficient for image magnification is applied to each of the sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB.
  • a second technique for correcting chromatic aberration due to the lens 410 will be described below.
  • FIG. 13 is a diagram illustrating an example of chromatic aberration characteristics of a lens, which indicates the amount of change in image magnification for each sub-pixel with respect to the distance from the optical axis of the lens.
  • FIG. 14 is a diagram showing the magnitude of the distance from the optical axis of the lens to the sub-pixels.
  • the difference in the image magnification of the lens depending on the color can be expressed, for example, by the amount of change ⁇ r in the image magnification with respect to the distance r from the optical axis of the lens, as shown in FIG.
  • the amount of change ⁇ r R in the image magnification of the sub-pixel SPixR and the amount of change ⁇ r B in the image magnification of the sub-pixel SPixB are shown.
  • the variation ⁇ r R in the image magnification of the sub-pixel SPixR, the variation ⁇ r G in the image magnification of the sub-pixel SPixG, and the variation ⁇ r B in the image magnification of the sub-pixel SPixB occur due to the dispersion of the refractive index of the lens. , expands as the distance r from the optical axis increases.
  • the amount of change in image magnification ⁇ r B of the sub-pixel SPixB is generally a positive value
  • the amount of change in the image magnification of the sub-pixel SPixR is ⁇ r R is generally negative.
  • the distance of the pixel from the position x lens0 and y lens0 of the optical axis of the lens 410 on the display panel 110 is r c can be represented by the following formulas (11), (12) and (13).
  • ⁇ x lens — c x lens — c ⁇ x lens0 ( 11 )
  • the change amount ⁇ r B in the image magnification of the sub-pixel SPixB is generally a positive value
  • the change amount ⁇ r R in the image magnification of the sub-pixel SPixR. is generally negative. Therefore, the positions of the sub-pixel SPixR, the sub-pixel SPixG, and the sub-pixel SPixB on the display panel 110 are shifted.
  • the position on the image where the sub-pixel data to be input to the sub-pixel SPixR is the image data at the position of the image displayed shifted due to the chromatic aberration of the lens, and is expressed by the following formulas (17) and (18). can be approximated by the relative positions ⁇ x comp_R and ⁇ y comp_R in which the distance from the optical axis of the lens is corrected for magnification.
  • the positions x comp_R and y comp_R on the image where the sub-pixel data to be input to the sub-pixel SPixR on the display panel 110 exist are determined using the positions x lens0 and y lens0 of the optical axis of the lens 410 on the display panel 110. It is represented by the following formulas (19) and (20).
  • the positions x tR and y tR of the sub-pixel SPixR considering the above-described positional shift due to chromatic aberration are calculated using coefficients k xpR , k xmR , k ypR , and kymR that indicate positions due to the configuration of the sub-pixels, as follows ( 21) to (24).
  • the positions x tB and y tB of the sub-pixel SPixB considering the above-described positional shift due to chromatic aberration are obtained by using the coefficients k xpB , k xmB , k ypB , and kymB indicating the position resulting from the configuration of the sub-pixels, as follows ( 29) to (32).
  • Texture coordinates ( u sQ (x, y), v sQ (x, y)) can be expressed by the following equations (37) and (38) instead of the above equations (7) and (8).
  • the texture coordinates (u sQ (x, y), v sQ (x, y)) generated using the above formulas (5) and (6) or the above formulas (37) and (38) are coordinate-transformed.
  • the texture coordinate difference values ( ⁇ u sQ (x, y), ⁇ v sQ (x, y) generated using the above equations (7) and (8), or the above equations (39) and (40) ) is stored as a coordinate conversion table in the storage unit 220 of the image generation device 200, and the positions u c (x c , y c ) and v c (x c , y c ) of the pixel Pix are obtained in the image deformation process.
  • the coordinate conversion table later, it is possible to simultaneously perform positional deviation compensation due to chromatic aberration and processing according to the pixel arrangement of the display panel 110 .
  • FIG. 15 is a diagram showing a first example of the coordinate conversion table.
  • Q R,G,B. That is, when the coordinate conversion table tb1Q is used, the storage unit 220 of the image generation device 200 stores the coordinate conversion table tb1R for the sub-pixel SPixR, the coordinate conversion table tb1G for the sub-pixel SPixG, and the coordinate conversion table tb1B for the sub-pixel SPixB. hold. Since the coordinate conversion table tb1Q holds texture coordinate values, sampling points (u tsQ , v tsQ ) can be obtained simply by referring to the conversion table during display processing for each display frame.
  • the texture coordinate difference generated using the above formulas (7) and (8), or the above formula (7) applying the above formula (37) and the above formula (8) applying the above formula (38) Values ( ⁇ u sQ (x, y), ⁇ v sQ (x, y)) are stored in the storage unit 220 of the image generation device 200 as a coordinate conversion table, and are applied to the image transformation process, thereby converting the display panel 110 into Processing according to the pixel array can be performed simultaneously.
  • FIG. 16 is a diagram showing a second example of the coordinate conversion table.
  • Q R,G,B. That is, when the coordinate conversion table tb2Q is used, the storage unit 220 of the image generation device 200 stores the coordinate conversion table tb2R for the sub-pixel SPixR, the coordinate conversion table tb2G for the sub-pixel SPixG, and the coordinate conversion table tb2B for the sub-pixel SPixB. hold.
  • the coordinate conversion table tb2Q holds difference values of texture coordinates
  • the reference texture for each pixel Pix It is necessary to get the coordinates (u c , v c ) and add them with the values in the conversion table. Even when the state of the reference texture (texture coordinates (u c , v c )) changes for each drawing process, it is possible to cope with this.
  • FIG. 17 is a flowchart illustrating a first example of a coordinate conversion table derivation process according to the embodiment.
  • FIG. 18 is a flowchart illustrating a second example of the coordinate conversion table derivation process according to the embodiment.
  • FIG. 17 illustrates derivation processing of the coordinate conversion table tb2Q to which the first method of correcting chromatic aberration due to the lens 410 is applied.
  • polygon meshes corresponding to the sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB corresponding to the chromatic aberration of the lens 410 are used.
  • control circuit 230 of the image generation device 200 generates a polygon mesh corresponding to the sub-pixel SPixR (step S101).
  • control circuit 230 generates a polygon mesh corresponding to the sub-pixel SPixR.
  • This polygon mesh is created with a predetermined shape that compensates for the R-color lens magnification and distortion of the lens 410, and texture coordinates (u cR (x, y), v cR (x , y)) and generate a texture coordinate table corresponding to the sub-pixel SPixR (step S102).
  • control circuit 230 generates a polygon mesh corresponding to the sub-pixel SPixG (step S103).
  • control circuit 230 generates a polygon mesh corresponding to the sub-pixel SPixG.
  • This polygon mesh is created with a predetermined shape that compensates for the G-color lens magnification and distortion of the lens 410, and texture coordinates (u cG (x, y), v cG (x , y)) to generate a texture coordinate table corresponding to the sub-pixel SPixG (step S104).
  • control circuit 230 generates a polygon mesh corresponding to the sub-pixel SPixB (step S105).
  • control circuit 230 generates a polygon mesh corresponding to the sub-pixel SPixB.
  • This polygon mesh is created with a predetermined shape that compensates for the B-color lens magnification and distortion of the lens 410, and texture coordinates (u cB (x, y), v cB (x , y)) and generate a texture coordinate table corresponding to the sub-pixel SPixB (step S106).
  • the control circuit 230 calculates the texture coordinates (u sR (x, y), v sR (x, y)), texture coordinates (u sG (x, y), v sG (x, y)), and texture coordinates (u sB (x, y), v sB (x, y)).
  • the control circuit 230 uses one of the sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB as a representative (for example, the positions u cG (x, y) and v cG (x, y) of the sub-pixels SPixG as representative values).
  • texture coordinate difference values ( ⁇ u sQ (x, y), ⁇ v sQ (x, y) ) is obtained, a coordinate conversion table tb2Q is generated for each subpixel SPixR, subpixel SPixG, and subpixel SPixB (step S107), and the subpixel SPixR, subpixel SPixG, subpixel The texture coordinate table for each SPixB is discarded (step S108).
  • FIG. 18 illustrates derivation processing of the coordinate conversion table tb2Q to which the second method of correcting chromatic aberration due to the lens 410 is applied.
  • a polygon mesh represented by the sub-pixel SPixG is used.
  • control circuit 230 of the image generation device 200 generates a polygon mesh corresponding to the sub-pixel SPixG (step S201).
  • This polygon mesh is created with a predetermined shape that compensates for the G-color lens magnification and distortion of the lens 410 .
  • control circuit 230 obtains texture coordinates (u cG (x, y), v cG (x, y)) corresponding to the sub-pixel SPixG by texture mapping, and generates a texture coordinate table corresponding to the sub-pixel SPixG. (step S202).
  • the control circuit 230 calculates the texture coordinate difference values ( ⁇ u sQ (x, y), ⁇ v sQ (x, y)) is obtained, a coordinate conversion table tb2Q is generated for each subpixel SPixR, subpixel SPixG, and subpixel SPixB (step S203), and the texture coordinate table for the subpixel SPixG generated in step S202 is discarded (step S204). .
  • 410 may be stored in advance in the storage unit 220 of the image generating apparatus 200, or the control circuit 230 of the image generating apparatus 200 may be stored in advance according to the lens 410 of the HMD when the display system 1 is activated. may execute the process of deriving the coordinate conversion table tb1Q or the coordinate conversion table tb2Q and store it in the storage unit 220.
  • control circuit 230 of the image generation device 200 may appropriately execute the process of deriving the coordinate conversion table tb1Q or the coordinate conversion table tb2Q and store it in the storage unit 220. good.
  • the image displayed on the display panel 110 is enlarged by the lens 410 and observed, the image displayed on the display panel 110 is subjected to image deformation processing for compensating for lens distortion.
  • image deformation processing for compensating for lens distortion.
  • data is sampled from the texture coordinates (u sQ (x, y), v sQ (x, y)) of the original image as display data of the pixel Pix at the position x, y of the pixel Pix.
  • FIG. 19 is a diagram showing a first example of relative positions between texels and a plane filling figure on the texture corresponding to the one pixel size plane filling figure on the display panel when sampling using the area averaging method. .
  • grids indicated by solid lines indicate texel boundary lines, and dashed lines indicate plane filling figures.
  • FIG. 19 shows an example in which the width of the plane filling figure in the X direction is 1.5 times the width of the texel, and the width of the plane filling figure in the Y direction is 2 ⁇ 3 of the width of the texel.
  • S 00 , S 10 , S 20 , S 01 , S 11 , and S 21 indicate the areas of regions where each texel and the plane filling figure overlap.
  • the pixel value FQ in the linear space represented by the plane filling figure can be expressed by the following equation (41).
  • FIG. 20 is a diagram showing a second example of the relative positions of texels and plane filling figures when sampling using the area average method.
  • FIG. 20 shows an example in which the width of the plane filling figure in the X direction is 1.5 ⁇ 2 times the width of the texel, and the width of the plane filling figure in the Y direction is 2/3 ⁇ 2 times the width of the texel. .
  • S 00 , S 10 , S 20 , S 30 , S 01 , S 11 , S 21 , S 31 , S 02 , S 12 , S 22 , S 32 are relative positions du, dv
  • texels with a width of (0 to 1, respectively, in texel units) where the plane-filling figure may overlap the area of the region where each texel and the plane-filling figure overlap is shown.
  • the pixel value FQ in the linear space represented by the plane filling figure can be expressed by the following equation (42).
  • the pixel value fQ transmitted to the display panel 110 can be expressed by the following equation (43), which is obtained by applying gamma correction to the pixel value FQ given by the above equations (41) and (42).
  • FIG. 21 is a diagram showing vectors indicating the size and orientation of a plane filling figure on the XY coordinate system and the center position when sampling using the multi-point averaging method.
  • V0 is the center position of the pixel.
  • Vectors V 1 and V 2 indicate the size and orientation of the plane filling figure on the XY coordinate system.
  • FIG. 22 is a diagram showing a figure on the uv coordinate system corresponding to the plane filling figure on the XY coordinate system shown in FIG.
  • E0 corresponds to the center position V0 of the pixel Pix shown in FIG.
  • vector E1 corresponds to vector V1 shown in FIG.
  • vector E2 corresponds to vector V2 shown in FIG .
  • the multi-point averaging method in which samples are taken from a plurality of positions based on the texture coordinates (u sQ , v sQ ) and the average is obtained, can easily deal with texture deformation and rotation. Since the coordinate conversion table described above contains a plurality of texture coordinates corresponding to the position of the sub-pixel SPix on the XY coordinate system, the size of the plane filling figure on the texel can be determined from the value of the coordinate conversion table referred to during sampling. can be asked for.
  • Texture coordinates (u sQ , v sQ ) obtained from a plurality of coordinate conversion tables corresponding to a plurality of sub-pixels SPix, or texture coordinate difference values ( ⁇ u sQ , ⁇ v sQ ) are not parallel to two or more difference values If they are included, by treating the plurality of difference values as linearly independent vectors, it is possible to calculate vectors E 1 and E 2 indicating the size and direction of the plane filling figure on the uv coordinate system. If the coordinate conversion table does not contain two or more non-parallel difference values, vectors E 1 and E 2 on the uv coordinate system corresponding to the vectors V 1 and V 2 on the predetermined XY coordinate system are calculated.
  • a table holding the values may be created in advance and referred to.
  • 23A, 23B, 23C, and 23D are diagrams showing examples of dividing a plane filling figure into four when sampling using the multi-point average method.
  • the pixel value FQ in the sampled linear space can be expressed by the following equations (44) and (45).
  • sp ij indicates sampling points.
  • Sa is a function for obtaining a pixel value from sp ij on the uv coordinate system.
  • the anti-aliasing effect can be enhanced by increasing the value of ⁇ in the above equation (44).
  • FIG. 24 is a diagram showing an example in which a plane filling figure is divided into six when sampling using the multi-point average method. As shown in FIG. 24, when dividing a plane filling figure into six, the sampling points sp ij can be expressed by the following equation (47).
  • the pixel value fQ to be transmitted to the display panel 110 can be expressed by the following equation (48), which is obtained by applying gamma correction to the pixel value FQ given by the above equation (44). However, if the input value of the display panel 110 is linear data, this processing is unnecessary and the FQ can be output as it is.
  • FIG. 25 A specific example of the image transformation process executed for each display frame will be described below with reference to FIGS. 25 and 26.
  • FIG. 25 is a flowchart showing a first example of image deformation processing according to the embodiment.
  • FIG. 26 is a flowchart illustrating a second example of image transformation processing according to the embodiment.
  • the first example shown in FIG. 25 shows an example of image transformation processing using the coordinate conversion table tb1Q shown in FIG.
  • the second example shown in FIG. 26 shows an example of image transformation processing using the coordinate conversion table tb2Q shown in FIG.
  • the control circuit 230 of the image generation device 200 sets the pixels Pix on the display panel 110 for generating pixel values (step S301), It is determined whether or not pixel value generation has been completed for the pixel (step S302).
  • control circuit 230 refers to the coordinate conversion table tb1R and converts the sub-pixel SPixR of the pixel Pix set in step S301.
  • the texture coordinates to be sampled are obtained (step S303), and the pixel value of the sub-pixel SPixR is calculated using the sampling method described above (step S304).
  • control circuit 230 refers to the coordinate conversion table tb1G to obtain the texture coordinates to be sampled by the sub-pixel SPixG of the pixel Pix set in step S301 (step S305), and uses the sampling method described above to A pixel value of the sub-pixel SPixG is calculated (step S306).
  • control circuit 230 refers to the coordinate conversion table tb1B, acquires the texture coordinates to be sampled at the sub-pixel SPixB of the pixel Pix set in step S301 (step S307), and uses the sampling method described above to obtain texture coordinates.
  • a pixel value of the sub-pixel SPixB is calculated (step S308).
  • step S302 If generation of pixel values for all pixels for one frame is completed in step S302 (step S302; Yes), image deformation processing for one frame is completed.
  • the control circuit 230 of the image generation device 200 first sets the pixels Pix on the display panel 110 for generating pixel values (step S401), (step S402).
  • control circuit 230 uses a reference polygon mesh (for example, a polygon mesh corresponding to the sub-pixel SPixG) to Texture coordinates (for example, texture coordinates corresponding to sub-pixel SPixG (u cG (x, y), v cG ( x, y))) is obtained (step S403).
  • a reference polygon mesh for example, a polygon mesh corresponding to the sub-pixel SPixG
  • Texture coordinates for example, texture coordinates corresponding to sub-pixel SPixG (u cG (x, y), v cG ( x, y)
  • the control circuit 230 refers to the coordinate conversion table tb2R to obtain texture coordinates corresponding to the sub-pixel SPixR to be sampled by the sub-pixel SPixR of the pixel Pix set in step S401 (step S404). Specifically, the control circuit 230 calculates the texture coordinates (u sR (x, y), vsR (x, y)) is calculated.
  • u sR (x, y) u cG (x, y)+ ⁇ u sR (x, y) (49)
  • v sR (x, y) v cG (x, y)+ ⁇ u sR (x, y) (50)
  • control circuit 230 calculates the pixel value of the sub-pixel SPixR using the sampling method described above (step S405).
  • control circuit 230 refers to the coordinate conversion table tb2G to acquire the texture coordinates corresponding to the sub-pixel SPixG to be sampled with the sub-pixel SPixG of the pixel Pix set in step S401 (step S406). Specifically, the control circuit 230 calculates the texture coordinates (u sG (x, y), vsG (x, y)) is calculated.
  • u sG (x, y) u cG (x, y)+ ⁇ u sG (x, y) (51)
  • v sG (x, y) v cG (x, y)+ ⁇ u sG (x, y) (52)
  • control circuit 230 calculates the pixel value of the sub-pixel SPixG using the sampling method described above (step S407).
  • control circuit 230 refers to the coordinate conversion table tb2B to acquire texture coordinates corresponding to the sub-pixel SPixB to be sampled by the sub-pixel SPixB of the pixel Pix set in step S401 (step S408). Specifically, the control circuit 230 calculates the texture coordinates (u sB (x, y), vsB (x, y)) is calculated.
  • u sB (x, y) u cG (x, y)+ ⁇ u sB (x, y) (53)
  • v sB (x, y) v cG (x, y)+ ⁇ u sB (x, y) (54)
  • control circuit 230 calculates the pixel value of the sub-pixel SPixB using the sampling method described above (step S409).
  • step S402 If generation of pixel values for all pixels for one frame is completed in step S402 (step S402; Yes), image deformation processing for one frame is completed.
  • FIG. 27 is a diagram showing a first example of the pixel array of the display panel according to the embodiment.
  • the first example of the pixel array of the display panel 110 according to the embodiment shown in FIG. 27 has a so-called mosaic pixel array in which the sub-pixels SPixR, SPixG, and SPixB are shifted one by one in the X direction for each line. is doing.
  • the pixel Pix includes a sub-pixel SPixR (first pixel) for displaying red (first color: R) and a sub-pixel SPixR (first pixel) for displaying green (first color: R).
  • It includes a sub-pixel SPixG (second pixel) for displaying two colors: G) and a sub-pixel SPixB (third pixel) for displaying blue (third color: B).
  • the subpixel SPixR (first pixel) is sandwiched between the subpixel SPixG (second pixel) and the subpixel SPixB (third pixel) in the X direction, and the subpixel SPixR (first pixel) is sandwiched in the Y direction. is sandwiched between the sub-pixel SPixG (second pixel) and the sub-pixel SPixB (third pixel).
  • sub-pixel SPixG (second pixel) is sandwiched between the sub-pixel SPixR (first pixel) and the sub-pixel SPixB (third pixel) in the X direction, and the sub-pixel SPixG (second pixel) is sandwiched in the Y direction.
  • pixel is sandwiched between a sub-pixel SPixR (first pixel) and a sub-pixel SPixB (third pixel).
  • sub-pixel SPixB (third pixel) is sandwiched between the sub-pixel SPixG (second pixel) and the sub-pixel SPixR (first pixel) in the X direction, and the sub-pixel SPixB (third pixel) is sandwiched in the Y direction.
  • each sub-pixel SPixR, SPixG, SPixB is square.
  • FIG. 27 shows an example in which each of the sub-pixels SPixR, SPixG, and SPixB is rectangular, the shape of each of the sub-pixels SPixR, SPixG, and SPixB is not limited to this.
  • FIG. 28 is a diagram showing a first example of pixel configuration in the pixel array shown in FIG.
  • the pixel Pix(0,0) includes a subpixel SPixR(0,0), a subpixel SPixG(1,0), and a subpixel SPixB(0,1).
  • Pixel Pix(1,0) includes subpixel SPixR(3,0), subpixel SPixG(2,1), and subpixel SPixB(2,0).
  • Pixel Pix(2,0) includes subpixel SPixR(4,1), subpixel SPixG(4,0), and subpixel SPixB(5,0).
  • the pixel Pix(0,1) includes a subpixel SPixR(1,1), a subpixel SPixG(0,2), and a subpixel SPixB(1,2).
  • the pixel Pix(1,1) includes a subpixel SPixR(2,2), a subpixel SPixG(3,2), and a subpixel SPixB(3,1).
  • the pixel Pix(2,1) includes a subpixel SPixR(5,2), a subpixel SPixG(5,1), and a subpixel SPixB(4,2).
  • a configuration of 3 pixels in the X direction and 2 pixels in the Y direction for a total of 6 pixels occurs repeatedly in the X and Y directions.
  • sx and sy can be represented by the following formulas (55) and (56), respectively.
  • % indicates an operation for obtaining the remainder of division.
  • FIG. 29 is a conceptual diagram for explaining the definition of pixel data in the pixel configuration shown in FIG.
  • a black dot indicates a virtual central position corresponding to each pixel Pix(sx, sy).
  • Pixel data corresponding to each pixel Pix(sx, sy) includes pixel values of sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB at the virtual center position of each pixel Pix(sx, sy).
  • the deviation between the virtual center position of each pixel Pix(sx, sy) and the center position of each sub-pixel SPix is the deviation of the position of the sub-pixel from the representative position of the pixel described in FIGS. 12A and 12B. Equivalent to.
  • the configuration of 3 pixels in the X direction and 2 pixels in the Y direction for a total of 6 pixels occurs repeatedly in the X and Y directions. Therefore, in the pixel configuration shown in FIG. 28, the four coefficients k xp , k xm , k yp , and kym that define the displacement of the sub-pixel positions relative to the representative positions of the pixels shown in FIGS. 12A and 12B are: When the size in the X direction and the size in the Y direction of each pixel Pix(sx, sy) are normalized to 1, the values shown in FIG. 30 are obtained.
  • FIG. 30 is a diagram showing four coefficient values for each sub-pixel in the pixel configuration shown in FIG. 28.
  • These coefficients are constants determined according to the pixel configuration of the display panel 110 . Therefore, by making a table of the coefficient values shown in FIG. 30 and storing them in the storage unit 220 of the image generating apparatus 200, the coordinate conversion table shown in FIG. 15 or the coordinate conversion table shown in FIG. 16 can be generated. can.
  • FIG. 31 is a diagram showing an example of a plane filling figure applied to the sampling method using the multi-point average method in the pixel configuration shown in FIG.
  • FIG. 31 shows an example in which the display area 111 of the display panel 110 is diagonally divided around the sub-pixel SPixG and filled with planar filling figures.
  • FIG. 32 is a diagram showing vectors indicating the magnitude and direction of the plane filling figure shown in FIG. 31 on the XY coordinates.
  • vectors V 1 and V 2 indicate areas of plane-filling figures on the display area 111 of the display panel 110 .
  • the plane filling figure shown in FIG . 32 has a rhombic shape indicated by vectors V1 and V2 in two directions different from the X and Y directions.
  • Vector V1 represents the vector of the interval between adjacent sub-pixels SPix of the same color
  • This vector V1 and vector V2 are expressed by the following equations (57) and (58).
  • V 1 0.96x ⁇ (2/3)y (57)
  • V 2 -0.5x-0.72y (58)
  • FIG. 33 is a diagram showing an example of a vector of a plane-filling figure applied to the sampling method using the multipoint averaging method in the pixel array shown in FIG.
  • the virtual center position of the pixel Pix (1, 0) is shown from the center position of the sub-pixel SPixG (2, 1) of the pixel Pix (1, 0).
  • VG 10 be the vector
  • VG 11 be the vector indicating the virtual center position of the pixel Pix (1, 1) from the center position of the sub-pixel SPixG (3, 2) of the pixel Pix (1, 1)
  • the vector VG 10 and Vector VG 11 can be expressed by the following equations (59) and (60).
  • vectors V1 and V2 on the XY coordinates of the plane filling figure shown in FIG . 32 are expressed by the following equations (61) and (62).
  • V 1 ⁇ 1.96 VG 10 +1.88 VG 11 (61)
  • V 2 ⁇ 0.58 VG 10 ⁇ 2.58 VG 11 (62)
  • FIG. 34 is a diagram showing a second example of the pixel configuration of the display panel according to the embodiment.
  • FIG. 34 shows an example in which two of the sub-pixel SPixR, the sub-pixel SPixG, and the sub-pixel SPixB are used as one pixel unit. That is, the number of colors of sub-pixels included in one pixel Pix is less than the number of colors defined in the input image (three colors of R (red), G (green), and B (blue)).
  • sx and sy can be expressed by the following formulas (63) and (64), respectively.
  • % indicates an operation for obtaining the remainder of division.
  • the pixel Pix(0,0) includes a subpixel SPixR(0,0) and a subpixel SPixG(1,0). Also, the pixel Pix(1,0) includes a subpixel SPixB(2,0) and a subpixel SPixG(3,0). Also, the pixel Pix(2,0) includes a subpixel SPixG(4,0) and a subpixel SPixB(5,0).
  • the pixel Pix(0,1) includes a subpixel SPixB(0,1) and a subpixel SPixR(1,1). Also, the pixel Pix(1,1) includes a subpixel SPixG(2,1) and a subpixel SPixB(3,1). Also, the pixel Pix(2,1) includes a subpixel SPixR(4,1) and a subpixel SPixG(5,1).
  • the pixel Pix(0,2) includes a subpixel SPixG(0,2) and a subpixel SPixB(1,2). Also, the pixel Pix(1,2) includes a subpixel SPixR(2,2) and a subpixel SPixG(3,2). Also, the pixel Pix(2,2) includes a subpixel SPixB(4,2) and a subpixel SPixR(5,2).
  • the control circuit 230 of the image generation device 200 controls the sub-pixel SPixR for each pixel Pix (sx, sy) having the pixel configuration shown in FIG. , the pixel data including the pixel values of the sub-pixels SPixG, and the sub-pixels SPixB.
  • the four coefficients k xp , k xm , kyp , kym that define the displacement of the sub-pixel positions relative to the representative positions of the pixels shown in FIGS.
  • FIG. 35 is a diagram showing four coefficient values for each sub-pixel in the pixel configuration shown in FIG. In FIG. 35, "-" indicates that there is no corresponding data.
  • pixel Pix (0,0), pixel (2,1), and pixel (1,2) do not have sub-pixel SPixB.
  • Pixel Pix(1,0), pixel (0,1), and pixel (2,2) do not have sub-pixel SPixG.
  • Pixel Pix (2, 0), pixel (1, 1), and pixel (0, 2) do not have sub-pixel SPixR.
  • the pixel configuration when displaying two of the sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB as one pixel unit is not limited to the pixel configuration shown in FIG.
  • the pixel array of the display panel 110 is illustrated as a mosaic array, but is not limited to this, and may be, for example, a delta array, a pentile array, or the like.
  • the format for transmitting pixel data including the pixel values of the sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB from the control circuit 230 of the image generation device 200 to the display panel 110 is the pixel configuration shown in FIG. is not limited to transmitting pixel data including pixel values of sub-pixels SPixR, sub-pixels SPixG, and sub-pixels SPixB for each pixel Pix(sx, sy).
  • 36A and 36B are conceptual diagrams showing an example different from FIG. 28 of the transmission format of pixel data.
  • the subpixels SPixR, SPixG, and SPixB arranged in the X method are sent as one pixel Pix, and the pixel data is sent as one pixel Pix.
  • 1) is added after the sub-pixel SPixG in the last column, and the pixel data is sent as one pixel Pix.
  • ) is added to the end of the sub-pixel SPixR in the last column and sent as one pixel Pix.
  • the number of pixel data in the X direction can be the same for each line.
  • FIG. 37A and 37B are conceptual diagrams showing modifications of the coordinate conversion table.
  • FIG. 37A shows a conceptual diagram in which data values are provided for each sub-pixel SPix.
  • FIG. 37B shows a conceptual diagram in which the same data is applied to a plurality of pixel blocks in the above-described region where data value changes are small for each pixel block.
  • the 3 ⁇ 2 6-pixel pixel block shown in FIG. 37A (0,0), (1,0), (2,0), (0,1), (1,1) ), (2,1), (0,2), (1,2), and (2,2) are the same data values.
  • FIG. 37B shows an example in which one pixel block is composed of 3 pixels in the X direction and 2 pixels in the Y direction, a total of 6 pixels, but the configuration of the pixel block is not limited to this.
  • one pixel block may be composed of nine pixels, three pixels in the X direction and three pixels in the Y direction, or one pixel may be composed of one pixel block. It can be.
  • FIG. 38 is a diagram showing a second example of the pixel arrangement of the display panel according to the embodiment.
  • the second example of the pixel arrangement of the display panel 110 according to the embodiment shown in FIG. 38 has the pixel arrangement of the RGB stripe arrangement.
  • the RGB stripe arrangement pixels Pix in which sub-pixels SPixR, SPixG, and SPixB are arranged in the same order in the X direction are arranged in a matrix in the X direction and the Y direction.
  • the four coefficients k xp , k xm , and kyp and kym have the values shown in FIG. 39 when the size in the X direction and the size in the Y direction of each pixel Pix(sx, sy) are normalized to 1.
  • FIG. 39 when the size in the X direction and the size in the Y direction of each pixel Pix(sx, sy) are normalized to 1.
  • FIG. 39 is a diagram showing four coefficient values for each sub-pixel in the pixel configuration of the RGB stripe arrangement shown in FIG.
  • the coefficient values corresponding to the subpixel SPixG are all 0, and the central position of the pixel Pix(x, y) and the central position of the subpixel SPixG overlap. Therefore, the coordinate conversion table tb1G and the coordinate conversion table tb2G for the sub-pixel SPixG become unnecessary.
  • the image generating apparatus 200 When image transformation processing is performed by the control circuit 230 of the display device 100, the image data reflecting the resolution conversion processing corresponding to the resolution of the display panel 110 is generated and transmitted to the display device 100, whereby the resolution conversion processing is performed on the display device 100 side. , the processing in the display control circuit 112 of the display panel 110 can be reduced.
  • the present disclosure is not limited by this method of resolution conversion processing.
  • the display system 1 can transmit and receive image data with a data amount corresponding to the pixel array of the display panel.

Abstract

表示システム(1)は、複数の副画素SPixを含み、第1方向、及び、第1方向とは異なる第2方向にマトリクス状に配列された画素Pixを有する表示パネル(110)を備える表示装置(100)と、表示パネル(110)の画素構造に応じて、入力画像の画像変形処理を行う制御回路(230)を備える画像生成装置(200)と、を備える。画像生成装置(200)と表示装置(100)とは、有線又は無線通信により接続されている。制御回路(230)は、画像変形処理において、表示パネルの全ての副画素SPixの画素値を生成する。

Description

表示システム
 本発明は、表示システムに関する。
 VR(Virtual Reality:仮想現実)システムは、視点移動に伴って画像の表示を変更することにより、利用者に仮想現実感を生じさせる。このようなVRシステムを実現するための表示装置として、例えば、頭部装着ディスプレイ(ヘッドマウントディスプレイ:Head Mounted Display、以下「HMD」とも称する)を頭部に装着し、身体の動き等に応じた映像を表示する技術が開示されている(例えば、特許文献1)。
特開2017-44768号公報
 VRシステムで用いられるHMDでは、接眼レンズで表示映像を拡大するため、表示パネルに表示された画像が歪んで見える。このため、予めレンズによる像歪みを考慮して、元の画像を歪ませて表示パネルに送り、表示パネル側で表示パネルの解像度や画素配列に応じた解像度変換処理や画素値変換処理等の画像変換処理を行うことが一般的に行われている。しかしながら、送られてくる画像よりも表示パネルの解像度が低解像度である場合や、所謂サブピクセルレンダリング処理を行うことが前提の表示パネルでは、実際に表示されるデータ量に比べて送られてくるデータ量が多く、無駄が生じることとなる。
 本開示は、上記の課題に鑑みてなされたもので、表示パネルの画素配列に応じたデータ量で送受信が可能な表示システムを提供することを目的とする。
 本開示の一態様に係る表示システムは、複数の副画素を含み、第1方向、及び、前記第1方向とは異なる第2方向にマトリクス状に配列された画素を有する液晶表示パネルを備える表示装置と、前記液晶表示パネルの画素構造に応じて、入力画像の画像変形処理を行う制御回路を備える画像生成装置と、を備え、前記画像生成装置と前記表示装置とは、有線又は無線通信により接続されており、前記制御回路は、前記画像変形処理において、前記液晶表示パネルの全ての前記副画素の画素値を生成する。
図1は、実施形態に係る表示システムの一例を示す構成図である。 図2は、表示パネルとユーザの目との相対関係の一例を示す模式図である。 図3は、図1に示す表示システムにおける画像生成装置及び表示装置の各構成の一例を示すブロック図である。 図4は、実施形態に係る表示領域を表す回路図である。 図5は、実施形態に係る表示パネルの一例を示す模式図である。 図6は、実施形態に係る表示パネルの断面を模式的に示す断面図である。 図7は、実施形態に係る表示システムにおいて画像変形処理の対象となる画像の形状の一例を示す図である。 図8は、実施形態に係る表示システムにおいて画像変形処理を行った画像の形状の一例を示す図である。 図9は、実施形態に係る表示システムに入力される画像データの一例を示す図である。 図10は、図9に示す各データ定義点の仮想的な位置を示す図である。 図11は、実施形態に係る表示システムの表示領域に対応する画像変形処理後の画像の位置関係を示す図である。 図12Aは、画素の代表的な位置に対する各副画素の位置関係を示す図である。 図12Bは、画素の代表的な位置に対する各副画素の位置関係を示す図である。 図13は、レンズの光軸からの距離に対する副画素ごとの像倍率の変化量を示すレンズの色収差特性の一例を示す図である。 図14は、レンズの光軸から副画素までの距離の大きさを示す図である。 図15は、座標変換テーブルの第1例を示す図である。 図16は、座標変換テーブルの第2例を示す図である。 図17は、実施形態に係る座標変換テーブルの導出処理の第1例を示すフローチャートである。 図18は、実施形態に係る座標変換テーブルの導出処理の第2例を示すフローチャートである。 図19は、面積平均法を用いて標本化する場合のテクセルと表示パネル上の1画素サイズの平面充填図形に対応したテクスチャ上の平面充填図形との相対位置の第1例を示す図である。 図20は、面積平均法を用いて標本化する場合のテクセルと平面充填図形との相対位置の第2例を示す図である。 図21は、多点平均法を用いて標本化する場合の平面充填図形のXY座標上の大きさを示すベクトルと中心位置を示す図である。 図22は、図21に示すXY座標系上の平面充填図形に対応するuv座標系上の図形を示す図である。 図23Aは、多点平均法を用いて標本化する場合に平面充填図形を4分割した例を示す図である。 図23Bは、多点平均法を用いて標本化する場合に平面充填図形を4分割した例を示す図である。 図23Cは、多点平均法を用いて標本化する場合に平面充填図形を4分割した例を示す図である。 図23Dは、多点平均法を用いて標本化する場合に平面充填図形を4分割した例を示す図である。 図24は、多点平均法を用いて標本化する場合に平面充填図形を6分割した例を示す図である。 図25は、実施形態に係る画像変形処理の第1例を示すフローチャートである。 図26は、実施形態に係る画像変形処理の第2例を示すフローチャートである。 図27は、実施形態に係る表示パネルの画素配列の第1例を示す図である。 図28は、図27に示す画素配列における画素構成の第1例を示す図である。 図29は、図28に示す画素構成における画素データの定義を説明するための概念図である。 図30は、図28に示す画素構成における副画素ごとの4つの係数値を示す図である。 図31は、図28に示す画素構成において多点平均法を用いた標本化手法に適用する平面充填図形の一例を示す図である。 図32は、図31に示す平面充填図形のXY座標上の大きさ及び向きを示すベクトルを示す図である。 図33は、図28に示す画素配列において多点平均法を用いた標本化手法に適用する平面充填図形のベクトルの一例を示す図である。 図34は、実施形態に係る表示パネルの画素構成の第2例を示す図である。 図35は、図34に示す画素構成における副画素ごとの4つの係数値を示す図である。 図36Aは、画素データの送信フォーマットの図28とは異なる例を示す概念図である。 図36Bは、画素データの送信フォーマットの図28とは異なる例を示す概念図である。 図37Aは、座標変換テーブルの変形例を示す概念図である。 図37Bは、座標変換テーブルの変形例を示す概念図である。 図38は、実施形態に係る表示パネルの画素配列の第2例を示す図である。 図39は、図38に示すRGBストライプ配列の画素構成における副画素ごとの4つの係数値を示す図である。
 本開示を実施するための形態(実施形態)につき、図面を参照しつつ詳細に説明する。なお、以下の実施形態に記載した内容により本開示が限定されるものではない。また、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能である。また、開示はあくまで一例にすぎず、当業者において、開示の主旨を保っての適宜変更について容易に想到し得るものについては、当然に本開示の範囲に含有されるものである。また、図面は説明をより明確にするため、実際の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、本開示の解釈を限定するものではない。また、本明細書と各図において、既出の図に関して前述したものと同様の要素には、同一の符号を付して、詳細な説明を適宜省略することがある。
 図1は、実施形態に係る表示システムの一例を示す構成図である。図2は、表示パネルとユーザの目との相対関係の一例を示す模式図である。
 本実施形態において、表示システム1は、ユーザの動きに伴って表示を変更する表示システムである。例えば、表示システム1は、仮想空間上の3次元のオブジェクト等を示すVR(Virtual Reality)画像を立体表示し、ユーザの頭部の向き(位置)に伴って立体表示を変更することにより、ユーザに仮想現実感を生じさせるVRシステムである。
 図1に示すように、表示システム1は、例えば、表示装置100と、画像生成装置200と、を有する。表示装置100と画像生成装置200とは、例えばケーブル300により有線接続される。ケーブル300は、例えば、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)等のケーブルを含む。表示装置100と画像生成装置200とは、無線通信により接続される構成としても良い。
 本開示において、表示装置100は、例えば、装着部材400に固定されてユーザの頭部に装着される頭部装着型の表示装置として用いられる。表示装置100は、画像生成装置2により生成された画像を表示するための表示パネル110を備える。以下、装着部材400に表示装置100が固定された態様を「HMD(Head Mounted Display)」とも称する。
 本開示において、画像生成装置200は、例えば、パーソナルコンピュータ、ゲーム機器等の電子機器が例示される。画像生成装置200は、ユーザの頭部の位置や姿勢に応じたVR画像を生成して表示装置100に出力する。なお、画像生成装置200により生成される画像はVR画像に限るものではない。
 表示装置100は、ユーザがHMDを装着した際、ユーザの両目の前に表示パネル110が配置される位置に固定されている。表示装置100は、表示パネル110の他に、ユーザがHMDを装着した際、ユーザの両耳に対応する位置にスピーカー等の音声出力装置を備えた態様であっても良い。また、表示装置100は、後述するように、表示装置100を装着したユーザの頭部の位置や姿勢等を検出するセンサ(例えば、ジャイロセンサ、加速度センサ、方位センサ等)を備えた態様であっても良い。また、表示装置100は、画像生成装置200の機能を内包した態様であっても良い。
 図2に示すように、装着部材400は、例えば、ユーザに両目Eに対応したレンズ410を有する。レンズ410は、ユーザがHMDを装着した際、表示パネル110に表示される画像を拡大してユーザの目Eの網膜に結像させる。ユーザは、表示パネル110に表示され、レンズ410によって拡大された画像を視認する。なお、図2では、1つのレンズをユーザの目Eと表示パネル110との間に配置した例を示したが、例えば、ユーザの両目にそれぞれ対応した複数のレンズで構成された態様であっても良い。また、表示パネル110がユーザの眼前とは異なる位置に配置された構成であっても良い。
 本実施形態において、表示パネル110は、液晶表示パネルを想定している。
 図1に示すようなVRシステムで用いられる表示装置100では、図2に示すように、表示パネル110に表示される画像を拡大してユーザの目Eの網膜に結像させる。このため、より高精細な表示パネルが求められている。また、表示映像を拡大することで画素間の隙間が格子状に見え易くなる。このため、画素開口率の高い液晶表示パネルを用いることで、格子感の少ない映像表示が可能となるという利点がある。
 図3は、図1に示す表示システムにおける画像生成装置及び表示装置の各構成の一例を示すブロック図である。図3に示すように、表示装置100は、2つの表示パネル110と、センサ120と、画像分離回路150と、インタフェース160と、を備える。
 表示装置100は、2つの表示パネル110を備える。2つの表示パネル110は、1つを左目用の表示パネル110とし、他方を右目用の表示パネル110として用いる。
 2つの表示パネル110のそれぞれは、表示領域111と、表示制御回路112と、を有する。なお、表示パネル110は、表示領域111を背後から照射する図示しない光源装置を有する。
 表示領域111は、画素Pixが、n×m個(行方向(X方向)にn個、列方向(Y方向)にm個)、2次元のマトリクス状(行列状)に配列されている。本実施形態では、表示領域111における画素密度を、例えば806ppiとする。図3では、複数の画素Pixの配列を模式的に表しており、詳細な画素Pixの配列は、後述する。
 表示パネル110は、X方向に延在する走査線と、X方向と交差するY方向に延在する信号線を有する。表示パネル110において、信号線SLと走査線GLとに囲まれた領域には、画素Pixが配置される。画素Pixは、信号線SL及び走査線GLと接続されるスイッチング素子(TFT:薄膜トランジスタ)、及び、スイッチング素子に接続された画素電極を有する。1つの走査線GLは、走査線GLの延在方向に沿って配置される複数の画素Pixが接続される。また、1つの信号線SLは、信号線SLの延在方向に沿って配置される複数の画素Pixが接続される。
 2つの表示パネル110のうち、一方の表示パネル110の表示領域111が右目用であり、他方の表示パネル110の表示領域111が左目用である。ここでは、表示パネル110は、左目用と右目用の2つの表示パネル110を有する場合について例示しているが、表示装置100は、2つの表示パネル110を用いる構造に限定されない。例えば、表示パネル110は、1つであって、右半分の領域には右目用の画像を表示し、左半分の領域には左目用の画像を表示するように、1つの表示パネル110の表示領域を2分割する態様であっても良い。
 表示制御回路112は、ドライバIC(Integrated Circuit:集積回路)115、信号線接続回路113及び走査線駆動回路114を備えている。信号線接続回路113は、信号線SLと電気的に接続されている。ドライバIC115は、走査線駆動回路114によって、画素Pixの動作(光透過率)を制御するためのスイッチング素子(例えば、TFT)のON/OFFを制御する。走査線駆動回路114は、走査線GLと電気的に接続されている。
 センサ120は、ユーザの頭部の向きを推定可能な情報を検出する。例えば、センサ120は、表示装置100の動きを示す情報を検出し、表示システム1は、表示装置100の動きを示す情報に基づいて、表示装置100を頭部に装着したユーザの頭部の向きを推定する。
 センサ120は、例えば、表示装置100の角度、加速度、角速度、方位、距離の少なくとも1つを用いて、視線の向きを推定可能な情報を検出する。センサ120は、例えば、ジャイロセンサ、加速度センサ、方位センサ等を用いることができる。センサ120は、例えば、ジャイロセンサによって表示装置100の角度及び角速度を検出してもよい。センサ120は、例えば、加速度センサによって表示装置100に働く加速度の方向及び大きさを検出してもよい。
 また、センサ120は、例えば、方位センサによって表示装置100の方位を検出してもよい。センサ120は、例えば、距離センサ、GPS(Global Positioning System)受信機等によって表示装置100の移動を検出してもよい。センサ120は、ユーザの頭部の向き、視線の変化、移動等を検出するためのセンサであれば、光センサ等の他のセンサでもよく、複数のセンサを組み合わせて用いてもよい。センサ120は、後述するインタフェース160を介して、画像分離回路150と電気的に接続されている。
 画像分離回路150は、ケーブル300を介して画像生成装置200から送られてきた左目用画像データと右目用画像データを受けとり、左目用画像データを左目用の画像を表示する表示パネル110に送り、右目用画像データを右目用の画像を表示する表示パネル110に送る。
 インタフェース160には、ケーブル300(図1)が接続されるコネクタを含む。インタフェース160は、接続されたケーブル300を介して、画像生成装置200からの信号が入力される。画像分離回路150は、インタフェース160およびインタフェース240を介して、センサ120から入力された信号を画像生成装置200へ出力する。ここで、センサ120から入力された信号には、上述した視線の向きを推定可能な情報が含まれる。あるいは、センサ120から入力された信号は、インタフェース160を介して直接、画像生成装置200の制御回路230へ出力されてもよい。インタフェース160は、例えば、無線通信装置とし、無線通信を介して画像生成装置200との間で情報の送受信を行ってもよい。
 画像生成装置200は、操作部210と、記憶部220と、制御回路230と、インタフェース240と、を備える。
 操作部210は、ユーザの操作を受け付ける。操作部210は、例えば、キーボード、ボタン、タッチスクリーン等の入力デバイスを用いることができる。操作部210は、制御回路230と電気的に接続されている。操作部210は、操作に応じた情報を制御回路230に出力する。
 記憶部220は、プログラム及びデータを記憶する。記憶部220は、制御回路230の処理結果を一時的に記憶する。記憶部220は、記憶媒体を含む。記憶媒体は、例えば、ROM、RAM、メモリカード、光ディスク、又は光磁気ディスク等を含む。記憶部220は、表示装置100に表示させる画像のデータを記憶してもよい。
 記憶部220は、例えば、制御プログラム211、VRアプリケーション212等を記憶する。制御プログラム211は、例えば、画像生成装置200を稼働させるための各種制御に関する機能を提供できる。VRアプリケーション212は、VR画像を表示装置100に表示させる機能を提供できる。記憶部220は、例えば、センサ120の検出結果を示すデータ等の表示装置100から入力された各種情報を記憶できる。
 制御回路230は、例えば、MCU(Micro Control Unit)、CPU(Central Processing Unit)等を含む。制御回路230は、画像生成装置200の動作を統括的に制御できる。制御回路230の各種機能は、制御回路230の制御に基づいて実現される。
 制御回路230は、例えば、表示する画像を生成するGPU(Graphics Processing Unit)を含む。GPUは、表示装置100に表示する画像を生成する。制御回路230は、GPUが生成した画像を、インタフェース240を介して表示装置100に出力する。本実施形態では、画像生成装置200の制御回路230は、GPUを含む場合について説明するが、これに限定されない。例えば、GPUは、表示装置100又は表示装置100の画像分離回路150に設けてもよい。この場合、表示装置100は、例えば、画像生成装置200、外部の電子機器等からデータを取得し、当該データに基づいてGPUが画像を生成すればよい。
 インタフェース240には、ケーブル300(図1参照)が接続されるコネクタを含む。インタフェース240は、ケーブル300を介して、表示装置100からの信号が入力される。インタフェース240は、制御回路230から入力された信号を、ケーブル300を介して表示装置100へ出力する。インタフェース240は、例えば、無線通信装置とし、無線通信を介して表示装置100との間で情報の送受信を行ってもよい。
 制御回路230は、VRアプリケーション212を実行すると、ユーザ(表示装置100)の動きに応じた画像を表示装置100に表示させる。制御回路230は、画像を表示装置100に表示させた状態で、ユーザ(表示装置100)の変化を検出すると、当該変化した方向の画像へ表示装置100に表示している画像を変化させる。制御回路230は、画像の作成開始時に、仮想空間上の基準視点及び基準視線に基づく画像を作成し、ユーザ(表示装置100)の変化を検出した場合、表示させている画像を作成する際の視点又は視線を、基準視点又は基準視線方向からユーザ(表示装置100)の動きに応じて変更し、変更した視点又は視線に基づく画像を表示装置100に表示させる。
 例えば、制御回路230は、センサ120の検出結果に基づいて、ユーザの頭部の右方向への移動を検出する。この場合、制御回路230は、現在表示させている画像から右方向へ視線を変化させた場合の画像へ変化させる。ユーザは、表示装置100に表示されている画像の右方向の画像を視認することができる。
 例えば、制御回路230は、センサ120の検出結果に基づいて、表示装置100の移動を検出すると、検出した移動に応じて画像を変化させる。制御回路230は、表示装置100が前方へ移動したことを検出した場合、現在表示させている画像の前方へ移動した場合の画像へ変化させる。制御回路230は、表示装置100が後方方向へ移動したことを検出した場合、現在表示させている画像の後方へ移動した場合の画像へ変化させる。ユーザは、表示装置100に表示されている画像から、自身の移動方向の画像を視認することができる。
 図4は、実施形態に係る表示領域を表す回路図である。以下、上述した走査線GLは、複数の走査線G1、G2、G3を総称している。上述した信号線SLは、複数の信号線S1、S2、S3を総称している。図4に示す例では、走査線GLと信号線SLとが直交しているが、これに限定されない。例えば、走査線GLと信号線SLとは直交していなくても良い。
 図4に示すように、本開示において、画素Pixは、例えば赤(第1色:R)を表示するための副画素SPixR、緑(第2色:G)を表示するための副画素SPixG、青(第3色:B)を表示するための副画素SPixBを含む。表示領域111には、各副画素SPixR、SPixG、SPixBのスイッチング素子TrD1、TrD2、TrD3、信号線SL、走査線GL等が形成されている。信号線S1、S2、S3は、各画素電極PE1、PE2、PE3(図6参照)に画素信号を供給するための配線である。走査線G1、G2、G3は、各スイッチング素子TrD1、TrD2、TrD3を駆動するゲート信号を供給するための配線である。なお、各副画素SPixR、SPixG、SPixBは、副画素SPixと呼ぶこともある。
 各副画素SPixR、SPixG、SPixBは、それぞれスイッチング素子TrD1、TrD2、TrD3及び液晶層LCの容量を備えている。スイッチング素子TrD1、TrD2、TrD3は、薄膜トランジスタにより構成されるものであり、この例では、nチャネルのMOS(Metal Oxide Semiconductor)型のTFTで構成されている。後述する画素電極PE1、PE2、PE3と共通電極COMとの間に第6絶縁膜16(図6参照)が設けられ、これらによって図4に示す保持容量Csが形成される。
 図4に示すカラーフィルタCFR、CFG、CFBは、例えば赤(第1色:R)、緑(第2色:G)、青(第3色:B)の3色に着色された色領域が周期的に配列されている。上述した図4に示す各副画素SPixR、SPixG、SPixBに、R、G、Bの3色の色領域が1組として対応付けられる。そして、3色の色領域に対応する副画素SPixR、SPixG、SPixBを1組の画素Pixとされる。なお、カラーフィルタは、4色以上の色領域を含んでいてもよい。
 図5は、実施形態に係る表示パネルの一例を示す模式図である。図6は、実施形態に係る表示パネルの断面を模式的に示す断面図である。
 図5に示すように、表示パネル110には、基板端部の辺110e1、辺110e2、辺110e3、辺110e4がある。表示パネルの基板端部の辺110e1、辺110e2、辺110e3、辺110e4と、表示領域111との間は、周辺領域と呼ばれる。
 走査線駆動回路114は、表示パネル110の基板端部の辺110e1と表示領域111との間の周辺領域に配置されている。信号線接続回路113は、表示パネル110の基板端部の辺110e4と表示領域111との間の周辺領域に配置されている。ドライバIC115は、表示パネル110の基板端部の辺110e4と表示領域111との間の周辺領域に配置されている。本実施形態では、表示パネル110の基板端部の辺110e3、辺110e4は、X方向と平行である。表示パネル110の基板端部の辺110e1、辺110e2は、Y方向と平行である。
 図5に示す例において、信号線SLはY方向と平行に延在し、走査線GLはX方向と平行に延在する。図5に示すように、本開示において、走査線GLが延在する方向は、信号線SLが延在する方向と直交である。
 次に、表示パネル110の断面構造について、図6を参照して説明する。図6において、アレイ基板SUB1は、ガラス基板や樹脂基板などの透光性を有する第1絶縁基板10を基体としている。アレイ基板SUB1は、第1絶縁基板10の対向基板SUB2と対向する側に、第1絶縁膜11、第2絶縁膜12、第3絶縁膜13、第4絶縁膜14、第5絶縁膜15、第6絶縁膜16、信号線S1からS3、画素電極PE1からPE3、共通電極COM、第1配向膜AL1などを備えている。以下の説明において、アレイ基板SUB1から対向基板SUB2に向かう方向を上方、あるいは、単に上と称する。
 第1絶縁膜11は、第1絶縁基板10の上に位置している。第2絶縁膜12は、第1絶縁膜11の上に位置している。第3絶縁膜13は、第2絶縁膜12の上に位置している。信号線S1からS3は、第3絶縁膜13の上に位置している。第4絶縁膜14は、第3絶縁膜13の上に位置し、信号線S1からS3を覆っている。
 必要があれば、第4絶縁膜14の上には、配線を配置してもよい。この配線は、第5絶縁膜15によって覆われることになる。本実施形態では、配線を省略している。第1絶縁膜11、第2絶縁膜12、第3絶縁膜13、及び、第6絶縁膜16は、例えば、シリコン酸化物やシリコン窒化物などの透光性を有する無機系材料によって形成されている。第4絶縁膜14及び第5絶縁膜15は、透光性を有する樹脂材料によって形成され、無機系材料によって形成された他の絶縁膜と比べて厚い膜厚を有している。ただし、第5絶縁膜15については無機系材料によって形成されたものであってもよい。
 共通電極COMは、第5絶縁膜15の上に位置している。共通電極COMは、第6絶縁膜16によって覆われている。第6絶縁膜16は、例えば、シリコン酸化物やシリコン窒化物などの透光性を有する無機系材料によって形成されている。
 画素電極PE1からPE3は、第6絶縁膜16の上に位置し、第6絶縁膜16を介して共通電極COMと対向している。画素電極PE1からPE3、及び、共通電極COMは、例えば、ITO(Indium Tin Oxide)やIZO(Indium Zinc Oxide)などの透光性を有する導電材料によって形成されている。画素電極PE1からPE3は、第1配向膜AL1によって覆われている。第1配向膜AL1は、第6絶縁膜16も覆っている。
 対向基板SUB2は、ガラス基板や樹脂基板などの透光性を有する第2絶縁基板20を基体としている。対向基板SUB2は、第2絶縁基板20のアレイ基板SUB1と対向する側に、遮光層BM、カラーフィルタCFR、CFG、CFB、オーバーコート層OC、第2配向膜AL2などを備えている。
 図6に示すように、遮光層BMは、第2絶縁基板20のアレイ基板SUB1と対向する側に位置している。そして、遮光層BMは、画素電極PE1からPE3とそれぞれ対向する開口の大きさを規定している。遮光層BMは、黒色の樹脂材料や、遮光性の金属材料によって形成されている。
 カラーフィルタCFR、CFG、CFBのそれぞれは、第2絶縁基板20のアレイ基板SUB1と対向する側に位置し、それぞれの端部が遮光層BMに重なっている。カラーフィルタCFRは、画素電極PE1と対向している。カラーフィルタCFGは、画素電極PE2と対向している。カラーフィルタCFBは、画素電極PE3と対向している。一例では、カラーフィルタCFR、CFG、CFBは、それぞれ青色、赤色、緑色に着色された樹脂材料によって形成されている。
 オーバーコート層OCは、カラーフィルタCFR、CFG、CFBを覆っている。オーバーコート層OCは、透光性を有する樹脂材料によって形成されている。第2配向膜AL2は、オーバーコート層OCを覆っている。第1配向膜AL1及び第2配向膜AL2は、例えば、水平配向性を示す材料によって形成されている。
 以上説明したように、対向基板SUB2は、遮光層BM、カラーフィルタCFR、CFG、CFBなどを備えている。遮光層BMは、図4に示した走査線G1、G2、G3、信号線S1、S2、S3、コンタクト部PA1、PA2、PA3、スイッチング素子TrD1、TrD2、TrD3などの配線部と対向する領域に配置されている。
 図6において、対向基板SUB2は、3色のカラーフィルタCFR、CFG、CFBを備えていたが、青色、赤色、及び、緑色とは異なる他の色、例えば白色、透明、イエロー、マゼンタ、シアンなどのカラーフィルタを含む4色以上のカラーフィルタを備えていてもよい。また、これらのカラーフィルタCFR、CFG、CFBは、アレイ基板SUB1に備えられていてもよい。
 また、図6において、カラーフィルタCFは対向基板SUB2に設けられているが、アレイ基板SUB1にカラーフィルタCFを備える、所謂COA(Color filter on Array)の構造であってもよい。
 上述したアレイ基板SUB1及び対向基板SUB2は、第1配向膜AL1及び第2配向膜AL2が向かい合うように配置されている。液晶層LCは、第1配向膜AL1と第2配向膜AL2との間に封入されている。液晶層LCは、誘電率異方性が負のネガ型液晶材料、あるいは、誘電率異方性が正のポジ型液晶材料によって構成されている。
 アレイ基板SUB1がバックライトユニットILと対向し、対向基板SUB2が表示面側に位置する。バックライトユニットILとしては、種々の形態のものが適用可能であるが、その詳細な構造については説明を省略する。
 第1偏光板PL1を含む第1光学素子OD1は、第1絶縁基板10の外面、あるいは、バックライトユニットILと対向する面に配置される。第2偏光板PL2を含む第2光学素子OD2は、第2絶縁基板20の外面、あるいは、観察位置側の面に配置される。第1偏光板PL1の第1偏光軸及び第2偏光板PL2の第2偏光軸は、例えばX-Y平面においてクロスニコルの位置関係にある。なお、第1光学素子OD1及び第2光学素子OD2は、位相差板などの他の光学機能素子を含んでいてもよい。
 例えば、液晶層LCがネガ型液晶材料である場合であって、液晶層LCに電圧が印加されていない状態では、液晶分子LMは、X-Y平面内において、その長軸がX方向に沿う方向に初期配向している。一方、液晶層LCに電圧が印加された状態、つまり、画素電極PE1からPE3と共通電極COMとの間に電界が形成されたオン時において、液晶分子LMは、電界の影響を受けてその配向状態が変化する。オン時において、入射した直線偏光は、その偏光状態が液晶層LCを通過する際に液晶分子LMの配向状態に応じて変化する。
 一般に、HMDでは表示パネル110に表示された画像をレンズ410で拡大して観察する。レンズ410は、表示パネル110に近接しているため、ユーザが観察する画像にレンズ410の収差による幾何学的な像の歪み(以下、単に「レンズ歪」とも称する)が発生する。頭部に装着するHMDは、重量やサイズが制限されるため、レンズ410の収差を抑制することは困難である。このため、表示システム1は、表示システム1に入力される画像(以下、「入力画像」とも称する)に対し、レンズ歪を補償するための画像変形処理を行い、表示パネル110に表示する画像を生成する。
 図7は、実施形態に係る表示システムにおいて画像変形処理の対象となる画像の形状の一例を示す図である。図8は、実施形態に係る表示システムにおいて画像変形処理を行った画像の形状の一例を示す図である。
 図7において、ユーザに視認させたい画像Mnは、複数の画素がX方向及びY方向に行列配置されている。図3に示す制御回路230は、図7に示す画像Mnに対して、画像変形処理を加えた画像MIg(図8)を生成する。本開示において、レンズ410は、近接した物体を観察するため、所謂糸巻歪曲収差(Pincushion Distortion)が生じる。この糸巻歪曲収差によるレンズ歪を補償するために、表示システム1に入力される画像Mnに対して、図8に示すような樽型歪み(Barrel Distortion)を生じさせる。図8に示す画像変形処理後の画像MIgの形状は一例であって、図8に示す形状に限定されない。
 表示システム1における画像変形処理は、画像処理で一般的に用いられるテクスチャマッピングを利用して行われる。以下、テクスチャマッピングに基づく画像変形処理について簡単に説明する。
 図7に示す例では、複数の三角形状のポリゴン(Polygon)がメッシュ状に配置されたポリゴンメッシュを、ユーザに視認させたい画像Mnに重ね合わせている。図7において、ポリゴンメッシュは、X方向及びY方向にそれぞれ19個の、それぞれ隣接して境界が共通の座標になっている同じサイズの四角形の集合である。各四角形は2つのポリゴンで形成されている。従って、図7に示すポリゴンメッシュは、19×19×2=722個のポリゴンで形成されている。このポリゴンメッシュを構成するポリゴンの数が多いほど、画像変形処理後の画像MIgの歪形状の正確性を向上させることができる。
 図9は、実施形態に係る表示システムに入力される画像データの一例を示す図である。図10は、図9に示す各データ定義点の仮想的な位置を示す図である。図10に示す各データ定義点P0,0、P1,0、・・・、Pn-1,m-1は、それぞれ、赤(第1色:R)の画素強度を示す色データRN,M、緑(第2色:G)の画素強度を示す色データGN,M、青(第3色:B)の画素強度を示す色データBN,M(Nは0からn-1までの整数、Mは、0からm-1までの整数)が定義されている。すなわち、入力画像は、X方向及びY方向に仮想的にマトリクス配置された複数のデータ定義点を有し、このデータ定義点ごとに、色彩と明るさの情報が記録されている。図9の例では、明るさと色彩をR,G,Bの3原色の強度の形で記録している。なお、データ定義点ごとのデータは、色データに限らず、輝度と色差のデータであっても良い。
 ポリゴンメッシュを用いたテクスチャマッピングに基づく画像変形処理により、図7に示す画像Mnを図8に示す画像MIgの形状に歪めると、図10に示す各データ定義点P0,0、P1,0、・・・、Pn-1,m-1が移動する。図11は、実施形態に係る表示システムの表示領域に対応する画像変形処理後の画像の位置関係を示す図である。図11における方眼図形は、表示パネル110の表示領域111を示している。
 本開示において、テクスチャを構成する画像データの画像上(テクスチャ上)のデータ位置を示す2次元の数値を「テクスチャ座標」と称する。テクスチャ座標における値の範囲は、図10に示すXY座標系のX方向の数n-1及びY方向の数m-1で正規化され、それぞれ0以上1以下の数値に規格化されている。図10に示すPN,M、すなわちテクスチャを構成するデータの単位を「テクセル」と称する。
 ここで、テクスチャ座標を定義する座標をuv座標系とする。テクセルのu方向の位置をk、v方向の位置をlとし、テクセルのu方向の数をq、v方向の数をpとしたとき、uv座標系上の位置とテクセルの位置の相関は、下記(1)式及び(2)式で表せる。
 k=qu・・・(1)
 l=pv・・・(2)
 本開示では、上述した画像変形処理において、表示パネル110の画素構造に応じた処理を加える。具体的に、画像生成装置200の制御回路230は、表示パネル110の全ての副画素SPixの画素値を生成し、インタフェース240を介して表示装置100に送信する。これにより、表示パネル110では、表示パネル110の画素構造に応じた解像度変換処理や画素値変換処理等の画像変換処理を省略することができる。
 以下、本開示における画像変形処理について、詳細に説明する。
 上述したテクスチャマッピングに基づく画像変形処理により、画像変形処理後の画像MIgの画素位置(x,y)に対応する、画像変形処理前の画像Mnのテクスチャ座標(u,v)が得られる。このテクスチャ座標(u,v)には副画素の概念はなく、画素Pixの代表的な位置(x,y)に対応した座標である。すなわち、副画素SPixR、副画素SPixG、副画素SPixBの位置は、画素Pixの代表的な位置とは相対的に異なる。このテクスチャ座標(u,v)に対して、表示パネル110の副画素SPixごとの補正を加えることで、副画素SPixごとのテクスチャ座標を得ることができる。
 表示パネル110の副画素SPixごとの補正を加えたテクスチャ座標(u(x,y),v(x,y))は、下記(3)式及び(4)式で表せる。下記(3)式及び(4)式において、Q=R,G,Bである。すなわち、座標(u(x,y),v(x,y))は、副画素SPixRのテクスチャ座標を示し、座標(u(x,y),v(x,y))は、副画素SPixGのテクスチャ座標を示し、座標(u(x,y),v(x,y))は、副画素SPixBのテクスチャ座標を示している。
 u(x,y)=ucQ(x,y)+ΔusQ(x,y)・・・(3)
 v(x,y)=vcQ(x,y)+ΔvsQ(x,y)・・・(4)
 上記(3)式及び(4)式において、テクスチャ座標(ucQ(x,y),vcQ(x,y))は、副画素SPixR、副画素SPixG、副画素SPixBの間でレンズ410による色収差の補正を行わない場合には、各副画素SPixに依らず一定(u(x,y)=ucR(x,y)=ucG(x,y)=ucB(x,y))となる。テクスチャ座標差分値(ΔusQ(x,y),ΔvsQ(x,y))は、テクスチャ座標(u,v)に対する副画素SPixR、副画素SPixG、副画素SPixBごとの差分値を示している。
 図12A及び図12Bは、画素の代表的な位置に対する各副画素の位置関係を示す図である。図12A及び図12Bでは、画素Pixの代表的な位置u(x,y)に対し、副画素SPixの位置のズレを示している。図12Aは、画素Pixの代表的な位置u(x,y)に対し、副画素SPixが負側にずれた例を示している。図12Bは、画素Pixの代表的な位置u(x,y)に対し、副画素SPixが正側にずれた例を示している。
 図12A及び図12Bに示す4つの係数kxp、kxm、kyp、kymは、画素幅を1としたときのズレ幅を示し、副画素SPixR、副画素SPixG、副画素SPixBごとに異なる値である。
 上記(3)式及び(4)式と同様に、Q=R,G,Bとすると、テクスチャ座標(usQ(x,y),vsQ(x,y))は、上記4つの係数kxp、kxm、kyp、kymを用いた2次元の線形補間により、下記(5)式及び(6)式で表せる。下記(5)式及び(6)式において、Q=R,G,Bである。すなわち、例えば副画素SPixRについての係数kxpはkxpRと表す。また、例えば副画素SPixGについての係数kxpはkxpGと表す。また、例えば副画素SPixBについての係数kxpはkxpBと表す。他の各係数についても同様である。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 ここで、副画素SPixR、副画素SPixG、副画素SPixBのうちの1つ、あるいは画素Pixの中心座標を代表値として座標(u(x,y),v(x,y))とすると、テクスチャ座標差分値(ΔusQ(x,y),ΔvsQ(x,y))は、下記(7)式及び(8)式で表せる。
 ΔusQ(x,y)=usQ(x,y)-u(x,y)・・・(7)
 ΔvsQ(x,y)=vsQ(x,y)-v(x,y)・・・(8)
 レンズ410による色収差を補正しない場合、副画素SPixGを代表値とすれば、下記(9)式及び下記(10)式が得られる。
 u(x,y)=ucG(x,y)・・・(9)
 v(x,y)=vcG(x,y)・・・(10)
 レンズ410による色収差を補正する場合、2つの手法が考えられる。まず、第1の手法としては、テクスチャ座標(u,v)を求める際のポリゴンメッシュの形状を、レンズ410の色収差に応じて、副画素SPixR、副画素SPixG、副画素SPixBに反映させて異ならせることで、レンズ410の副画素SPixR、副画素SPixG、副画素SPixBごとの像倍率に応じた色収差を抑制したテクスチャ画像がマッピングされる。すなわち、副画素SPixR、副画素SPixG、副画素SPixBごとの座標(ucQ(x,y),vcQ(x,y))が得られる。
 レンズ410による色収差を補正する第2の手法としては、副画素SPixR、副画素SPixG、副画素SPixBごとに像倍率の補正係数を適用する。以下、レンズ410による色収差を補正する第2の手法について説明する。
 レンズ410による色収差を考慮する場合は、まずレンズ410の色収差による像倍率の差を補償する画素位置を求める必要がある。図13は、レンズの光軸からの距離に対する副画素ごとの像倍率の変化量を示すレンズの色収差特性の一例を示す図である。図14は、レンズの光軸から副画素までの距離の大きさを示す図である。
 レンズの像倍率の色による差は、例えば、図13に示すように、レンズの光軸からの距離rに対する像倍率の変化量Δrで表現する事ができる。図13では、副画素SPixGを基準として(Δr=0)、副画素SPixRの像倍率の変化量Δr、副画素SPixBの像倍率の変化量Δrを示している。
 一般に、副画素SPixRの像倍率の変化量Δr、副画素SPixGの像倍率の変化量Δr、副画素SPixBの像倍率の変化量Δrは、レンズの屈折率の分散のために発生し、光軸からの距離rが離れるに従い拡大する。図13に示すように、副画素SPixGを基準とした場合(Δr=0)、副画素SPixBの像倍率の変化量Δrは、一般に正の値となり、副画素SPixRの像倍率の変化量Δrは、一般に負の値となる。
 ここで、所定の画素Pixに着目し、画素Pixの表示パネル110上の位置をxlens_c,ylens_cとすると、表示パネル110上のレンズ410の光軸の位置xlens0,ylens0から画素の距離rは、下記(11)式、(12)式、(13)式で表せる。
 Δxlens_c=xlens_c-xlens0・・・(11)
 Δylens_c=ylens_c-ylens0・・・(12)
 r=√(Δxlens_c +Δylens_c )・・・(13)
 ここで、下記(14)式に示すように、画素Pixの副画素SPixGを基準とすると(r=r)、表示パネル110上のレンズ410の光軸の位置xlens0,ylens0から副画素SPixRの像までの距離r、及び、表示パネル110上のレンズ410の光軸の位置xlens0,ylens0から副画素SPixBの像までの距離rは、それぞれ、下記(15)式及び(16)式で表せる。
 r=r・・・(14)
 r=r×(1+Δr(r))・・・(15)
 r=r×(1+Δr(r))・・・(16)
 上述したように、副画素SPixGを基準とした場合(Δr=0)、副画素SPixBの像倍率の変化量Δrは、一般に正の値となり、副画素SPixRの像倍率の変化量Δrは、一般に負の値となる。従って、副画素SPixR、副画素SPixG、副画素SPixBの表示パネル110上の位置がずれることになる。
 副画素SPixRに入力すべき副画素のデータが存在する画像上の位置は、レンズの色収差でずれて表示される像の位置の画像データであり、下記(17)式及び(18)式で示されるように、レンズの光軸からの距離を倍率補正した相対位置Δxcomp_R,Δycomp_Rで近似できる。
 Δxcomp_R=Δxlens_c×(r/r
       =Δxlens_c×(1+Δr(r))・・・(17)
 Δycomp_R=Δylens_c×(r/r
       =Δylens_c×(1+Δr(r))・・・(18)
 表示パネル110上の副画素SPixRに入力すべき副画素のデータが存在する画像上の位置xcomp_R,ycomp_Rは、表示パネル110上のレンズ410の光軸の位置xlens0,ylens0を用いて下記(19)式及び(20)式で示される。
 xcomp_R=Δxcomp_R+xlens0・・・(19)
 ycomp_R=Δycomp_R+ylens0・・・(20)
 上述した色収差による位置ずれを考慮した副画素SPixRの位置xtR,ytRは、副画素の構成に起因する位置を示す各係数kxpR、kxmR、kypR、kymRを用いて、下記(21)式から(24)式で表せる。
 xtR=kxpR+Δxcomp_R+xlens0(kxmR=0のとき)・・・(21)
 xtR=-kxmR+Δxcomp_R+xlens0(kxpR=0のとき)・・・(22)
 ytR=kypR+Δycomp_R+ylens0(kymR=0のとき)・・・(23)
 ytR=-kymR+Δycomp_R+ylens0(kypR=0のとき)・・・(24)
 上記(21)式から(24)式で示される副画素SPixRの位置xtR,ytRの値は、基準とした画素Pixの位置x,yから1よりも遠く離れている場合には適用できない。このため、下記(25)式から(28)式を用いて、副画素SPixRの位置xtB,ytBの値を整数部分と小数点以下の部分とに分解する必要がある。下記(25)式及び(27)式において、「floor」は、小数点以下を切り捨てて整数部分を取り出す関数である。
 xiR=floor(xtR)・・・(25)
 kxR=xtR-xiR・・・(26)
 yiR=floor(ytR)・・・(27)
 kyR=ytR-yiR・・・(28)
 上述した色収差による位置ずれを考慮した副画素SPixBの位置xtB,ytBは、副画素の構成に起因する位置を示す各係数kxpB、kxmB、kypB、kymBを用いて、下記(29)式から(32)式で表せる。
 xtB=kxpB+Δxcomp_B+xlens0(kxmB=0のとき)・・・(29)
 xtB=-kxmB+Δxcomp_B+xlens0(kxpB=0のとき)・・・(30)
 ytB=kypB+Δycomp_B+ylens0(kymB=0のとき)・・・(31)
 ytB=-kymB+Δycomp_B+ylens0(kypB=0のとき)・・・(32)
 上記(29)式から(32)式で示される副画素SPixBの位置xtB,ytBの値は、画素Pixの位置x,yから1よりも遠く離れている場合には適用できない。このため、下記(33)式から(36)式を用いて、副画素SPixBの位置xtB,ytBの値を整数部分と小数点以下の部分とに分解する必要がある。下記(33)式及び(35)式において、「floor」は、小数点以下を切り捨てて整数部分を取り出す関数である。
 xiB=floor(xtB)・・・(33)
 kxB=xtB-xiB・・・(34)
 yiB=floor(ytB)・・・(35)
 kyB=ytB-yiB・・・(36)
 上記(11)式から(36)式を用いて算出した各係数xiQ、kxQ、yiQ、kyQ(Q=R,G,B)を用いた副画素SPixごとのテクスチャ座標(usQ(x,y),vsQ(x,y))は、上記(7)式及び(8)式に代えて、下記(37)式及び(38)式で表せる。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 そして、上記(37)式及び(38)式に示す副画素SPixごとのテクスチャ座標(u(xtQ,ytQ),v(xtQ,ytQ))から、画素Pixの位置u(x,y),v(x,y)を差し引くことで、下記(39)式及び(40)式に示すテクスチャ座標差分値(ΔusQ(x,y),ΔvsQ(x,y))が得られる。
 ΔusQ(x,y)=u(xtQ,ytQ)-u(x,y)・・・(39)
 ΔvsQ(x,y)=v(xtQ,ytQ)-v(x,y)・・・(40)
 上記(5)式及び(6)式、又は、上記(37)式及び(38)式を用いて生成したテクスチャ座標(usQ(x,y),vsQ(x,y))を座標変換テーブルとして画像生成装置200の記憶部220に保持しておき、画像変形処理に適用することで、色収差による位置ずれ補償と表示パネル110の画素配列に応じた処理を同時に行うことができる。
 あるいは、上記(7)式及び(8)式、又は、上記(39)式及び(40)式を用いて生成したテクスチャ座標差分値(ΔusQ(x,y),ΔvsQ(x,y))を座標変換テーブルとして画像生成装置200の記憶部220に保持しておき、画像変形処理において画素Pixの位置u(x,y),v(x,y)を求めた後に、座標変換テーブルを適用することで、色収差による位置ずれ補償と表示パネル110の画素配列に応じた処理を同時に行うことができる。
 図15は、座標変換テーブルの第1例を示す図である。図15において、Q=R,G,Bである。すなわち、座標変換テーブルtb1Qを用いる場合、画像生成装置200の記憶部220は、副画素SPixR用の座標変換テーブルtb1R、副画素SPixG用の座標変換テーブルtb1G、及び副画素SPixB用の座標変換テーブルtb1Bを保持する。座標変換テーブルtb1Qは、テクスチャ座標の値を保持しているので、表示フレーム毎の表示処理の時は、変換テーブルを参照するだけで標本化点(utsQ、vtsQ)を得ることができる。
 あるいは、上記(7)式及び(8)式、又は、上記(37)式を適用した上記(7)式及び上記(38)式を適用した上記(8)式を用いて生成したテクスチャ座標差分値(ΔusQ(x,y),ΔvsQ(x,y))を座標変換テーブルとして画像生成装置200の記憶部220に保持しておき、画像変形処理に適用することで、表示パネル110の画素配列に応じた処理を同時に行うことができる。
 図16は、座標変換テーブルの第2例を示す図である。図16において、Q=R,G,Bである。すなわち、座標変換テーブルtb2Qを用いる場合、画像生成装置200の記憶部220は、副画素SPixR用の座標変換テーブルtb2R、副画素SPixG用の座標変換テーブルtb2G、及び副画素SPixB用の座標変換テーブルtb2Bを保持する。座標変換テーブルtb2Qは、テクスチャ座標の差分値を保持しているので、表示フレーム毎の表示処理の時に標本化点(utsQ、vtsQ)を得るためには、画素Pixごとの基準となるテクスチャ座標(u、v)を取得して、変換テーブルの値と加算することが必要となる。描画処理ごとに基準テクスチャ(テクスチャ座標(u、v))の状態が変化する場合にも、対応することが可能となる。
 ここでは、ポリゴンメッシュを用いた座標変換テーブルtb2Qの導出処理について、図17及び図18を参照して説明する。図17は、実施形態に係る座標変換テーブルの導出処理の第1例を示すフローチャートである。図18は、実施形態に係る座標変換テーブルの導出処理の第2例を示すフローチャートである。
 図17では、レンズ410による色収差を補正する第1の手法を適用した座標変換テーブルtb2Qの導出処理を例示している。
 図17に示す第1の手法を適用した第1例では、レンズ410の色収差に応じた副画素SPixR、副画素SPixG、副画素SPixBに対応するポリゴンメッシュを用いる。
 まず、画像生成装置200の制御回路230は、副画素SPixRに対応するポリゴンメッシュを生成する(ステップS101)。
 続いて、制御回路230は、副画素SPixRに対応するポリゴンメッシュを生成する。このポリゴンメッシュは、レンズ410のR色のレンズ拡大率及び歪を補償する所定の形状で作成され、テクスチャマッピングにより副画素SPixRに対応するテクスチャ座標(ucR(x,y),vcR(x,y))を求め、副画素SPixRに対応するテクスチャ座標テーブルを生成する(ステップS102)。
 次に、制御回路230は、副画素SPixGに対応するポリゴンメッシュを生成する(ステップS103)。
 続いて、制御回路230は、副画素SPixGに対応するポリゴンメッシュを生成する。このポリゴンメッシュは、レンズ410のG色のレンズ拡大率及び歪を補償する所定の形状で作成され、テクスチャマッピングにより副画素SPixGに対応するテクスチャ座標(ucG(x,y),vcG(x,y))を求め、副画素SPixGに対応するテクスチャ座標テーブルを生成する(ステップS104)。
 次に、制御回路230は、副画素SPixBに対応するポリゴンメッシュを生成する(ステップS105)。
 続いて、制御回路230は、副画素SPixBに対応するポリゴンメッシュを生成する。このポリゴンメッシュは、レンズ410のB色のレンズ拡大率及び歪を補償する所定の形状で作成され、テクスチャマッピングにより副画素SPixBに対応するテクスチャ座標(ucB(x,y),vcB(x,y))を求め、副画素SPixBに対応するテクスチャ座標テーブルを生成する(ステップS106)。
 そして、制御回路230は、上記(5)式及び(6)式を用いて、副画素SPixR、副画素SPixG、副画素SPixBごとのテクスチャ座標(usR(x,y),vsR(x,y))、テクスチャ座標(usG(x,y),vsG(x,y))、テクスチャ座標(usB(x,y),vsB(x,y))を算出する。制御回路230は、副画素SPixR、副画素SPixG、副画素SPixBのうちの1つを代表として(例えば、副画素SPixGの位置ucG(x,y),vcG(x,y)を代表値として)、上記(7)式及び(8)式を用いて、副画素SPixR、副画素SPixG、副画素SPixBごとのテクスチャ座標差分値(ΔusQ(x,y),ΔvsQ(x,y))を求め、副画素SPixR、副画素SPixG、副画素SPixBごとの座標変換テーブルtb2Qを生成し(ステップS107)、ステップS102、ステップS104、ステップS106において生成した副画素SPixR、副画素SPixG、副画素SPixBごとのテクスチャ座標テーブルを破棄する(ステップS108)。
 図18では、レンズ410による色収差を補正する第2の手法を適用した座標変換テーブルtb2Qの導出処理を例示している。
 図18に示す第2の手法を適用した第2例では、副画素SPixGを代表としたポリゴンメッシュを用いる。
 まず、画像生成装置200の制御回路230は、副画素SPixGに対応するポリゴンメッシュを生成する(ステップS201)。このポリゴンメッシュは、レンズ410のG色のレンズ拡大率及び歪を補償する所定の形状で作成する。
 続いて、制御回路230は、テクスチャマッピングにより副画素SPixGに対応するテクスチャ座標(ucG(x,y),vcG(x,y))を求め、副画素SPixGに対応するテクスチャ座標テーブルを生成する(ステップS202)。
 そして、制御回路230は、上記(11)式から(36)式を用いて各係数xiQ、kxQ、yiQ、kyQ(Q=R,G,B)を算出し、上記(37)式及び(38)式を用いて、副画素SPixR、副画素SPixG、副画素SPixBごとのテクスチャ座標(usR(x,y),vsR(x,y))、テクスチャ座標(usG(x,y),vsG(x,y))、テクスチャ座標(usB(x,y),vsB(x,y))を算出する。制御回路230は、上記(39)式及び(40)式を用いて、副画素SPixR、副画素SPixG、副画素SPixBごとのテクスチャ座標差分値(ΔusQ(x,y),ΔvsQ(x,y))を求め、副画素SPixR、副画素SPixG、副画素SPixBごとの座標変換テーブルtb2Qを生成し(ステップS203)、ステップS202において生成した副画素SPixGのテクスチャ座標テーブルを破棄する(ステップS204)。
 なお、上述した副画素SPixごとの座標変換テーブルtb1Q(Q=R,G,B)、あるいは、上述した副画素SPixごとの座標変換テーブルtb2Q(Q=R,G,B)は、HMDのレンズ410に応じたテーブルが予め画像生成装置200の記憶部220に記憶されている態様であっても良いし、HMDのレンズ410に応じて、表示システム1の起動時に画像生成装置200の制御回路230が座標変換テーブルtb1Qあるいは座標変換テーブルtb2Qの導出処理を実行して、記憶部220に保持する態様であっても良い。あるいは、実行するVRアプリケーション212に応じて、適宜、画像生成装置200の制御回路230が座標変換テーブルtb1Qあるいは座標変換テーブルtb2Qの導出処理を実行して、記憶部220に保持する態様であっても良い。
 次に、テクスチャ座標差分値(ΔusQ(x,y),ΔvsQ(x,y))またはテクスチャ座標(usQ(x,y),vsQ(x,y))を使った表示フレーム毎の表示動作における、表示パネル110の各副画素SPixに適用する画素値の導出手法について説明する。
 上述したように、HMDでは表示パネル110に表示された画像をレンズ410で拡大して観察するため、表示パネル110に表示する画像に対し、レンズ歪を補償するための画像変形処理を行う。この画像変形処理において、画素Pixの位置x,yの画素Pixの表示データとして元画像のテクスチャ座標(usQ(x,y),vsQ(x,y))からデータを標本化するが、テクスチャ座標(usQ(x,y),vsQ(x,y))に一致する1点だけではなく、1つ以上のデータ定義点における色データを標本化して、副画素SPixR、SPixG、SPixBごとの画素値を算出する。このとき、画像変形処理によって移動した後のデータ定義点の配置に応じて、副画素SPixR、SPixG、SPixBごとの画素値を生成する必要がある。
 副画素SPixごとに標本化を行う場合、折り返し雑音(エイリアシングノイズ)により色付き(偽色)が生じることが問題となる。テクスチャマッピングに基づく画像変形処理では、標本化の対象とするテクスチャの間隔と標本化の間隔(すなわち、表示パネル110の画素間隔)が必ずしも一致しないため、マルチサンプリングやぼかし処理により対策が行われる。本開示では、副画素SPixごとに標本化を行うため、副画素SPix間の状態差が偽色として目立ち易い。
 本開示では、副画素SPixごとの標本化手法として面積平均法及び多点平均法を用いる例について説明する。図19は、面積平均法を用いて標本化する場合のテクセルと表示パネル上の1画素サイズの平面充填図形に対応したテクスチャ上の平面充填図形との相対位置の第1例を示す図である。図19において、実線で示した格子はテクセルの境界線を示し、破線は平面充填図形を示している。図19では、平面充填図形のX方向の幅がテクセルの幅の1.5倍、平面充填図形のY方向の幅がテクセルの幅の2/3である例を示している。テクセルと平面充填図形の重なり方のバリエーションは、dx,dyがそれぞれ0から1までの値を取るので、3×2個のテクセルと重なる可能性がある。また、S00、S10、S20、S01、S11、S21は、各テクセルと平面充填図形とが重なる領域の面積を示している。
 図19に示す例において、平面充填図形で示される線形空間の画素値Fは、下記(41)式で表せる。
Figure JPOXMLDOC01-appb-M000005
 図20は、面積平均法を用いて標本化する場合のテクセルと平面充填図形との相対位置の第2例を示す図である。図20では、平面充填図形のX方向の幅がテクセルの幅の1.5×2倍、平面充填図形のY方向の幅がテクセルの幅の2/3×2倍である例を示している。また、S00、S10、S20、S30、S01、S11、S21、S31、S02、S12、S22、S32は、標本化点とテクセルの相対位置du,dv(それぞれテクセル単位で0から1まで)の幅で平面充填図形が重なる可能性のあるテクセルについて、各テクセルと平面充填図形が重なる領域の面積を示している。
 図20に示す例において、平面充填図形で示される線形空間の画素値Fは、下記(42)式で表せる。
Figure JPOXMLDOC01-appb-M000006
 表示パネル110に送信される画素値fは、上記(41)式や上記(42)式で示される画素値Fに対し、ガンマ補正を適用した下記(43)式で表せる。
Figure JPOXMLDOC01-appb-M000007
 図21は、多点平均法を用いて標本化する場合の平面充填図形のXY座標系上の大きさ及び向きを示すベクトルと中心位置とを示す図である。図21において、Vは、画素の中心位置である。また、ベクトルV,Vは、平面充填図形のXY座標系上の大きさ及び向きを示す。図22は、図21に示すXY座標系上の平面充填図形に対応するuv座標系上の図形を示す図である。図22において、Eは、図21に示す画素Pixの中心位置Vに対応する。また、ベクトルEは、図21に示すベクトルVに対応する。また、ベクトルEは、図21に示すベクトルVに対応する。標本化対象の副画素SPixのXY座標系上の位置Vは、uv座標系における中心の値E=(usQ,vsQ)が対応する。
 テクスチャ座標(usQ,vsQ)に基づき複数の位置から標本化して平均を取る多点平均法では、テクスチャの変形や回転に対応し易い。上述した座標変換テーブルには、副画素SPixのXY座標系上の位置に応じた複数のテクスチャ座標が含まれるため、標本化時に参照した座標変換テーブルの値からテクセル上の平面充填図形の大きさを求めることができる。
 複数の副画素SPixに対応する複数の座標変換テーブルから取得したテクスチャ座標(usQ,vsQ)、又はテクスチャ座標差分値(ΔusQ,ΔvsQ)の値に平行でない2つ以上の差分値が含まれている場合、その複数の差分値を一次独立したベクトルとして扱うことで、平面充填図形のuv座標系上の大きさ及び向きを示すベクトルE,Eを計算することができる。なお、座標変換テーブルに平行でない2つ以上の差分値が含まれていない場合、所定のXY座標系上のベクトルV,Vに相当するuv座標系上のベクトルE,Eを計算しておき、その値を保持するテーブルを予め作成して参照するようにしても良い。
 図23A、図23B、図23C、図23Dは、多点平均法を用いて標本化する場合に平面充填図形を4分割した例を示す図である。図23A、図23B、図23C、図23Dに示すように、平面充填図形を4分割する場合、標本化した線形空間における画素値Fは、下記(44)式及び(45)式で表せる。下記(44)式及び(45)式において、spijは標本化点を示している。また、下記(44)式において、Saは、uv座標系上のspijから画素値を得る関数である。
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
 上記(44)式において、α=1とした場合、各標本化点spijの位置は、図20Aに示す位置となる。また、上記(44)式において、α=0.5とした場合、各標本化点spijの位置は、図23Bに示す位置となる。また、上記(44)式において、α=2とした場合、各標本化点spijの位置は、図23Cに示す位置となる。
 上記(44)式におけるαの値を1以下とすれば、エイリアシングノイズの抑制効果(以下、「アンチエイリアシング効果」とも称する)は低くなるが、解像度を高めることができる。一方、上記(44)式におけるαの値を大きくすれば、アンチエイリアシング効果を高めることができる。
 なお、下記(46)式に示す平面充填図形のXY座標系上の中心位置Vを標本化点に加えても良い。
Figure JPOXMLDOC01-appb-M000010
 図24は、多点平均法を用いて標本化する場合に平面充填図形を6分割した例を示す図である。図24に示すように、平面充填図形を6分割する場合、標本化点spijは下記(47)式で表せる。
Figure JPOXMLDOC01-appb-M000011
 表示パネル110に送信される画素値fは、上記(44)式で示される画素値Fに対し、ガンマ補正を適用した下記(48)式で表せる。但し、表示パネル110の入力値が線形データの場合は、この処理は不要でFをそのまま出力すれば良い。
Figure JPOXMLDOC01-appb-M000012
 以下、表示フレームごとに実行する画像変形処理の具体例について、図25及び図26を参照して説明する。
 図25は、実施形態に係る画像変形処理の第1例を示すフローチャートである。図26は、実施形態に係る画像変形処理の第2例を示すフローチャートである。図25に示す第1例では、図15に示す座標変換テーブルtb1Qを用いた画像変形処理の一例を示している。図26に示す第2例では、図16に示す座標変換テーブルtb2Qを用いた画像変形処理の一例を示している。
 図25に示す第1例では、画像生成装置200の記憶部220に副画素SPixごとの座標変換テーブルtb1Q(Q=R,G,B)が保持されていることを前提としている。図25に示す座標変換テーブルを用いた画像変形処理において、画像生成装置200の制御回路230は、画素値を生成する表示パネル110上の画素Pixを設定し(ステップS301)、1フレーム分の全画素について画素値の生成が終了したか否かを判定する(ステップS302)。
 1フレーム分の全画素について画素値の生成が終了していない場合(ステップS302;No)、制御回路230は、座標変換テーブルtb1Rを参照して、ステップS301において設定した画素Pixの副画素SPixRで標本化すべきテクスチャ座標を取得し(ステップS303)、上述した標本化手法を用いて当該副画素SPixRの画素値を算出する(ステップS304)。
 続いて、制御回路230は、座標変換テーブルtb1Gを参照して、ステップS301において設定した画素Pixの副画素SPixGで標本化すべきテクスチャ座標を取得し(ステップS305)、上述した標本化手法を用いて当該副画素SPixGの画素値を算出する(ステップS306)。
 続いて、制御回路230は、座標変換テーブルtb1Bを参照して、ステップS301において設定した画素Pixの副画素SPixBで標本化すべきテクスチャ座標を取得し(ステップS307)、上述した標本化手法を用いて当該副画素SPixBの画素値を算出する(ステップS308)。
 以降、ステップS301に戻り、制御回路230は、ステップS308までの処理を繰り返し行う。ステップS302において1フレーム分の全画素について画素値の生成が終了した場合(ステップS302;Yes)、1フレーム分の画像変形処理が終了する。
 図26に示す第2例では、画像生成装置200の記憶部220に副画素SPixごとの座標変換テーブルtb2Q(Q=R,G,B)が保持されていることを前提としている。図26に示す座標変換テーブルを用いた画像変形処理において、画像生成装置200の制御回路230は、まず、画素値を生成する表示パネル110上の画素Pixを設定し(ステップS401)、1フレーム分の全画素について画素値の生成が終了したか否かを判定する(ステップS402)。
 1フレーム分の全画素について画素値の生成が終了していない場合(ステップS402;No)、制御回路230は、基準となるポリゴンメッシュ(例えば、副画素SPixGに対応するポリゴンメッシュ)を用いて、ステップS401において設定した画素Pixの座標変換テーブルtb2Q(Q=R,G,B)の基準となるテクスチャ座標(例えば、副画素SPixGに対応するテクスチャ座標(ucG(x,y),vcG(x,y)))を取得する(ステップS403)。
 制御回路230は、座標変換テーブルtb2Rを参照して、ステップS401において設定した画素Pixの副画素SPixRで標本化すべき副画素SPixRに対応するテクスチャ座標を取得する(ステップS404)。具体的に、制御回路230は、上記式(7)式から(10)式を変形した下記(49)式及び(50)式を用いて、テクスチャ座標(usR(x,y),vsR(x,y))を算出する。
 usR(x,y)=ucG(x,y)+ΔusR(x,y)・・・(49)
 vsR(x,y)=vcG(x,y)+ΔusR(x,y)・・・(50)
 そして、制御回路230は、上述した標本化手法を用いて当該副画素SPixRの画素値を算出する(ステップS405)。
 続いて、制御回路230は、座標変換テーブルtb2Gを参照して、ステップS401において設定した画素Pixの副画素SPixGで標本化すべき副画素SPixGに対応するテクスチャ座標を取得する(ステップS406)。具体的に、制御回路230は、上記式(7)式から(10)式を変形した下記(51)式及び(52)式を用いて、テクスチャ座標(usG(x,y),vsG(x,y))を算出する。
 usG(x,y)=ucG(x,y)+ΔusG(x,y)・・・(51)
 vsG(x,y)=vcG(x,y)+ΔusG(x,y)・・・(52)
 そして、制御回路230は、上述した標本化手法を用いて当該副画素SPixGの画素値を算出する(ステップS407)。
 続いて、制御回路230は、座標変換テーブルtb2Bを参照して、ステップS401において設定した画素Pixの副画素SPixBで標本化すべき副画素SPixBに対応するテクスチャ座標を取得する(ステップS408)。具体的に、制御回路230は、上記式(7)式から(10)式を変形した下記(53)式及び(54)式を用いて、テクスチャ座標(usB(x,y),vsB(x,y))を算出する。
 usB(x,y)=ucG(x,y)+ΔusB(x,y)・・・(53)
 vsB(x,y)=vcG(x,y)+ΔusB(x,y)・・・(54)
 そして、制御回路230は、上述した標本化手法を用いて当該副画素SPixBの画素値を算出する(ステップS409)。
 以降、ステップS401に戻り、制御回路230は、ステップS409までの処理を繰り返し行う。ステップS402において1フレーム分の全画素について画素値の生成が終了した場合(ステップS402;Yes)、1フレーム分の画像変形処理が終了する。
 以下、表示パネル110の画素配列の具体例について説明する。
 図27は、実施形態に係る表示パネルの画素配列の第1例を示す図である。図27に示す実施形態に係る表示パネル110の画素配列の第1例では、1ラインごとに各副画素SPixR、SPixG、SPixBがX方向に1つずつずれた、所謂モザイク配列の画素配列を有している。換言すれば、実施形態に係る表示パネル110の画素配列の第1例において、画素Pixは、赤(第1色:R)を表示するための副画素SPixR(第1画素)と、緑(第2色:G)を表示するための副画素SPixG(第2画素)と、青(第3色:B)を表示するための副画素SPixB(第3画素)と、を含む。X方向において、副画素SPixR(第1画素)が、副画素SPixG(第2画素)と副画素SPixB(第3画素)とに挟まれており、Y方向において、副画素SPixR(第1画素)が、副画素SPixG(第2画素)と副画素SPixB(第3画素)とに挟まれている。また、X方向において、副画素SPixG(第2画素)が、副画素SPixR(第1画素)と副画素SPixB(第3画素)とに挟まれており、Y方向において、副画素SPixG(第2画素)が、副画素SPixR(第1画素)と副画素SPixB(第3画素)とに挟まれている。また、X方向において、副画素SPixB(第3画素)が、副画素SPixG(第2画素)と副画素SPixR(第1画素)とに挟まれており、Y方向において、副画素SPixB(第3画素)が、副画素SPixG(第2画素)と副画素SPixR(第1画素)とに挟まれている。図27に示す例において、各副画素SPixR、SPixG、SPixBは四角形である。図27では、各副画素SPixR、SPixG、SPixBが四角形である例を示したが、各副画素SPixR、SPixG、SPixBの形状はこれに限らない。
 図28は、図27に示す画素配列における画素構成の第1例を示す図である。図28に示す例において、画素Pix(0,0)は、副画素SPixR(0,0)、副画素SPixG(1,0)、副画素SPixB(0,1)を含む。また、画素Pix(1,0)は、副画素SPixR(3,0)、副画素SPixG(2,1)、副画素SPixB(2,0)を含む。また、画素Pix(2,0)は、副画素SPixR(4,1)、副画素SPixG(4,0)、副画素SPixB(5,0)を含む。
 また、画素Pix(0,1)は、副画素SPixR(1,1)、副画素SPixG(0,2)、副画素SPixB(1,2)を含む。また、画素Pix(1,1)は、副画素SPixR(2,2)、副画素SPixG(3,2)、副画素SPixB(3,1)を含む。また、画素Pix(2,1)は、副画素SPixR(5,2)、副画素SPixG(5,1)、副画素SPixB(4,2)を含む。
 図28に示す画素構成では、X方向に3画素、Y方向に2画素の計6画素の構成が、X方向及びY方向に繰り返し生じている。この3×2の6画素を1画素ブロックとする。
 ここでは、図28に示す画素構成の実施形態に係る表示パネル110に対し、画像生成装置200の制御回路230は、画素Pix(sx,sy)ごとにそれぞれ副画素SPixR、副画素SPixG、及び副画素SPixBの画素値を含む画素データを送信する例について説明する。sx、syは、それぞれ下記(55)式及び(56)式で表せる。下記(55)式及び(56)式において、%は、割り算の余りを求める演算を示す。
 sx=x%3・・・(55)
 sy=y%2・・・(56)
 図29は、図28に示す画素構成における画素データの定義を説明するための概念図である。図29では、各画素Pix(sx,sy)に対応する仮想的な中心位置を黒点で示している。各画素Pix(sx,sy)に対応する画素データは、各画素Pix(sx,sy)の仮想的な中心位置における副画素SPixR、副画素SPixG、及び副画素SPixBの画素値を含む。この各画素Pix(sx,sy)の仮想的な中心位置と各副画素SPixの中心位置とのズレは、図12A及び図12Bにおいて説明した画素の代表的な位置に対する副画素の位置のズレに相当する。
 上述したように、図28に示す画素構成では、X方向に3画素、Y方向に2画素の計6画素の構成が、X方向及びY方向に繰り返し生じる。このため、図28に示す画素構成において、図12A及び図12Bに示す画素の代表的な位置に対する副画素の位置のズレを定義する4つの係数kxp、kxm、kyp、kymは、各画素Pix(sx,sy)のX方向の大きさ及びY方向の大きさを1に正規化した場合、図30で示される値となる。
 図30は、図28に示す画素構成における副画素ごとの4つの係数値を示す図である。図30において、4つの係数kxp、kxm、kyp、kymは、それぞれ、kxpQ、kxmQ、kypQ、kymQ(Q=R,G,B)で示される。これらの係数は、表示パネル110の画素構成に応じて決まる定数である。従って、図30に示す係数値をテーブル化して画像生成装置200の記憶部220に保持しておくことで、図15に示す座標変換テーブル、あるいは、図16に示す座標変換テーブルを生成することができる。
 図28に示す画素構成における各画素値の標本化手法としては、上述した面積平均法や多点平均法を用いることができる。以下、多点平均法を用いて、図28に示す画素構成における画素値の算出例について説明する。
 図31は、図28に示す画素構成において多点平均法を用いた標本化手法に適用する平面充填図形の一例を示す図である。図31では、副画素SPixGを中心として表示パネル110の表示領域111を斜めに区切った平面充填図形で充填した例を示している。
 図32は、図31に示す平面充填図形のXY座標上の大きさ及び向きを示すベクトルを示す図である。図32において、ベクトルV及びベクトルVは、表示パネル110の表示領域111上の平面充填図形の領域を示している。換言すれば、図32に示す平面充填図形は、X方向及びY方向とは異なる2方向のベクトルV及びベクトルVで示される菱形形状を有している。ベクトルVは、隣接する同色の副画素SPix間の間隔のベクトルを示し、ベクトルVは、ベクトルVに直交し、斜め方向に並ぶ同色の副画素SPix間の距離(=1.2画素)に等しいベクトルを示している。このベクトルV及びベクトルVは、下記(57)式及び(58)式で示される。
 V=0.96x-(2/3)y・・・(57)
 V=-0.5x-0.72y・・・(58)
 座標変換テーブルtb2Q(Q=R,B,G)を導出する際、基準となるポリゴンメッシュとして、副画素SPixGに対応するポリゴンメッシュを用いた場合、副画素SPixGの座標変換テーブルtb2Gには、色収差補正の影響は含まれず、画素Pixの仮想的な中心位置と副画素SPixGの中心位置との差分のみが反映されている。従って、ベクトルV及びベクトルVに対応するuv座標系上のベクトルE,Eは、副画素SPixGの座標変換テーブルtb2Gに含まれる値から導出することができる。図33は、図28に示す画素配列において多点平均法を用いた標本化手法に適用する平面充填図形のベクトルの一例を示す図である。
 図33に示すように、図28に示す画素配列において、画素Pix(1,0)の副画素SPixG(2,1)の中心位置から画素Pix(1,0)の仮想的な中心位置を示すベクトルをVG10、画素Pix(1,1)の副画素SPixG(3,2)の中心位置から画素Pix(1,1)の仮想的な中心位置を示すベクトルをVG11として、ベクトルVG10及びベクトルVG11は、下記(59)式及び(60)式で表せる。
 VG10=-0.25x+0.5y・・・(59)
 VG11=0.25x+(1/6)y・・・(60)
 このベクトルVG10及びベクトルVG11を用いて、図32に示す平面充填図形のXY座標上のベクトルV及びベクトルVは、下記(61)式及び(62)式で示される。
 V=-1.96VG10+1.88VG11・・・(61)
 V=-0.58VG10-2.58VG11・・・(62)
 上記(59)式、(60)式、(61)式、及び(62)式は、近似的にuv座標系上でも成立するので、実際の画素値を得る処理では、ベクトルVG10及びベクトルVG11に相当するテクスチャ座標上のベクトルEG10及びベクトルEG11を作り、ベクトルVに相当するベクトルE、ベクトルVに相当するベクトルEを計算できる。従って、副画素SPixGの座標変換テーブルtb2Gから、標本化する画素に近い位置にある、画素Pix(1,0)に相当する画素の副画素SPixGに対応する差分値と、画素Pix(1,1)に相当する画素の副画素SPixGに対応する差分値とを参照することで、近似的なベクトルEG10及びベクトルEG11が得られる。このベクトルEG10及びベクトルEG11を用いて、上記(61)式及び(62)式によりベクトルE及びベクトルEを算出することができる。このようにして算出したベクトルE及びベクトルEを用いれば、上記(44)式から(48)式による標本化点の導出が可能となる。
 図34は、実施形態に係る表示パネルの画素構成の第2例を示す図である。図34では、副画素SPixR、副画素SPixG、副画素SPixBのうちの2つを1画素単位とした例を示している。すなわち、1つの画素Pixに含まれる副画素の色数は、入力画像に定義された色数(R(赤)、G(緑)、B(青)の3色)よりも少ない。
 図34に示す画素構成では、図9に示す表示システム1に入力される元の画像データに対し、表示パネル110の表示画像の画質劣化を抑制するため、所謂サブピクセルレンダリング処理を行う。本開示では、画像生成装置200の制御回路230で画像変形処理を行う際に、表示パネル110の画素構成に応じたサブピクセルレンダリング処理を反映した画素データを生成し、表示装置100に送信することで、表示装置100側でサブピクセルレンダリング処理を行う必要がなくなるため、表示パネル110の表示制御回路112での処理を軽減することができる。このサブピクセルレンダリング処理の手法により本開示が限定されるものではない。
 図34に示す画素構成では、X方向に3画素、Y方向に3画素の計9画素の構成が、X方向及びY方向に繰り返し生じている。この3×3の9画素を1画素ブロックとする。
 各画素(sx,sy)において、sx、syは、それぞれ下記(63)式及び(64)式で表せる。下記(63)式及び(64)式において、%は、割り算の余りを求める演算を示す。
 sx=x%3・・・(63)
 sy=y%3・・・(64)
 図34に示す例において、画素Pix(0,0)は、副画素SPixR(0,0)、副画素SPixG(1,0)を含む。また、画素Pix(1,0)は、副画素SPixB(2,0)、副画素SPixG(3,0)を含む。また、画素Pix(2,0)は、副画素SPixG(4,0)、副画素SPixB(5,0)を含む。
 また、画素Pix(0,1)は、副画素SPixB(0,1)、副画素SPixR(1,1)を含む。また、画素Pix(1,1)は、副画素SPixG(2,1)、副画素SPixB(3,1)を含む。また、画素Pix(2,1)は、副画素SPixR(4,1)、副画素SPixG(5,1)を含む。
 また、画素Pix(0,2)は、副画素SPixG(0,2)、副画素SPixB(1,2)を含む。また、画素Pix(1,2)は、副画素SPixR(2,2)、副画素SPixG(3,2)を含む。また、画素Pix(2,2)は、副画素SPixB(4,2)、副画素SPixR(5,2)を含む。
 ここでは、図34に示す画素構成の実施形態に係る表示パネル110に対し、画像生成装置200の制御回路230は、図28に示す画素構成の画素Pix(sx,sy)ごとにそれぞれ副画素SPixR、副画素SPixG、及び副画素SPixBの画素値を含む画素データを送信する。この場合、図12A及び図12Bに示す画素の代表的な位置に対する副画素の位置のズレを定義する4つの係数kxp、kxm、kyp、kymは、各画素Pix(sx,sy)のX方向の大きさ及びY方向の大きさを1に正規化した場合、図35で示される値となる。
 図35は、図34に示す画素構成における副画素ごとの4つの係数値を示す図である。図35において、「-」は、対応するデータが存在しないことを示している。例えば、図34に示す画素構成において、画素Pix(0,0)、画素(2,1)、画素(1,2)は、副画素SPixBを有していない。また、画素Pix(1,0)、画素(0,1)、画素(2,2)は、副画素SPixGを有していない。また、画素Pix(2,0)、画素(1,1)、画素(0,2)は、副画素SPixRを有していない。
 図34に示す画素構成の画素Pix(sx,sy)ごとにそれぞれ副画素SPixR、副画素SPixG、及び副画素SPixBの画素値を含む画素データを送信する場合、それぞれの画素Pix(sx,sy)で有していない副画素SPixの画素データを「Null」値として送信する必要があり、実際に表示されるデータ量に対して無駄が生じる。
 そこで、送信の無駄をなくすために、例えば、図28に示す画素構成の画素Pix(sx,sy)ごとにそれぞれ副画素SPixR、副画素SPixG、及び副画素SPixBの画素値を含む画素の配置にデータを当てはめて、例えば、図9に示した一般的な画像データ形式にまとめたデータを送信することで、実際に表示されるデータ量に対して無駄を生じることなく、効率的なデータ送信が可能となる。なお、図28に示す画素構成では、一つの画素Pixに3つの副画素SPixを含むため、図34に示す画素構成に対して画像のY方向の画素数が2/3となり、画像データ形式上のX方向の画素数とY方向の画素数との比率が変わってしまう。しかし、データ送信時の画像データ圧縮アルゴリズムの多くは、RGBの3つのデータを輝度と色差に分解して圧縮するため、例えば、図9に示した一般的な画像データ形式とし、副画素SPixR、副画素SPixG、及び副画素SPixのデータを1つの画素データとすることで、多くの画像データ圧縮アルゴリズムにも適用できる様になり好都合である。
 副画素SPixR、副画素SPixG、副画素SPixBのうちの2つを1画素単位として表示を行う場合の画素構成は、図34に示す画素構成に限定されない。また、本開示では、表示パネル110の画素配列としてモザイク配列を例示したが、これに限らず、例えば、デルタ配列やペンタイル配列等であっても良い。
 また、表示パネル110に対し、画像生成装置200の制御回路230から副画素SPixR、副画素SPixG、及び副画素SPixBの画素値を含む画素データを送信する際のフォーマットは、図28に示す画素構成の画素Pix(sx,sy)ごとにそれぞれ副画素SPixR、副画素SPixG、及び副画素SPixBの画素値を含む画素データを送信する態様に限定されない。図36A及び図36Bは、画素データの送信フォーマットの図28とは異なる例を示す概念図である。
 図36A及び図36Bに示す例では、基本的にはX方法に並ぶ各副画素SPixR、SPixG、SPixBを1つの画素Pixとして画素データを送る態様とし、y=1ライン目の副画素SPixB(0,1)の画素データを最終列の副画素SPixGの後に付加して1つの画素Pixとして画素データを送り、y=2ライン目の副画素SPixG(0,2)及び副画素SPixB(1,2)の画素データを最終列の副画素SPixRの後に付加して1つの画素Pixとして画素データを送る。これにより、X方向の画素データ数を各ラインで同数とすることができる。また、X方向両端に位置する不足分の画素データを「Null」値として送信する必要がなく、効率的なデータ送信が可能となる。
 また、上述したように、図15に示す座標変換テーブルtb1Q(Q=R,G,B)や、図16に示す座標変換テーブルtb2Q(Q=R,G,B)は、各副画素SPixR、SPixG、SPixBに対応した3つのテーブルが必要となる。また、本開示では、表示システム1に入力される画像を幾何学的に変形させるため、厳密には、表示パネル110に表示する画像を構成する全ての副画素SPixに対応した個別のデータが必要となる。このため、画像生成装置200の記憶部220の記憶容量に対する負荷が大きくなる。
 図37A及び図37Bは、座標変換テーブルの変形例を示す概念図である。図37Aでは、副画素SPixごとにデータ値を設けた概念図を示している。図37Bでは、上述した1画素ブロックごとのデータ値の変化が小さい領域において、複数の画素ブロックで同一のデータを適用する概念図を示している。図37Bに示す例では、例えば、図37Aに示す3×2の6画素の画素ブロック(0,0)、(1,0)、(2,0)、(0,1)、(1,1)、(2,1)、(0,2)、(1,2)、(2,2)のデータ値を同一のデータ値としている。このように、X方向及びY方向の3×3の9ブロックの画素ブロックのデータ値を同一のデータ値とすることで、全体としての座標変換テーブルtb2Q(Q=R,G,B)のデータ量を1/9に削減することができる。
 なお、図37Bでは、X方向に3画素、Y方向に2画素の計6画素の構成を1画素ブロックとした例を示したが、画素ブロックの構成はこれに限らない。例えば、図34に示すように、X方向に3画素、Y方向に3画素の計9画素の構成を1画素ブロックとした構成であっても良いし、1画素で1画素ブロックとした構成であっても良い。また、図37A及び図37Bでは座標変換テーブルtb2Q(Q=R,G,B)の変形例を示したが、座標変換テーブルtb1Q(Q=R,G,B)についても同様である。
 図38は、実施形態に係る表示パネルの画素配列の第2例を示す図である。図38に示す実施形態に係る表示パネル110の画素配列の第2例では、RGBストライプ配列の画素配列を有している。RGBストライプ配列では、X方向に副画素SPixR、SPixG、SPixBが同一順に並ぶ画素PixがX方向及びY方向にマトリクス状に配列されている。図38に示すRGBストライプ配列の画素構成に本開示を適用する場合、図12A及び図12Bに示す画素の代表的な位置に対する副画素の位置のズレを定義する4つの係数kxp、kxm、kyp、kymは、各画素Pix(sx,sy)のX方向の大きさ及びY方向の大きさを1に正規化した場合、図39で示される値となる。
 図39は、図38に示すRGBストライプ配列の画素構成における副画素ごとの4つの係数値を示す図である。図39に示すように、RGBストライプ配列では、副画素SPixGに対応する係数値が全て0となり、画素Pix(x,y)の中心位置と副画素SPixGの中心位置とが重なる。従って、副画素SPixG用の座標変換テーブルtb1Gや座標変換テーブルtb2Gは不要となる。
 図38に示すように、表示パネル110の画素配列がRGBストライプ配列である場合でも、表示システム1に入力される元の画像の画像データに対して解像度変換処理等を行う場合、画像生成装置200の制御回路230で画像変形処理を行う際に、表示パネル110の解像度に応じた解像度変換処理を反映した画像データを生成し、表示装置100に送信することで、表示装置100側で解像度変換処理を行う必要がなくなるため、表示パネル110の表示制御回路112での処理を軽減することができる。この解像度変換処理の手法により本開示が限定されるものではない。
 本実施形態により、表示システム1は、表示パネルの画素配列に応じたデータ量で画像データの送受信を行うことができる。
 以上、本開示の好適な実施の形態を説明したが、本開示はこのような実施の形態に限定されるものではない。実施の形態で開示された内容はあくまで一例にすぎず、本開示の趣旨を逸脱しない範囲で種々の変更が可能である。例えば、本開示の趣旨を逸脱しない範囲で行われた適宜の変更についても、当然に本発明の技術的範囲に属する。
1 表示システム
100 表示装置
110 表示パネル
111 表示領域
112 表示制御回路
113 信号線接続回路
114 走査線駆動回路
115 ドライバIC
200 画像生成装置
230 制御回路
300 ケーブル
400 装着部材
410 レンズ
BM 遮光層
CF,CFR,CFG,CFB カラーフィルタ
COM 共通電極
LC 液晶層
GL,G1,G2,G3 走査線
PE,PE1,PE2,PE3 画素電極
Pix 画素
SPix,SPixR,SPixG,SPixB 副画素
SL,S1,S2,S3 信号線
SUB1 アレイ基板
SUB2 対向基板
tb1Q 座標変換テーブル
tb2Q 座標変換テーブル

Claims (15)

  1.  複数の副画素を含み、第1方向、及び、前記第1方向とは異なる第2方向にマトリクス状に配列された画素を有する液晶表示パネルを備える表示装置と、
     前記液晶表示パネルの画素構造に応じて、入力画像の画像変形処理を行う制御回路を備える画像生成装置と、
     を備え、
     前記画像生成装置と前記表示装置とは、有線又は無線通信により接続されており、
     前記制御回路は、
     前記画像変形処理において、前記液晶表示パネルの全ての前記副画素の画素値を生成する、
     表示システム。
  2.  前記表示装置は、
     前記液晶表示パネルに表示させた画像を拡大するレンズを含み、
     前記制御回路は、
     前記画像変形処理において、少なくとも前記レンズの収差による幾何学的な像の歪みを補償して、前記入力画像をユーザに視認させる形状に変形させる、
     請求項1に記載の表示システム。
  3.  前記入力画像は、前記第1方向及び前記第2方向に仮想的にマトリクス配置された複数のデータ定義点ごとに、前記副画素の色に対応する色データを有し、
     前記制御回路は、
     前記画像変形処理において、1つ以上の前記データ定義点における前記色データを標本化して、前記副画素ごとの画素値を生成する、
     請求項2に記載の表示システム。
  4.  前記制御回路は、
     前記画像変形処理によって移動した後のデータ定義点の配置に応じて、前記副画素ごとの画素値を生成する、
     請求項3に記載の表示システム。
  5.  前記制御回路は、
     前記画像変形処理において、面積平均法を用いて前記副画素ごとの標本化を行う、
     請求項4に記載の表示システム。
  6.  前記制御回路は、
     前記画像変形処理において、多点平均法を用いて前記副画素ごとの標本化を行う、
     請求項4に記載の表示システム。
  7.  前記多点平均法を用いて前記副画素ごとの標本化を行う際の平面充填図形は、前記第1方向及び前記第2方向とは異なる2方向のベクトルで示される菱形形状を有している、
     請求項6に記載の表示システム。
  8.  前記画像生成装置は、記憶部を備え、
     前記制御回路は、
     前記画像変形処理において、前記記憶部に記憶された座標変換テーブルに基づき、前記画素値を算出する、
     請求項3から7の何れか一項に記載の表示システム。
  9.  前記制御回路は、
     ポリゴンメッシュを用いて前記座標変換テーブルを生成し、前記記憶部に記憶する、
     請求項8に記載の表示システム。
  10.  前記制御回路は、
     複数の前記副画素の相対的な位置に応じた複数の前記座標変換テーブルを生成する、
     請求項9に記載の表示システム。
  11.  前記制御回路は、
     前記レンズの前記副画素ごとの像倍率に応じた前記座標変換テーブルを生成する、
     請求項10に記載の表示システム。
  12.  前記座標変換テーブルは、
     前記液晶表示パネルの全ての前記副画素に対応した個別のデータを含む、
     請求項8から11の何れか一項に記載の表示システム。
  13.  前記座標変換テーブルは、
     1つあるいは複数の前記画素を1つの画素ブロックとして、複数の前記画素ブロックで同一のデータを適用している、
     請求項8から11の何れか一項に記載の表示システム。
  14.  前記画素に含まれる副画素の色数は、前記入力画像に定義された色数よりも少ない、
     請求項1から13の何れか一項に記載の表示システム。
  15.  前記液晶表示パネルの解像度と前記入力画像の解像度とが異なっている、
     請求項1から14の何れか一項に記載の表示システム。
PCT/JP2021/047139 2021-02-01 2021-12-20 表示システム WO2022163213A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022578149A JPWO2022163213A1 (ja) 2021-02-01 2021-12-20
US18/223,204 US20230368744A1 (en) 2021-02-01 2023-07-18 Display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021014669 2021-02-01
JP2021-014669 2021-02-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/223,204 Continuation US20230368744A1 (en) 2021-02-01 2023-07-18 Display system

Publications (1)

Publication Number Publication Date
WO2022163213A1 true WO2022163213A1 (ja) 2022-08-04

Family

ID=82654450

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047139 WO2022163213A1 (ja) 2021-02-01 2021-12-20 表示システム

Country Status (3)

Country Link
US (1) US20230368744A1 (ja)
JP (1) JPWO2022163213A1 (ja)
WO (1) WO2022163213A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325043A (ja) * 2006-06-02 2007-12-13 Victor Co Of Japan Ltd 画像表示装置及び画像表示プログラム
JP2011242744A (ja) * 2010-05-20 2011-12-01 Lg Display Co Ltd 映像処理方法及びこれを利用した表示装置
US20170039911A1 (en) * 2015-03-25 2017-02-09 Boe Technology Group Co. Ltd. Pixel array, display driving method, display driving device and display device
US20190156466A1 (en) * 2017-11-21 2019-05-23 Samsung Electronics Co., Ltd. Display driver and mobile electronic device
WO2020170454A1 (ja) * 2019-02-22 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109565277B (zh) * 2016-08-30 2024-03-22 株式会社半导体能源研究所 接收差分信号的接收器、包括接收器的ic以及显示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325043A (ja) * 2006-06-02 2007-12-13 Victor Co Of Japan Ltd 画像表示装置及び画像表示プログラム
JP2011242744A (ja) * 2010-05-20 2011-12-01 Lg Display Co Ltd 映像処理方法及びこれを利用した表示装置
US20170039911A1 (en) * 2015-03-25 2017-02-09 Boe Technology Group Co. Ltd. Pixel array, display driving method, display driving device and display device
US20190156466A1 (en) * 2017-11-21 2019-05-23 Samsung Electronics Co., Ltd. Display driver and mobile electronic device
WO2020170454A1 (ja) * 2019-02-22 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法

Also Published As

Publication number Publication date
US20230368744A1 (en) 2023-11-16
JPWO2022163213A1 (ja) 2022-08-04

Similar Documents

Publication Publication Date Title
US10567741B2 (en) Stereoscopic image display device, terminal device, stereoscopic image display method, and program thereof
JP6277544B2 (ja) 立体画像表示装置、端末装置
KR101606797B1 (ko) 입체 영상 표시 장치 및 영상 표시 방법
CN102636895B (zh) 液晶显示设备
US10627641B2 (en) 3D display panel assembly, 3D display device and driving method thereof
KR101521739B1 (ko) 3d 디스플레이 방법 및 3d 디스플레이 장치
TW201321796A (zh) 立體顯示器及其視差屏障面板
CN103154801B (zh) 显示装置
KR20150080243A (ko) 입체 영상 디스플레이 장치
JP6376715B2 (ja) 自動立体視表示装置およびその駆動方法
US8988411B2 (en) Display device
KR102016397B1 (ko) Oled 패널을 이용하는 3d 디스플레이장치에서의 콘텐츠 생성 방법
KR20140066613A (ko) 입체영상 표시장치와 그 구동방법
US20230014991A1 (en) Display device and display system
JP2013057824A (ja) 表示装置、表示方法、および電子機器
WO2022163213A1 (ja) 表示システム
KR102316982B1 (ko) 입체 영상 디스플레이 장치
CN106959524B (zh) 一种显示面板、显示装置以及透镜坐标确定方法
US20190182476A1 (en) Stereoscopic display device
JP2017044769A (ja) 表示装置
US20220076642A1 (en) Display device and display system
CN117518650A (zh) 显示装置及显示系统
JP2021162841A (ja) 表示装置、表示システム及び光源装置
CN117666197A (zh) 显示装置以及显示系统
CN117930553A (en) Display device and display system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21923216

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022578149

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21923216

Country of ref document: EP

Kind code of ref document: A1