WO2021200650A1 - 表示装置及び表示システム - Google Patents

表示装置及び表示システム Download PDF

Info

Publication number
WO2021200650A1
WO2021200650A1 PCT/JP2021/012852 JP2021012852W WO2021200650A1 WO 2021200650 A1 WO2021200650 A1 WO 2021200650A1 JP 2021012852 W JP2021012852 W JP 2021012852W WO 2021200650 A1 WO2021200650 A1 WO 2021200650A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pixels
color
display device
display
Prior art date
Application number
PCT/JP2021/012852
Other languages
English (en)
French (fr)
Inventor
好浩 渡邉
Original Assignee
株式会社ジャパンディスプレイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020205274A external-priority patent/JP2021162841A/ja
Application filed by 株式会社ジャパンディスプレイ filed Critical 株式会社ジャパンディスプレイ
Priority to CN202180025491.3A priority Critical patent/CN115362489A/zh
Publication of WO2021200650A1 publication Critical patent/WO2021200650A1/ja
Priority to US17/949,582 priority patent/US20230014991A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/02Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components specially adapted for rectifying, oscillating, amplifying or switching and having potential barriers; including integrated passive circuit elements having potential barriers
    • H01L27/12Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components specially adapted for rectifying, oscillating, amplifying or switching and having potential barriers; including integrated passive circuit elements having potential barriers the substrate being other than a semiconductor body, e.g. an insulating body
    • H01L27/1214Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components specially adapted for rectifying, oscillating, amplifying or switching and having potential barriers; including integrated passive circuit elements having potential barriers the substrate being other than a semiconductor body, e.g. an insulating body comprising a plurality of TFTs formed on a non-semiconducting substrate, e.g. driving circuits for AMLCDs
    • H01L27/124Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components specially adapted for rectifying, oscillating, amplifying or switching and having potential barriers; including integrated passive circuit elements having potential barriers the substrate being other than a semiconductor body, e.g. an insulating body comprising a plurality of TFTs formed on a non-semiconducting substrate, e.g. driving circuits for AMLCDs with a particular composition, shape or layout of the wiring layers specially adapted to the circuit arrangement, e.g. scanning lines in LCD pixel circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1343Electrodes
    • G02F1/134309Electrodes characterised by their geometrical arrangement
    • G02F1/134336Matrix
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1343Electrodes
    • G02F1/134309Electrodes characterised by their geometrical arrangement
    • G02F1/134363Electrodes characterised by their geometrical arrangement for applying an electric field parallel to the substrate, i.e. in-plane switching [IPS]
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/136Liquid crystal cells structurally associated with a semi-conducting layer or substrate, e.g. cells forming part of an integrated circuit
    • G02F1/1362Active matrix addressed cells
    • G02F1/136286Wiring, e.g. gate line, drain line
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/302Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements characterised by the form or geometrical disposition of the individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G3/2096Details of the interface to the display terminal specific for a flat panel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/10OLED displays
    • H10K59/12Active-matrix OLED [AMOLED] displays
    • H10K59/121Active-matrix OLED [AMOLED] displays characterised by the geometry or disposition of pixel elements
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/10OLED displays
    • H10K59/12Active-matrix OLED [AMOLED] displays
    • H10K59/131Interconnections, e.g. wiring lines or terminals
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/30Devices specially adapted for multicolour light emission
    • H10K59/35Devices specially adapted for multicolour light emission comprising red-green-blue [RGB] subpixels
    • H10K59/353Devices specially adapted for multicolour light emission comprising red-green-blue [RGB] subpixels characterised by the geometrical arrangement of the RGB subpixels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F2203/00Function characteristic
    • G02F2203/30Gray scale
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/08Active matrix structure, i.e. with use of active elements, inclusive of non-linear two terminal elements, in the pixels together with light emitting or modulating elements
    • G09G2300/0809Several active elements per pixel in active matrix panels
    • G09G2300/0842Several active elements per pixel in active matrix panels forming a memory circuit, e.g. a dynamic memory with one capacitor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Definitions

  • This disclosure relates to display devices and display systems.
  • the VR (Virtual Reality) system displays a three-dimensional object in three dimensions and changes the display of the stereoscopic image as the viewpoint moves, thereby giving the user a sense of virtual reality.
  • Patent Document 1 discloses a display system in which an image can be visually recognized on a display device through two lenses.
  • the visibility may be reduced.
  • An object of the present disclosure is to provide a display device and a display system that improve the resolution of an image even when the image is visually recognized through a lens and suppress the deterioration of the visibility of the image.
  • the display device of one aspect has a display area that is visible through a lens, and extends in a second direction, a substrate, a plurality of pixels, a plurality of scanning lines extending in a first direction, and a plurality of scanning lines extending in a first direction.
  • the plurality of signal lines are provided with the display area on the substrate, and the first direction is non-parallel and non-orthogonal to the direction orthogonal to the second direction.
  • a display area in which a substrate, a plurality of pixels, a plurality of scanning lines extending in the first direction, and a plurality of signal lines extending in the second direction are provided on the substrate.
  • the first direction is non-parallel and non-orthogonal to the direction orthogonal to the second direction
  • the plurality of the pixels are the first pixel for displaying the first color and the first pixel.
  • the first pixel includes a second pixel for displaying a second color different from the first color, and a third pixel for displaying the first color and a third color different from the second color.
  • the first pixel is sandwiched between the second pixel and the third pixel, and in the second direction, the first pixel is sandwiched between the second pixel and the third pixel.
  • the second pixel is sandwiched between the first pixel and the third pixel, and in the second direction, the second pixel is the first pixel.
  • the third pixel, and in the first direction, the third pixel is sandwiched between the second pixel and the first pixel, and in the second direction, the third pixel is sandwiched between the second pixel and the first pixel.
  • Three pixels are sandwiched between the second pixel and the first pixel, and a plurality of the first pixels are arranged in a third direction intersecting both the first direction and the second direction.
  • the plurality of the second pixels are arranged in the third direction, and the plurality of the third pixels are arranged in the third direction.
  • a display system of one aspect includes a lens, a display device having a display area visually recognized via the lens, and a control device that outputs an image to the display device, and includes a substrate, a plurality of pixels, and the like.
  • a plurality of scanning lines extending in the first direction and a plurality of signal lines extending in the second direction have the display area provided on the substrate, and the first direction is the second direction. It is non-parallel and non-orthogonal to the direction orthogonal to the direction of.
  • the light source device of one aspect is a light source device that is superimposed on the display area of the display device in a plan view, has a plurality of light emitting elements at positions overlapping the display area in a plan view, and extends in the first direction.
  • the light emitting element scanning line connected to the light emitting element, the light emitting output signal line extending in the second direction and connected to the light emitting element, and the first direction are orthogonal to the second direction. It is non-parallel and non-orthogonal to the direction in which it is used.
  • the display device of one aspect includes a display panel having a display area, a light source device to be superimposed on the display area, and an image adjustment circuit, and the display panel is provided on a substrate and the display area of the substrate.
  • the light source device is non-parallel and non-orthogonal to the orthogonal direction, has a plurality of light emitting elements at positions overlapping the display region in a plan view, extends in the second direction, and is connected to the light emitting element.
  • the light emitting output signal line to be generated and a light emitting element scanning line extending in a direction orthogonal to the second direction and connected to the light emitting element are provided, and the image adjusting circuit comprises the second direction.
  • the first coordinate of the image having the first axis and the first direction as the second axis is the second axis of the image having the second direction as the first axis and the direction orthogonal to the second direction as the second axis. Converted to coordinates, the lighting amount of each light emitting element is calculated.
  • FIG. 1 is a configuration diagram showing an example of a display system according to the first embodiment.
  • FIG. 2 is a schematic diagram showing an example of the relative relationship between the display device and the user's eyes.
  • FIG. 3 is a block diagram showing an example of the configuration of the display system according to the first embodiment.
  • FIG. 4 is a circuit diagram showing the pixel arrangement of the display area according to the first embodiment.
  • FIG. 5 is a schematic view showing an example of the display panel according to the first embodiment.
  • FIG. 6 is a schematic view schematically showing an enlarged part of the display area in the first embodiment.
  • FIG. 7 is a schematic diagram showing the relationship between the signal line and the scanning line in FIG.
  • FIG. 8 is a cross-sectional view schematically showing a cross section of VIII-VIII'in FIG.
  • FIG. 9A is a diagram showing an example of an image input to the display system according to the first embodiment.
  • FIG. 9B is a diagram showing an example of compensation processing for compensating for distortion of an image displayed by the display system according to the first embodiment.
  • FIG. 10 is a schematic view schematically showing an enlarged part of the display area as the display area according to the second embodiment.
  • FIG. 11 is a schematic view showing an example of the display area according to the third embodiment.
  • FIG. 12 is a schematic view showing an example of the display area according to the fourth embodiment.
  • FIG. 13 is a schematic view schematically showing an enlarged part of the display area in the fifth embodiment.
  • FIG. 14 is a schematic diagram showing the relationship between the signal line and the scanning line in FIG. FIG.
  • FIG. 15 is an explanatory diagram showing the relationship between the ratio of the pixel spacing of the same color to the reference distance of the pixels in the second direction and the inclination of the scanning line in the fifth embodiment.
  • FIG. 16 is an explanatory diagram showing the relationship between the ratio of the pixel spacing of the same color to the reference distance of the pixels in the second direction and the inclination of the scanning line in the sixth embodiment.
  • FIG. 17 is a schematic view showing an example of the display area according to the seventh embodiment.
  • FIG. 18 is a schematic view showing an example of the display area according to the eighth embodiment.
  • FIG. 19 is a schematic view schematically showing an enlarged part of the display area in the ninth embodiment.
  • FIG. 20 is a schematic view schematically showing an enlarged part of the display area in the tenth embodiment.
  • FIG. 21 is a schematic view schematically showing an enlarged part of the display area in the eleventh embodiment.
  • FIG. 22 is a block diagram showing an example of the configuration of the display system according to the twelfth embodiment.
  • FIG. 23 is a schematic view showing an example of the backlight according to the twelfth embodiment.
  • FIG. 24 is a flowchart for explaining the processing of the image adjustment circuit according to the twelfth embodiment.
  • FIG. 25 is a block diagram showing an example of the configuration of the display system according to the thirteenth embodiment.
  • FIG. 26A is a schematic view showing the optical profile data of the backlight before conversion in calculating the lighting amount of the backlight according to the thirteenth embodiment.
  • FIG. 26B is a schematic view showing the optical profile data of the backlight after conversion in calculating the lighting amount of the backlight according to the thirteenth embodiment.
  • FIG. 27 is a schematic view showing an example of the backlight according to the thirteenth embodiment.
  • FIG. 1 is a configuration diagram showing an example of a display system according to the first embodiment.
  • FIG. 2 is a schematic diagram showing an example of the relative relationship between the display device and the user's eyes.
  • the display system 1 is a display system that changes the display according to the movement of the user.
  • the display system 1 stereoscopically displays a VR (Virtual Reality) image showing a three-dimensional object or the like in a virtual space, and changes the stereoscopic display according to the orientation (position) of the user's head, thereby causing the user.
  • VR Virtual Reality
  • It is a VR system that creates a sense of virtual reality.
  • the display system 1 includes, for example, a display device 100 and a control device 200.
  • the display device 100 and the control device 200 are configured so that information (signals) can be input and output via the cable 300.
  • the cable 300 includes, for example, a cable such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface) and the like.
  • the display device 100 and the control device 200 may be configured so that information can be input and output by wireless communication.
  • the display device 100 is supplied with electric power from the control device 200 via the cable 300.
  • the display device 100 has a power receiving unit in which electric power is supplied from the power supply unit of the control device 200 via the cable 300, and each configuration of the display panel 110, the sensor 120, and the like of the display device 100 is supplied from the control device 200. It may be driven by the electric power generated. By doing so, the battery and the like can be removed from the display device 100, and a cheaper and lighter display device 100 can be provided.
  • the mounting member 400 or the display device 100 may be provided with a battery and may be supplied to the display device.
  • the display device 100 has a display panel.
  • the display panel is, for example, a liquid crystal display (Liquid Crystal Display), but may be an organic EL (Organic Electro-Luminence) panel, a ⁇ -OLED, a ⁇ -LED panel, a mini-LED panel, or the like.
  • organic EL Organic Electro-Luminence
  • the display device 100 is fixed to the mounting member 400.
  • the mounting member 400 includes, for example, a headset, goggles, a helmet and a mask covering both eyes of the user, and the like.
  • the mounting member 400 is mounted on the user's head.
  • the mounting member 400 is arranged in front of the user so as to cover both eyes of the user when mounted.
  • the mounting member 400 functions as an immersive mounting member by positioning the display device 100 fixed inside in front of both eyes of the user.
  • the mounting member 400 may have an output unit that outputs a sound signal or the like output from the control device 200. Further, the mounting member 400 may have a structure having a built-in function of the control device 200.
  • the display device 100 is slotted into the mounting member 400, but may be fixed to the mounting member 400.
  • the display system may be composed of a wearable display device including a mounting member 400 and a display device 100, and a control device 200.
  • the mounting member 400 has, for example, a lens 410 corresponding to both eyes of the user.
  • the lens 410 is a magnifying lens for forming an image on the user's eye.
  • the mounting member 400 positions the lens 410 in front of the user's eyes E.
  • the user visually recognizes the display area of the display device 100 enlarged by the lens 410. Therefore, the display device 100 needs to increase the resolution in order to clearly display the image (screen).
  • the display device 100 may have a plurality of lenses and be arranged at a position different from that in front of the eyes.
  • the control device 200 displays, for example, an image on the display device 100.
  • the control device 200 for example, an electronic device such as a personal computer or a game device can be used.
  • the virtual image includes, for example, an image such as a computer graphic image or a 360-degree live-action image.
  • the control device 200 outputs a three-dimensional image utilizing the parallax of both eyes of the user to the display device 100.
  • the control device 200 outputs to the display device 100 images for the right eye and the left eye that follow the direction of the user's head.
  • FIG. 3 is a block diagram showing an example of the configuration of the display system according to the first embodiment.
  • the display device 100 includes two display panels 110, a sensor 120, an image separation circuit 150, and an interface 160.
  • the display device 100 is composed of two display panels 110, one of which is used as a display panel 110 for the left eye and the other as a display panel 110 for the right eye.
  • Each of the two display panels 110 has a display area 111 and a display control circuit 112.
  • the display panel 110 has a light source device (backlight IL described later) that illuminates the display area 111 from behind.
  • pixels Pix are arranged in a two-dimensional matrix (matrix) with P 0 ⁇ Q 0 (P 0 in the row direction and Q 0 in the column direction).
  • FIG. 3 schematically shows an array of a plurality of pixel Pix, and a detailed array of pixel Pix will be described later.
  • the display panel 110 has a scanning line extending in the Vx direction and a signal line extending in the Vy direction intersecting the Vx direction.
  • the display panel 110 has 2880 signal lines SL and 1700 scanning lines GL.
  • the pixel Pix is arranged in the area surrounded by the signal line SL and the scanning line GL.
  • the pixel Pix has a switching element (TFT: thin film transistor) connected to the signal line SL and the scanning line GL, and a pixel electrode connected to the switching element.
  • TFT thin film transistor
  • a plurality of pixels Pix arranged along the extending direction of the scanning line GL are connected to one scanning line GL.
  • one signal line SL is connected to a plurality of pixels Pix arranged along the extending direction of the signal line SL.
  • the display area 111 of one display panel 110 is for the right eye
  • the display area 111 of the other display panel 110 is for the left eye.
  • the display panel 110 has two display panels 110 for the left eye and the right eye
  • the display device 100 is not limited to the structure using the two display panels 110 as described above.
  • there is only one display panel 110 and one display panel 110 is displayed so that an image for the right eye is displayed in the right half area and an image for the left eye is displayed in the left half area.
  • the area may be divided into two.
  • the display control circuit 112 includes a driver IC (Integrated Circuit) 115, a signal line connection circuit 113, and a scanning line drive circuit 114.
  • the signal line connection circuit 113 is electrically connected to the signal line SL.
  • the driver IC 115 controls ON / OFF of a switching element (for example, a TFT) for controlling the operation (light transmittance) of the pixel Pix by the scanning line drive circuit 114.
  • the scanning line drive circuit 114 is electrically connected to the scanning line GL.
  • the sensor 120 detects information that can estimate the orientation of the user's head. For example, the sensor 120 detects information indicating the movement of the display device 100 and the mounting member 400, and the display system 1 puts the display device 100 on the head based on the information indicating the movement of the display device 100 and the mounting member 400. Estimate the orientation of the wearing user's head.
  • the sensor 120 detects information capable of estimating the direction of the line of sight using, for example, at least one of the angle, acceleration, angular velocity, direction, and distance of the display device 100 and the mounting member 400.
  • a gyro sensor, an acceleration sensor, an orientation sensor, or the like can be used as the sensor 120.
  • the sensor 120 may detect the angle and angular velocity of the display device 100 and the mounting member 400 by, for example, a gyro sensor.
  • the sensor 120 may detect, for example, the direction and magnitude of the acceleration acting on the display device 100 and the mounting member 400 by the acceleration sensor.
  • the sensor 120 may detect the orientation of the display device 100 by, for example, an orientation sensor.
  • the sensor 120 may detect the movement of the display device 100 or the mounting member 400 by, for example, a distance sensor, a GPS (Global Positioning System) receiver, or the like.
  • the sensor 120 may be another sensor such as an optical sensor, or may be used in combination of a plurality of sensors, as long as it is a sensor for detecting the direction of the user's head, a change in the line of sight, movement, and the like.
  • the sensor 120 is electrically connected to the image separation circuit 150 via an interface 160 described later.
  • the image separation circuit 150 receives the image data for the left eye and the image data for the right eye sent from the control device 200 via the cable 300, and displays the image data for the left eye on the display panel 110 for displaying the image for the left eye.
  • the image data for the right eye is sent to the display panel 110 that displays the image for the right eye.
  • the interface 160 includes a connector to which the cable 300 (FIG. 1) is connected. A signal from the control device 200 is input to the interface 160 via the connected cable 300.
  • the image separation circuit 150 outputs a signal input from the sensor 120 to the control device 200 via the interface 160 and the interface 240.
  • the signal input from the sensor 120 includes the above-mentioned information capable of estimating the direction of the line of sight.
  • the signal input from the sensor 120 may be directly output to the control unit 230 of the control device 200 via the interface 160.
  • the interface 160 may be, for example, a wireless communication device, and information may be transmitted / received to / from the control device 200 via wireless communication.
  • the control device 200 includes an operation unit 210, a storage unit 220, a control unit 230, and an interface 240.
  • the operation unit 210 accepts user operations.
  • the operation unit 210 can use, for example, an input device such as a keyboard, a button, or a touch screen.
  • the operation unit 210 is electrically connected to the control unit 230.
  • the operation unit 210 outputs information according to the operation to the control unit 230.
  • the storage unit 220 stores programs and data.
  • the storage unit 220 temporarily stores the processing result of the control unit 230.
  • the storage unit 220 includes a storage medium.
  • the storage medium includes, for example, a ROM, RAM, a memory card, an optical disk, a magneto-optical disk, or the like.
  • the storage unit 220 may store image data to be displayed on the display device 100.
  • the storage unit 220 stores, for example, the control program 211, the VR application 212, and the like.
  • the control program 211 can provide, for example, various control-related functions for operating the control device 200.
  • the VR application 212 can provide a function of displaying a virtual reality image on the display device 100.
  • the storage unit 220 can store various information input from the display device 100, such as data indicating the detection result of the sensor 120, for example.
  • the control unit 230 includes, for example, an MCU (Micro Control Unit), a CPU (Central Processing Unit), and the like.
  • the control unit 230 can comprehensively control the operation of the control device 200.
  • Various functions of the control unit 230 are realized based on the control of the control unit 230.
  • the control unit 230 includes, for example, a GPU (Graphics Processing Unit) that generates an image to be displayed.
  • the GPU generates an image to be displayed on the display device 100.
  • the control unit 230 outputs the image generated by the GPU to the display device 100 via the interface 240.
  • the GPU may be provided in the display device 100 or the image separation circuit 150 of the display device 100.
  • the display device 100 may acquire data from, for example, the control device 200, an external electronic device, or the like, and the GPU may generate an image based on the data.
  • the interface 240 includes a connector to which the cable 300 (see FIG. 1) is connected. A signal from the display device 100 is input to the interface 240 via the cable 300. The interface 240 outputs the signal input from the control unit 230 to the display device 100 via the cable 300.
  • the interface 240 may be, for example, a wireless communication device, and information may be transmitted / received to / from the display device 100 via wireless communication.
  • the control unit 230 causes the display device 100 to display an image according to the movement of the user (display device 100).
  • the control unit 230 detects a change in the user (display device 100) while the image is displayed on the display device 100, the control unit 230 changes the image displayed on the display device 100 to the image in the changed direction.
  • the control unit 230 creates an image based on the reference viewpoint and the reference line of sight in the virtual space at the start of image creation and detects a change in the user (display device 100)
  • the control unit 230 creates an image to be displayed.
  • the viewpoint or line of sight is changed from the reference viewpoint or the reference line of sight direction according to the movement of the user (display device 100), and an image based on the changed viewpoint or line of sight is displayed on the display device 100.
  • control unit 230 detects the movement of the user's head to the right based on the detection result of the sensor 120. In this case, the control unit 230 changes the currently displayed image to the image when the line of sight is changed to the right. The user can visually recognize the image in the right direction of the image displayed on the display device 100.
  • control unit 230 when the control unit 230 detects the movement of the display device 100 based on the detection result of the sensor 120, the control unit 230 changes the image according to the detected movement.
  • the control unit 230 detects that the display device 100 has moved forward, the control unit 230 changes the image to the one when the display device 100 has moved to the front of the currently displayed image.
  • the control unit 230 detects that the display device 100 has moved backward, the control unit 230 changes the image to the one when the display device 100 moves backward from the currently displayed image. The user can visually recognize the image in the moving direction from the image displayed on the display device 100.
  • FIG. 4 is a circuit diagram showing the pixel arrangement of the display area according to the first embodiment.
  • the above-mentioned scanning lines GL are a general term for a plurality of scanning lines G1, G2, and G3.
  • the above-mentioned signal line SL is a general term for a plurality of signal lines S1, S2, and S3.
  • the scanning line GL and the signal line SL do not intersect at right angles, but in FIG. 3, for convenience of explanation, the scanning line GL and the signal line SL are at right angles.
  • switching elements TrD1, TrD2, TrD3, signal line SL, scanning line GL, etc. of each pixel PixR, PixG, PixB shown in FIG. 4 are formed.
  • the signal lines S1, S2, and S3 are wirings for supplying pixel signals to the pixel electrodes PE1, PE2, and PE3 (see FIG. 8).
  • the scanning lines G1, G2, and G3 are wirings for supplying gate signals for driving the switching elements TrD1, TrD2, and TrD3.
  • the pixel Pix of the display area 111 shown in FIG. 4 includes a plurality of arranged pixels PixR, PixG, and PixB.
  • a plurality of pixels PixR, PixG, and PixB may be collectively referred to as a pixel Pix.
  • the pixels PixR, PixG, and PixB have the capacitances of the switching elements TrD1, TrD2, TrD3, and the liquid crystal layer LC, respectively.
  • the switching elements TrD1, TrD2, and TrD3 are composed of thin film transistors, and in this example, they are composed of n-channel MOS (Metal Oxide Semiconductor) type TFTs.
  • a sixth insulating film 16 (see FIG. 8) is provided between the pixel electrodes PE1, PE2, PE3 and the common electrode COM, which will be described later, and the holding capacitance Cs shown in FIG. 4 is formed by these.
  • the color filters CFR, CFG, and CFB shown in FIG. 4 have color regions colored in three colors, for example, red (first color: R), green (second color: G), and blue (third color: B). It is arranged periodically.
  • Each pixel PixR, PixG, and PixB shown in FIG. 4 described above is associated with a set of three color regions of R, G, and B. Then, the pixels PixR, PixG, and PixB corresponding to the three color regions are set as one set.
  • the color filter may include four or more color regions. Pixels PixR, PixG, and PixB may be referred to as sub-pixels, respectively.
  • FIG. 5 is a schematic view showing an example of the display panel according to the first embodiment.
  • FIG. 6 is a schematic view schematically showing an enlarged part of the display area in the first embodiment.
  • FIG. 7 is a schematic diagram showing the relationship between the signal line and the scanning line in FIG.
  • FIG. 8 is a cross-sectional view schematically showing a cross section of VIII-VIII'in FIG.
  • the display panel 110 has sides 110e1, sides 110e2, sides 110e3, and sides 110e4 at the end of the substrate.
  • the area between the side 110e1, the side 110e2, the side 110e3, the side 110e4 and the display area 111 at the end of the substrate of the display panel is called a peripheral area.
  • the scanning line drive circuit 114 is arranged in a peripheral region between the side 110e1 at the end of the substrate of the display panel 110 and the display region 111.
  • the signal line connection circuit 113 is arranged in a peripheral region between the side 110e4 at the end of the substrate of the display panel 110 and the display region 111.
  • the driver IC 115 is arranged in a peripheral region between the side 110e4 at the end of the substrate of the display panel 110 and the display region 111.
  • the driver IC 115 is joined to the terminal 115b via a conductive member in order to electrically connect to the array substrate SUB1 (see FIG. 8) described later of the display panel 110.
  • the terminals 115b are generally arranged in one direction, and the direction Vp in which the terminals 115b are arranged is defined as the direction Vx.
  • the direction Vy is a direction orthogonal to the direction Vx.
  • the sides 110e3 and 110e4 of the substrate end of the display panel 110 are parallel to the direction Vx.
  • the sides 110e1 and 110e2 at the end of the display panel 110 are parallel to the direction Vy.
  • the direction in which the signal line SL extends is parallel to the direction Vy.
  • the direction in which the scanning line GL extends is not parallel to either the direction Vx or the direction Vy. Since the direction in which the scanning line GL extends is not orthogonal to the direction in which the signal line SL extends, for example, each pixel PixR, PixG, and PixB is a parallelogram.
  • Each pixel PixR, PixG, PixB exemplifies a parallelogram, but is not limited to a parallelogram.
  • the pixels PixR, PixG, and PixB may be referred to as sub-pixels PixS.
  • the direction Vsl is the direction in which the signal line SL (see FIG. 5) extends.
  • the direction Vsg orthogonal to the direction Vsl is parallel to the direction Vx.
  • the direction Vss is the direction in which the scanning line GL (see FIG. 5) extends.
  • the scanning line GL is tilted with respect to the direction Vx by the angle ⁇ g formed by the direction Vss and the direction Vsg.
  • the direction Vss is the direction in which the virtual line connecting the first reference positions Pgl in the plurality of pixels PixR connected to one scanning line GL extends.
  • the first reference position Pgl is on the scanning line GL, intersects the scanning line GL in a plan view, and is a midpoint of adjacent signal lines SL.
  • the first reference position Pgl is not limited to this, and may be, for example, the area center of gravity of the pixel PixR.
  • the first reference position Pgl is defined with reference to the pixel PixR, the pixel PixG or the pixel PixB may be used instead of the pixel PixR.
  • the direction Vsl is the direction in which the virtual line connecting the second reference positions Psl in the plurality of pixels PixR connected to one signal line SL extends.
  • the second reference position Psl is the midpoint of the intersection position Pt on the signal line SL and the scanning line GL that intersects the signal line SL in a plan view.
  • the second reference position Psl is not limited to this, and may be, for example, the area center of gravity of the pixel PixR.
  • the second reference position Psl is defined with reference to the pixel PixR, the pixel PixG or the pixel PixB may be used instead of the pixel PixR.
  • the pixel PixR and the adjacent pixel PixG are arranged at a distance ⁇ h1 in the direction Vsl.
  • the two pixels PixR connected to one scanning line GL are deviated by three times the distance ⁇ h1.
  • half of the distance Ph1 shown in FIG. 6 is equal to three times the distance ⁇ h1 shown in FIG. 7
  • pixels of the same color adjacent to the direction Vx for example, pixels PixRs are shifted by half in the direction Vsl. Therefore, the positions of the pixels of the same color have two types of positions, an even-numbered column and an odd-numbered column.
  • the horizontal black and white lines can be displayed in finer detail, and the substantial resolution of the display device 100 is improved.
  • the array substrate SUB1 uses a translucent first insulating substrate 10 such as a glass substrate or a resin substrate as a substrate.
  • the array substrate SUB1 has a first insulating film 11, a second insulating film 12, a third insulating film 13, a fourth insulating film 14, and a fifth insulating film 15 on the side of the first insulating substrate 10 facing the opposing substrate SUB2.
  • It includes a sixth insulating film 16, signal lines S1 to S3, pixel electrodes PE1 to PE3, a common electrode COM, a first alignment film AL1, and the like.
  • the direction from the array substrate SUB1 to the opposing substrate SUB2 is referred to as upward or simply upward.
  • the first insulating film 11 is located on the first insulating substrate 10.
  • the second insulating film 12 is located on the first insulating film 11.
  • the third insulating film 13 is located on the second insulating film 12.
  • the signal lines S1 to S3 are located on the third insulating film 13.
  • the fourth insulating film 14 is located on the third insulating film 13 and covers the signal lines S1 to S3.
  • wiring may be arranged on the fourth insulating film 14. This wiring will be covered with the fifth insulating film 15. In this embodiment, wiring is omitted.
  • the first insulating film 11, the second insulating film 12, the third insulating film 13, and the sixth insulating film 16 are formed of a translucent inorganic material such as silicon oxide or silicon nitride. There is.
  • the fourth insulating film 14 and the fifth insulating film 15 are formed of a translucent resin material and have a thicker film thickness than other insulating films formed of an inorganic material.
  • the fifth insulating film 15 may be formed of an inorganic material.
  • the common electrode COM is located on the fifth insulating film 15.
  • the common electrode COM is covered with the sixth insulating film 16.
  • the sixth insulating film 16 is formed of a translucent inorganic material such as a silicon oxide or a silicon nitride.
  • the pixel electrodes PE1 to PE3 are located on the sixth insulating film 16 and face the common electrode COM via the sixth insulating film 16.
  • the pixel electrodes PE1 to PE3 and the common electrode COM are formed of a translucent conductive material such as ITO (Indium Tin Oxide) or IZO (Indium Zinc Oxide).
  • the pixel electrodes PE1 to PE3 are covered with the first alignment film AL1.
  • the first alignment film AL1 also covers the sixth insulating film 16.
  • the facing substrate SUB2 is based on a second insulating substrate 20 having translucency such as a glass substrate or a resin substrate.
  • the facing substrate SUB2 is provided with a light-shielding layer BM, a color filter CFR, CFG, CFB, an overcoat layer OC, a second alignment film AL2, and the like on the side of the second insulating substrate 20 facing the array substrate SUB1.
  • the light-shielding layer BM is located on the side of the second insulating substrate 20 facing the array substrate SUB1.
  • the light-shielding layer BM defines the size of the openings facing the pixel electrodes PE1 to PE3, respectively.
  • the light-shielding layer BM is formed of a black resin material or a light-shielding metal material.
  • Each of the color filters CFR, CFG, and CFB is located on the side of the second insulating substrate 20 facing the array substrate SUB1, and each end thereof overlaps the light-shielding layer BM.
  • the color filter CFR faces the pixel electrode PE1.
  • the color filter CFG faces the pixel electrode PE2.
  • the color filter CFB faces the pixel electrode PE3.
  • the color filters CFR, CFG, and CFB are formed of resin materials colored blue, red, and green, respectively.
  • the overcoat layer OC covers the color filters CFR, CFG, and CFB.
  • the overcoat layer OC is formed of a translucent resin material.
  • the second alignment film AL2 covers the overcoat layer OC.
  • the first alignment film AL1 and the second alignment film AL2 are formed of, for example, a material exhibiting horizontal orientation.
  • the facing substrate SUB2 includes a light-shielding layer BM, a color filter CFR, a CFG, a CFB, and the like.
  • the light-shielding layer BM is provided in a region facing the wiring portions such as the scanning lines G1, G2, G3, signal lines S1, S2, S3, contact portions PA1, PA2, PA3, switching elements TrD1, TrD2, and TrD3 shown in FIG. Have been placed.
  • the opposed substrate SUB2 includes three color filters CFR, CFG, and CFB, but other colors different from blue, red, and green, such as white, transparent, yellow, magenta, and cyan, etc. It may be provided with four or more color filters including the color filter of. Further, these color filters CFR, CFG, and CFB may be provided on the array substrate SUB1.
  • the color filter CF is provided on the facing substrate SUB2, but the array substrate SUB1 may have a so-called COA (Color filter on Array) structure in which the color filter CF is provided.
  • COA Color filter on Array
  • the array substrate SUB1 and the facing substrate SUB2 described above are arranged so that the first alignment film AL1 and the second alignment film AL2 face each other.
  • the liquid crystal layer LC is enclosed between the first alignment film AL1 and the second alignment film AL2.
  • the liquid crystal layer LC is composed of a negative liquid crystal material having a negative dielectric anisotropy or a positive liquid crystal material having a positive dielectric anisotropy.
  • the array board SUB1 faces the backlight IL, and the facing board SUB2 is located on the display surface side.
  • Various forms of the backlight IL can be applied, but the detailed structure thereof will be omitted.
  • the first optical element OD1 including the first polarizing plate PL1 is arranged on the outer surface of the first insulating substrate 10 or the surface facing the backlight IL.
  • the second optical element OD2 including the second polarizing plate PL2 is arranged on the outer surface of the second insulating substrate 20 or the surface on the observation position side.
  • the first polarization axis of the first polarizing plate PL1 and the second polarization axis of the second polarizing plate PL2 are in a cross-nicol positional relationship, for example, in the XY plane.
  • the first optical element OD1 and the second optical element OD2 may include other optical functional elements such as a retardation plate.
  • the major axis of the liquid crystal molecule LM is in a predetermined direction in the Vx-Vy plane. Initial orientation along the direction.
  • a voltage is applied to the liquid crystal layer LC, that is, when an electric field is formed between the pixel electrodes PE1 to PE3 and the common electrode COM, the liquid crystal molecule LM is affected by the electric field and its orientation. The state changes. When on, the incident linearly polarized light changes according to the orientation state of the liquid crystal molecules LM when its polarization state passes through the liquid crystal layer LC.
  • the display device 100 has a display area 111 that can be visually recognized via the lens 410.
  • the display area 111 is provided on the array substrate SUB1.
  • the display area 111 includes a plurality of pixels PixR, PixG, and PixB, a plurality of scanning lines GL extending in the first direction Vss, and a plurality of signal lines SL extending in the second direction Vsl.
  • the first direction Vss is non-parallel and non-orthogonal to the direction orthogonal to the second direction Vsl.
  • the first pixel PixR, the second pixel PixG, and the third pixel PixB are arranged consecutively in the second direction Vsl, respectively.
  • One first pixel PixR and the first pixel PixR arranged next in the first direction Vss from the first pixel PixR are half of the distance Ph1 of the first pixel PixR in the second direction Vsl. They are arranged so that their lengths are offset. This improves the substantial resolution of the display device 100.
  • FIG. 9A is a diagram showing an example of an image input to the display system according to the first embodiment.
  • FIG. 9B is a diagram showing an example of compensation processing for compensating for distortion of an image displayed by the display system according to the first embodiment.
  • the images Mn to be displayed by the user are arranged in a matrix in the direction Vx and the direction Vy.
  • the GPU of the control unit 230 shown in FIG. 3 calculates a first compensated image MI to which the image Mn shown in FIG. 9A is subjected to an image deformation process for correcting the lens distortion of the lens 410 (see FIG. 2).
  • the GPU of the control unit 230 shown in FIG. 3 calculates a second compensated image Mg to which an image deformation process for compensating for the distortion that deforms the image Mn shown in FIG. 9A due to the influence of the angle ⁇ g is applied.
  • the GPU of the control unit 230 shown in FIG. 3 sends a third compensated image MIg, which is a superposition of the first compensated image MI and the second compensated image Mg, to the display device 100 with respect to the image Mn shown in FIG. 9A. ..
  • the two image transformation processes of the first compensated image MI and the second compensated image Mg for finally obtaining the third compensated image Mlg are textures generally used in image processing using the GPU. It is processed at once by the mapping method. Specifically, the image of the texture mapped to the polygon mesh (image) reflecting the target distortion of the third compensated image Mlg in FIG. 9B becomes the distorted image element of the target third compensated image Mlg. Therefore, the polygon mesh (image) corresponding to the third compensated image Mlg is stored in the storage unit 220, or the polygon of the third compensated image Mlg is calculated by the control unit 230 when the display system 1 is started.
  • the polygon mesh (image) By generating a mesh (image), the polygon mesh (image) can be applied during the display processing of each frame. As a result, the final target result of the third compensated image Mlg can be obtained with only one texture mapping process. This is because the number of image processing steps is not increased as compared with the general VR image distortion compensation processing in which only the first compensation image Ml is applied without the processing of the second compensation image Mg. 2 Compensation image It is possible to suppress an increase in cost due to execution of Mg processing.
  • the control device 200 causes distortion that deforms the image due to the influence of the angle ⁇ g formed by the direction Vsg in which the first direction Vss extending the scanning line GL is orthogonal to the second direction Vsl.
  • the second compensation process for compensation is executed.
  • the display device 100 can make the user recognize the image Mn shown in FIG. 9A by displaying the third compensation image MIg.
  • the second compensation process may be processed by the driver IC 115 of the display control circuit 112 described above.
  • the driver IC 115 executes a second compensation process that compensates for distortion that deforms the image due to the influence of the angle ⁇ g.
  • the control device 200 can reduce the computing load on the GPU.
  • the direction Vsl is parallel to the direction Vy, but in the second embodiment, the direction Vsl is tilted by an angle ⁇ s with respect to the direction Vy.
  • similar components may be designated by the same reference numerals. Further, duplicate description will be omitted.
  • the direction Vsl is the direction in which the signal line SL (see FIG. 7) extends.
  • the direction Vsg orthogonal to the direction Vsl has an angle ⁇ s with respect to the direction Vx.
  • the direction Vss is the direction in which the scanning line GL (see FIG. 7) extends. As described above, it has an angle ⁇ g formed by the direction Vss and the direction Vsg. Therefore, the angle at which the scanning line GL is tilted with respect to the direction Vx is an angle ( ⁇ g ⁇ s).
  • the angle at which the scanning line GL is tilted with respect to the direction Vx is smaller than that of the display device 100 of the first embodiment. Therefore, the load of the image deformation processing that suppresses the influence of the angle ⁇ g formed by the extending direction of the scanning line GL with respect to the extending direction of the signal line SL is reduced.
  • the number of scanning line driving circuits 114 is one, but in the third embodiment, the number of scanning line driving circuits is two.
  • the same components as those in the first and second embodiments are designated by the same reference numerals, and duplicate description will be omitted.
  • FIG. 11 is a schematic view showing an example of the display area according to the third embodiment.
  • the first scanning line drive circuit 114A is arranged in a peripheral region between the side 110e1 of the substrate end portion of the display panel 110 and the display region 111.
  • the second scanning line drive circuit 114B is arranged in a peripheral region between the side 110e2 at the end of the substrate of the display panel 110 and the display region 111.
  • the second scanning line driving circuit 114B is arranged on the opposite side of the first scanning line driving circuit 114A with the display area 111 interposed therebetween.
  • the scanning line GL connected to the first scanning line driving circuit 114A and the scanning line GL connected to the second scanning line driving circuit 114B are alternately arranged at predetermined intervals in the direction Vy. .. As a result, the number of output circuits for each of the scanning line driving circuit 114A and the scanning line driving circuit 114B can be reduced to 1/2, and the scanning line driving circuit can be formed even if the pixel pitch is narrowed.
  • the second scanning line driving circuit 114B is deviated in the direction Vy from the first scanning line driving circuit 114A.
  • the region surrounded by the signal line SL and the scanning line GL can be any of pixels PixR, PixG, and PixB.
  • the scan line GL connected to the first scan line drive circuit 114A near the side 110e4 side of the substrate end is shorter than the scan line GL connected to the second scan line drive circuit 114B.
  • the scan line GL connected to the second scan line drive circuit 114B near the side 110e3 side of the substrate end is shorter than the scan line GL connected to the first scan line drive circuit 114A. Become.
  • the first scanning line driving circuit 114A is arranged in a straight line extending in the direction Vy, but in the fourth embodiment, the first scanning line driving circuit 114A is bent.
  • the same components as those in the first to third embodiments are designated by the same reference numerals, and duplicate description will be omitted.
  • FIG. 12 is a schematic view showing an example of the display area according to the fourth embodiment. Since the scanning line GL is inclined with respect to the direction Vx, the second scanning line driving circuit 114B is deviated in the direction Vy from the first scanning line driving circuit 114A. Therefore, the first scanning line drive circuit 114A has a straight line portion 114C extending in the direction Vy and a straight line portion 114D extending in the direction Vx. The straight portion 114C and the straight portion 114D are connected by a bent portion 114X.
  • the straight line portion 114D is arranged in the peripheral region between the side 110e3 at the end of the substrate and the display region 111, so that the display panel 110 of the fourth embodiment has a length of the direction Vy as compared with the third embodiment. Can be shortened.
  • FIG. 13 is a schematic diagram schematically showing an enlarged part of the display area in the fifth embodiment.
  • FIG. 14 is a schematic diagram showing the relationship between the signal line and the scanning line in FIG.
  • FIG. 15 is an explanatory diagram showing the relationship between the ratio of the pixel spacing of the same color to the reference distance of the pixels in the second direction and the inclination of the scanning line in the fifth embodiment.
  • the direction in which the signal line SL extends is parallel to the direction Vy.
  • the direction in which the scanning line GL extends is not parallel to either the direction Vx or the direction Vy. Since the direction in which the scanning line GL extends is not orthogonal to the direction in which the signal line SL extends, for example, each pixel PixR, PixG, and PixB is a parallelogram.
  • the direction Vsl is the direction in which the signal line SL (see FIG. 5) extends.
  • the direction Vsg orthogonal to the direction Vsl is parallel to the direction Vx.
  • the direction Vss is the direction in which the scanning line GL (see FIG. 5) extends.
  • the scanning line GL is tilted with respect to the direction Vx by the angle ⁇ g formed by the direction Vss and the direction Vsg.
  • Each pixel PixR, PixG, PixB exemplifies a parallelogram, but is not limited to a parallelogram.
  • the direction Vss is the direction in which the virtual line connecting the first reference positions Pgl in the plurality of pixels PixR connected to one scanning line GL extends.
  • the first reference position Pgl is on the scanning line GL, intersects the scanning line GL in a plan view, and is the midpoint of adjacent signal lines SL.
  • the direction Vsl is the direction in which the virtual line connecting the second reference positions Psl in the plurality of pixels PixR connected to one signal line SL extends.
  • the second reference position Psl is the midpoint of the intersection position Pt on the signal line SL and the scanning line GL that intersects the signal line SL in a plan view.
  • the pixel PixR and the adjacent pixel PixG are arranged with a distance ⁇ h2 offset in the direction Vsl.
  • ⁇ h2 is approximately equal to Pw2 ⁇ tan ( ⁇ g).
  • the display system 1 shown in FIG. 1 is mounted on the user's head, it is desirable that the display device 100 be small.
  • the display area 111 is visually recognized through the lens 410, so that it is necessary to make the pixel Pix smaller in order to increase the resolution.
  • the length of the direction Vx of the pixels PixR, PixG, and PixB is the distance Pw1.
  • the distance Pw1 is reduced to 12 ⁇ m, the area ratio of the light-shielding layer BM described above is large, the opening ratio is small, and the power consumption may increase in order to secure a constant brightness.
  • the pixels PixR, PixG, and PixB are arranged as shown in FIG.
  • the pixel PixR is sandwiched between the pixel PixB and the pixel PixG, and in the direction Vsl, the pixel PixR is sandwiched between the pixel PixB and the pixel PixG.
  • the pixel PixG is sandwiched between the pixel PixR and the pixel PixB, and in the direction Vsl, the pixel PixG is sandwiched between the pixel PixR and the pixel PixB.
  • the pixel PixB is sandwiched between the pixel PixG and the pixel PixR, and in the direction Vsl, the pixel PixB is sandwiched between the pixel PixG and the pixel PixR.
  • the pixels PixR, the pixels PixG, and the pixels PixB are repeatedly arranged in this order.
  • the pixels PixR, the pixels PixG, and the pixels PixB are repeatedly arranged in this order.
  • the length of the direction Vx of the pixels PixR, PixG, and PixB is the distance Pw2, and the length of the direction Vy is the distance Ph2.
  • the distance Pw2 is 3/4 times the distance Pw1 shown in FIG. 7, and the distance Ph2 is 2/3 times the distance Ph1 shown in FIG.
  • the green pixels PixG having high visibility of the user are continuously arranged diagonally (third direction Vt) with respect to the direction Vx. Be done.
  • the angle ⁇ g is 0 degrees
  • the pixel PixG becomes an oblique line for the user and is easily visually recognized.
  • the phenomenon in which the pixel structure is visually recognized by the user is called the screen door effect.
  • the display device 100 has a display area 111 that can be visually recognized via the lens 410.
  • the display area 111 is provided on the array substrate SUB1.
  • the display area 111 includes a plurality of pixels PixR, PixG, and PixB, a plurality of scanning lines GL extending in the first direction Vss, and a plurality of signal lines SL extending in the second direction Vsl.
  • the display device 100 of the fifth embodiment if the direction Vss is non-parallel and non-orthogonal with respect to the direction Vx, the screen door effect is unlikely to occur.
  • the angle formed by the direction Vss and the direction Vsg is ⁇ g.
  • the pixel intervals of the green pixels PixG having high visual sensitivity of the user are L1 and L2.
  • the distance Ph1 shown in FIG. 7 is used as a reference distance for comparison.
  • FIG. 15 shows the relationship between the angle ⁇ g and the ratios of the same color pixel intervals L1 and L2 to the distance Ph1 shown in FIG.
  • the interval L1 and the interval L2 of the same color pixels change according to the angle ⁇ g.
  • the interval L1 and the interval L2 in order to improve the screen door effect, it is necessary to reduce the interval L1 of the same color pixels sandwiching the different color pixels.
  • L1 / Ph1 is 1.1 or less and 0.9 or more
  • the screen door effect becomes smaller than when L1 / Ph1 is 1.2, and it becomes difficult for the user to visually recognize the diagonal line pattern.
  • L1 / Ph1 is 0.8, a diagonal line pattern may be visually recognized by the user.
  • the angle ⁇ g is 10.49 degrees or more and 33.07 degrees or less, L1 / Ph1 becomes 1.1 or less and 0.9 or more, and the screen door effect is reduced.
  • FIG. 16 is an explanatory diagram showing the relationship between the ratio of the pixel spacing of the same color to the reference distance of the pixels in the second direction and the inclination of the scanning line in the sixth embodiment.
  • the pixel arrangement in which the distance Pw2 is 3/4 times the distance Pw1 shown in FIG. 7 and the distance Ph2 is 2/3 times the distance Ph1 shown in FIG. 7 has been described. ..
  • the sixth embodiment is different from the fifth embodiment in that the length of the distance Ph2 shown in the fifth embodiment is different.
  • the pixel arrangement of the sixth embodiment will be described with reference to FIGS. 13, 14 and 16.
  • the same components as those in the first to fifth embodiments are designated by the same reference numerals, and duplicate description will be omitted.
  • the length of the direction Vx of each pixel PixR, PixG, PixB of the pixel array is the distance Pw2, and the length of the direction Vy is the distance Ph2.
  • the distance Pw2 shown in FIG. 14 is 3/4 times the distance Pw1 shown in FIG. 7, and the distance Ph2 shown in FIG. 14 is the same as the distance Ph1 shown in FIG.
  • the spacing L1 / Ph1 and the spacing L2 / Ph1 of the same color pixels change according to the angle ⁇ g.
  • the interval L1 / Ph1 is as large as 1.34, and it is important to narrow L1 / Ph1 so that the diagonal line due to the screen door effect cannot be visually recognized.
  • the display area 111 is substantially rectangular, but the display area 111 of embodiment 7 is circular.
  • the same configurations as those in the first to sixth embodiments are designated by the same reference numerals, and duplicate description will be omitted.
  • FIG. 17 is a schematic view showing an example of the display area according to the seventh embodiment.
  • the first scanning line drive circuit 114A has a straight line portion 114C extending in the direction Vy, a straight line portion 114E extending in the direction Vx, and a straight line portion 114D connecting the straight line portion 114C and the straight line portion 114E.
  • the straight portion 114C and the straight portion 114D are connected by a bent portion 114X1.
  • the straight portion 114D and the straight portion 114E are connected by a bent portion 114X2. Since the display area 111 is circular, the straight line portion 114C, the straight line portion 114D, and the straight line portion 114E are along the display area 111.
  • the peripheral area of the display panel 110 of the seventh embodiment can be made smaller than that of the third embodiment.
  • the second scanning line drive circuit 114B has a straight line portion 114F extending in the direction Vy and a straight line portion 114G extending in a direction inclined with respect to the direction Vy.
  • the straight portion 114F and the straight portion 114G are connected by a bent portion 114X3. Since the display area 111 is circular, the straight line portion 114F and the straight line portion 114G are along the display area 111. As a result, the peripheral area of the display panel 110 of the seventh embodiment can be made smaller than that of the third embodiment.
  • the signal line connection circuit 113 of the seventh embodiment is non-parallel to the direction Vx.
  • the user visually recognizes the display area of the display device 100 enlarged by the lens 410.
  • the peripheral portion of the display panel 110 particularly the corner portion far from the center, is often out of the visual field range of the lens and cannot be seen. Therefore, even if the display area 111 is circular, the user can visually recognize the image without any discomfort.
  • the display area 111 is circular, but the display area 111 of the eighth embodiment is polygonal.
  • the same components as those in the first embodiment are designated by the same reference numerals, and duplicate description will be omitted.
  • FIG. 18 is a schematic view showing an example of the display area according to the eighth embodiment.
  • the display area 111 of the eighth embodiment is a hexagon among the polygons.
  • the non-display area between the straight line portion 114C, the straight line portion 114D, the straight line portion 114E, the straight line portion 114F, and the straight line portion 114G to the display area 111 becomes smaller.
  • the display panel 110 of the eighth embodiment can secure the area of the display area 111 even if the peripheral area is reduced.
  • FIG. 19 is a schematic diagram schematically showing an enlarged part of the display area in the ninth embodiment. As shown in FIG. 19, in the direction Vss, the pixel PixR is sandwiched between the pixel PixB and the pixel PixG, and in the direction Vsl, the pixel PixR is sandwiched between the pixel PixB and the pixel PixG.
  • the pixel PixB is sandwiched between the pixel PixG and the pixel PixR, and in the direction Vsl, the pixel PixB is sandwiched between the pixel PixG and the pixel PixR.
  • the pixels PixR, the pixels PixB, and the pixels PixG are repeatedly arranged in this order.
  • the pixels PixR, the pixels PixB, and the pixels PixG are repeatedly arranged in this order.
  • the green pixels PixG having high visibility of the user are continuously arranged diagonally (third direction Vt) with respect to the direction Vx.
  • the same color pixel intervals L1 and L2 are the same as those in the fifth embodiment, and thus the description thereof will be omitted.
  • FIG. 20 is a schematic diagram schematically showing an enlarged part of the display area in the tenth embodiment. As shown in FIG. 20, in the direction Vss, the pixel PixR is sandwiched between the pixel PixB and the pixel PixG, and in the direction Vsl, the pixel PixR is sandwiched between the pixel PixB and the pixel PixG.
  • the pixel PixG is sandwiched between the pixel PixR and the pixel PixB, and in the direction Vsl, the pixel PixG is sandwiched between the pixel PixR and the pixel PixB.
  • the pixel PixB is sandwiched between the pixel PixG and the pixel PixR, and in the direction Vsl, the pixel PixB is sandwiched between the pixel PixG and the pixel PixR.
  • the pixels PixR, the pixels PixG, and the pixels PixB are repeatedly arranged in this order.
  • the pixels PixR, the pixels PixB, and the pixels PixG are repeatedly arranged in this order.
  • the direction Vsg orthogonal to the direction Vsl is parallel to the direction Vx.
  • the direction Vss is the direction in which the scanning line GL extends.
  • the scanning line GL is tilted with respect to the direction Vx by the angle ⁇ g formed by the direction Vss and the direction Vsg.
  • the green pixels PixG having high visibility of the user are continuously arranged diagonally (third direction Vt) with respect to the direction Vx.
  • the same color pixel intervals L1 and L2 are the same as those in the fifth embodiment, and thus the description thereof will be omitted.
  • FIG. 21 is a schematic diagram schematically showing an enlarged part of the display area in the eleventh embodiment. As shown in FIG. 21, in the direction Vss, the pixel PixR is sandwiched between the pixel PixB and the pixel PixG, and in the direction Vsl, the pixel PixR is sandwiched between the pixel PixB and the pixel PixG.
  • the pixel PixG is sandwiched between the pixel PixR and the pixel PixB, and in the direction Vsl, the pixel PixG is sandwiched between the pixel PixR and the pixel PixB.
  • the pixel PixB is sandwiched between the pixel PixG and the pixel PixR, and in the direction Vsl, the pixel PixB is sandwiched between the pixel PixG and the pixel PixR.
  • the pixels PixR, the pixels PixB, and the pixels PixG are repeatedly arranged in this order.
  • the pixels PixR, the pixels PixG, and the pixels PixB are repeatedly arranged in this order.
  • the green pixels PixG having high visibility of the user are continuously arranged diagonally (third direction Vt) with respect to the direction Vx.
  • the same color pixel intervals L1 and L2 are the same as those in the fifth embodiment, and thus the description thereof will be omitted.
  • FIG. 22 is a block diagram showing an example of the configuration of the display system according to the twelfth embodiment.
  • FIG. 23 is a schematic view showing an example of the backlight according to the twelfth embodiment.
  • FIG. 24 is a flowchart for explaining the processing of the image adjustment circuit according to the twelfth embodiment.
  • the display device 100 includes two display panels 110, a sensor 120, an image separation circuit 150, an image adjustment circuit 170, and an interface 160.
  • backlight ILs are arranged on the back surfaces of the two display panels 110, respectively.
  • a backlight IL is shown in FIG. 22 for ease of explanation.
  • the image adjustment circuit 170 includes an input image conversion unit 171, a lighting amount calculation unit 172, a brightness distribution calculation unit 175, and a gradation value correction unit 174.
  • the backlight IL is a so-called direct light source device.
  • a light source control called local dimming is performed on the backlight IL, and the lighting amount is controlled for each partial light emitting area PLA which is a part of the light emitting area 511.
  • Each of the two backlight ILs has a light emitting region 511 and a light source control circuit 512.
  • the partial light emitting region PLA is arranged in a two-dimensional matrix (matrix).
  • pixel Pix having 200 pixels in the vertical direction and 200 pixels in the horizontal direction overlaps with one partial light emitting region PLA of the twelfth embodiment.
  • FIG. 22 the arrangement of the plurality of partial light emitting region PLAs is schematically shown, and the size of the partial light emitting region PLA with respect to the pixel Pix is different from the actual one for the sake of simplicity.
  • the backlight IL has a light emitting element scanning line LGL for selecting a light emitting element extending in the Vx direction, and a light emitting output signal line LSL extending in the Vy direction orthogonal to the Vx direction.
  • the light emitting element is arranged in the region surrounded by the light emitting output signal line LSL and the light emitting element scanning line LGL.
  • the backlight IL superimposed on the display area 111 of one display panel 110 is for the right eye
  • the backlight IL superimposed on the display area 111 of the other display panel 110 is for the left eye.
  • the backlight IL is not limited to the structure using the two backlight ILs as described above.
  • there is only one backlight IL and the display panel 110 is superposed on the right half area, and the display panel 110 for the left eye is superposed on the left half area, and the light emitting area of one backlight IL is superposed.
  • the 511 may be superimposed on the display areas 111 for the left eye and the right eye.
  • the image separation circuit 150 receives the image data for the left eye and the image data for the right eye sent from the control device 200 via the cable 300, and displays the image data for the left eye on the display panel 110 for displaying the image for the left eye. It is sent to the image adjustment circuit 170, and the image data for the right eye is sent to the image adjustment circuit 170 of the display panel 110 that displays the image for the right eye.
  • the detailed configuration of the image adjustment circuit 170 will be described later.
  • the direction in which the scanning line GL extends is not orthogonal to the direction in which the signal line SL extends, as in the fifth embodiment. Since the display panel 110 of the twelfth embodiment has the same configuration as the display panel of the fifth embodiment, detailed description thereof will be omitted.
  • the light emitting element 516 is an inorganic light emitting diode (LED: Light Emitting Diode) chip having a size of about 3 ⁇ m or more and 300 ⁇ m or less in a plan view, and is a micro LED or a mini LED. It is called (mini LED).
  • the light emitting output signal line LSL extends in the Vy direction and is connected to the cathode of the light emitting element 516.
  • the light emission output signal lines LSL are arranged at intervals in the Vx direction.
  • the light emitting element scanning lines LGL extend in the Vx direction, are arranged at intervals in the Vy direction, and are connected to the anode of the light emitting element 516.
  • a plurality of light emitting elements 516 arranged along the extending direction of the light emitting element scanning line LGL are connected to one light emitting element scanning line LGL. Further, one light emitting output signal line LSL is connected to a plurality of light emitting elements 516 arranged along the extending direction of the light emitting output signal line LSL.
  • the light source control circuit 512 includes a light emitting current control circuit 513, a switch array 514, and a timing control circuit 515.
  • the emission current control circuit 513 is electrically connected to each of the emission output signal lines LSL. Based on the lighting amount data Dla, the light emission current control circuit 513 supplies a current to each light emission output signal line LSL.
  • the switch array 514 includes a plurality of switching elements Lsw (for example, FET (Field Effect Transistor)) for selecting each light emitting element scanning line LGL. When the switching element Lsw is turned on, the light emitting element scanning line LGL connected to the switching element Lsw is selected.
  • Lsw Field Effect Transistor
  • the timing control circuit 515 controls the emission current control circuit 513 and the switch array 514 based on the light source synchronization signal Dsync.
  • the switch array 514 turns on / off the switching element Lsw based on the light emitting element scan signal Dsw.
  • one light emitting element 516 in one partial light emitting region PLA there is one light emitting element 516 in one partial light emitting region PLA.
  • one partial light emitting region PLA may have a plurality of predetermined light emitting elements 516.
  • the direction Vsl is the direction in which the signal line SL (see FIG. 5) extends.
  • the direction Vsg orthogonal to the direction Vsl is parallel to the direction Vx.
  • the direction Vss is the direction in which the scanning line GL (see FIG. 5) extends.
  • the scanning line GL is tilted with respect to the direction Vx by the angle ⁇ g formed by the direction Vss and the direction Vsg.
  • the extending direction of the light emitting element scanning line LGL is parallel to the direction Vx.
  • the scanning line GL is tilted with respect to the light emitting element scanning line LGL by an angle ⁇ g formed by the extending direction of the light emitting element scanning line LGL and the extending direction of the scanning line GL. It is necessary to determine the lighting amount in consideration of this difference in inclination and calculate the brightness of the backlight at the position of each pixel.
  • the input image conversion unit 171 converts the shear-deformed image data into a quadrangular general image data format (step S101).
  • the input image conversion unit 171 is an image conversion unit that converts the shear-deformed image data into general quadrangular image data.
  • the image adjustment circuit 170 executes the image processing of local dimming after the processing of step S101.
  • the image processing of local dimming will be described below with reference to FIG. 24.
  • the lighting amount calculation unit 172 determines the lighting amount of each LED (step S102).
  • the luminance distribution calculation unit 175 selects the pixels of the display panel for gradation correction (step S103). When there are no pixels to be selected in step S103 and all the pixels have been processed and finished (step S104; Yes), the luminance distribution calculation unit 175 ends the image processing of local dimming.
  • the luminance distribution calculation unit 175 proceeds to the process of step S105.
  • the luminance distribution calculation unit 175 calculates the physical position of the pixel of the display panel in consideration of the angle ⁇ g with respect to the pixel selected in step S103 (step S105).
  • the brightness distribution calculation unit 175 calculates the brightness of the backlight at the physical pixel position of the pixel calculated in step S105 (step S106).
  • the gradation value correction unit 174 corrects the gradation of the pixels according to the brightness of the backlight calculated in step S106 (step S107).
  • the image adjustment circuit 170 performs the process of step S103 in order to process other pixels. In this way, each pixel reflects a gradation value that has been subjected to necessary corrections in consideration of the angle ⁇ g.
  • the display device of the twelfth embodiment includes a display panel 110 having a display area 111, a backlight IL superposed on the display area 111, and an image adjustment circuit 170.
  • the display panel 110 includes an array substrate SUB1, a plurality of pixel Pix provided in the display area 111 of the array substrate SUB1, a plurality of scanning lines GL extending in the direction Vss, and a plurality of signal lines extending in the direction Vsl.
  • the direction Vss is non-parallel and non-orthogonal to the direction orthogonal to the direction Vsl.
  • the backlight IL has a plurality of light emitting elements 516 at positions overlapping the display area 111 in a plan view, extends in the direction Vsl (direction Vy), and is connected to the light emitting element 516.
  • a line LSL and a light emitting element scanning line LGL extending in a direction Vx orthogonal to the direction Vsl (direction Vy) and connected to the light emitting element 516 are provided.
  • the image adjustment circuit 170 reduces the influence of the angle ⁇ g formed by the extending direction of the light emitting element scanning line LGL and the extending direction of the scanning line GL, makes the lighting amount of the partial light emitting region PLA on the pixel Pix appropriate, and makes the backlight. Effective local dimming control of IL is performed.
  • FIG. 25 is a block diagram showing an example of the configuration of the display system according to the thirteenth embodiment.
  • the backlight IL of the thirteenth embodiment (FIG. 25) has a light emitting element scanning line LGL that selects a light emitting element extending in the Vss direction.
  • the display system according to the thirteenth embodiment shown in FIG. 25 is different from FIG. 22 in that it does not have the input image conversion unit 171.
  • the same components as those in the above-described embodiment are designated by the same reference numerals, and duplicate description will be omitted.
  • the backlight IL has a light emitting element scanning line LGL for selecting a light emitting element extending in the Vss direction and a light emitting output signal line LSL extending in the Vy direction orthogonal to the Vx direction.
  • the light emitting element scanning line LGL extends in the Vss direction.
  • the light emitting element 516 is arranged in the region surrounded by the light emitting output signal line LSL and the light emitting element scanning line LGL. As a result, one partial light emitting region PLA becomes a parallelogram.
  • the extending direction of the light emitting element scanning line LGL is parallel to the extending direction of the scanning line GL. Therefore, the scanning line GL is not tilted with respect to the light emitting element scanning line LGL. As a result, the lighting amount emitted by the light emitting element 516 matches the brightness of the pixel Pix in the display area 111 that actually overlaps.
  • the light emitting element 516 in the partial light emitting area PLB of the light emitting area 511 which does not overlap with the display area 111 in a plan view, may be removed to provide a dummy area that does not emit light.
  • the load currents of each light emitting output signal line LSL and each light emitting element scanning line LGL become uniform, and the variation in the characteristics of the light emitting element 516 depending on the location becomes small.
  • the display device of the thirteenth embodiment includes a display panel 110 having a display area 111 and a backlight IL superposed on the display area 111.
  • the display panel 110 includes an array substrate SUB1, a plurality of pixel Pix provided in the display area 111 of the array substrate SUB1, a plurality of scanning lines GL extending in the direction Vss, and a plurality of signal lines extending in the direction Vsl.
  • the direction Vss is non-parallel and non-orthogonal to the direction orthogonal to the direction Vsl.
  • the backlight IL has a plurality of light emitting elements 516 at positions overlapping the display area 111 in a plan view, extends in the direction Vsl (direction Vy), and is connected to the light emitting element 516. It includes a line LSL and a light emitting element scanning line LGL extending in the direction Vss and connected to the light emitting element 516.
  • the extending direction of the light emitting element scanning line LGL and the extending direction of the scanning line GL become parallel, and the influence of the above-mentioned angle ⁇ g is reduced.
  • the lighting amount of the partial light emitting region PLA with respect to the pixel Pix becomes appropriate, and effective local dimming control is performed on the backlight IL.
  • the position of the pixel on the display panel can be easily calculated by having an inclination of ⁇ g even in the backlight IL. Therefore, in the thirteenth embodiment, the input image conversion unit 171 as in the twelfth embodiment becomes unnecessary.
  • the display system of the thirteenth embodiment shown in FIG. 25 has a different configuration of the image adjustment circuit 170 as compared with the display system of the twelve embodiment shown in FIG. 22, and the other parts other than the configuration of the image adjustment circuit 170 have the same configuration. It has become.
  • the optical profile data used in the calculation is different from the optical profile in general Cartesian coordinates.
  • the optical profile is data showing how the brightness of the light emitting unit of the backlight spreads in the display surface as the brightness of the backlight, and is necessary for calculating the distribution of the brightness of the backlight. ..
  • the arrangement of the light sources is slanted, it is necessary to correct the optical profile when the system of FIG. 25 is configured based on Cartesian coordinates.
  • FIG. 26A is a schematic view showing the optical profile data of the backlight before conversion in calculating the lighting amount of the backlight according to the thirteenth embodiment.
  • FIG. 26B is a schematic view showing the optical profile data of the backlight after conversion in calculating the lighting amount of the backlight according to the thirteenth embodiment.
  • the scanning line GL extends in the direction Vss and has an angle ⁇ g formed by the direction Vx and the direction Vss. Therefore, the pixel Pix is treated as a parallelogram.
  • the optical profile freal (Vx, Vy) is the optical profile fsystem (in orthogonal coordinates where the direction Xs and the direction Ys are perpendicular to each other). It is converted to Xs, Ys) (see FIG. 26B).
  • the coordinates of the image data are converted into Cartesian coordinates in which the direction Xs and the direction Ys are at right angles by the following equations (1) and (2), with the pixel Pix as an orthogonal grid.
  • the slope k is obtained by the equation (3).
  • the lighting amount calculation unit 172 is shear-deformed by calculating the lighting amount with the optical profile fsystem (Xs, Ys). The correct brightness can be calculated even if the calculation is performed assuming that the image data is arranged on the orthogonal coordinates.
  • the lighting amount calculation unit 172 sends the calculated lighting amount data Dla and the light source synchronization signal Dsync to the light source control circuit 512.
  • the brightness distribution calculation unit 175 calculates the brightness distribution for each pixel Pix that overlaps the lighting amount of one partial light emitting region PLA calculated by the optical profile fsystem (Xs, Ys).
  • the gradation value correction unit 174 corrects the gradation value of each pixel Pix of the image data based on the brightness distribution calculated by the brightness distribution calculation unit 175, and displays the corrected image data Di including the corrected gradation value. It is sent to the control circuit 112.
  • the image adjustment circuit 170 sets the coordinates of the image having the direction Vsl (direction Vy) as the first axis and the direction Vss as the second axis, the direction Vsl (direction Vy) as the first axis, and the direction Vsl (direction Vsl).
  • the lighting amount of each light emitting element 516 is calculated by converting the direction Vx orthogonal to the direction Vy) into the coordinates of the image having the second axis as the second axis.
  • the influence of the angle ⁇ g formed by the extending direction of the light emitting element scanning line LGL and the extending direction of the scanning line GL is reduced.
  • the lighting amount of the partial light emitting region PLA with respect to the pixel Pix becomes appropriate, and effective local dimming control is performed on the backlight IL.
  • Display system 100 Display device 110 Display panel 111 Display area 112 Display control circuit 113 Signal line connection circuit 114X, 114X1, 114X2, 114X3 Bent portion 114 Scan line drive circuit 114A First scan line drive circuit 114B Second scan line drive Circuit 115 driver IC 115b Terminal 170 Image adjustment circuit 171 Input image conversion unit 172 Lighting amount calculation unit 174 Gradation value correction unit 175 Brightness distribution calculation unit 200 Control device 230 Control unit 300 Cable 400 Mounting member 410 Lens 511 Light source region 512 Light source control circuit 513 Light source control circuit 513 Control circuit 514 Switch array 515 Timing control circuit 516 Light source GL Scan line L1 Same color pixel interval L2 Same color pixel pitch LGL Light source scanning line LSL Light emission output signal line Mg, MI, MIg Compensated image Mn Image Pgl Reference position Ph1 Distance Ph2 Distance Pix , PixR, PixG, PixB Pixel Psl Reference position Pt Crossing position Pw1 Distance Pw2 Distance SL Signal line S

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nonlinear Science (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Power Engineering (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

レンズを通して視認しても、画像の解像感が向上し、画像の視認性の低下を抑制する表示装置及び表示システムを提供する。表示装置は、レンズを介して、視認される表示領域を有する。表示装置は、基板と、複数の画素と、第1の方向に延在する複数の走査線と、第2の方向に延在する複数の信号線とが基板に設けられる表示領域を有し、第1の方向は、第2の方向と直交する方向と非平行かつ非直交である。

Description

表示装置及び表示システム
 本開示は、表示装置及び表示システムに関する。
 VR(Virtual Reality:仮想現実)システムは、3次元のオブジェクトを立体表示し、視点移動に伴って立体画像の表示を変更することにより、利用者に仮想現実感を生じさせる。例えば、特許文献1には、2枚のレンズを通して表示装置上で画像を視認できる表示システムが開示されている。
 一方、特許文献2から特許文献4の表示装置の画素が知られている。
特表2017-511041号公報 特開平8-313923号公報 特開平10-170924号公報 特開平10-078590号公報
 しかしながら、レンズを通して表示装置の画素を視認するので、視認性が低下することがある。
 本開示の目的は、レンズを通して視認しても、画像の解像感が向上し、画像の視認性の低下を抑制する表示装置及び表示システムを提供することにある。
 一態様の表示装置は、レンズを介して、視認される表示領域を有し、基板と、複数の画素と、第1の方向に延在する複数の走査線と、第2の方向に延在する複数の信号線とが前記基板に設けられる前記表示領域を有し、前記第1の方向は、前記第2の方向と直交する方向と非平行かつ非直交である。
 一態様の表示装置は、基板と、複数の画素と、第1の方向に延在する複数の走査線と、第2の方向に延在する複数の信号線とが前記基板に設けられる表示領域を有し、前記第1の方向は、前記第2の方向と直交する方向と非平行かつ非直交であり、複数の前記画素は、第1色を表示するための第1画素と、前記第1色とは異なる第2色を表示するための第2画素と、前記第1色及び前記第2色とは異なる第3色を表示するための第3画素と、を含み、前記第1の方向において、前記第1画素が、前記第2画素と前記第3画素とに挟まれており、前記第2の方向において、当該第1画素が、前記第2画素と前記第3画素とに挟まれており、前記第1の方向において、前記第2画素が、前記第1画素と前記第3画素とに挟まれており、前記第2の方向において、当該第2画素が、前記第1画素と前記第3画素とに挟まれており、前記第1の方向において、前記第3画素が、前記第2画素と前記第1画素とに挟まれており、前記第2の方向において、当該第3画素が、前記第2画素と前記第1画素とに挟まれており、複数の前記第1画素が、前記第1の方向及び前記第2の方向の両方に交差する第3の方向に並び、複数の前記第2画素が前記第3の方向に並び、複数の前記第3画素が前記第3の方向に並ぶ。
 一態様の表示システムは、レンズと、前記レンズを介して、視認される表示領域を有する表示装置と、前記表示装置に画像を出力する制御装置と、を備え、基板と、複数の画素と、第1の方向に延在する複数の走査線と、第2の方向に延在する複数の信号線とが前記基板に設けられる前記表示領域を有し、前記第1の方向は、前記第2の方向と直交する方向と非平行かつ非直交である。
 一態様の光源装置は、平面視で表示装置の表示領域に重ね合わせる光源装置であって、平面視で前記表示領域に重なる位置に複数の発光素子を有し、第1の方向に延在し、前記発光素子に接続される発光素子走査線と、第2の方向に延在し、前記発光素子に接続される発光出力信号線と、前記第1の方向は、前記第2の方向と直交する方向と非平行かつ非直交である。
 一態様の表示装置は、表示領域を有する表示パネルと、前記表示領域に重ね合わせる光源装置と、画像調整回路とを有し、前記表示パネルは、基板と、前記基板の前記表示領域に設けられる、複数の画素と、第1の方向に延在する複数の走査線と、第2の方向に延在する複数の信号線とを有し、前記第1の方向は、前記第2の方向と直交する方向と非平行かつ非直交であり、前記光源装置は、平面視で前記表示領域に重なる位置に複数の発光素子を有し、前記第2の方向に延在し、前記発光素子に接続される発光出力信号線と、前記第2の方向に直交する方向に延在し、前記発光素子に接続される発光素子走査線と、を備え、前記画像調整回路は、前記第2の方向を第1軸、前記第1の方向を第2軸とする画像の第1座標を前記第2の方向を第1軸、前記第2の方向に直交する方向を第2軸とする画像の第2座標に変換して、各前記発光素子の点灯量を計算する。
図1は、実施形態1に係る表示システムの一例を示す構成図である。 図2は、表示装置とユーザの目との相対関係の一例を示す模式図である。 図3は、実施形態1に係る表示システムの構成の一例を示すブロック図である。 図4は、実施形態1に係る表示領域の画素配列を表す回路図である。 図5は、実施形態1に係る表示パネルの一例を示す模式図である。 図6は、実施形態1において、表示領域の一部を拡大して模式的に示す模式図である。 図7は、図6における、信号線と走査線との関係を示す模式図である。 図8は、図7のVIII-VIII’の断面を模式的に示す断面図である。 図9Aは、実施形態1に係る表示システムに入力される画像の一例を示す図である。 図9Bは、実施形態1に係る表示システムが表示する画像の歪みを補償する補償処理の一例を示す図である。 図10は、実施形態2に係る表示領域として、表示領域の一部を拡大して模式的に示す模式図である。 図11は、実施形態3に係る表示領域の一例を示す模式図である。 図12は、実施形態4に係る表示領域の一例を示す模式図である。 図13は、実施形態5において、表示領域の一部を拡大して模式的に示す模式図である。 図14は、図13における、信号線と走査線との関係を示す模式図である。 図15は、実施形態5において、同色画素間隔と第2の方向の画素の基準となる距離との比と、走査線の傾きとの関係を示す説明図である。 図16は、実施形態6において、同色画素間隔と第2の方向の画素の基準となる距離との比と、走査線の傾きとの関係を示す説明図である。 図17は、実施形態7に係る表示領域の一例を示す模式図である。 図18は、実施形態8に係る表示領域の一例を示す模式図である。 図19は、実施形態9において、表示領域の一部を拡大して模式的に示す模式図である。 図20は、実施形態10において、表示領域の一部を拡大して模式的に示す模式図である。 図21は、実施形態11において、表示領域の一部を拡大して模式的に示す模式図である。 図22は、実施形態12に係る表示システムの構成の一例を示すブロック図である。 図23は、実施形態12に係るバックライトの一例を示す模式図である。 図24は、実施形態12に係る画像調整回路の処理を説明するためのフローチャートである。 図25は、実施形態13に係る表示システムの構成の一例を示すブロック図である。 図26Aは、実施形態13に係るバックライトの点灯量を計算するにあたり、変換前のバックライトの光学プロファイルデータを示す模式図である。 図26Bは、実施形態13に係るバックライトの点灯量を計算するにあたり、変換後のバックライトの光学プロファイルデータを示す模式図である。 図27は、実施形態13に係るバックライトの一例を示す模式図である。
 発明を実施するための形態(実施形態)につき、図面を参照しつつ詳細に説明する。以下の実施形態に記載した内容により本開示が限定されるものではない。また、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能である。なお、開示はあくまで一例にすぎず、当業者において、発明の主旨を保っての適宜変更について容易に想到し得るものについては、当然に本開示の範囲に含有されるものである。また、図面は説明をより明確にするため、実際の態様に比べ、各部の幅、厚さ、形状等について模式的に表される場合があるが、あくまで一例であって、本開示の解釈を限定するものではない。また、本明細書と各図において、既出の図に関して前述したものと同様の要素には、同一の符号を付して、詳細な説明を適宜省略することがある。
(実施形態1)
 図1は、実施形態1に係る表示システムの一例を示す構成図である。図2は、表示装置とユーザの目との相対関係の一例を示す模式図である。
 本実施形態において、表示システム1は、ユーザの動きに伴って表示を変更する表示システムである。例えば、表示システム1は、仮想空間上の3次元のオブジェクト等を示すVR(Virtual Reality)画像を立体表示し、ユーザの頭部の向き(位置)に伴って立体表示を変更することにより、ユーザに仮想現実感を生じさせるVRシステムである。
 表示システム1は、例えば、表示装置100と、制御装置200と、を有する。表示装置100と制御装置200とは、ケーブル300を介して情報(信号)の入出力が可能な構成になっている。ケーブル300は、例えば、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)等のケーブルを含む。表示装置100と制御装置200とは、無線通信によって情報の入出力が可能な構成としてもよい。
 また、表示装置100は、制御装置200からケーブル300を介して電力が供給されている。例えば、表示装置100は、制御装置200の電源部からケーブル300を介して電力が供給される受電部を有し、表示装置100の表示パネル110、センサ120等の各構成が制御装置200から供給される電力を用いて駆動するようにしてもよい。このようにすることで、表示装置100からバッテリー等を除くことができ、より安価で軽量な表示装置100を提供できる。なお、装着部材400又は表示装置100に、バッテリーが備えられており、表示装置に供給されるようにしてもよい。
 表示装置100は、表示パネルを有する。表示パネルは、例えば、液晶ディスプレイ(Liquid Crystal Display)であるが、有機EL(Organic Electro-Luminescence)パネル、μ-OLED、μ―LEDパネル、mini-LEDパネル等であってもよい。
 表示装置100は、装着部材400に固定される。装着部材400は、例えば、ヘッドセット、ゴーグル、ユーザの両目を覆うヘルメット及びマスク等を含む。装着部材400は、ユーザの頭部に装着される。装着部材400は、装着時に、ユーザの両目を覆うように、ユーザの正面に配置される。装着部材400は、内部に固定した表示装置100をユーザの両目の前に位置付けることにより、没入型の装着部材として機能する。装着部材400は、制御装置200から出力される音信号等を出力する出力部を有してもよい。また、装着部材400は、制御装置200の機能を内蔵する構造であってもよい。
 図1に示す一例では、表示装置100は、装着部材400にスロットインされる場合を示しているが、装着部材400に固定されてもよい。言い換えると、表示システムは、装着部材400と表示装置100を含む装着型表示装置と制御装置200とで構成されてもよい。
 図2に示すように、装着部材400は、例えば、ユーザに両目に対応したレンズ410を有する。レンズ410は、ユーザの目に画像を結像させるための拡大レンズである。装着部材400は、ユーザの頭部に装着されると、レンズ410をユーザの目Eの前方に位置付ける。ユーザは、レンズ410によって拡大された表示装置100の表示領域を視認する。そのため、表示装置100は、画像(画面)を鮮明に表示するため、解像度を高める必要がある。なお、本開示において、レンズが1つを例示して説明したが、例えば、複数のレンズを有し、表示装置100を眼前とは異なる位置に配置してもよい。
 制御装置200は、例えば、画像を表示装置100に表示させる。制御装置200は、例えば、パーソナルコンピュータ、ゲーム機器等の電子機器を用いることができる。仮想画像は、例えば、コンピュータグラフィック映像、360度の実写映像等の画像を含む。制御装置200は、ユーザの両目の視差を利用した3次元の画像を表示装置100に出力する。制御装置200は、ユーザの頭部の向きに追従する右目用及び左目用の画像を表示装置100に出力する。
 図3は、実施形態1に係る表示システムの構成の一例を示すブロック図である。図3に示すように、表示装置100は、2つの表示パネル110と、センサ120と、画像分離回路150と、インタフェース160と、を備える。
 表示装置100は、2つの表示パネル110から構成され、1つを左目用の表示パネル110とし、他方を右目用の表示パネル110として用いる。
 2つの表示パネル110のそれぞれは、表示領域111と、表示制御回路112と、を有する。なお、表示パネル110は、表示領域111を背後から照射する図示しない光源装置(後述するバックライトIL)を有する。
 表示領域111は、画素Pixが、P×Q個(行方向にP個、列方向にQ個)、2次元のマトリクス状(行列状)に配列されている。本実施形態では、P=2880、Q=1700とする。図3では、複数の画素Pixの配列を模式的に表しており、詳細な画素Pixの配列は、後述する。
 表示パネル110は、Vx方向に延在する走査線と、Vx方向と交差するVy方向に延在する信号線を有する。例えば、表示パネル110は、2880本の信号線SLと、1700本の走査線GLとを有する。表示パネル110において、信号線SLと走査線GLとに囲まれた領域には、画素Pixが配置される。画素Pixは、信号線SL及び走査線GLと接続されるスイッチング素子(TFT:薄膜トランジスタ)、及び、スイッチング素子に接続された画素電極を有する。1つの走査線GLは、走査線GLの延在方向に沿って配置される複数の画素Pixが接続される。また、1つの信号線SLは、信号線SLの延在方向に沿って配置される複数の画素Pixが接続される。
 2つの表示パネル110のうち、一方の表示パネル110の表示領域111が右目用であり、他方の表示パネル110の表示領域111が左目用である。実施形態1では、表示パネル110は、左目用と右目用の2つの表示パネル110を有する場合について説明する。ただし、表示装置100は、上述のように2つの表示パネル110を用いる構造に限定されない。例えば、表示パネル110は、1つであって、右半分の領域には右目用の画像を表示し、左半分の領域には左目用の画像を表示するように、1つの表示パネル110の表示領域を2分割するようにしてもよい。
 表示制御回路112は、ドライバIC(Integrated Circuit:集積回路)115、信号線接続回路113及び走査線駆動回路114を備えている。信号線接続回路113は、信号線SLと電気的に接続されている。ドライバIC115は、走査線駆動回路114によって、画素Pixの動作(光透過率)を制御するためのスイッチング素子(例えば、TFT)のON/OFFを制御する。走査線駆動回路114は、走査線GLと電気的に接続されている。
 センサ120は、ユーザの頭部の向きを推定可能な情報を検出する。例えば、センサ120は、表示装置100や装着部材400の動きを示す情報を検出し、表示システム1は、表示装置100や装着部材400の動きを示す情報に基づいて、表示装置100を頭部に装着したユーザの頭部の向きを推定する。
 センサ120は、例えば、表示装置100や装着部材400の角度、加速度、角速度、方位、距離の少なくとも1つを用いて、視線の向きを推定可能な情報を検出する。センサ120は、例えば、ジャイロセンサ、加速度センサ、方位センサ等を用いることができる。センサ120は、例えば、ジャイロセンサによって表示装置100や装着部材400の角度及び角速度を検出してもよい。センサ120は、例えば、加速度センサによって表示装置100や装着部材400に働く加速度の方向及び大きさを検出してもよい。センサ120は、例えば、方位センサによって表示装置100の方位を検出してもよい。センサ120は、例えば、距離センサ、GPS(Global Positioning System)受信機等によって表示装置100や装着部材400の移動を検出してもよい。センサ120は、ユーザの頭部の向き、視線の変化、移動等を検出するためのセンサであれば、光センサ等の他のセンサでもよく、複数のセンサを組み合わせて用いてもよい。センサ120は、後述するインタフェース160を介して、画像分離回路150と電気的に接続されている。
 画像分離回路150は、ケーブル300を介して制御装置200から送られてきた左目用の画像データと右目用の画像データを受けとり、左目用の画像データを左目用の画像を表示する表示パネル110に送り、右目用の画像データを右目用の画像を表示する表示パネル110に送る。
 インタフェース160には、ケーブル300(図1)が接続されるコネクタを含む。インタフェース160は、接続されたケーブル300を介して、制御装置200からの信号が入力される。画像分離回路150は、インタフェース160及びインタフェース240を介して、センサ120から入力された信号を制御装置200へ出力する。ここで、センサ120から入力された信号には、上述した視線の向きを推定可能な情報が含まれる。あるいは、センサ120から入力された信号は、インタフェース160を介して直接、制御装置200の制御部230へ出力されてもよい。インタフェース160は、例えば、無線通信装置とし、無線通信を介して制御装置200との間で情報の送受信を行ってもよい。
 制御装置200は、操作部210と、記憶部220と、制御部230と、インタフェース240と、を備える。
 操作部210は、ユーザの操作を受け付ける。操作部210は、例えば、キーボード、ボタン、タッチスクリーン等の入力デバイスを用いることができる。操作部210は、制御部230と電気的に接続されている。操作部210は、操作に応じた情報を制御部230に出力する。
 記憶部220は、プログラム及びデータを記憶する。記憶部220は、制御部230の処理結果を一時的に記憶する。記憶部220は、記憶媒体を含む。記憶媒体は、例えば、ROM、RAM、メモリカード、光ディスク、又は光磁気ディスク等を含む。記憶部220は、表示装置100に表示させる画像のデータを記憶してもよい。
 記憶部220は、例えば、制御プログラム211、VRアプリケーション212等を記憶する。制御プログラム211は、例えば、制御装置200を稼働させるための各種制御に関する機能を提供できる。VRアプリケーション212は、仮想現実の画像を表示装置100に表示させる機能を提供できる。記憶部220は、例えば、センサ120の検出結果を示すデータ等の表示装置100から入力された各種情報を記憶できる。
 制御部230は、例えば、MCU(Micro Control Unit)、CPU(Central Processing Unit)等を含む。制御部230は、制御装置200の動作を統括的に制御できる。制御部230の各種機能は、制御部230の制御に基づいて実現される。
 制御部230は、例えば、表示する画像を生成するGPU(Graphics Processing Unit)を含む。GPUは、表示装置100に表示する画像を生成する。制御部230は、GPUが生成した画像を、インタフェース240を介して表示装置100に出力する。本実施形態では、制御装置200の制御部230は、GPUを含む場合について説明するが、これに限定されない。例えば、GPUは、表示装置100又は表示装置100の画像分離回路150に設けてもよい。この場合、表示装置100は、例えば、制御装置200、外部の電子機器等からデータを取得し、当該データに基づいてGPUが画像を生成すればよい。
 インタフェース240には、ケーブル300(図1参照)が接続されるコネクタを含む。インタフェース240は、ケーブル300を介して、表示装置100からの信号が入力される。インタフェース240は、制御部230から入力された信号を、ケーブル300を介して表示装置100へ出力する。インタフェース240は、例えば、無線通信装置とし、無線通信を介して表示装置100との間で情報の送受信を行ってもよい。
 制御部230は、VRアプリケーション212を実行すると、ユーザ(表示装置100)の動きに応じた画像を表示装置100に表示させる。制御部230は、画像を表示装置100に表示させた状態で、ユーザ(表示装置100)の変化を検出すると、当該変化した方向の画像へ表示装置100に表示している画像を変化させる。制御部230は、画像の作成開始時に、仮想空間上の基準視点及び基準視線に基づく画像を作成し、ユーザ(表示装置100)の変化を検出した場合、表示させている画像を作成する際の視点又は視線を、基準視点又は基準視線方向からユーザ(表示装置100)の動きに応じて変更し、変更した視点又は視線に基づく画像を表示装置100に表示させる。
 例えば、制御部230は、センサ120の検出結果に基づいて、ユーザの頭部の右方向への移動を検出する。この場合、制御部230は、現在表示させている画像から右方向へ視線を変化させた場合の画像へ変化させる。ユーザは、表示装置100に表示されている画像の右方向の画像を視認することができる。
 例えば、制御部230は、センサ120の検出結果に基づいて、表示装置100の移動を検出すると、検出した移動に応じて画像を変化させる。制御部230は、表示装置100が前方へ移動したことを検出した場合、現在表示させている画像の前方へ移動した場合の画像へ変化させる。制御部230は、表示装置100が後方方向へ移動したことを検出した場合、現在表示させている画像の後方へ移動した場合の画像へ変化させる。ユーザは、表示装置100に表示されている画像から、自身の移動方向の画像を視認することができる。
 図4は、実施形態1に係る表示領域の画素配列を表す回路図である。以下、上述した走査線GLは、複数の走査線G1、G2、G3を総称している。上述した信号線SLは、複数の信号線S1、S2、S3を総称している。本開示では、走査線GLと、信号線SLとは直角に交わっていないが、図3では説明の便宜上、走査線GLと、信号線SLとは直角になっている。
 表示領域111には、図4に示す各画素PixR、PixG、PixBのスイッチング素子TrD1、TrD2、TrD3、信号線SL、走査線GL等が形成されている。信号線S1、S2、S3は、各画素電極PE1、PE2、PE3(図8参照)に画素信号を供給するための配線である。走査線G1、G2、G3は、各スイッチング素子TrD1、TrD2、TrD3を駆動するゲート信号を供給するための配線である。
 図4に示す表示領域111の画素Pixには、配列された複数の画素PixR、PixG、PixBが含まれる。以下、複数の画素PixR、PixG、PixBを総称して、画素Pixとすることがある。画素PixR、PixG、PixBは、それぞれスイッチング素子TrD1、TrD2、TrD3及び液晶層LCの容量を備えている。スイッチング素子TrD1、TrD2、TrD3は、薄膜トランジスタにより構成されるものであり、この例では、nチャネルのMOS(Metal Oxide Semiconductor)型のTFTで構成されている。後述する画素電極PE1、PE2、PE3と共通電極COMとの間に第6絶縁膜16(図8参照)が設けられ、これらによって図4に示す保持容量Csが形成される。
 図4に示すカラーフィルタCFR、CFG、CFBは、例えば赤(第1色:R)、緑(第2色:G)、青(第3色:B)の3色に着色された色領域が周期的に配列されている。上述した図4に示す各画素PixR、PixG、PixBに、R、G、Bの3色の色領域が1組として対応付けられる。そして、3色の色領域に対応する画素PixR、PixG、PixBを1組とされる。なお、カラーフィルタは、4色以上の色領域を含んでいてもよい。画素PixR、PixG、PixBがそれぞれ、副画素と呼ばれることもある。
 図5は、実施形態1に係る表示パネルの一例を示す模式図である。図6は、実施形態1において、表示領域の一部を拡大して模式的に示す模式図である。図7は、図6における、信号線と走査線との関係を示す模式図である。図8は、図7のVIII-VIII’の断面を模式的に示す断面図である。
 図5に示すように、表示パネル110には、基板端部の辺110e1、辺110e2、辺110e3、辺110e4がある。表示パネルの基板端部の辺110e1、辺110e2、辺110e3、辺110e4と、表示領域111との間は、周辺領域と呼ばれる。
 走査線駆動回路114は、表示パネル110の基板端部の辺110e1と表示領域111との間の周辺領域に配置されている。信号線接続回路113は、表示パネル110の基板端部の辺110e4と表示領域111との間の周辺領域に配置されている。ドライバIC115は、表示パネル110の基板端部の辺110e4と表示領域111との間の周辺領域に配置されている。
 ドライバIC115は、表示パネル110の後述するアレイ基板SUB1(図8参照)に電気的に接続するために、端子115bに、導電性部材を介して接合される。端子115bは、一般的に一方向に配列されており、端子115bが並ぶ方向Vpを方向Vxとする。方向Vyは、方向Vxに直交する方向である。本実施形態では、表示パネル110の基板端部の辺110e3、辺110e4は、方向Vxと平行である。表示パネル110の基板端部の辺110e1、辺110e2は、方向Vyと平行である。
 図5に示すように、信号線SLが延在する方向は、方向Vyと平行である。走査線GLが延在する方向は、方向Vx及び方向Vyのいずれにも平行ではない。走査線GLが延在する方向は、信号線SLが延在する方向と非直交であるので、例えば、各画素PixR、PixG、PixBは、平行四辺形である。
 各画素PixR、PixG、PixBは、平行四辺形を例示したが、平行四辺形に限られない。例えば、図6に示すように、各画素PixR、PixG、PixBは、方向Vyにそれぞれずらして並んでいる。各画素PixR、PixG、PixBの方向Vxの長さは、距離Pw1であり、各画素PixR、PixG、PixBの方向Vyの長さは、距離Ph1とすると、Pw1:Ph1=1:3の関係にある。なお、各画素PixR、PixG、PixBは、副画素PixSと呼ぶこともある。
 図6において、方向Vslは、信号線SL(図5参照)が延在する方向である。方向Vslと直交する方向Vsgは、方向Vxと平行である。方向Vssは、走査線GL(図5参照)が延びる方向である。方向Vssと方向Vsgとがなす角度θgだけ、走査線GLが、方向Vxに対して傾いている。方向Vsl及び方向Vssについては、図7を参照して詳細に説明する。
 図7に示すように、方向Vssは、1つの走査線GLに接続された複数の画素PixRにおける第1基準位置Pglを結んだ仮想線が延びる方向である。例えば、第1基準位置Pglは、走査線GL上であって、この走査線GLと平面視で交差するとともに、隣り合う信号線SLの中点である。第1基準位置Pglは、これに限られず、例えば画素PixRの面積重心としてもよい。なお、画素PixRを基準として、第1基準位置Pglを定義したが、画素PixRの代わりに、画素PixGあるいは、画素PixBとしてもよい。
 図7に示すように、方向Vslは、1つの信号線SLに接続された複数の画素PixRにおける第2基準位置Pslを結んだ仮想線が延びる方向である。例えば、第2基準位置Pslは、信号線SL上であって、この信号線SLと平面視で交差する走査線GLとの交差位置Ptの中点である。第2基準位置Pslは、これに限られず、例えば画素PixRの面積重心としてもよい。なお、画素PixRを基準として、第2基準位置Pslを定義したが、画素PixRの代わりに、画素PixGあるいは、画素PixBとしてもよい。
 図7に示すように、画素PixRと、隣接する画素PixGとは、方向Vslに距離Δh1ずれて配置される。1つの走査線GLに接続された2つの画素PixRでは、距離Δh1の3倍ずれる。図6に示す距離Ph1の半分が、図7に示す距離Δh1の3倍に等しい場合、方向Vxに隣り合う同色の画素、例えば、画素PixR同士が方向Vslに半分ずれる。従って、同色の画素の位置は、偶数列と奇数列で2種類の位置を取る。その結果、横の白黒線をより細かく表示することができ、表示装置100の実質的な解像が向上する。なお、図7に示す走査線GLは、方向Vssに沿って直線状に延びると、図5に示すように、各画素PixR、PixG、PixBが、平行四辺形になる。
 次に、表示パネル110の断面構造について、図8を参照して説明する。図8において、アレイ基板SUB1は、ガラス基板や樹脂基板などの透光性を有する第1絶縁基板10を基体としている。アレイ基板SUB1は、第1絶縁基板10の対向基板SUB2と対向する側に、第1絶縁膜11、第2絶縁膜12、第3絶縁膜13、第4絶縁膜14、第5絶縁膜15、第6絶縁膜16、信号線S1からS3、画素電極PE1からPE3、共通電極COM、第1配向膜AL1などを備えている。以下の説明において、アレイ基板SUB1から対向基板SUB2に向かう方向を上方、あるいは、単に上と称する。
 第1絶縁膜11は、第1絶縁基板10の上に位置している。第2絶縁膜12は、第1絶縁膜11の上に位置している。第3絶縁膜13は、第2絶縁膜12の上に位置している。信号線S1からS3は、第3絶縁膜13の上に位置している。第4絶縁膜14は、第3絶縁膜13の上に位置し、信号線S1からS3を覆っている。
 必要があれば、第4絶縁膜14の上には、配線を配置してもよい。この配線は、第5絶縁膜15によって覆われることになる。本実施形態では、配線を省略している。第1絶縁膜11、第2絶縁膜12、第3絶縁膜13、及び、第6絶縁膜16は、例えば、シリコン酸化物やシリコン窒化物などの透光性を有する無機系材料によって形成されている。第4絶縁膜14及び第5絶縁膜15は、透光性を有する樹脂材料によって形成され、無機系材料によって形成された他の絶縁膜と比べて厚い膜厚を有している。ただし、第5絶縁膜15については無機系材料によって形成されたものであってもよい。
 共通電極COMは、第5絶縁膜15の上に位置している。共通電極COMは、第6絶縁膜16によって覆われている。第6絶縁膜16は、例えば、シリコン酸化物やシリコン窒化物などの透光性を有する無機系材料によって形成されている。
 画素電極PE1からPE3は、第6絶縁膜16の上に位置し、第6絶縁膜16を介して共通電極COMと対向している。画素電極PE1からPE3、及び、共通電極COMは、例えば、ITO(Indium Tin Oxide)やIZO(Indium Zinc Oxide)などの透光性を有する導電材料によって形成されている。画素電極PE1からPE3は、第1配向膜AL1によって覆われている。第1配向膜AL1は、第6絶縁膜16も覆っている。
 対向基板SUB2は、ガラス基板や樹脂基板などの透光性を有する第2絶縁基板20を基体としている。対向基板SUB2は、第2絶縁基板20のアレイ基板SUB1と対向する側に、遮光層BM、カラーフィルタCFR、CFG、CFB、オーバーコート層OC、第2配向膜AL2などを備えている。
 図8に示すように、遮光層BMは、第2絶縁基板20のアレイ基板SUB1と対向する側に位置している。そして、遮光層BMは、画素電極PE1からPE3とそれぞれ対向する開口の大きさを規定している。遮光層BMは、黒色の樹脂材料や、遮光性の金属材料によって形成されている。
 カラーフィルタCFR、CFG、CFBのそれぞれは、第2絶縁基板20のアレイ基板SUB1と対向する側に位置し、それぞれの端部が遮光層BMに重なっている。カラーフィルタCFRは、画素電極PE1と対向している。カラーフィルタCFGは、画素電極PE2と対向している。カラーフィルタCFBは、画素電極PE3と対向している。一例では、カラーフィルタCFR、CFG、CFBは、それぞれ青色、赤色、緑色に着色された樹脂材料によって形成されている。
 オーバーコート層OCは、カラーフィルタCFR、CFG、CFBを覆っている。オーバーコート層OCは、透光性を有する樹脂材料によって形成されている。第2配向膜AL2は、オーバーコート層OCを覆っている。第1配向膜AL1及び第2配向膜AL2は、例えば、水平配向性を示す材料によって形成されている。
 以上説明したように、対向基板SUB2は、遮光層BM、カラーフィルタCFR、CFG、CFBなどを備えている。遮光層BMは、図4に示した走査線G1、G2、G3、信号線S1、S2、S3、コンタクト部PA1、PA2、PA3、スイッチング素子TrD1、TrD2、TrD3などの配線部と対向する領域に配置されている。
 図8において、対向基板SUB2は、3色のカラーフィルタCFR、CFG、CFBを備えていたが、青色、赤色、及び、緑色とは異なる他の色、例えば白色、透明、イエロー、マゼンタ、シアンなどのカラーフィルタを含む4色以上のカラーフィルタを備えていてもよい。また、これらのカラーフィルタCFR、CFG、CFBは、アレイ基板SUB1に備えられていてもよい。
 また、図8において、カラーフィルタCFは対向基板SUB2に設けられているが、アレイ基板SUB1にカラーフィルタCFを備える、いわゆるCOA(Color filter on Array)の構造であってもよい。
 上述したアレイ基板SUB1及び対向基板SUB2は、第1配向膜AL1及び第2配向膜AL2が向かい合うように配置されている。液晶層LCは、第1配向膜AL1と第2配向膜AL2との間に封入されている。液晶層LCは、誘電率異方性が負のネガ型液晶材料、あるいは、誘電率異方性が正のポジ型液晶材料によって構成されている。
 アレイ基板SUB1がバックライトILと対向し、対向基板SUB2が表示面側に位置する。バックライトILとしては、種々の形態のものが適用可能であるが、その詳細な構造については説明を省略する。
 第1偏光板PL1を含む第1光学素子OD1は、第1絶縁基板10の外面、あるいは、バックライトILと対向する面に配置される。第2偏光板PL2を含む第2光学素子OD2は、第2絶縁基板20の外面、あるいは、観察位置側の面に配置される。第1偏光板PL1の第1偏光軸及び第2偏光板PL2の第2偏光軸は、例えばX-Y平面においてクロスニコルの位置関係にある。なお、第1光学素子OD1及び第2光学素子OD2は、位相差板などの他の光学機能素子を含んでいてもよい。
 例えば、液晶層LCがネガ型液晶材料である場合であって、液晶層LCに電圧が印加されていない状態では、液晶分子LMは、Vx-Vy平面内において、その長軸が所定の方向に沿う方向に初期配向している。一方、液晶層LCに電圧が印加された状態、つまり、画素電極PE1からPE3と共通電極COMとの間に電界が形成されたオン時において、液晶分子LMは、電界の影響を受けてその配向状態が変化する。オン時において、入射した直線偏光は、その偏光状態が液晶層LCを通過する際に液晶分子LMの配向状態に応じて変化する。
 以上説明したように、表示装置100は、レンズ410を介して、視認される表示領域111を有する。表示領域111は、アレイ基板SUB1に設けられる。表示領域111には、複数の画素PixR、PixG、PixBと、第1の方向Vssに延在する複数の走査線GLと、第2の方向Vslに延在する複数の信号線SLがある。第1の方向Vssは、第2の方向Vslと直交する方向と非平行かつ非直交である。第1画素PixR、第2画素PixG及び第3画素PixBがそれぞれ第2の方向Vslに連続して並べられている。1つの第1画素PixRと、当該第1画素PixRから第1の方向Vssにみて次に配置された第1画素PixRとは、第2の方向Vslに、第1画素PixRの距離Ph1の半分の長さがずれるように配置されている。これにより、表示装置100の実質的な解像が向上する。
 次に、走査線GLが延在する方向Vssは、信号線SLが延在する方向Vslと非直交であるので、ユーザに認識される画像が歪まないように、表示システム1は、画像に補償処理を実行する。図9Aは、実施形態1に係る表示システムに入力される画像の一例を示す図である。図9Bは、実施形態1に係る表示システムが表示する画像の歪みを補償する補償処理の一例を示す図である。
 図9Aに示す一例では、ユーザに表示させたい画像Mnが方向Vx及び方向Vyに、行列配置されている。図3に示す制御部230のGPUは、図9Aに示す画像Mnに対して、レンズ410(図2参照)のレンズ歪を補正する画像変形処理を加えた第1補償画像MIを演算する。図3に示す制御部230のGPUは、角度θgの影響により図9Aに示す画像Mnを変形させる歪みを補償する画像変形処理を加えた第2補償画像Mgを演算する。図3に示す制御部230のGPUは、図9Aに示す画像Mnに対して、第1補償画像MIと、第2補償画像Mgとを重ね合わせた第3補償画像MIgを表示装置100へ送出する。
 また、図9Bにおいて、最終的に第3補償画像Mlgを得るための第1補償画像MI及び第2補償画像Mgの2つの画像変形処理は、GPUを使った画像処理で一般的に用いられるテクスチャマッピングの方法で、一度に処理される。具体的には、図9Bの第3補償画像Mlgの目的となる歪を反映したポリゴンメッシュ(画像)にマッピングしたテクスチャの像が、目的とする第3補償画像Mlgの歪んだ像素物となる。このため、第3補償画像Mlgに対応するポリゴンメッシュ(画像)を記憶部220の中に保持しておくか、又は表示システム1の起動時に制御部230で演算して第3補償画像Mlgのポリゴンメッシュ(画像)を生成することで、毎フレームの表示処理時にそのポリゴンメッシュ(画像)が適用できる。これにより、1回のテクスチャマッピングの処理だけで最終目的の第3補償画像Mlgの結果を得ることができる。これは第2補償画像Mgの処理がなく第1補償画像Mlのみを適用している一般的なVRの画像歪補償の処理と比べても画像処理の工程が増えないため、本実施形態の第2補償画像Mgの処理の実行によるコストアップを抑えることができる。
 以上説明したように、制御装置200は、走査線GLが延在する第1の方向Vssが第2の方向Vslと直交する方向Vsgに対して、なす角度θgの影響により画像を変形させる歪みを補償する第2補償処理を実行する。その結果、表示装置100は、第3補償画像MIgを表示することで、図9Aに示す画像Mnをユーザに認識させることができる。
 第2補償処理は、上述した表示制御回路112のドライバIC115が処理してもよい。ドライバIC115は、角度θgの影響により画像を変形させる歪みを補償する第2補償処理を実行する。これにより、制御装置200は、GPUの演算負荷を軽減することができる。
(実施形態2)
 実施形態1では、方向Vslは、方向Vyと平行であったが、実施形態2では、方向Vyに対して、方向Vslが角度θsだけ傾いている。以下の説明において、同様の構成要素について同一の符号を付すことがある。さらに、重複する説明は省略する。
 図10において、方向Vslは、信号線SL(図7参照)が延在する方向である。方向Vslと直交する方向Vsgは、方向Vxに対して、角度θsを有することになる。方向Vssは、走査線GL(図7参照)が延びる方向である。上述したように、方向Vssと方向Vsgとがなす角度θgを有する。このため、走査線GLが、方向Vxに対して傾く角度は、角度(θg-θs)となる。
 実施形態2の表示装置100は、実施形態1の表示装置100と比較して、走査線GLが、方向Vxに対して傾く角度が小さくなる。このため、走査線GLの延在する方向が信号線SLの延在する方向と直交する方向に対してなす角度θgの影響を抑制する画像変形処理の負荷が軽減される。
(実施形態3)
 実施形態1では、走査線駆動回路114は、1つであったが、実施形態3では、走査線駆動回路は、2つである。以下の説明において、実施形態1及び実施形態2と同様の構成要素について同一の符号を付して、重複する説明は省略する。
 図11は、実施形態3に係る表示領域の一例を示す模式図である。図11に示すように、第1の走査線駆動回路114Aは、表示パネル110の基板端部の辺110e1と表示領域111との間の周辺領域に配置されている。第2の走査線駆動回路114Bは、表示パネル110の基板端部の辺110e2と表示領域111との間の周辺領域に配置されている。第2の走査線駆動回路114Bは、表示領域111を挟んで第1の走査線駆動回路114Aの反対側に配置されている。第1の走査線駆動回路114Aに接続された走査線GLと、第2の走査線駆動回路114Bに接続された走査線GLとは、方向Vyに所定の間隔をおいて交互に配置されている。これにより、走査線駆動回路114Aと走査線駆動回路114Bそれぞれの出力回路の数を1/2に減らすことができ、画素ピッチが狭くなっても走査線駆動回路を形成することができる。
 走査線GLが、方向Vxに対して傾いているため、第2の走査線駆動回路114Bが、第1の走査線駆動回路114Aよりも方向Vyにずれている。信号線SLと走査線GLとに囲まれた領域は、画素PixR、PixG、PixBのいずれかとすることができる。ここで、基板端部の辺110e4側には、信号線SLと走査線GLとに囲まれた領域であっても、表示領域111としない領域ができる。このため、基板端部の辺110e4側に近い第1の走査線駆動回路114Aに接続された走査線GLは、第2の走査線駆動回路114Bに接続された走査線GLよりも長さが短くなる。反対に、基板端部の辺110e3側に近い第2の走査線駆動回路114Bに接続された走査線GLは、第1の走査線駆動回路114Aに接続された走査線GLよりも長さが短くなる。
(実施形態4)
 実施形態3では、第1の走査線駆動回路114Aは、方向Vyに延びる直線状に配置されていたが、実施形態4では、第1の走査線駆動回路114Aは、屈曲している。以下の説明において、実施形態1から実施形態3と同様の構成要素について同一の符号を付して、重複する説明は省略する。
 図12は、実施形態4に係る表示領域の一例を示す模式図である。走査線GLが、方向Vxに対して傾いているため、第2の走査線駆動回路114Bが、第1の走査線駆動回路114Aよりも方向Vyにずれている。このため、第1の走査線駆動回路114Aは、方向Vyに延びる直線部114Cと、方向Vxに延びる直線部114Dとを有している。直線部114Cと、直線部114Dとは、屈曲部114Xで連結されている。これにより、基板端部の辺110e3と、表示領域111との間の周辺領域に直線部114Dが配置されるので、実施形態3に比べ、実施形態4の表示パネル110は、方向Vyの長さを短くすることができる。
(実施形態5)
 実施形態1では、方向Vslには、同色の画素Pixが連続して並べられていたが、実施形態5では、方向Vslには、同色の画素Pixが連続して並べられていない。以下の説明において、実施形態1から実施形態4と同様の構成要素について同一の符号を付して、重複する説明は省略する。
 図13は、実施形態5において、表示領域の一部を拡大して模式的に示す模式図である。図14は、図13における、信号線と走査線との関係を示す模式図である。図15は、実施形態5において、同色画素間隔と第2の方向の画素の基準となる距離との比と、走査線の傾きとの関係を示す説明図である。実施形態5においても、図5に示すように、信号線SLが延在する方向は、方向Vyと平行である。走査線GLが延在する方向は、方向Vx及び方向Vyのいずれにも平行ではない。走査線GLが延在する方向は、信号線SLが延在する方向と非直交であるので、例えば、各画素PixR、PixG、PixBは、平行四辺形である。
 図13において、方向Vslは、信号線SL(図5参照)が延在する方向である。方向Vslと直交する方向Vsgは、方向Vxと平行である。方向Vssは、走査線GL(図5参照)が延びる方向である。方向Vssと方向Vsgとがなす角度θgだけ、走査線GLが、方向Vxに対して傾いている。方向Vsl及び方向Vssについては、図14を参照して詳細に説明する。
 各画素PixR、PixG、PixBは、平行四辺形を例示したが、平行四辺形に限られない。図14に示すように、方向Vssは、1つの走査線GLに接続された複数の画素PixRにおける第1基準位置Pglを結んだ仮想線が延びる方向である。例えば、第1基準位置Pglは、走査線GL上であって、この走査線GLと平面視で交差するともに、隣り合う信号線SLの中点である。
 方向Vslは、1つの信号線SLに接続された複数の画素PixRにおける第2基準位置Pslを結んだ仮想線が延びる方向である。例えば、第2基準位置Pslは、信号線SL上であって、この信号線SLと平面視で交差する走査線GLとの交差位置Ptの中点である。
 図14に示すように、画素PixRと、隣接する画素PixGとは、方向Vslに距離Δh2ずれて配置される。Δh2は、Pw2×tan(θg)とほぼ等しい。
 図1に示す表示システム1は、ユーザの頭部に装着されるので、表示装置100は小さいことが望まれる。このように、表示パネル110の大きさが制約されている状況において、表示領域111がレンズ410を通して視認されるため、解像度を高めるためには、より画素Pixを小さくする必要がある。例えば、図7に示す画素配列において、画素PixR、PixG、PixBの方向Vxの長さは、距離Pw1である。例えば、距離Pw1が12μmまで小さくなると、上述した遮光層BMの面積比率が大きく、開口率が小さくなり、一定の輝度を確保するために消費電力が上がってしまう可能性がある。
 そこで、実施形態5では、図13に示すような画素PixR、PixG、PixBの配置としている。
 図13に示すように、方向Vssにおいて、画素PixRが、画素PixBと画素PixGとに挟まれており、方向Vslにおいて、画素PixRが、画素PixBと画素PixGとに挟まれている。
 また、方向Vssにおいて、画素PixGが、画素PixRと画素PixBとに挟まれており、方向Vslにおいて、画素PixGが、画素PixRと画素PixBとに挟まれている。
 また、方向Vssにおいて、画素PixBが、画素PixGと画素PixRとに挟まれており、方向Vslにおいて、画素PixBが、画素PixGと画素PixRとに挟まれている。
 方向Vssにおいて、画素PixR、画素PixG、画素PixBの順に繰り返し並べられている。方向Vslにおいて、画素PixR、画素PixG、画素PixBの順に繰り返し並べられている。
 図14に示す画素配列において、画素PixR、PixG、PixBの方向Vxの長さは、距離Pw2であり、方向Vyの長さは、距離Ph2である。距離Pw2は、図7に示す距離Pw1の3/2倍であり、距離Ph2は、図7に示す距離Ph1の2/3倍である。図13に示すような画素PixR、PixG、PixBの配置としていることで、距離Pw2を十分に確保することができ、画素PixR、PixG、PixBの開口率を向上させることができる。なお、図14に示す走査線GLは、方向Vssに沿って直線状に延びると、図5に示すように、各画素PixR、PixG、PixBが、平行四辺形になる。
 しかしながら、図13に示すような画素PixR、PixG、PixBの配置では、例えば、ユーザの視感度の高い緑色の画素PixGが方向Vxに対して、斜め(第3の方向Vt)に連続して並べられる。ここで、角度θgが0度の場合には、画素PixGがユーザにとって斜め線となって、視認されやすい。ユーザによって、画素構造が視認される現象をスクリーンドア効果という。
 以上説明したように、表示装置100は、レンズ410を介して、視認される表示領域111を有する。表示領域111は、アレイ基板SUB1に設けられる。表示領域111には、複数の画素PixR、PixG、PixBと、第1の方向Vssに延在する複数の走査線GLと、第2の方向Vslに延在する複数の信号線SLがある。実施形態5の表示装置100では、方向Vssが方向Vxに対して、非平行かつ非直交とすると、スクリーンドア効果が生じにくい。
 上述したように、方向Vssと方向Vsgとがなす角度がθgである。図13では、ユーザの視感度の高い緑色の画素PixGの画素間隔がL1、L2とされている。ここで、図7に示す距離Ph1を比較のための基準距離とする。図15では、角度θgと、図7に示す距離Ph1に対する同色画素間隔L1、L2のそれぞれの比と、の関係が示されている。
 図15に示すように、角度θgに応じて、同色画素の間隔L1及び間隔L2が変わる。間隔L1と間隔L2で、スクリーンドア効果の改善には異色画素を間に挟んだ同色画素の間隔L1を小さくすることが必要である。L1/Ph1が1.2の場合に比べて、L1/Ph1が1.1以下0.9以上の場合は、スクリーンドア効果が小さくなり、ユーザに斜め線状の模様が視認されにくくなる。なお、L1/Ph1が0.8の場合、ユーザに斜め線状の模様が視認されることがある。
 このため、実施形態5の表示装置において、角度θgが10.49度以上33.07度以下であれば、L1/Ph1が1.1以下0.9以上となり、スクリーンドア効果が低減される。間隔L1と、間隔L2との比は、1に近い方がよりスクリーンドア効果が小さくなる。このため、角度θgが12.53度以上23.96度以下であると、よりスクリーンドア効果が小さくなる。
(実施形態6)
 図16は、実施形態6において、同色画素間隔と第2の方向の画素の基準となる距離との比と、走査線の傾きとの関係を示す説明図である。上述した実施形態5においては、図14において、距離Pw2が図7に示す距離Pw1の3/2倍であり、距離Ph2が図7に示す距離Ph1の2/3倍である画素配列を説明した。実施形態6は、実施形態5で示した距離Ph2の長さが異なる点で実施形態5と相違する。以下の説明において、図13、図14及び図16を参照しつつ、実施形態6の画素配列が説明される。なお、実施形態1から実施形態5と同様の構成要素について同一の符号を付して、重複する説明は省略する。
 実施形態6においても、図14に示すように、画素配列の各画素PixR、PixG、PixBの方向Vxの長さは、距離Pw2であり、方向Vyの長さは、距離Ph2である。実施形態6において、図14に示す距離Pw2が、図7に示す距離Pw1の3/2倍であり、図14に示す距離Ph2が、図7に示す距離Ph1と同じである。図13に示すような各画素PixR、PixG、PixBの配置としていることで、距離Pw2を十分に確保することができ、各画素PixR、PixG、PixBの開口率を向上させることができる。
 図16に示すように、角度θgに応じて、同色画素の間隔L1/Ph1及び間隔L2/Ph1が変わる。実施形態6の画素サイズでは、θg=0度では間隔L1/Ph1が1.34と大きく、スクリーンドア効果による斜め線が視認されないためには、L1/Ph1を狭くすることが重要になる。
 間隔L1/Ph1がθg=0の1.34よりも5%小さい1.275以下であって、かつ間隔L1/Ph1が0.9以上の場合は、スクリーンドア効果の低減がみられ、ユーザに斜め線状の模様が視認されにくくなる。
 このため、実施形態6の表示装置において、角度θgが7.45度以上49.72度以下であれば、L1が1.275以下0.9以上となり、スクリーンドア効果が低減される。
(実施形態7)
 実施形態1から実施形態6では、表示領域111は、略矩形であるが、実施形態7の表示領域111は、円形である。以下の説明において、実施形態1から実施形態6と同一の構成には同一の符合を付し、重複する説明は省略する。
 図17は、実施形態7に係る表示領域の一例を示す模式図である。第1の走査線駆動回路114Aは、方向Vyに延びる直線部114Cと、方向Vxに延びる直線部114Eと、直線部114Cと直線部114Eとを繋ぐ直線部114Dと、を有している。直線部114Cと、直線部114Dとは、屈曲部114X1で連結されている。直線部114Dと、直線部114Eとは、屈曲部114X2で連結されている。表示領域111は、円形であるので、直線部114C、直線部114D、直線部114Eが表示領域111に沿う。これにより、実施形態3に比べ、実施形態7の表示パネル110は、周辺領域を小さくすることができる。
 第2の走査線駆動回路114Bは、方向Vyに延びる直線部114Fと、方向Vyに対して傾いた方向に延びる直線部114Gと、を有している。直線部114Fと、直線部114Gとは、屈曲部114X3で連結されている。表示領域111が円形であるので、直線部114F、直線部114Gが表示領域111に沿う。これにより、実施形態3に比べ、実施形態7の表示パネル110は、周辺領域を小さくすることができる。
 なお、実施形態7の信号線接続回路113は、方向Vxに対して非平行である。
 上述したように、ユーザは、レンズ410によって拡大された表示装置100の表示領域を視認する。レンズ410を介してユーザが表示領域111を視認すると、表示パネル110の周辺部分、特に中心から遠いコーナー部分はレンズの視野範囲から外れて見えないことが多い。このため、表示領域111が円形であっても、ユーザは違和感なく、画像を視認できる。
(実施形態8)
 実施形態7では、表示領域111は、円形であるが、実施形態8の表示領域111は、多角形である。実施形態1と同一の構成には同一の符合を付し、重複する説明は省略する。
 図18は、実施形態8に係る表示領域の一例を示す模式図である。実施形態8の表示領域111は、多角形のうち六角形である。これにより、直線部114C、直線部114D、直線部114E、直線部114F、直線部114Gから表示領域111までの間の非表示領域が小さくなる。その結果、実施形態8の表示パネル110は、周辺領域を小さくしても、表示領域111の面積を確保することができる。
(実施形態9)
 実施形態9では、方向Vssに並べられる、実施形態5の画素PixR、PixG、PixBの順序とは異なる配置となっている。上述した実施形態と同一の構成には同一の符合を付し、重複する説明は省略する。
 図19は、実施形態9において、表示領域の一部を拡大して模式的に示す模式図である。図19に示すように、方向Vssにおいて、画素PixRが、画素PixBと画素PixGとに挟まれており、方向Vslにおいて、画素PixRが、画素PixBと画素PixGとに挟まれている。
 また、方向Vssにおいて、画素PixGが、画素PixRと画素PixBとに挟まれており、方向Vslにおいて、画素PixGが、画素PixRと画素PixBとに挟まれている。
 また、方向Vssにおいて、画素PixBが、画素PixGと画素PixRとに挟まれており、方向Vslにおいて、画素PixBが、画素PixGと画素PixRとに挟まれている。
 方向Vssにおいて、画素PixR、画素PixB、画素PixGの順に繰り返し並べられている。方向Vslにおいて、画素PixR、画素PixB、画素PixGの順に繰り返し並べられている。ユーザの視感度の高い緑色の画素PixGが方向Vxに対して、斜め(第3の方向Vt)に連続して並べられる。同色画素間隔L1、L2については、実施形態5と同じであるので説明を省略する。
(実施形態10)
 実施形態5の方向Vssの傾きが紙面右下がりであるのに対し、実施形態10では、方向Vssの傾きが紙面右上がりである。上述した実施形態と同一の構成には同一の符合を付し、重複する説明は省略する。
 図20は、実施形態10において、表示領域の一部を拡大して模式的に示す模式図である。図20に示すように、方向Vssにおいて、画素PixRが、画素PixBと画素PixGとに挟まれており、方向Vslにおいて、画素PixRが、画素PixBと画素PixGとに挟まれている。
 また、方向Vssにおいて、画素PixGが、画素PixRと画素PixBとに挟まれており、方向Vslにおいて、画素PixGが、画素PixRと画素PixBとに挟まれている。
 また、方向Vssにおいて、画素PixBが、画素PixGと画素PixRとに挟まれており、方向Vslにおいて、画素PixBが、画素PixGと画素PixRとに挟まれている。
 方向Vssにおいて、画素PixR、画素PixG、画素PixBの順に繰り返し並べられている。方向Vslにおいて、画素PixR、画素PixB、画素PixGの順に繰り返し並べられている。
 図20において、方向Vslと直交する方向Vsgは、方向Vxと平行である。方向Vssは、走査線GLが延びる方向である。方向Vssと方向Vsgとがなす角度θgだけ、走査線GLが、方向Vxに対して傾いている。ユーザの視感度の高い緑色の画素PixGが方向Vxに対して、斜め(第3の方向Vt)に連続して並べられる。同色画素間隔L1、L2については、実施形態5と同じであるので説明を省略する。
(実施形態11)
 実施形態11では、方向Vssに並べられる、実施形態10の画素PixR、PixG、PixBの順序とは異なる配置となっている。上述した実施形態と同一の構成には同一の符合を付し、重複する説明は省略する。
 図21は、実施形態11において、表示領域の一部を拡大して模式的に示す模式図である。図21に示すように、方向Vssにおいて、画素PixRが、画素PixBと画素PixGとに挟まれており、方向Vslにおいて、画素PixRが、画素PixBと画素PixGとに挟まれている。
 また、方向Vssにおいて、画素PixGが、画素PixRと画素PixBとに挟まれており、方向Vslにおいて、画素PixGが、画素PixRと画素PixBとに挟まれている。
 また、方向Vssにおいて、画素PixBが、画素PixGと画素PixRとに挟まれており、方向Vslにおいて、画素PixBが、画素PixGと画素PixRとに挟まれている。
 方向Vssにおいて、画素PixR、画素PixB、画素PixGの順に繰り返し並べられている。方向Vslにおいて、画素PixR、画素PixG、画素PixBの順に繰り返し並べられている。ユーザの視感度の高い緑色の画素PixGが方向Vxに対して、斜め(第3の方向Vt)に連続して並べられる。同色画素間隔L1、L2については、実施形態5と同じであるので説明を省略する。
(実施形態12)
 実施形態12では、バックライトIL(図8参照)の一例について説明する。上述した実施形態と同一の構成には同一の符合を付し、重複する説明は省略する。
 図22は、実施形態12に係る表示システムの構成の一例を示すブロック図である。図23は、実施形態12に係るバックライトの一例を示す模式図である。図24は、実施形態12に係る画像調整回路の処理を説明するためのフローチャートである。図22に示すように、表示装置100は、2つの表示パネル110と、センサ120と、画像分離回路150と、画像調整回路170と、インタフェース160と、を備える。図8に示すように、2つの表示パネル110の背面には、それぞれバックライトILが配置される。説明を容易にするため、図22には、バックライトILが記載されている。図22に示すように、画像調整回路170は、入力画像変換部171と、点灯量計算部172と、輝度分布計算部175と、階調値補正部174と、を備える。
 バックライトILは、いわゆる直下型光源装置である。バックライトILには、ローカルディミングと呼ばれる光源制御がなされ、発光領域511の一部分である部分発光領域PLA毎に点灯量が制御される。
 2つのバックライトILのそれぞれは、発光領域511と、光源制御回路512と、を有する。発光領域511は、部分発光領域PLAが、2次元のマトリクス状(行列状)に配列されている。
 実施形態12の1つの部分発光領域PLAには、例えば縦200画素、横200画素の画素Pixが重なり合う。図22では、複数の部分発光領域PLAの配列を模式的に表しており、画素Pixに対する部分発光領域PLAの大きさは、説明を容易にするため、実際とは異なる。
 バックライトILは、Vx方向に延在する発光素子を選択する発光素子走査線LGLと、Vx方向と直行するVy方向に延在する発光出力信号線LSLを有する。バックライトILにおいて、発光出力信号線LSLと発光素子走査線LGLとに囲まれた領域には、発光素子が配置される。
 2つのバックライトILのうち、一方の表示パネル110の表示領域111に重ね合わせるバックライトILが右目用であり、他方の表示パネル110の表示領域111に重ね合わせるバックライトILが左目用である。実施形態12では、バックライトILは、左目用と右目用の2つのバックライトILを有する場合について説明する。ただし、バックライトILは、上述のように2つのバックライトILを用いる構造に限定されない。例えば、バックライトILは、1つであって、右半分の領域には表示パネル110を重ね合わせ、左半分の領域には左目用の表示パネル110を重ね合わせ、1つのバックライトILの発光領域511を左目用と右目用の表示領域111に重ね合わされていてもよい。
 画像分離回路150は、ケーブル300を介して制御装置200から送られてきた左目用の画像データと右目用の画像データを受けとり、左目用の画像データを左目用の画像を表示する表示パネル110の画像調整回路170に送り、右目用の画像データを右目用の画像を表示する表示パネル110の画像調整回路170に送る。画像調整回路170の詳細な構成については、後述する。
 実施形態12では、表示領域111において、実施形態5と同様に、走査線GLが延在する方向は、信号線SLが延在する方向と非直交である。実施形態12の表示パネル110は、実施形態5の表示パネルと同じ構成であるので、詳細な説明を省略する。
 図23に示すように、発光素子516は、平面視で、3μm以上300μm以下程度の大きさを有する無機の発光ダイオード(LED:Light Emitting Diode)チップであり、マイクロLED(micro LED)又はミニLED(mini LED)と呼ばれる。発光出力信号線LSLは、Vy方向に延在し、発光素子516のカソードに接続される。発光出力信号線LSLは、Vx方向に間隔をおいて並ぶ。発光素子走査線LGLは、Vx方向に延在し、Vy方向に間隔をおいて並び、発光素子516のアノードに接続される。
 1つの発光素子走査線LGLは、発光素子走査線LGLの延在方向に沿って配置される複数の発光素子516が接続される。また、1つの発光出力信号線LSLは、発光出力信号線LSLの延在方向に沿って配置される複数の発光素子516が接続される。
 図22及び図23に示すように、光源制御回路512は、発光電流制御回路513と、スイッチアレイ514と、タイミング制御回路515を備えている。発光電流制御回路513は、発光出力信号線LSLのそれぞれと電気的に接続されている。点灯量データDlaに基づいて、発光電流制御回路513は、各発光出力信号線LSLに電流を供給する。スイッチアレイ514は、各発光素子走査線LGLを選択するスイッチング素子Lsw(例えば、FET(Field Effect Transistor))を複数備えている。スイッチング素子LswがONになると、当該スイッチング素子Lswに接続された発光素子走査線LGLが選択される。光源同期信号Dsyncに基づいて、タイミング制御回路515は、発光電流制御回路513と、スイッチアレイ514を制御する。スイッチアレイ514は、発光素子スキャン信号Dswに基づいて、スイッチング素子LswのON/OFFをする。
 例えば、実施形態12では、図23に示すように、1つの部分発光領域PLAには、1つの発光素子516がある。なお、1つの部分発光領域PLAには、予め定められた複数の発光素子516があってもよい。
 上述したように、図13において、方向Vslは、信号線SL(図5参照)が延在する方向である。方向Vslと直交する方向Vsgは、方向Vxと平行である。方向Vssは、走査線GL(図5参照)が延びる方向である。方向Vssと方向Vsgとがなす角度θgだけ、走査線GLが、方向Vxに対して傾いている。これに対して、発光素子走査線LGLの延びる方向は、方向Vxと平行である。発光素子走査線LGLの延びる方向と、走査線GLが延びる方向とがなす角度θgだけ、走査線GLが、発光素子走査線LGLに対して傾いている。この傾きの違いを考慮して点灯量を決定し、各画素の位置のバックライトの明るさを計算する必要がある。
 そこで、実施形態12では、図24に示すように、入力画像変換部171が、せん断変形されている画像データから四角形の一般的な画像データの形式に変換する(ステップS101)。このように、入力画像変換部171は、せん断変形されている画像データを四角形の一般的な画像データに変換する画像の変換部である。
 画像調整回路170は、ステップS101の処理の後、ローカルディミングの画像処理を実行する。ローカルディミングの画像処理について、以下、図24を参照しつつ説明する。ステップS101の処理の後、点灯量計算部172は、各LEDの点灯量を決定する(ステップS102)。ステップS102の処理の後、輝度分布計算部175は、階調補正を行う表示パネルの画素の選定を行う(ステップS103)。輝度分布計算部175は、ステップS103において選定されるべき画素がなく、全画素が処理されて終了している場合(ステップS104;Yes)、ローカルディミングの画像処理を終了する。輝度分布計算部175は、ステップS103において選定されるべき画素があり、全画素が処理されて終了していない場合(ステップS104;No)、ステップS105の処理へ処理を進める。輝度分布計算部175は、ステップS103で選定した画素に対して、角度θgを考慮した表示パネルの画素の物理的な位置を計算する(ステップS105)。輝度分布計算部175は、ステップS105で計算された画素の物理的な画素位置におけるバックライトの輝度を計算する(ステップS106)。階調値補正部174は、ステップS106で計算されたバックライトの輝度に応じて、画素の階調補正を行う(ステップS107)。次に、画像調整回路170は、他の画素を処理するため、ステップS103の処理を行う。このように、各画素には、角度θgを考慮して必要な補正を行った階調値が反映される。
 以上説明したように、実施形態12の表示装置は、表示領域111を有する表示パネル110と、表示領域111に重ね合わせるバックライトILと、画像調整回路170とを備える。表示パネル110は、アレイ基板SUB1と、アレイ基板SUB1の表示領域111に設けられる、複数の画素Pixと、方向Vssに延在する複数の走査線GLと、方向Vslに延在する複数の信号線SLとを有する。方向Vssは、方向Vslと直交する方向と非平行かつ非直交である。これに対して、バックライトILは、平面視で表示領域111に重なる位置に複数の発光素子516を有し、方向Vsl(方向Vy)に延在し、発光素子516に接続される発光出力信号線LSLと、方向Vsl(方向Vy)に直交する方向Vxに延在し、発光素子516に接続される発光素子走査線LGLと、を備える。
 さらに画像調整回路170により、発光素子走査線LGLの延びる方向と、走査線GLが延びる方向とがなす角度θgの影響を低減し、画素Pixに対する部分発光領域PLAの点灯量が適切となり、バックライトILの効果的なローカルディミング制御が行われる。
(実施形態13)
 実施形態13では、バックライトIL(図8参照)の一例について説明する。図25は、実施形態13に係る表示システムの構成の一例を示すブロック図である。実施形態12のバックライトIL(図23参照)と異なり、実施形態13のバックライトIL(図25)では、Vss方向に延在する発光素子を選択する発光素子走査線LGLを有する。また、図25に示す実施形態13における表示システムは、図22とは入力画像変換部171を有していない点で相違する。上述した実施形態と同一の構成には同一の符合を付し、重複する説明は省略する。
 図27に示すように、バックライトILは、Vss方向に延在する発光素子を選択する発光素子走査線LGLと、Vx方向と直行するVy方向に延在する発光出力信号線LSLを有する。発光素子走査線LGLは、Vss方向に延在する。バックライトILにおいて、発光出力信号線LSLと発光素子走査線LGLとに囲まれた領域には、発光素子516が配置される。これにより、1つの部分発光領域PLAは、平行四辺形になる。
 発光素子走査線LGLの延びる方向は、走査線GLと延びる方向と平行である。このため、走査線GLが、発光素子走査線LGLに対して傾いていない。これにより、発光素子516が発光する点灯量が、実際に重なる表示領域111の画素Pixの輝度と合うようになる。
 なお、平面視で表示領域111と重ならない、発光領域511の部分発光領域PLBにある発光素子516を除去し、発光することのないダミー領域としてもよい。部分発光領域PLBに発光素子516がある場合、各発光出力信号線LSL及び各発光素子走査線LGLの負荷電流が均一となり、場所による発光素子516の特性のばらつきが小さくなる。
 以上説明したように、実施形態13の表示装置は、表示領域111を有する表示パネル110と、表示領域111に重ね合わせるバックライトILと、を備える。表示パネル110は、アレイ基板SUB1と、アレイ基板SUB1の表示領域111に設けられる、複数の画素Pixと、方向Vssに延在する複数の走査線GLと、方向Vslに延在する複数の信号線SLとを有する。方向Vssは、方向Vslと直交する方向と非平行かつ非直交である。これに対して、バックライトILは、平面視で表示領域111に重なる位置に複数の発光素子516を有し、方向Vsl(方向Vy)に延在し、発光素子516に接続される発光出力信号線LSLと、方向Vssに延在し、発光素子516に接続される発光素子走査線LGLと、を備える。これにより、発光素子走査線LGLの延びる方向と、走査線GLが延びる方向とが平行となり、上述したなす角度θgの影響を低減する。その結果、画素Pixに対する部分発光領域PLAの点灯量は適切となり、バックライトILへ効果的なローカルディミング制御が行われる。
 表示パネルの画素の位置は、バックライトILにおいてもθgの傾きを有することで容易に計算できる。従って、実施形態13において、実施形態12の様な入力画像変換部171は不要となる。
 図25に示す実施形態13の表示システムは、図22に示す実施形態12の表示システムと比較して、画像調整回路170の構成が異なり、画像調整回路170の構成以外の他の部分は同じ構成となっている。ただし、計算に用いる光学プロファイルデータが、一般的な直交座標における光学プロファイルとは異なる。光学プロファイルとは、バックライトの発光単位の明るさがバックライトの明るさとしてどの様に表示面内に広がっているかを示すデータで、バックライトの明るさの分布を計算するために必要となる。本実施形態においては、光源の配置が斜めになっているため、図25のシステムが直交座標に基づいて構成されている場合は、光学プロファイルを補正する必要がある。
 図26Aは、実施形態13に係るバックライトの点灯量を計算するにあたり、変換前のバックライトの光学プロファイルデータを示す模式図である。図26Bは、実施形態13に係るバックライトの点灯量を計算するにあたり、変換後のバックライトの光学プロファイルデータを示す模式図である。図26Aに示すfreal(Vx,Vy)は、ある(Vx,Vy)=(0,0)において1つの発光素子516の発光の伝播範囲を示す光学プロファイルである。走査線GLは、方向Vssに延び、方向Vxと方向Vssとのなす角度θgがある。このため、画素Pixは平行四辺形として扱われる。平行四辺形の画素Pixを画像データで扱われる直交格子の画素GPixへ変換した場合、光学プロファイルfreal(Vx,Vy)は、方向Xsと方向Ysとが直角となる直交座標において、光学プロファイルfsytem(Xs,Ys)(図26B参照)へ変換される。
 実施形態13の表示システムでは、画像データの座標を下記式(1)及び式(2)で、画素Pixが直交格子として、方向Xsと方向Ysとが直角となる直交座標へ変換する。ここで、傾きkは、式(3)で求められる。これら式(1)から式(3)は、変換された光学プロファイルとして、予め画像調整回路170に記憶されている。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 図26Bに示すように、画像データは、直交格子の座標で表現されているので、点灯量計算部172が光学プロファイルfsytem(Xs,Ys)で点灯量を計算することで、せん断変形されている画像データに対して、直交座標上に配置されていることを想定した計算を実施しても正しい輝度が計算できる。点灯量計算部172は、計算した点灯量データDla及び光源同期信号Dsyncを光源制御回路512へ送出する。
 輝度分布計算部175は、光学プロファイルfsytem(Xs,Ys)で計算された1つの部分発光領域PLAの点灯量に重なる画素Pix毎の輝度分布を計算する。階調値補正部174は、輝度分布計算部175で計算した輝度分布に基づいて、画像データの各画素Pixの階調値を補正し、補正後の階調値を含む補正画像データDiを表示制御回路112へ送出する。
 以上説明したように、画像調整回路170は、方向Vsl(方向Vy)を第1軸、方向Vssを第2軸とする画像の座標を、方向Vsl(方向Vy)を第1軸、方向Vsl(方向Vy)に直交する方向Vxを第2軸とする画像の座標に変換して、各発光素子516の点灯量を計算する。これにより、発光素子走査線LGLの延びる方向と、走査線GLが延びる方向とがなす角度θgの影響を低減する。その結果、画素Pixに対する部分発光領域PLAの点灯量は適切となり、バックライトILへ効果的なローカルディミング制御が行われる。
 以上、好適な実施の形態を説明したが、本開示はこのような実施の形態に限定されるものではない。実施の形態で開示された内容はあくまで一例にすぎず、本開示の趣旨を逸脱しない範囲で種々の変更が可能である。本開示の趣旨を逸脱しない範囲で行われた適宜の変更についても、当然に本開示の技術的範囲に属する。
1 表示システム
100 表示装置
110 表示パネル
111 表示領域
112 表示制御回路
113 信号線接続回路
114X、114X1、114X2、114X3 屈曲部
114 走査線駆動回路
114A 第1の走査線駆動回路
114B 第2の走査線駆動回路
115 ドライバIC
115b 端子
170 画像調整回路
171 入力画像変換部
172 点灯量計算部
174 階調値補正部
175 輝度分布計算部
200 制御装置
230 制御部
300 ケーブル
400 装着部材
410 レンズ
511 発光領域
512 光源制御回路
513 発光電流制御回路
514 スイッチアレイ
515 タイミング制御回路
516 発光素子
GL 走査線
L1 同色画素間隔
L2 同色画素ピッチ
LGL 発光素子走査線
LSL 発光出力信号線
Mg、MI、MIg 補償画像
Mn 画像
Pgl 基準位置
Ph1 距離
Ph2 距離
Pix、PixR、PixG、PixB 画素
Psl 基準位置
Pt 交差位置
Pw1 距離
Pw2 距離
SL 信号線
SUB1 アレイ基板
SUB2 対向基板
Vp 方向
Vsg 方向
Vsl 方向
Vss 方向
Vx 方向
Vy 方向
Δh1、Δh2 距離
θg 角度
θs 角度

Claims (20)

  1.  レンズを介して、視認される表示領域を有する表示装置において、
     基板と、
     複数の画素と、第1の方向に延在する複数の走査線と、第2の方向に延在する複数の信号線とが前記基板に設けられる前記表示領域を有し、
     前記第1の方向は、前記第2の方向と直交する方向と非平行かつ非直交である、
     表示装置。
  2.  前記基板の端部と前記表示領域との間に位置する周辺領域と、
     前記周辺領域に配置され、複数の前記走査線と接続される少なくとも1つの走査線駆動回路と、
     前記周辺領域に配置され、複数の前記信号線と接続される信号線接続回路と、
     前記周辺領域に配置され、かつ前記走査線駆動回路及び信号線接続回路を制御するドライバICと、
     前記基板には、前記ドライバICを前記基板に接続するための端子と、を有し、
     前記端子が並ぶ方向は、前記第2の方向と直交する方向と平行である、請求項1に記載の表示装置。
  3.  複数の前記画素は、第1色を表示するための第1画素と、前記第1色とは異なる第2色を表示するための第2画素と、前記第1色及び前記第2色とは異なる第3色を表示するための第3画素と、を含み、
     前記第1の方向は、1つの走査線に接続された複数の前記第1画素における第1基準位置を結んだ方向であり、
     前記第2の方向は、1つの信号線に接続された複数の前記第1画素における第2基準位置を結んだ方向である、
     請求項1又は2に記載の表示装置。
  4.  前記基板の端部と前記表示領域との間に位置する周辺領域に配置され、複数の前記走査線と接続される少なくとも1つの走査線駆動回路を有し、前記走査線駆動回路は、屈曲部を有している、請求項1から3のいずれか1項に記載の表示装置。
  5.  複数の前記画素は、第1色を表示するための第1画素と、前記第1色とは異なる第2色を表示するための第2画素と、前記第1色及び前記第2色とは異なる第3色を表示するための第3画素と、を含み、
     前記第1画素、前記第2画素及び前記第3画素がそれぞれ前記第2の方向に連続して並べられており、
     1つの前記第1画素と、当該第1画素から前記第1の方向にみて次に配置された第1画素とは、前記第2の方向に、前記第1画素の半分の長さがずれるように配置されている、請求項1から4のいずれか1項に記載の表示装置。
  6.  複数の前記画素は、第1色を表示するための第1画素と、前記第1色とは異なる第2色を表示するための第2画素と、前記第1色及び前記第2色とは異なる第3色を表示するための第3画素と、を含み、
     前記第1の方向において、前記第1画素が、前記第2画素と前記第3画素とに挟まれており、前記第2の方向において、当該第1画素が、前記第2画素と前記第3画素とに挟まれており、
     前記第1の方向において、前記第2画素が、前記第1画素と前記第3画素とに挟まれており、前記第2の方向において、当該第2画素が、前記第1画素と前記第3画素とに挟まれており、
     前記第1の方向において、前記第3画素が、前記第2画素と前記第1画素とに挟まれており、前記第2の方向において、当該第3画素が、前記第2画素と前記第1画素とに挟まれており、
     複数の前記第1画素が、前記第1の方向及び前記第2の方向の両方に交差する第3の方向に並び、複数の前記第2画素が前記第3の方向に並び、複数の前記第3画素が前記第3の方向に並ぶ、請求項1から4のいずれか1項に記載の表示装置。
  7.  基板と、
     複数の画素と、第1の方向に延在する複数の走査線と、第2の方向に延在する複数の信号線とが前記基板に設けられる表示領域を有し、
     前記第1の方向は、前記第2の方向と直交する方向と非平行かつ非直交であり、
     複数の前記画素は、第1色を表示するための第1画素と、前記第1色とは異なる第2色を表示するための第2画素と、前記第1色及び前記第2色とは異なる第3色を表示するための第3画素と、を含み、
     前記第1の方向において、前記第1画素が、前記第2画素と前記第3画素とに挟まれており、前記第2の方向において、当該第1画素が、前記第2画素と前記第3画素とに挟まれており、
     前記第1の方向において、前記第2画素が、前記第1画素と前記第3画素とに挟まれており、前記第2の方向において、当該第2画素が、前記第1画素と前記第3画素とに挟まれており、
     前記第1の方向において、前記第3画素が、前記第2画素と前記第1画素とに挟まれており、前記第2の方向において、当該第3画素が、前記第2画素と前記第1画素とに挟まれており、
     複数の前記第1画素が、前記第1の方向及び前記第2の方向の両方に交差する第3の方向に並び、複数の前記第2画素が前記第3の方向に並び、複数の前記第3画素が前記第3の方向に並ぶ、
     表示装置。
  8.  前記第1の方向が、前記第2の方向と直交する方向となす角度は、10.49度以上33.07度以下である請求項6又は7に記載の表示装置。
  9.  前記表示領域の外形は、円形である、請求項1から8のいずれか1項に記載の表示装置。
  10.  前記表示領域の外形は、多角形である、請求項1から8のいずれか1項に記載の表示装置。
  11.  前記基板の端部と前記表示領域との間に位置する周辺領域に配置され、複数の前記走査線と接続される走査線駆動回路は、第1の走査線駆動回路と、前記表示領域を挟んで前記第1の走査線駆動回路の反対側の周辺領域に配置された第2の走査線駆動回路とを有し、
     前記第1の走査線駆動回路に接続された走査線と、前記第2の走査線駆動回路に接続された走査線とは、第2の方向に所定の間隔をおいて交互に配置されている、請求項1から10のいずれか1項に記載の表示装置。
  12.  平面視で前記表示領域に重なる位置に複数の発光素子が配置されるバックライトを有し、
     前記バックライトは、
     前記第2の方向に延在し、前記発光素子に接続される発光出力信号線と、
     前記第2の方向に直交する方向に延在し、前記発光素子に接続される発光素子走査線と、を備える請求項1から11のいずれか1項に記載の表示装置。
  13.  平面視で前記表示領域に重なる位置に複数の発光素子が配置されるバックライトを有し、
     前記バックライトは、
     前記第1の方向に延在し、前記発光素子に接続される発光素子走査線と、
     前記第2の方向に延在し、前記発光素子に接続される発光出力信号線と、
     を備える請求項1から11のいずれか1項に記載の表示装置。
  14.  レンズと、
     前記レンズを介して、視認される表示領域を有する表示装置と、
     前記表示装置に画像を出力する制御装置と、を備え、
     基板と、
     複数の画素と、第1の方向に延在する複数の走査線と、第2の方向に延在する複数の信号線とが前記基板に設けられる前記表示領域を有し、
     前記第1の方向は、前記第2の方向と直交する方向と非平行かつ非直交である、
     表示システム。
  15.  複数の前記画素は、第1色を表示するための第1画素と、前記第1色とは異なる第2色を表示するための第2画素と、前記第1色及び前記第2色とは異なる第3色を表示するための第3画素と、を含み、
     前記第1の方向において、前記第1画素が、前記第2画素と前記第3画素とに挟まれており、前記第2の方向において、当該第1画素が、前記第2画素と前記第3画素とに挟まれており、
     前記第1の方向において、前記第2画素が、前記第1画素と前記第3画素とに挟まれており、前記第2の方向において、当該第2画素が、前記第1画素と前記第3画素とに挟まれており、
     前記第1の方向において、前記第3画素が、前記第2画素と前記第1画素とに挟まれており、前記第2の方向において、当該第3画素が、前記第2画素と前記第1画素とに挟まれており、
     複数の前記第1画素が、前記第1の方向及び前記第2の方向の両方に交差する第3の方向に並び、複数の前記第2画素が前記第3の方向に並び、複数の前記第3画素が前記第3の方向に並ぶ、請求項14に記載の表示システム。
  16.  前記第1の方向が、前記第2の方向と直交する方向となす角度は、10.49度以上33.07度以下である請求項15に記載の表示システム。
  17.  前記第1の方向が、前記第2の方向と直交する方向となす角度は、7.45度以上49.72度以下である請求項15に記載の表示システム。
  18.  前記制御装置は、前記走査線が延在する前記第1の方向が前記第2の方向と直交する方向に対してなす角度の影響により前記画像を変形させる歪みを補償する補償処理を実行する、請求項14から17のいずれか1項に記載の表示システム。
  19.  前記表示装置は、前記表示領域の表示を制御する表示制御回路を有し、
     前記表示制御回路は、前記走査線が延在する前記第1の方向が前記第2の方向と直交する方向に対してなす角度の影響により、前記制御装置から入力された画像を変形させる歪みを補償する補償処理を実行する、請求項14から17のいずれか1項に記載の表示システム。
  20.  前記表示装置は、平面視で前記表示領域に重なる位置に複数の発光素子が配置されるバックライトを有し、
     前記バックライトは、
     前記第1の方向に延在し、前記発光素子に接続される発光素子走査線と、
     前記発光素子に接続され、前記第2の方向に延在する発光出力信号線と、
     を備える請求項14から19のいずれか1項に記載の表示システム。
PCT/JP2021/012852 2020-03-31 2021-03-26 表示装置及び表示システム WO2021200650A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180025491.3A CN115362489A (zh) 2020-03-31 2021-03-26 显示装置及显示系统
US17/949,582 US20230014991A1 (en) 2020-03-31 2022-09-21 Display device and display system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020063769 2020-03-31
JP2020-063769 2020-03-31
JP2020205274A JP2021162841A (ja) 2020-03-31 2020-12-10 表示装置、表示システム及び光源装置
JP2020-205274 2020-12-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/949,582 Continuation US20230014991A1 (en) 2020-03-31 2022-09-21 Display device and display system

Publications (1)

Publication Number Publication Date
WO2021200650A1 true WO2021200650A1 (ja) 2021-10-07

Family

ID=77930083

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/012852 WO2021200650A1 (ja) 2020-03-31 2021-03-26 表示装置及び表示システム

Country Status (3)

Country Link
US (1) US20230014991A1 (ja)
CN (1) CN115362489A (ja)
WO (1) WO2021200650A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023140216A1 (ja) * 2022-01-20 2023-07-27 株式会社ジャパンディスプレイ 表示装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02135425A (ja) * 1988-11-17 1990-05-24 Matsushita Electric Ind Co Ltd アクティブマトリックスアレイ
JP2005529368A (ja) * 2002-06-11 2005-09-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 非矩形ディスプレイ装置
JP2007264258A (ja) * 2006-03-28 2007-10-11 Pioneer Electronic Corp 表示装置
JP2008287285A (ja) * 2006-07-20 2008-11-27 Seiko Epson Corp 表示装置、表示装置の駆動方法及び電子機器
JP2010256912A (ja) * 2004-02-09 2010-11-11 Hitachi Ltd 照明装置とこれを備えた画像表示装置及び画像表示方法
JP2014067045A (ja) * 2008-05-11 2014-04-17 Nlt Technologies Ltd 非矩形状の画素アレイ及び該アレイを備える表示装置
WO2016039184A1 (ja) * 2014-09-12 2016-03-17 シャープ株式会社 表示装置
US20190162955A1 (en) * 2017-11-28 2019-05-30 Lg Display Co., Ltd. Personal immersive device and display thereof
JP2019120929A (ja) * 2018-01-05 2019-07-22 三星ディスプレイ株式會社Samsung Display Co.,Ltd. ヘッドマウント表示装置
JP2020004708A (ja) * 2018-06-27 2020-01-09 シャープ株式会社 発光装置、表示装置、およびled表示装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0558134A3 (en) * 1992-02-27 1994-08-10 Philips Nv Display device
JP3620490B2 (ja) * 2000-11-22 2005-02-16 ソニー株式会社 アクティブマトリクス型表示装置
US7123277B2 (en) * 2001-05-09 2006-10-17 Clairvoyante, Inc. Conversion of a sub-pixel format data to another sub-pixel data format
US7525526B2 (en) * 2003-10-28 2009-04-28 Samsung Electronics Co., Ltd. System and method for performing image reconstruction and subpixel rendering to effect scaling for multi-mode display
JP4628770B2 (ja) * 2004-02-09 2011-02-09 株式会社日立製作所 照明装置を備えた画像表示装置及び画像表示方法
JP4320682B2 (ja) * 2006-07-20 2009-08-26 セイコーエプソン株式会社 表示装置、表示装置の駆動方法及び電子機器
CN101577071B (zh) * 2008-05-11 2014-03-26 Nlt科技股份有限公司 非矩形的像素阵列及具有该阵列的显示装置
US20100177123A1 (en) * 2009-01-12 2010-07-15 Fredlund John R Edge reproduction in optical scanning displays
CN103715227A (zh) * 2013-12-26 2014-04-09 京东方科技集团股份有限公司 一种显示面板及其驱动方法和显示装置
KR102141208B1 (ko) * 2014-06-30 2020-08-05 삼성디스플레이 주식회사 휴대용 전자장치
CN104766548A (zh) * 2015-03-17 2015-07-08 京东方科技集团股份有限公司 一种显示装置及其显示方法
CN104835444B (zh) * 2015-06-05 2017-07-14 京东方科技集团股份有限公司 一种显示方法及显示装置
KR20210034748A (ko) * 2019-09-20 2021-03-31 삼성디스플레이 주식회사 표시 장치

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02135425A (ja) * 1988-11-17 1990-05-24 Matsushita Electric Ind Co Ltd アクティブマトリックスアレイ
JP2005529368A (ja) * 2002-06-11 2005-09-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 非矩形ディスプレイ装置
JP2010256912A (ja) * 2004-02-09 2010-11-11 Hitachi Ltd 照明装置とこれを備えた画像表示装置及び画像表示方法
JP2007264258A (ja) * 2006-03-28 2007-10-11 Pioneer Electronic Corp 表示装置
JP2008287285A (ja) * 2006-07-20 2008-11-27 Seiko Epson Corp 表示装置、表示装置の駆動方法及び電子機器
JP2014067045A (ja) * 2008-05-11 2014-04-17 Nlt Technologies Ltd 非矩形状の画素アレイ及び該アレイを備える表示装置
WO2016039184A1 (ja) * 2014-09-12 2016-03-17 シャープ株式会社 表示装置
US20190162955A1 (en) * 2017-11-28 2019-05-30 Lg Display Co., Ltd. Personal immersive device and display thereof
JP2019120929A (ja) * 2018-01-05 2019-07-22 三星ディスプレイ株式會社Samsung Display Co.,Ltd. ヘッドマウント表示装置
JP2020004708A (ja) * 2018-06-27 2020-01-09 シャープ株式会社 発光装置、表示装置、およびled表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023140216A1 (ja) * 2022-01-20 2023-07-27 株式会社ジャパンディスプレイ 表示装置

Also Published As

Publication number Publication date
CN115362489A (zh) 2022-11-18
US20230014991A1 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
US8823890B2 (en) Liquid crystal display device
US8797297B2 (en) Display device
JP4572854B2 (ja) 液晶装置及び電子機器
US7990506B2 (en) Liquid crystal display device and electronic apparatus
TWI459035B (zh) 立體影像顯示裝置及其驅動方法
US8339331B2 (en) Electro-optical device and electronic apparatus
US11113997B2 (en) Multi-view display device
US11925089B2 (en) Electro-optical device and electronic device
US10627641B2 (en) 3D display panel assembly, 3D display device and driving method thereof
US20110267317A1 (en) Area sensor, liquid crystal display unit, and position detection method
KR20040077789A (ko) 공간 화상형 디스플레이 장치
US9134837B2 (en) Display apparatus with reduced signal interference
WO2021200650A1 (ja) 表示装置及び表示システム
US7764254B2 (en) Electro-optical device and electronic apparatus
JP6411257B2 (ja) 表示装置及びその制御方法
JP2013057824A (ja) 表示装置、表示方法、および電子機器
JP2021162841A (ja) 表示装置、表示システム及び光源装置
JP4720330B2 (ja) 液晶表示装置、表示方法及び電子機器
US20220076642A1 (en) Display device and display system
JP2015138217A (ja) 電気光学装置および電子機器
US20240013744A1 (en) Display device
US20230328221A1 (en) Display device and panel bonding system comprising the same
JP2021047555A (ja) センサ付き表示装置
CN111796421B (zh) 头戴式显示器用显示装置和头戴式显示器
WO2023119831A1 (ja) 表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21781396

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21781396

Country of ref document: EP

Kind code of ref document: A1