WO2016031224A1 - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
WO2016031224A1
WO2016031224A1 PCT/JP2015/004232 JP2015004232W WO2016031224A1 WO 2016031224 A1 WO2016031224 A1 WO 2016031224A1 JP 2015004232 W JP2015004232 W JP 2015004232W WO 2016031224 A1 WO2016031224 A1 WO 2016031224A1
Authority
WO
WIPO (PCT)
Prior art keywords
image display
angle
display device
unit
gamma correction
Prior art date
Application number
PCT/JP2015/004232
Other languages
English (en)
French (fr)
Inventor
仁 宮澤
数生 中村
田中 紀行
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US15/505,372 priority Critical patent/US20170278483A1/en
Publication of WO2016031224A1 publication Critical patent/WO2016031224A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3607Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals for displaying colours or for displaying grey scales with a specific pixel layout, e.g. using sub-pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/08Details of timing specific for flat panels, other than clock recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • the present invention relates to an image display device, and more particularly, to an image display device that performs appropriate gamma correction in accordance with a viewing direction and a viewing angle with respect to a display panel.
  • LCD panels have been adopted for image display devices (or monitors) included in televisions, mobile phones, and car navigation devices due to the increase in size and thickness of liquid crystal display (LCD) panels. Many.
  • an image display device including a CRT and a liquid crystal display device has a unique gamma characteristic (also called a gradation characteristic).
  • the gamma characteristic means a characteristic in which input / output is not directly proportional (straight line) but logarithmic (gamma), such as a light output characteristic on the image display apparatus with respect to the signal intensity of input image data.
  • the gamma characteristic does not have linearity. Therefore, when high-precision image data is displayed on the image display device, gamma correction (gradation correction) is performed on the image display device according to the display content of the image (for example, according to RGB). Adjustment is required.
  • the LCD panel or the like has a problem that the gamma characteristic varies depending on the line-of-sight angle and the line-of-sight direction of the user with respect to the image display device.
  • FIG. 16A shows an example of a gamma characteristic curve when the image display device is viewed from above.
  • FIG. 16B shows an example of a gamma characteristic curve when the image display device is viewed from the right side.
  • the change in the gamma characteristic value when the image display apparatus is viewed from the upper side or the lower side is larger than the change in the gamma characteristic value when the image display apparatus is viewed from the right side or the left side.
  • Various countermeasures have been conventionally considered in consideration of the nature of such gamma characteristics.
  • Patent Document 1 discloses an image processing apparatus provided with a camera.
  • the image processing apparatus acquires face images of N viewers (N is equal to or greater than 1), calculates a viewing angle and a rotation angle for each of the N displays from the face image, and the viewing angle and the rotation angle.
  • the gradation correction is performed based on the above.
  • the gradation correction is performed based on gradation correction data (correction information corresponding to each of the viewing angle and the rotation angle) stored in advance in the image processing apparatus.
  • Patent Document 2 discloses a liquid crystal display device provided with a gamma correction table (and may have a table for each of RGB) corresponding to each of the vertical and horizontal line-of-sight angles.
  • the liquid crystal display device uses an acceleration sensor to acquire an attachment angle ⁇ 1 of the device display, calculates an offset angle ⁇ 2 from position information with respect to ⁇ 1 input by the user, and calculates a user's line-of-sight angle ⁇ . Then, gamma correction is performed based on the line-of-sight angle ⁇ .
  • gamma correction data (LUT) corresponding to each viewing angle is provided, and the subject is imaged by an imaging unit such as a camera, and the viewing angle of the subject is calculated from the captured image.
  • An invention for performing gamma correction (saturation correction) based on the viewing angle is disclosed.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to determine a user's line-of-sight direction based on an operation such as a user's touch input and to perform gamma correction according to the line-of-sight direction.
  • An object of the present invention is to provide an image display device that can perform the above-described operation.
  • a first aspect of an image display device is an image display device, and includes a display panel and a plurality of touch detection regions provided in each direction of the display panel. And a direction corresponding to a position where the plurality of touch detection areas are provided based on the first input operation detected and the detected first input operation.
  • the angle data storage unit storing the first angle data defined for each line-of-sight direction with respect to the image display device, the determined direction and the stored first angle data
  • a gamma correction unit that applies a first gamma correction value to an image displayed on the display panel.
  • an image display unit that displays an input interface on the display panel, and the input interface
  • An angle conversion unit that calculates second angle data based on the second input operation input in step S1
  • the gamma correction unit includes the first angle data based on the calculated second angle data.
  • the second gamma correction value is applied to an image to which the above gamma correction value is applied.
  • the angle conversion unit stores the calculated second angle data in the angle data storage.
  • the first angle data is stored in the unit.
  • the first gamma correction value and the second gamma correction value are applied as follows: ⁇ is a gamma value that the display panel has, and N is determined in advance according to the determined direction.
  • the correction coefficient is set, and ⁇ is an angle corresponding to the first angle data and the second angle data.
  • the input interface is oriented according to the determined direction. It is displayed by.
  • a sixth aspect of the image display device is the image display device according to any one of the first to fifth aspects of the present invention, wherein the display panel includes a plurality of image display areas, The image display device determines whether one of the plurality of image display areas is selected based on a second touch detection unit that detects a third input operation and the detected third input operation. And a gamma correction unit that applies the first gamma correction value to the determined image display area.
  • a seventh aspect of the image display device is an image display device, comprising: a display panel; and a plurality of sound detection units that are provided in each direction of the image display device and detect sound. Based on the detected voice, a direction determination unit that determines a voice arrival direction, an angle data storage unit that stores first angle data defined for each line-of-sight direction with respect to the image display device, and the determination. And a gamma correction unit that applies a first gamma correction value to an image displayed on the display panel based on the arrival direction and the stored first angle data.
  • an image display unit for displaying an input interface on the display panel and the input interface are used.
  • An angle conversion unit that calculates second angle data based on the first input operation input in step S1 and the gamma correction unit includes the first angle data based on the calculated second angle data.
  • the second gamma correction value is applied to an image to which the above gamma correction value is applied.
  • the angle conversion unit stores the calculated second angle data in the angle data storage.
  • the first angle data is stored in the unit.
  • is a gamma value of the display panel
  • N is determined according to the determined direction of arrival. It is a correction coefficient set in advance
  • is an angle corresponding to the first angle data and the second angle data.
  • An eleventh aspect of the image display device is the image display device according to any of the eighth to tenth aspects of the present invention, wherein the input interface is in accordance with the determined direction of arrival. It is displayed in the direction.
  • the twelfth aspect of the image display device according to the present invention is the image display device according to any of the seventh to eleventh aspects of the present invention, wherein the display panel includes a plurality of image display areas,
  • the image display device further includes an image region determination unit that determines whether one of the plurality of image display regions is selected based on a second input operation received by the image display device, and the gamma correction unit Applies the first gamma correction value to the determined image display area.
  • a thirteenth aspect of the image display device is an image display device, wherein the display panel and the first touch detection region provided in any of the plurality of touch detection areas provided in the respective directions of the display panel are provided.
  • a first touch detection unit for detecting an input operation; a first angular velocity when the image display device is rotated about a center of a side surface in the length direction of the image display device; and a side surface in the width direction of the image display device And a direction corresponding to a position where the plurality of touch detection areas are provided based on the detected first input operation and a tilt detection unit that detects a second angular velocity when the center is rotated about the axis of the axis
  • a direction / angle determination unit that determines a first angle based on the detected first angular velocity and determines a second angle based on the detected second angular velocity And the determined direction, and
  • a gamma correction unit that applies a first gamma correction value to an image displayed on the display panel using the determined first angle or
  • an image display unit for displaying an input interface on the display panel, and the input interface And an angle conversion unit that calculates angle data based on the second input operation input in the step, and the gamma correction unit applies the first gamma correction value based on the calculated angle data.
  • a second gamma correction value is applied to the processed image.
  • the gamma correction unit is configured to determine the determined first value based on the determined direction. The use of either an angle of 1 or the determined second angle is selected.
  • the gamma correction unit is configured to determine the value of the determined first angle and the determined value. Based on the value of the second angle, it is selected to use either the determined first angle or the determined second angle.
  • the input interface is displayed in an orientation corresponding to the determined direction.
  • An eighteenth aspect of the image display device is the image display device according to any one of the thirteenth to seventeenth aspects of the present invention, wherein the display panel includes a plurality of image display areas, The image display device determines whether one of the plurality of image display areas is selected based on a second touch detection unit that detects a third input operation and the detected third input operation. And a gamma correction unit that applies the first gamma correction value to the determined image display area.
  • the image display apparatus can perform optimal gamma correction according to the user's line-of-sight direction even in a situation where the user cannot be imaged with high accuracy, such as when the user is in a dark room.
  • the image display device according to the present invention is assumed to be applied to an image display device having a viewing angle dependency such as a liquid crystal display device.
  • FIG. 1 is a block diagram showing an example of the configuration of the image display apparatus according to the first embodiment of the present invention.
  • the image display apparatus 1 includes a display control unit 101, a timing signal generation unit 102, an image display unit (display panel) 103, a source driver 104, a data signal line 105, a gate driver 106, a gate signal line 107, a gamma data storage unit 108, A gamma correction unit 109, a touch sensor 110, a direction determination unit 111, an angle conversion unit 112, an angle data storage unit 113, and an image region determination unit 114 are provided.
  • the display control unit 101 converts the input image signal X received from the outside into an output image signal Y1 by performing a predetermined process, and outputs it to the gamma correction unit 109.
  • the timing signal generator 102 outputs timing signals such as a source clock signal and a source start pulse signal to the source driver 104. Further, the timing signal generation unit 102 outputs timing signals such as a gate clock signal and a gate start pulse signal to the gate driver 106.
  • the image display unit 103 has display elements (not shown) such as a plurality of thin film transistors (TFTs) arranged in a matrix at positions where the data signal lines 105 and the gate signal lines 107 intersect.
  • display elements such as a plurality of thin film transistors (TFTs) arranged in a matrix at positions where the data signal lines 105 and the gate signal lines 107 intersect.
  • a data signal line 105 and a gate signal line 107 are connected to each display element.
  • the source driver 104 supplies a voltage signal for controlling the light transmittance of the display element to each of the plurality of data signal lines 105 in accordance with the gradation of the output image signal Y2.
  • This voltage signal is supplied based on timing signals such as a source clock signal and a source start pulse signal output from the timing signal generator 102.
  • the gate driver 106 supplies an address signal for selectively driving each display element connected to each of the gate signal lines 107 to each of the plurality of gate signal lines 107.
  • This address signal is supplied based on timing signals such as a gate clock signal and a gate start pulse signal output from the timing signal generator 102.
  • the gamma data storage unit 108 stores a plurality of gamma correction tables 1, 2,.
  • the plurality of gamma correction tables are stored in the image display unit 103 based on the normal direction of the image display unit 103 or based on the normal direction of each of the plurality of divided image display areas of the image display unit 103.
  • the direction in which the line of sight is directed (for example, the direction when the image display unit 103 is viewed from the top, bottom, left, or right direction, hereinafter referred to as “line of sight”) and the direction of the line of sight. It corresponds to gamma characteristics defined for each line-of-sight angle (hereinafter referred to as “line-of-sight angle”) with respect to the normal direction.
  • the gamma characteristic varies depending on the viewing direction and viewing angle with respect to the image display unit 103.
  • the present embodiment includes a gamma correction table having correction values indicated by the gamma correction curves shown in FIGS. 2A and 2B.
  • the gamma correction table is defined for each line-of-sight direction and line-of-sight angle (the line-of-sight angle may be defined every degree or every few degrees).
  • the correction value shown in the gamma correction table can be calculated by the following equation 2 based on the gamma characteristic value for each line-of-sight direction and line-of-sight angle.
  • Output luminance (y) 255 ⁇ (input gradation (x) / 255) ⁇ (1 / ⁇ (gamma value of image display device))
  • the gamma correction table may be provided for each RGB.
  • the line-of-sight direction and the line-of-sight angle described above are based on the normal direction of the image display unit 103 or the normal direction of each of the divided image display areas, but are not limited thereto.
  • the line-of-sight direction and the line-of-sight angle may be based on an arbitrary position on the horizontal plane of the image display device 1 (hereinafter, the same applies to the second to fourth embodiments).
  • the gamma correction table is acquired from the gamma data storage unit 108 based on the angle corresponding to the angle signal). Based on the acquired gamma correction table, the gamma correction unit 109 performs gamma correction (converts gradation values) on the output image signal Y1 output from the display control unit 101, and converts it to the output image signal Y2. To do.
  • the gamma correction unit 109 stores the angle data storage unit 113 with respect to the gaze direction based on the gaze direction indicated by the direction signal output from the direction determination unit 111.
  • Gamma correction is performed by a correction value calculation formula using the stored line-of-sight angle as a variable.
  • the gamma correction is performed for each region of the image display unit 103 indicated by the coordinate signal output from the image region determination unit 114.
  • the output image signal Y2 is output to the source driver 104.
  • the touch sensor 110 detects a predetermined input operation (for example, a touch operation, a tap operation, a slide operation, etc.) by a user using a technique such as a resistance film method or a capacitance method.
  • a predetermined input operation for example, a touch operation, a tap operation, a slide operation, etc.
  • the touch sensor 110 converts the touched position or the released position into X-axis and Y-axis coordinate signals and outputs them to the direction determination unit 111, the angle conversion unit 112, and the image region determination unit 114.
  • the touch sensor 110 has a plurality of touch detection areas provided on the display screen of the image display unit 103 and / or around the display screen.
  • the direction determination unit 111 determines the line-of-sight direction of the user with respect to the image display unit 103 based on the coordinate signal output from the touch sensor 110, and outputs it to the gamma correction unit 109 as a direction signal.
  • the angle conversion unit 112 determines the line-of-sight angle corresponding to the gamma correction value variable designated by the user based on the coordinate signal output from the touch sensor 110, and outputs it to the gamma correction unit 109 as an angle signal.
  • the angle data storage unit 113 stores the angle signal (angle data) output from the angle conversion unit 112 for each line-of-sight direction determined by the direction determination unit 111.
  • the image area determination unit 114 determines the image display area of the image display unit 103 selected by the user based on the coordinate signal output from the touch sensor 110. Further, the image area determination unit 114 outputs a coordinate signal corresponding to the image display area to the gamma correction unit 109.
  • a backlight and a control unit for driving the backlight are provided in addition to the above-described elements. Since the elements are techniques well known to those skilled in the art, description thereof will be omitted.
  • FIG. 3 shows an example in which the image display device 1 is mounted on a portable terminal, and shows that users A and B are looking at each of the divided image display areas on the image display unit 103.
  • the image display device 1 includes an image display unit 103 and a touch sensor 110.
  • the touch sensor 110 includes touch detection areas 110 a, 110 b, 110 c, and 110 d at four places on the image display unit 103, up and down, left and right, and / or four places around the image display unit 103. .
  • four sensors are provided according to four directions of up, down, left, and right, but eight directions (up, down, left, right, upper left, lower left, upper right, lower right) or 16 directions (up, Bottom, left, right, top left, bottom left, top right, bottom right, top right top, top right, bottom right bottom, bottom right right, top left top, top left left, bottom left bottom, bottom left left)
  • the number of touch detection areas may be provided.
  • the image display unit 103 includes a plurality of divided image display areas 103a and 103b. Located point P a is the center of the image display region 103a, the line of sight SL a gaze of the user A to the point P a. Also, the location point P b at the center of the image display area 103b, a line of sight SL b gaze of the user B to the point P b. A point P is located at the center of the image display unit 103. An axis that passes through the point P and is horizontal in the width direction of the image display unit 103 is defined as an X axis. An axis that passes through the point P and is horizontal in the length direction of the image display unit 103 is defined as a Y axis. The normal points P a and Z a-axis, the normal of the point P b and Z b axis.
  • the line of sight SL a are those directed from the right side of the X-axis direction of the image display unit 103. Therefore, line of sight angle of the line of sight SL a is represented by the line-of-sight angle theta a to be formed between the direction of the X axis of the Z a-axis and the line of sight SL a.
  • the line of sight SL b is directed from the upper side of the image display unit 103 in the Y-axis direction. Therefore, line of sight angle of the line of sight SL b is represented by the line-of-sight angle theta b formed between the direction of the Y-axis of the Z b-axis and the line of sight SL b.
  • the user A performs a predetermined input operation such as a touch operation or a tap operation on the image display area 103a.
  • the user A performs an input operation similar to the above on the touch detection area 110b.
  • perform an input operation to the image display area 103a is because line of sight SL a user A is directed to an image display region 103a.
  • perform an input operation with respect to the touch detection region 110b is gaze SL a are directed from the right side of the X-axis direction, and a touch detection region 110b is the This is because it is provided at a position corresponding to the direction.
  • the touch sensor 110 detects a predetermined input operation using a user's finger or the like, converts the position touched by the finger into X-axis and Y-axis coordinate signals, and outputs them to the image area determination unit 114 (step S401).
  • the image area determination unit 114 determines whether the user has selected one of the image display areas 103a and 103b based on the coordinate signal output in step S401. In this determination, coordinate data (X, Y) corresponding to each of the image display areas 103a and 103b is defined in advance, and it is determined whether an input operation is detected in the area corresponding to the defined coordinate data. Is done by.
  • the image area determination unit 114 outputs a coordinate signal indicating the selected image display area to the gamma correction unit 109 (step S402).
  • an input operation performed in the image display area is detected, but the present invention is not limited to such a configuration.
  • the selection of an image display area may be determined by displaying thumbnails corresponding to the image display areas 103a and 103b and detecting an input operation on the thumbnails (hereinafter referred to as the second to fourth embodiments). The same applies to the embodiment).
  • the touch sensor 110 detects a predetermined input operation by a user's finger or the like, converts the position touched by the finger into X-axis and Y-axis coordinate signals, and outputs them to the direction determination unit 111 (step S403).
  • the direction determination unit 111 determines whether the user's input operation has been performed on any of the touch detection areas 110a to 110d based on the coordinate signal output in step S403. In this determination, coordinate data (X, Y) corresponding to each of the touch detection areas 110a to 110d is defined in advance, and it is determined whether an input operation is detected in the area corresponding to the defined coordinate data. Is done by.
  • the direction determination unit 111 outputs an indication indicating the determination result to the gamma correction unit 109 as a direction signal (step S404).
  • the gamma correction unit 109 receives a gamma from the gamma data storage unit 108 based on the gaze direction indicated by the direction signal output from the direction determination unit 111 and the angle data stored for each gaze direction in the angle data storage unit 113. Get the correction table.
  • angle data for a specific direction is not stored in the angle data storage unit 113 (that is, in an initial state)
  • an arbitrary value may be stored as an initial value (for example, a viewing angle when viewed from above) 15 degrees
  • the line-of-sight angle when viewed from the lower side is 30 degrees
  • the line-of-sight angle when viewed from the left side is 45 degrees
  • the line-of-sight angle when viewed from the right side is 60 degrees).
  • the defined line-of-sight angle may be set to an arbitrary value for each line-of-sight direction by the user.
  • the gamma correction unit 109 When the gamma correction unit 109 acquires the gamma correction table, the gamma correction unit 109 performs gamma correction on the output image signal Y1 output from the display control unit 101 for each image display area indicated by the coordinate signal output in step S402.
  • the output image signal subjected to the gamma correction is output to the source driver 104 as the output image signal Y2 (step S405).
  • FIG. 5 shows a correction value adjustment input gauge 501 and a correction value adjustment input indicator 502.
  • the correction value adjustment input gauge 501 and the correction value adjustment input indicator 502 are displayed in a positive direction when the image display unit 103 is viewed from the right side. As described above, the correction value adjustment input gauge 501 and the correction value adjustment input indicator 502 may be configured to be displayed based on the line-of-sight direction determined by the direction determination unit 111.
  • the input interface can be displayed in an appropriate orientation for the user based on the line-of-sight direction indicated by the direction signal output from the direction determination unit 111.
  • the correction value adjustment input gauge 501 and the correction value adjustment input indicator 502 are set to the determined line-of-sight direction. Regardless, it may be displayed in a fixed orientation.
  • the correction value adjustment input gauge 501 and the correction value adjustment input indicator 502 are input interfaces for further correcting the output luminance of the output image corrected in step S405.
  • the touch sensor 110 sets the position where the contact by the slide is released to the X axis and It converts into the coordinate signal of a Y-axis, and outputs it to the angle conversion part 112 (step S407).
  • the angle conversion unit 112 determines the position of the correction value adjustment input indicator 502 on the correction value adjustment input gauge 501 based on the coordinate signal output in step S407.
  • the angle conversion unit 112 converts a value corresponding to the determined position into an angle signal and outputs the angle signal to the gamma correction unit 109 (step S408).
  • the conversion into the angle signal may be performed by a mapping table (not shown) in which the coordinate information indicated by the coordinate signal corresponds to the line-of-sight angle.
  • the angle conversion unit 112 stores the angle signal (angle data) converted in step S408 in the angle data storage unit 113 for each line-of-sight direction determined by the direction determination unit 111 in step S404 (step S409). .
  • angle data angle data
  • step S409 the angle signal (angle data) converted in step S408 in the angle data storage unit 113 for each line-of-sight direction determined by the direction determination unit 111 in step S404 (step S409).
  • the gamma correction unit 109 acquires the gamma correction table again based on the line-of-sight angle ⁇ indicated by the angle signal output from the angle conversion unit 112.
  • the gamma correction is performed again for each image display area indicated by the coordinate signal output in step S402 based on the gamma correction value.
  • the output image signal subjected to the gamma correction again is output to the source driver 104 as the output image signal Y2 (step S410).
  • gamma correction may be performed using the following correction value calculation formula (Formula 3).
  • the gamma correction unit 109 uses the line-of-sight angle ⁇ indicated by the angle data stored in the angle data storage unit 113 or the line-of-sight angle ⁇ indicated by the angle signal output from the angle conversion unit 112 as a variable. A correction value is calculated.
  • an appropriate gamma correction is performed using the value of N corresponding to the direction and the value of the line-of-sight angle ⁇ corresponding to the line-of-sight angle as input variables, so the amount of data in the gamma correction table is unnecessarily large. Can be prevented.
  • the method of performing gamma correction using this correction value calculation formula may be employed in second to fourth embodiments described later.
  • the present embodiment there is also a user B who is looking toward the image display area 103b from a direction different from the user A. Accordingly, by performing gamma correction on the image displayed on the image display area 103b by the method described above, the user B applies different gamma correction values to the images displayed on the respective image display areas. be able to.
  • the example in which the image display unit 103 includes a plurality of image display areas has been described. However, the image display unit 103 may be configured by a single image display area. In such an example, steps S401 and S402 described above are not necessary.
  • the first embodiment according to the present invention has been described, but the first embodiment is appropriate even in a situation where the user cannot be imaged with high accuracy, such as when the user is in a dark room.
  • Gamma correction can be performed.
  • a portable terminal and a car navigation device a user often operates a device within a range where a finger can be directly touched, and a touch operation is an effective input means. For this reason, the above-described advantages become more prominent by mounting the image display device according to the present embodiment on a portable terminal or a car navigation device.
  • gamma correction is performed on the images in the respective image display areas, it is optimal for each user even in a situation where there are a plurality of users who are looking at the images in the respective image display areas from different directions. Gamma correction can be performed.
  • FIG. 6 is a block diagram showing an example of the configuration of the image display apparatus according to the second embodiment of the present invention.
  • the image display apparatus 1 includes a display control unit 601, a timing signal generation unit 602, an image display unit (display panel) 603, a source driver 604, a data signal line 605, a gate driver 606, a gate signal line 607, a gamma data storage unit 608, A gamma correction unit 609, a touch sensor 610, a direction determination unit 611, an angle conversion unit 612, an angle data storage unit 613, a sound detection unit 614, and an image area determination unit 615 are provided.
  • the direction determination unit 611 determines the line-of-sight direction of the user with respect to the image display unit 603 based on the arrival time or voltage value of the audio signal output from the audio detection unit 614, and outputs it to the gamma correction unit 609 as a direction signal.
  • the sound detection unit 614 includes a microphone 6141 that receives sound waves emitted by the user, and a sound sensor 6142 that detects sound waves and converts them into sound signals.
  • the audio sensor 6142 converts the sound wave received by the microphone 6141 into an audio signal and outputs the audio signal to the direction determination unit 611.
  • FIG. 7 shows an example in which the image display device 1 is mounted on a car navigation device, and shows that users A and B are looking at each of the divided image display areas on the image display unit 103.
  • the image display device 1 includes sound detection units 614 a, 614 b, 614 c, and 614 d at four locations on the top, bottom, left, and right around the image display unit 603.
  • the voice detection unit includes at least an isosceles triangle (for example, three locations such as lower right, lower left and upper center) or an inverted isosceles triangle (for example, upper right, upper left and lower center) from the center of the image display unit 603.
  • the image display unit 603 includes a plurality of divided image display areas 603a and 603b. Located point P a is the center of the image display region 603a, the line of sight SL a gaze of the user A to the point P a. Also, the location point P b at the center of the image display area 603b, a line of sight SL b gaze of the user B to the point P b.
  • the point P is located at the center of the image display unit 603, passes through the point P, and the horizontal axis in the width direction of the image display unit 603 is taken as the X axis. An axis that passes through the point P and is horizontal in the length direction of the image display unit 603 is taken as a Y axis.
  • line of sight angle of the line of sight SL a is represented by the line-of-sight angle theta a to be formed between the direction of the X axis of the Z a-axis and the line of sight SL a.
  • the line of sight SL b is directed from the upper side of the image display unit 603 in the Y-axis direction. Therefore, line of sight angle of the line of sight SL b is represented by the line-of-sight angle theta b formed between the direction of the Y-axis of the Z b-axis and the line of sight SL b.
  • the user A performs a predetermined input operation such as a touch operation or a tap operation on the image display area 603a.
  • a predetermined input operation such as a touch operation or a tap operation on the image display area 603a.
  • each of the microphones 6141a to 6141d of the four sound detection units 614a to 614d receives the sound wave AW.
  • perform an input operation to the image display area 603a is because line of sight SL a user A is directed to an image display region 603a.
  • Steps S801, S802, S805, S806, and S808 to S810 shown in FIG. 8 are the same as steps S401, S402, S405, S406, and S408 to S410 of FIG. 4 described in the first embodiment.
  • the description here is omitted.
  • each of the microphones 6141a to 6141d receives the sound wave AW emitted by the user. Also, each of the sound sensors 6142a to 6142d converts the sound wave AW into sound signals AS a to AS d and outputs them to the direction determination unit 611.
  • step S804 the direction determination unit 611 determines the arrival times T a to T d of the audio signals AS a to AS d output from the audio sensors 6142a to 6142d in step S803. Then, the direction corresponding to the position where the voice detection unit that detects the voice signal earliest from among the arrival times T a to T d is determined as the user's line-of-sight direction. In this direction determination, the voltage values of the detected audio signals AS a to AS d are compared, and the direction corresponding to the position where the audio detection unit that detects the highest voltage value is provided is the user's line-of-sight direction. You may comprise so that it may determine. The direction determination unit 611 outputs the determination result to the gamma correction unit 609 as a direction signal.
  • the voice detection unit 614 when the voice detection unit 614 is provided in three places (for example, the voice detection unit 614a is provided in the upper right, the voice detection unit 614b is provided in the upper left, and the voice detection unit 614c is provided in the lower center), the following In this way, the line-of-sight direction is determined. That is, the arrival times T a and T b of the audio signals AS a and AS b output from the microphone 6141a of the audio detection unit 614a and the microphone 6141b of the audio detection unit 614b are the same or the time difference between the two is predetermined. If it is within the value, the line-of-sight direction is determined to be upward.
  • step S807 the touch sensor 610 outputs a coordinate signal to the angle conversion unit 612 in accordance with a user's slide operation or the like.
  • the operation by the correction value adjustment input indicator 502 may be performed by an operation of a remote controller generally used in a television or the like (the same applies to the selection of the image display area in step S801).
  • the image display apparatus 1 includes a receiver (not shown), and the receiver receives and demodulates the signal wave emitted from the remote controller, converts the signal wave into an electric signal, and converts the angle wave into an angle converter 612. (In step S801, the received and demodulated electrical signal is output to the image region determination unit 615).
  • the second embodiment according to the present invention has been described.
  • the second embodiment has the same advantages as the first embodiment.
  • this embodiment by mounting this embodiment on a car navigation device, the driver cannot release his hand from the steering wheel while driving, but this is effective when it is desired to adjust the brightness of the image display device of the car navigation device.
  • the driver makes a sound, and the readjustment of the image is performed by the touch operation of the passenger in the passenger seat, so that the driver is optimal when viewed from his own position without taking his hand off the steering wheel.
  • This has the advantage that re-correction can be performed while applying the gamma correction value.
  • this embodiment by mounting this embodiment on a television, the user can make a sound and readjustment can be performed by operating a remote controller. Therefore, there is an advantage that re-correction can be performed while applying an optimal gamma correction value based on the position of a user who views a television set in a range out of reach.
  • FIG. 9 is a block diagram showing an example of the configuration of an image display apparatus according to the third embodiment of the present invention.
  • the image display apparatus 1 includes a display control unit 901, a timing signal generation unit 902, an image display unit (display panel) 903, a source driver 904, a data signal line 905, a gate driver 906, a gate signal line 907, a gamma data storage unit 908, A gamma correction unit 909, a touch sensor 910, a direction / angle determination unit 911, an angle conversion unit 912, an angle data storage unit 913, an inclination detection unit 914, and an image area determination unit 915 are provided.
  • the conversion unit 912, the angle data storage unit 913, and the image area determination unit 915 are the same as the respective elements described in FIG.
  • the direction / angle determination unit 911 determines the line-of-sight direction of the user with respect to the image display unit 903 in response to the touch sensor 910 detecting a predetermined input operation by the user, and outputs it to the gamma correction unit 909 as a direction signal. In addition, the direction / angle determination unit 911 calculates each angle of the rotation angle (Roll) and the inclination angle (Pitch) based on each angular velocity signal indicating the angular velocity output from the inclination detection unit 914, and obtains the angle signal. The data is output to the gamma correction unit 909.
  • the inclination detection unit 914 includes an acceleration sensor 9141 and a gyro sensor 9142.
  • the tilt detection unit 914 combines them to detect an angular velocity when the user tilts the image display device 1 and outputs the angular velocity signal to the direction / angle determination unit 911 as an angular velocity signal.
  • the image display apparatus according to the third embodiment of the present invention is mainly assumed to be mounted on a portable terminal including a smartphone and a tablet terminal, but is not limited thereto.
  • FIG. 10 shows that users A and B are looking at each of the divided image display areas on the image display unit 903.
  • the image display device 1 includes an image display unit 903 and a touch sensor 910.
  • the touch sensor 910 includes touch detection areas 910a, 910b, 910c, and 910d at four locations on the image display unit 903, up and down, left and right, or four locations on the top and bottom, left and right around the image display unit 903, respectively.
  • four sensors are provided according to the four directions of up, down, left, and right, but the respective numbers of touch detection areas may be provided according to a plurality of directions such as eight directions or sixteen directions.
  • the image display unit 903 includes a plurality of divided image display areas 903a and 903b. And the center position point P a to the image display region 903a, the line of sight SL a gaze of the user A to the point P a. Also, the location point P b at the center of the image display area 903b, a line of sight SL b gaze of the user B to the point P b.
  • the point P1 is located at the center of the image display unit 903
  • the point P2 is located at the center of the side surface in the length direction
  • the point P3 is located at the center of the side surface in the width direction.
  • An axis that passes through the point P2 and is horizontal in the width direction of the image display unit 903 is taken as an X axis.
  • An axis that passes through the point P3 and is horizontal in the length direction of the image display unit 903 is taken as a Y axis.
  • a state in which this state is an initial state and the user rotates the image display device 1 around the Y axis is indicated by a broken line 1a in FIG.
  • the X axis, the Z a axis, and the Z b axis after rotation are respectively indicated as X1, Z a1, and Z b1 .
  • the line of sight SL a are those directed from the right side of the X-axis direction of the image display unit 903. Therefore, line of sight angle of the line of sight SL a is represented by the line-of-sight angle theta a to be formed between the direction of the X axis Z a1 gaze SL a.
  • the line of sight SL b is directed from the upper side of the image display unit 903 in the Y-axis direction. Therefore, line of sight angle of the line of sight SL b is represented by the line-of-sight angle theta b formed between the direction of the Y-axis of the Z b1 axis and line of sight SL b.
  • the user A performs a predetermined input operation such as a touch operation or a tap operation on the image display area 903a.
  • the user A performs an input operation similar to the above on the touch detection area 910b.
  • perform an input operation to the image display area 903a is because line of sight SL a user A is directed to an image display region 903a.
  • perform an input operation with respect to the touch detection region 910b is gaze SL a is directed from the right side of the X-axis direction, and a touch detection region 910b is the This is because it is provided at a position corresponding to the direction.
  • Steps S1101 to S1104 and S1106 to S1112 shown in FIG. 11 are the same as steps S401 to S404 and S406 to S410 of FIG. 4 described in the first embodiment, and thus description thereof is omitted here.
  • step S1105 the tilt detection unit 914, an angular velocity when the rotating point P 3 of the angular velocity omega p, and the width direction side when the rotation of the points P 2 in the length direction side image display device 1 in the axial to the axis ⁇ r is detected, and each is output to the direction / angle determination unit 911 as an angular velocity signal.
  • step S1106 the direction / angle determination unit 911 calculates the inclination angle ⁇ p according to Equation 4 from the angular velocity ⁇ p output from the inclination detection unit 914 in step S1105. Further, the rotation angle ⁇ r is calculated from the angular velocity ⁇ r output from the inclination detection unit 914 in step S1105 according to Equation 5.
  • t is the time when the inclination detection unit 914 detects the angular velocity ⁇ p and the angular velocity ⁇ r .
  • t is the time when the inclination detection unit 914 detects the angular velocity ⁇ p and the angular velocity ⁇ r .
  • Figure 12A when viewed image display device 1 from the longitudinal side, a side view of the point P 2 is indicated that by rotating the shaft in the center in the length direction side.
  • the image display device 1 a horizontal axis in the length direction and Y-axis.
  • a state of rotating the image display device 1 is indicated by broken lines 1a, respectively show Y-axis and Z-axis after rotation at each Y 1 and Z 1.
  • An angle formed between the Z axis and the Z 1 axis is defined as an inclination angle ⁇ p .
  • Figure 12B when viewed image display device 1 from the width direction side, a side view showing that rotates the point P 3 located at the center in the width direction side in the axial.
  • the point P 3 Through the point P 3, and X-axis the horizontal axis in the width direction of the image display device 1.
  • a state of rotating the image display device 1 is indicated by broken lines 1b, respectively show X-axis and Z-axis after rotation with X 1 and Z 1 respectively.
  • An angle formed between the Z axis and the Z 1 axis is defined as a rotation angle ⁇ r .
  • step S1106 the direction / angle determination unit 911 calculates the tilt angle ⁇ p and the rotation angle ⁇ r described above, and outputs them to the gamma correction unit 909 as angle signals.
  • the gamma correction unit 909 includes the direction indicated by the direction signal output from the direction / angle determination unit 911, the inclination angle ⁇ p and the rotation angle indicated by the angle signal output from the direction / angle determination unit 911. based on the theta r, to obtain a gamma correction table from the gamma data storage unit 908.
  • the direction signal indicates the up or down direction (vertical direction)
  • the direction signal indicates the left or right direction (horizontal direction)
  • the gamma correction table based on the rotation angle theta r from the correction table may be acquired.
  • the direction signal indicates the horizontal direction and the value of the inclination angle ⁇ p is larger than a predetermined numerical value as compared with the value of the rotation angle ⁇ r , the opposite is true (in the first embodiment).
  • the line-of-sight direction and line-of-sight angle are determined).
  • the image display device 1 is actually tilted sideways.
  • the gamma correction unit 909 When obtaining the gamma correction table, the gamma correction unit 909 performs gamma correction on the output image signal Y1 output from the display control unit 901, and outputs the output image signal Y2 to the source driver 904.
  • the third embodiment according to the present invention has been described.
  • the third embodiment has the same advantages as the first embodiment and is optimal in accordance with the inclination of the portable terminal.
  • a touch operation or the like becomes an effective input means due to its formality, and the above-described advantages become more remarkable by mounting the image display device according to the present embodiment on the portable terminal.
  • FIG. 13 is a block diagram showing an example of the configuration of an image display apparatus according to the fourth embodiment of the present invention.
  • the image display apparatus 1 includes a display control unit 1301, a timing signal generation unit 1302, an image display unit (display panel) 1303, a source driver 1304, a data signal line 1305, a gate driver 1306, a gate signal line 1307, a gamma data storage unit 1308, A gamma correction unit 1309, a direction determination unit 1310, an angle conversion unit 1311, an angle data storage unit 1312, a receiver 1313, and an image area determination unit 1315 are provided.
  • Reference numeral 1312 is the same as each element described in FIG.
  • the direction determination unit 1310 determines the line-of-sight direction of the user with respect to the image display unit 1303 based on the arrival time of the electric signal output from the receiver 1313 and outputs the direction signal to the gamma correction unit 1309.
  • the angle conversion unit 1311 converts the gamma correction value variable designated by the user indicated by the electric signal output from the receiver 1313 into a line-of-sight angle, and outputs it to the gamma correction unit 1309 as an angle signal.
  • the receiver 1313 receives a signal wave emitted from the remote controller 1314 when the user performs a predetermined input operation via the remote controller 1314.
  • the receiver 1313 demodulates the received signal wave, converts it into an electrical signal, and outputs it to the direction determination unit 1310 and the image region determination unit 1315.
  • the image area determination unit 1315 determines the image display area of the image display unit 1303 selected by the user based on the electrical signal output from the receiver 1313, and outputs the coordinate signal corresponding to the image display area to the gamma correction unit 1309. Output to.
  • FIG. 14 shows that users A and B are looking at each of the divided image display areas on the image display unit 1303.
  • the image display apparatus 1 includes receivers 1313a, 1313b, 1313c, and 1313d, respectively, at four locations around the top, bottom, left, and right.
  • the respective number of receivers may be provided according to a plurality of directions such as eight directions or sixteen directions.
  • the receiver has at least three isosceles triangles (for example, three locations such as lower right, lower left and upper center) or inverted isosceles triangles (for example, upper right, upper left and lower center) from the center of the image display unit 1303. By providing three receivers so as to draw a location), it is possible to determine the user's line-of-sight direction by detecting a signal wave described later.
  • the image display unit 1303 includes a plurality of divided image display areas 1303a and 1303b. And the center position point P a to the image display area 1303a, and the line of sight SL a gaze of the user A to the point P a. Also, the location point P b at the center of the image display area 1303 b, and the line of sight SL b gaze of the user B to the point P b.
  • a point P is located at the center of the image display unit 1303.
  • An axis that passes through the point P and is horizontal in the width direction of the image display unit 1303 is taken as an X axis.
  • An axis that passes through the point P and is horizontal in the length direction of the image display unit 1303 is taken as a Y axis.
  • line of sight SL a is directed from the right side of the image display unit 1303 in the X-axis direction. Therefore, line of sight angle of the line of sight SL a is represented by the line-of-sight angle theta a to be formed between the direction of the X axis of the Z a-axis and the line of sight SL a.
  • the line of sight SL b is directed from the upper side of the image display unit 1303 in the Y-axis direction. Therefore, line of sight angle of the line of sight SL b is represented by the line-of-sight angle theta b formed between the direction of the Y-axis of the Z b-axis and the line of sight SL b.
  • the user A emits a signal wave indicating that the image display area 1303a is selected via the remote controller 1314.
  • the user A emits the signal wave SW to the image display device 1 via the remote controller 1314, each of the four receivers 1313a to 1313d receives the signal wave SW.
  • to select the image display area 1303a is because line of sight SL a user A is directed to an image display area 1303a.
  • Steps S1505, S1506, and S1508 to S1510 shown in FIG. 15 are the same as steps S405, S406, and S408 to S410 of FIG. 4 described in the first embodiment, and thus description thereof is omitted here.
  • step S1501 the receiver 1313 receives and demodulates a signal wave including a value component indicating that one of the image display areas 1303a and 1303b is selected, which is emitted from the remote controller 1314, and converts the signal wave into an electric signal.
  • the image area determination unit 1315 To the image area determination unit 1315.
  • step S1502 the image area determination unit 1315 determines whether the user has selected one of the image display areas 1303a and 1303b based on the electrical signal output in step S1501. Then, the image area determination unit 1315 outputs a coordinate signal indicating the selected image display area to the gamma correction unit 1309.
  • step S1503 each receiver 1313a to 1313 d, and receives and demodulates the signal wave SW remote controller 1314 has issued, and outputs the direction determination unit 1310 is converted into respective electrical signals ES a to ES d.
  • step S1504 the direction determination unit 1310 determines the arrival times T a to T d of the electrical signals ES a to ES d output from the receivers 1313a to 1313d in step S1503. Then, the direction corresponding to the position where the receiver that has detected the electrical signal earliest from among the arrival times T a to T d is determined as the user's line-of-sight direction. The direction determination unit 1310 outputs the determination result to the gamma correction unit 1309 as a direction signal.
  • the line-of-sight direction is changed as follows. judge. That is, when the arrival times T a and T b of the electrical signals ES a and ES b output from the receiver 1313a and the receiver 1313b are the same or when the time difference between the two is within a predetermined value, The direction is determined to be up. If earlier than the arrival time T a is arrival time T b, and the time difference therebetween is larger than a predetermined value, it is determined that the right line of sight. If T a and T b are opposite, the line-of-sight direction is determined to be left. If the arrival time T c of the electrical signal ES c output from receiver 1313c earliest determines viewing direction and below.
  • the signal wave SW emitted from the remote controller 1314 is a signal wave having high directivity such as infrared rays, all of the receivers 1313a to 1313d may not be able to receive the signal wave. In such a case, the direction corresponding to the position where the receiver that detects the signal wave SW is provided is determined as the user's line-of-sight direction.
  • step S1507 when the user slides the correction value adjustment input indicator 502 displayed on the image display unit 1303 through the operation of the remote controller 1314, the receiver 1313 causes the value component indicated by the correction value adjustment input indicator 502 to be displayed. A signal wave including is received. The receiver 1313 demodulates the received electromagnetic wave, converts it into an electrical signal, and outputs it to the angle converter 1311.
  • step S1508 the angle conversion unit 1311 determines the value indicated by the correction value adjustment input indicator 502 based on the electrical signal output in step S1507.
  • the angle conversion unit 1311 converts the determined value into an angle signal corresponding to the correction value designated by the user and outputs the angle signal to the gamma correction unit 1309.
  • the conversion into the angle signal may be performed by a mapping table (not shown) in which the value indicated by the correction value adjustment input indicator 502 corresponds to the angle.
  • the fourth embodiment according to the present invention has been described.
  • the fourth embodiment has the same advantages as those of the first embodiment.
  • the present embodiment by mounting the present embodiment on a television or the like, the user can perform more optimal gamma correction according to the user's brightness recognition even at a position where the user cannot reach the display device.

Abstract

 本願発明は、ユーザのタッチ入力等の操作に基づいてユーザの視線方向を判定し、その視線方向に応じたガンマ補正をすることが可能な画像表示装置を提供することを目的とする。画像表示装置は、表示パネルと、表示パネルの各々の方向に設けられた複数のタッチ検出領域のいずれかに対する第1の入力操作を検出する第1のタッチ検出部と、第1の入力操作に基づいて、タッチ検出領域が設けられた位置に対応する方向を判定する方向判定部と、画像表示装置に対する視線方向ごとに定義された第1の角度データを記憶した角度データ記憶部と、方向および第1の角度データに基づいて、表示パネルに表示する画像に対して第1のガンマ補正値を適用するガンマ補正部とを備える。

Description

画像表示装置
 本発明は、画像表示装置に関し、特に、表示パネルに対する視線方向および視線角度に応じて適切なガンマ補正を行う画像表示装置に関する。
 近年、液晶表示装置(LCD:Liquid Crystal Display)パネルの大型化・薄型化により、テレビ、携帯電話およびカーナビゲーション装置が備えている画像表示装置(またはモニタ)にLCDパネルを採用していることが多い。
 一般に、CRTおよび液晶表示装置などを備えた画像表示装置は、固有のガンマ特性(階調特性とも呼ばれる)を有している。ガンマ特性とは、入力された画像データの信号強度に対する画像表示装置上の光出力特性など、入出力が正比例(直線)ではなく、対数(ガンマ)になる特性を意味する。このガンマ特性は、
 出力輝度(y)=入力階調(x)^γ(画像表示装置のガンマ値)
 式1
式1によって表すことができる。画像表示装置のガンマ値が一定であれば(例えば、γ=2.2)、この画像表示装置のガンマ特性は指数関数のような曲線を描く。
 このような画像表示装置では、ガンマ特性が線形性を有していない。したがって、画像表示装置上で高精度の画像データを表示する場合、当該画像の表示内容に応じて(例えば、RGBに応じて)画像表示装置に対してガンマ補正(階調補正)を行うなどの調整が必要である。特に、LCDパネルなどは、図16Aおよび図16Bに示すように、ユーザの画像表示装置に対する視線角度、および、視線方向に応じてガンマ特性が異なるという問題を有している。
 図16Aは、画像表示装置を上側から見たときのガンマ特性曲線の例を示している。また、図16Bは、画像表示装置を右側から見たときのガンマ特性曲線の例を示している。一般的に、画像表示装置を上側または下側から見たときのガンマ特性値の変化は、画像表示装置を右側または左側から見たときのガンマ特性値の変化と比較して大きくなる。このようなガンマ特性の性質を考慮して、従来から各種の対策が考えられている。
特開2013-236351号公報 特開2010-044179号公報 特開2009-128381号公報 特開2007-212664号公報 国際公開第2013/008282号
 特許文献1は、カメラを備えた画像処理装置を開示している。当該画像処理装置は、N人(Nは1以上)の視聴者の顔画像を取得して、当該顔画像からN人のそれぞれのディスプレイへの視角および回転角を算出し、当該視角および回転角に基づいて階調補正を行う。階調補正は、予め画像処理装置に保持された階調補正データ(視角および回転角のそれぞれに対応した補正情報)に基づいて行われる。
 特許文献2では、上下および左右それぞれの視線角度のそれぞれに対応したガンマ補正テーブル(さらに、RGB別にテーブルを有してもよい)を備えた液晶表示装置が開示されている。当該液晶表示装置は、加速度センサで、装置ディスプレイの取り付け角度θ1を取得し、ユーザから入力されたθ1に対する位置情報からオフセット角度θ2を算出して、ユーザの視線角度θを算出する。そして、視線角度θに基づいて、ガンマ補正を行う。
 特許文献3、4および5では、いずれも視角角度のそれぞれに対応したガンマ補正データ(LUT)などを備えており、カメラなどの撮像部により被写体を撮像し、撮像した画像から被写体の視角を算出して、視角に基づいたガンマ補正(彩度補正)を行う発明が開示されている。
 ところで、特許文献1乃至5で開示された発明はいずれも、カメラによってユーザ(被写体)を撮像し、撮像した画像からユーザの視線角度を算出し、算出した視線角度に基づいてガンマ補正を行うものである。この方式は、以下の問題点を有している。
 例えば、ユーザが暗い部屋にいる場合など、カメラが高精度でユーザ(例えば、ユーザの特徴点など)を撮像できない状況においては、上述した方式では、ユーザの視線角度を精度よく算出することができない。そのため、視線角度に応じた最適な輝度で画像を表示することができない。特に、特許文献1乃至5で開示された発明をカーナビゲーション装置に実装した場合、夜間に自動車を運転する際には、車内ランプを消灯して運転することが通常であるので、上記問題は顕在化する。
 本発明は上述した問題に鑑みてなされたものであり、その目的とするところは、ユーザのタッチ入力等の操作に基づいてユーザの視線方向を判定し、その視線方向に応じたガンマ補正をすることが可能な画像表示装置を提供することにある。
 上記の課題を解決するために、本発明に係る画像表示装置の第1の態様は、画像表示装置であって、表示パネルと、前記表示パネルの各々の方向に設けられた複数のタッチ検出領域のいずれかに対する第1の入力操作を検出する第1のタッチ検出部と、前記検出された第1の入力操作に基づいて、前記複数のタッチ検出領域が設けられた位置に対応する方向を判定する方向判定部と、前記画像表示装置に対する視線方向ごとに定義された第1の角度データを記憶した角度データ記憶部と、前記判定された方向および前記記憶された第1の角度データに基づいて、前記表示パネルに表示する画像に対して第1のガンマ補正値を適用するガンマ補正部とを備えたことを特徴とする。
 また、本発明に係る画像表示装置の第2の態様は、本発明に係る画像表示装置の第1の態様において、前記表示パネル上に入力インタフェースを表示する画像表示部と、前記入力インタフェースを介して入力された第2の入力操作に基づいて、第2の角度データを算出する角度変換部とを備え、前記ガンマ補正部は、前記算出された第2の角度データに基づいて、前記第1のガンマ補正値が適用された画像に対して第2のガンマ補正値を適用することを特徴とする。
 また、本発明に係る画像表示装置の第3の態様は、本発明に係る画像表示装置の第2の態様において、前記角度変換部は、前記算出した第2の角度データを、前記角度データ記憶部に前記第1の角度データとして記憶することを特徴とする。
 また、本発明に係る画像表示装置の第4の態様は、本発明に係る画像表示装置の第2または第3の態様において、前記ガンマ補正部は、
 出力輝度=255×(入力階調/255)^(1/(γ×角度補正))
 角度補正=1+N×Cosθ
にしたがって、前記第1のガンマ補正値および前記第2のガンマ補正値を適用し、γは、前記表示パネルが有しているガンマ値であり、Nは、前記判定された方向に応じて予め設定された補正係数であり、θは、前記第1の角度データおよび前記第2の角度データに対応する角度であることを特徴とする。
 また、本発明に係る画像表示装置の第5の態様は、本発明に係る画像表示装置の第2乃至第4の態様のいずれかにおいて、前記入力インタフェースは、前記判定された方向に応じた向きで表示されることを特徴とする。
 また、本発明に係る画像表示装置の第6の態様は、本発明に係る画像表示装置の第1乃至5の態様のいずれかにおいて、前記表示パネルは、複数の画像表示領域を備えており、前記画像表示装置は、第3の入力操作を検出する第2のタッチ検出部と、前記検出された第3の入力操作に基づいて、前記複数の画像表示領域のいずれかが選択されたかを判定する画像領域判定部とをさらに備え、前記ガンマ補正部は、前記判定された画像表示領域に対して前記第1のガンマ補正値を適用することを特徴とする。
 また、本発明に係る画像表示装置の第7の態様は、画像表示装置であって、表示パネルと、前記画像表示装置の各々の方向に設けられ、音声を検出する複数の音声検出部と、前記検出された音声に基づいて、音声の到来方向を判定する方向判定部と、前記画像表示装置に対する視線方向ごとに定義された第1の角度データを記憶した角度データ記憶部と、前記判定された到来方向および前記記憶された第1の角度データに基づいて、前記表示パネルに表示する画像に対して第1のガンマ補正値を適用するガンマ補正部とを備えたことを特徴とする。
 また、本発明に係る画像表示装置の第8の態様は、本発明に係る画像表示装置の第7の態様において、前記表示パネル上に入力インタフェースを表示する画像表示部と、前記入力インタフェースを介して入力された第1の入力操作に基づいて、第2の角度データを算出する角度変換部とを備え、前記ガンマ補正部は、前記算出された第2の角度データに基づいて、前記第1のガンマ補正値が適用された画像に対して第2のガンマ補正値を適用することを特徴とする。
 また、本発明に係る画像表示装置の第9の態様は、本発明に係る画像表示装置の第8の態様において、前記角度変換部は、前記算出した第2の角度データを、前記角度データ記憶部に前記第1の角度データとして記憶することを特徴とする。
 また、本発明に係る画像表示装置の第10の態様は、本発明に係る画像表示装置の第8または第9の態様において、前記ガンマ補正部は、
 出力輝度=255×(入力階調/255)^(1/(γ×角度補正))
 角度補正=1+N×Cosθ
にしたがって、前記第1のガンマ補正値および前記第2のガンマ補正値を適用し、γは、前記表示パネルが有しているガンマ値であり、Nは、前記判定された到来方向に応じて予め設定された補正係数であり、θは、前記第1の角度データおよび前記第2の角度データに対応する角度であることを特徴とする。
 また、本発明に係る画像表示装置の第11の態様は、本発明に係る画像表示装置の第8乃至第10の態様のいずれかにおいて、前記入力インタフェースは、前記判定された到来方向に応じた向きで表示されることを特徴とする。
 また、本発明に係る画像表示装置の第12の態様は、本発明に係る画像表示装置の第7乃至11の態様のいずれかにおいて、前記表示パネルは、複数の画像表示領域を備えており、前記画像表示装置は、前記画像表示装置が受信した第2の入力操作に基づいて、前記複数の画像表示領域のいずれかが選択されたかを判定する画像領域判定部をさらに備え、前記ガンマ補正部は、前記判定された画像表示領域に対して前記第1のガンマ補正値を適用することを特徴とする。
 また、本発明に係る画像表示装置の第13の態様は、画像表示装置であって、表示パネルと、前記表示パネルの各々の方向に設けられた複数のタッチ検出領域のいずれかに対する第1の入力操作を検出する第1のタッチ検出部と、前記画像表示装置の長さ方向側面の中心を軸に回転させたときの第1の角速度を検出し、および、前記画像表示装置の幅方向側面の中心を軸に回転させたときの第2の角速度を検出する傾き検出部と、前記検出された第1の入力操作に基づいて、前記複数のタッチ検出領域が設けられた位置に対応する方向を判定し、前記検出された第1の角速度に基づいて、第1の角度を判定し、および、前記検出された第2の角速度に基づいて、第2の角度を判定する方向・角度判定部と、前記判定された方向、ならびに、前記判定された第1の角度または前記判定された第2の角度を使用して、前記表示パネルに表示する画像に対して第1のガンマ補正値を適用するガンマ補正部とを備えたことを特徴とする。
 また、本発明に係る画像表示装置の第14の態様は、本発明に係る画像表示装置の第13の態様において、前記表示パネル上に入力インタフェースを表示する画像表示部と、前記入力インタフェースを介して入力された第2の入力操作に基づいて、角度データを算出する角度変換部とを備え、前記ガンマ補正部は、前記算出された角度データに基づいて、前記第1のガンマ補正値が適用された画像に対して第2のガンマ補正値を適用することを特徴とする。
 また、本発明に係る画像表示装置の第15の態様は、本発明に係る画像表示装置の第13の態様において、前記ガンマ補正部は、前記判定された方向に基づいて、前記判定された第1の角度または前記判定された第2の角度のいずれかを使用することを選択することを特徴とする。
 また、本発明に係る画像表示装置の第16の態様は、本発明に係る画像表示装置の第13の態様において、前記ガンマ補正部は、前記判定された第1の角度の値および前記判定された第2の角度の値に基づいて、前記判定された第1の角度または前記判定された第2の角度のいずれかを使用することを選択することを特徴とする。
 また、本発明に係る画像表示装置の第17の態様は、本発明に係る画像表示装置の第14の態様において、前記入力インタフェースは、前記判定された方向に応じた向きで表示されることを特徴とする。
 また、本発明に係る画像表示装置の第18の態様は、本発明に係る画像表示装置の第13乃至17の態様のいずれかにおいて、前記表示パネルは、複数の画像表示領域を備えており、前記画像表示装置は、第3の入力操作を検出する第2のタッチ検出部と、前記検出された第3の入力操作に基づいて、前記複数の画像表示領域のいずれかが選択されたかを判定する画像領域判定部とをさらに備え、前記ガンマ補正部は、前記判定された画像表示領域に対して前記第1のガンマ補正値を適用することを特徴とする。
 本発明に係る画像表示装置によれば、ユーザが暗い部屋にいるときなどのユーザを高精度で撮像できない状況においても、ユーザの視線方向に応じて最適なガンマ補正をすることができる。
本発明の第1の実施形態に係る画像表示装置の構成の例を示すブロック図である。 本発明の実施形態に係るガンマ補正曲線の例を示す図である。 本発明の実施形態に係るガンマ補正曲線の例を示す図である。 本発明の第1の実施形態に係る画像表示装置の使用状態の例を示す図である。 本発明の第1の実施形態に係る画像表示装置が実行する処理の例を示すフローチャートである。 本発明の実施形態に係る補正値調節入力ゲージおよび補正値調節入力インジケータの例を示す図である。 本発明の第2の実施形態に係る画像表示装置の構成の例を示すブロック図である。 本発明の第2の実施形態に係る画像表示装置の使用状態の例を示す図である。 本発明の第2の実施形態に係る画像表示装置が実行する処理の例を示すフローチャートである。 本発明の第3の実施形態に係る画像表示装置の構成の例を示すブロック図である。 本発明の第3の実施形態に係る画像表示装置の使用状態の例を示す図である。 本発明の第3の実施形態に係る画像表示装置が実行する処理の例を示すフローチャートである。 本発明の第3の実施形態に係る画像表示装置の外観斜視図である。 本発明の第3の実施形態に係る画像表示装置の外観斜視図である。 本発明の第4の実施形態に係る画像表示装置の構成の例を示すブロック図である。 本発明の第4の実施形態に係る画像表示装置の使用状態の例を示す図である。 本発明の第4の実施形態に係る画像表示装置が実行する処理の例を示すフローチャートである。 ガンマ特性曲線の例を示す図である。 ガンマ特性曲線の例を示す図である。
 以下、添付図面を参照しながら、本発明の第1乃至第4の実施形態を説明する。本発明に係る画像表示装置は、液晶表示装置などの視角依存性のある画像表示装置に適用することを想定している。
 <第1の実施形態>
 図1は、本発明の第1の実施形態に係る画像表示装置の構成の例を示すブロック図である。画像表示装置1は、表示制御部101、タイミング信号生成部102、画像表示部(表示パネル)103、ソースドライバ104、データ信号線105、ゲートドライバ106、ゲート信号線107、ガンマデータ記憶部108、ガンマ補正部109、タッチセンサ110、方向判定部111、角度変換部112、角度データ記憶部113、および画像領域判定部114を備えている。
 表示制御部101は、外部から受信した入力画像信号Xに対し所定の処理を施すことによって出力画像信号Y1に変換して、ガンマ補正部109に出力する。
 タイミング信号生成部102は、ソースドライバ104に対して、ソースクロック信号およびソーススタートパルス信号などのタイミング信号を出力する。また、タイミング信号生成部102は、ゲートドライバ106に対して、ゲートクロック信号およびゲートスタートパルス信号などのタイミング信号を出力する。
 画像表示部103は、マトリクス状に配置された複数の薄膜トランジスタ(TFT)などの表示素子(図示せず)を、データ信号線105およびゲート信号線107が交差する位置に有している。各表示素子には、いずれもデータ信号線105およびゲート信号線107のそれぞれが接続されている。
 ソースドライバ104は、複数のデータ信号線105のそれぞれに対して、出力画像信号Y2の階調に応じて、表示素子の光透過率を制御する電圧信号を供給する。この電圧信号は、タイミング信号生成部102から出力されたソースクロック信号およびソーススタートパルス信号などのタイミング信号に基づいて供給される。
 ゲートドライバ106は、複数のゲート信号線107のそれぞれに対して、ゲート信号線107のそれぞれに接続された各表示素子を選択駆動するためのアドレス信号を供給する。このアドレス信号は、タイミング信号生成部102から出力されたゲートクロック信号およびゲートスタートパルス信号などのタイミング信号に基づいて供給される。
 ガンマデータ記憶部108は、複数のガンマ補正テーブル1,2,・・nが記憶されている。この複数のガンマ補正テーブルは、画像表示部103の法線方向を基準として、もしくは、画像表示部103の複数の分割された画像表示領域のそれぞれの法線方向を基準として、画像表示部103に対して視線が向けられる方向(例えば、画像表示部103を上下左右のいずれかの方向から見たときの方向、以下、「視線方向」)、および、当該視線方向それぞれに対する、画像表示部103の法線方向を基準とした視線角度(以下、「視線角度」)ごとに定義されたガンマ特性に対応する。ガンマ特性は、画像表示部103に対する視線方向および視線角度によって特性の変化がそれぞれ異なる。この変化に対応するために、本実施形態では、図2Aおよび図2Bで示すガンマ補正曲線で示す補正値を有するガンマ補正テーブルを備えている。ガンマ補正テーブルは、視線方向および視線角度ごとに定義されている(視線角度は、1度ごとまたは数度ごとに定義されてもよい)。ガンマ補正テーブルで示す補正値は、視線方向および視線角度ごとのガンマ特性値に基づいて、以下の式2によって算出することができる。
 出力輝度(y)=255×(入力階調(x)/255)^(1/γ(画像表示装置のガンマ値))
 式2
画像表示部103のガンマ特性がRGBごとに異なる場合は、そのガンマ補正テーブルをRGBごとに備えてもよい。なお、本実施形態では、上述した視線方向および視線角度は、画像表示部103の法線方向、または、分割された画像表示領域のそれぞれの法線方向を基準としているが、これに限定されない。例えば、視線方向および視線角度は、画像表示装置1の水平面の任意の位置などを基準としてもよい(以下、第2の実施形態乃至第4の実施形態でも同様)。
 ガンマ補正部109は、方向判定部111から出力された方向信号で示される視線方向と、当該視線方向に対して角度データ記憶部113に記憶された視線角度(または、角度変換部112から出力された角度信号に対応する角度)とに基づいて、ガンマデータ記憶部108からガンマ補正テーブルを取得する。ガンマ補正部109は、取得したガンマ補正テーブルに基づいて、表示制御部101から出力された出力画像信号Y1に対してガンマ補正を行って(階調値を変換する)、出力画像信号Y2に変換する。また、ガンマ補正部109は、ガンマ補正テーブルを取得することの代わりに、方向判定部111から出力された方向信号で示される視線方向に基づいて、当該視線方向に対して角度データ記憶部113に記憶された視線角度を変数とする補正値算出式によってガンマ補正を行う。上記ガンマ補正は、画像領域判定部114から出力された座標信号で示される画像表示部103の領域ごとに行われる。出力画像信号Y2は、ソースドライバ104に出力される。
 タッチセンサ110は、ユーザによる所定の入力操作(例えば、タッチ操作、タップ操作、およびスライド操作など)を、抵抗膜方式または静電容量方式などの技術を利用して検出する。タッチセンサ110は、指などが接触すると、接触した位置または接触を解除した位置をX軸およびY軸の座標信号に変換し、方向判定部111、角度変換部112および画像領域判定部114に出力する。タッチセンサ110は、画像表示部103の表示画面上、および/または、その周辺に備えられた複数のタッチ検出領域を有している。
 方向判定部111は、タッチセンサ110から出力された座標信号に基づいて、ユーザの画像表示部103に対する視線方向を判定し、方向信号としてガンマ補正部109に出力する。
 角度変換部112は、タッチセンサ110から出力された座標信号に基づいて、ユーザが指定したガンマ補正値変数に対応する視線角度を判定し、角度信号としてガンマ補正部109に出力する。
 角度データ記憶部113は、角度変換部112から出力された角度信号(角度データ)を、方向判定部111が判定した視線方向ごとに記憶している。
 画像領域判定部114は、タッチセンサ110から出力された座標信号に基づいて、ユーザが選択した画像表示部103の画像表示領域を判定する。また、画像領域判定部114は、その画像表示領域に対応する座標信号をガンマ補正部109に出力する。
 なお、本発明に係る画像表示装置を、液晶表示装置などに実装する場合は、上記要素に加えて、バックライトおよびそのバックライトを駆動するための制御部を備えることになるが、このような要素は当業者にとって公知な技術であるので本明細書での説明は省略する。
 次に、本発明の第1の実施形態に係る画像表示装置の使用状態の例を、図3を参照して説明する。本発明の第1の実施形態に係る画像表示装置は、主に、スマートフォンおよびタブレット端末などを含む携帯型端末、ならびに、カーナビゲーション装置に実装することを想定しているが、これらに限定されない。図3では、画像表示装置1を携帯型端末に実装した例であり、ユーザAおよびBが画像表示部103上の分割された画像表示領域のそれぞれに視線を向けていることを示している。
 図3に示すように、画像表示装置1は、画像表示部103およびタッチセンサ110を備えている。タッチセンサ110は、画像表示部103上の上下左右の4箇所、および/または、画像表示部103の周辺の上下左右の4箇所にタッチ検出領域110a、110b、110c、および110dをそれぞれ備えている。本実施形態では、上下左右の4方向に応じて4つのセンサを備えているが、8方向(上、下、左、右、左上、左下、右上、右下)、または、16方向(上、下、左、右、左上、左下、右上、右下、上右上、右上右、下右下、右下右、上左上、左上左、下左下、左下左)などの複数の方向に応じてそれぞれの数のタッチ検出領域を備えてもよい。
 画像表示部103は、複数の分割された画像表示領域103aおよび103bを備えている。画像表示領域103aの中心にポイントPが位置し、ポイントPに対するユーザAの視線を視線SLとする。また、画像表示領域103bの中心にポイントPが位置し、ポイントPに対するユーザBの視線を視線SLとする。画像表示部103の中心にポイントPが位置する。ポイントPを通り、画像表示部103の幅方向に水平な軸をX軸とする。ポイントPを通り、画像表示部103の長さ方向に水平な軸をY軸とする。ポイントPの法線をZ軸とし、ポイントPの法線をZ軸とする。
 図3に示すように、視線SLは、画像表示部103のX軸方向の右側から向けられたものである。したがって、視線SLの視線角度は、Z軸と視線SLのX軸上における方向との間で形成される視線角度θで表される。また、視線SLは、画像表示部103のY軸方向の上側から向けられたものである。したがって、視線SLの視線角度は、Z軸と視線SLのY軸上における方向との間で形成される視線角度θで表される。
 このような状態で、ユーザAは、画像表示領域103aに対して、タッチ操作またはタップ操作などの所定の入力操作を行う。また、ユーザAは、タッチ検出領域110bに対して、上記と同様の入力操作を行う。分割された画像表示領域103aおよび103bの中で、画像表示領域103aに対して入力操作を行うのは、ユーザAの視線SLが画像表示領域103aに向けられているからである。また、4つのタッチ検出領域110a乃至110bの中で、タッチ検出領域110bに対して入力操作を行うのは、視線SLがX軸方向の右側から向けられており、かつタッチ検出領域110bがその方向に対応した位置に設けられているからである。
 次に、本発明の第1の実施形態に係る画像表示装置が実行する処理の例を、図4を参照して説明する。図4の説明では、図3で示した状態であることを前提とする。
 タッチセンサ110は、ユーザの指などによる所定の入力操作を検出し、指が接触した位置をX軸およびY軸の座標信号に変換し、画像領域判定部114に出力する(ステップS401)。
 画像領域判定部114は、ステップS401で出力された座標信号に基づいて、ユーザが画像表示領域103aおよび103bのいずれかを選択したかを判定する。この判定は、画像表示領域103aおよび103bのそれぞれの領域に応じた座標データ(X,Y)が予め定義され、定義された座標データに対応する領域内で入力操作が検出されたかを判定することによって行われる。画像領域判定部114は、上記選択された画像表示領域を示す座標信号をガンマ補正部109に出力する(ステップS402)。
 なお、本実施形態では、画像表示領域の領域内で行われた入力操作を検出しているが、このような構成に限定されない。例えば、画像表示領域103aおよび103bに対応するサムネイルを表示し、そのサムネイルに対する入力操作を検出することによって、画像表示領域の選択を判定してもよい(以下、第2の実施形態乃至第4の実施形態においても同様)。
 次に、タッチセンサ110は、ユーザの指などによる所定の入力操作を検出し、指が接触した位置をX軸およびY軸の座標信号に変換し、方向判定部111に出力する(ステップS403)。
 方向判定部111は、ステップS403で出力された座標信号に基づいて、ユーザの入力操作がタッチ検出領域110a乃至110dのいずれかに対して行われたかを判定する。この判定は、タッチ検出領域110a乃至110dのそれぞれの領域に応じた座標データ(X,Y)が予め定義され、定義された座標データに対応する領域内で入力操作が検出されたかを判定することによって行われる。方向判定部111は、上記判定の結果を示すインジケーションを、方向信号としてガンマ補正部109に出力する(ステップS404)。
 ガンマ補正部109は、方向判定部111から出力された方向信号で示される視線方向と、角度データ記憶部113において視線方向ごとに記憶された角度データとに基づいて、ガンマデータ記憶部108からガンマ補正テーブルを取得する。角度データ記憶部113に、特定の方向に対する角度データが記憶されていない場合は(すなわち、初期状態)、初期値として任意の値が記憶されてもよい(例えば、上側から見たときの視線角度を15度、下側から見たときの視線角度を30度、左側から見たときの視線角度を45度、右側から見たときの視線角度を60度と予め定義する)。この定義された視線角度は、ユーザによって視線方向ごとに任意の値が設定されてもよい。
 ガンマ補正部109は、ガンマ補正テーブルを取得すると、表示制御部101から出力された出力画像信号Y1に対して、ステップS402で出力された座標信号によって示される画像表示領域ごとにガンマ補正を行う。ガンマ補正が行われた出力画像信号は、出力画像信号Y2としてソースドライバ104に出力される(ステップS405)。
 ステップS405において補正された出力画像信号Y2に対応する画像が画像表示領域103a上で表示されると、画像表示部103上に補正値調節入力ゲージ501および補正値調節入力インジケータ502が表示される(ステップS406)。図5に補正値調節入力ゲージ501および補正値調節入力インジケータ502を示す。
 図5に示すように、補正値調節入力ゲージ501および補正値調節入力インジケータ502は、画像表示部103を右側から見たときに正の向きになるように表示される。このように、補正値調節入力ゲージ501および補正値調節入力インジケータ502を、方向判定部111が判定した視線方向に基づいて表示するように構成してもよい。
 このように構成することによって、方向判定部111から出力された方向信号で示される視線方向に基づいて、ユーザに対して適切な向きで入力インタフェースを表示することができる。なお、本実施形態に係る画像表示装置を、カーナビゲーション装置などの非携帯型装置に実装することを考慮して、補正値調節入力ゲージ501および補正値調節入力インジケータ502を、判定された視線方向に関わらず、固定した向きで表示するようにしてもよい。
 補正値調節入力ゲージ501および補正値調節入力インジケータ502は、ステップS405で補正された出力画像の出力輝度をさらに補正するための入力インタフェースである。ユーザが補正値調節入力インジケータ502をタッチし、スライド操作などによって補正値調節入力インジケータ502を左右のいずれかの方向にスライドさせると、タッチセンサ110が、スライドによる接触を解除した位置をX軸およびY軸の座標信号に変換し、角度変換部112に出力する(ステップS407)。
 角度変換部112は、ステップS407で出力された座標信号に基づいて、補正値調節入力インジケータ502の補正値調節入力ゲージ501上での位置を判定する。角度変換部112は、判定した位置に対応する値を角度信号に変換して、ガンマ補正部109に出力する(ステップS408)。この角度信号への変換は、座標信号で示される座標情報と視線角度とが対応するマッピングテーブル(図示せず)によって行われてもよい。
 角度変換部112は、ステップS408で変換した角度信号(角度データ)を、ステップS404で方向判定部111によって判定された視線方向のそれぞれに対して、角度データ記憶部113に記憶する(ステップS409)。このように、視線方向ごとにユーザが再補正した補正値に対応する視線角度のデータを記憶しておくことで、後続の利用において、各視線方向に対する最適な視線角度の値を維持することができる。
 ガンマ補正部109は、角度変換部112から出力された角度信号で示される視線角度θに基づいて、ガンマ補正テーブルを再度取得する。ガンマ補正テーブルを取得すると、そのガンマ補正値に基づいて、ステップS402で出力された座標信号によって示される画像表示領域ごとに再度のガンマ補正を行う。再度のガンマ補正が行われた出力画像信号は、出力画像信号Y2としてソースドライバ104に出力される(ステップS410)。
 上記ステップS405およびS410において、ガンマデータ記憶部108からガンマ補正テーブルを取得することに代えて、以下の補正値算出式(式3)によってガンマ補正を行ってもよい。
 出力輝度(y)=255×(入力階調(x)/255)^(1/(γ(画像表示装置のガンマ値)×角度補正))
 角度補正=1+N×Cosθ(Nは方向判定部111から出力された方向信号に対応する方向に応じて予め設定された補正係数)
 式3
すなわち、ガンマ補正部109は、方向ごとに定義されたNの値を方向判定部111から出力された方向信号に基づいて判定する。そして、ガンマ補正部109は、角度データ記憶部113に記憶された角度データが示す視線角度θ、または、角度変換部112から出力された角度信号が示す視線角度θを変数として、式3によってガンマ補正値を算出する。
 このような構成を採用することによって、方向に応じたNの値および視線角度に応じた視線角度θの値を入力変数として適切なガンマ補正を行うので、ガンマ補正テーブルのデータ量が無駄に大きくなるのを防止することができる。この補正値算出式によってガンマ補正を行う方法は、後述する第2の実施形態乃至第4の実施形態において採用されてもよい。
 本実施形態では、ユーザAとは異なる方向から画像表示領域103bに視線を向けているユーザBがさらに存在する。したがって、ユーザBが画像表示領域103b上で表示される画像に対して、上述した方法でガンマ補正を行うことによって、それぞれの画像表示領域に表示される画像に対し、異なるガンマ補正値を適用することができる。なお、本実施形態では、画像表示部103が複数の画像表示領域を備えている例を説明したが、画像表示部103が単一の画像表示領域から構成されてもよい。このような例では、上述したステップS401およびS402は不要となる。
 以上のように、本発明に係る第1の実施形態を説明したが、第1の実施形態では、ユーザが暗い部屋にいるときなどの、高精度でユーザを撮像することができない状況においても適切なガンマ補正を行うことができる。特に、携帯型端末およびカーナビゲーション装置では、ユーザは常に指などが直接触れることができる範囲で機器を操作することが多く、タッチ操作などが有効な入力手段となる。このことから、本実施形態に係る画像表示装置を携帯型端末またはカーナビゲーション装置に実装することによって、上述した利点がさらに顕著となる。
 また、ユーザの入力に応じて再度のガンマ補正を行うので、ユーザの輝度認識に応じて適切なガンマ補正を行うことができる。
 さらに、それぞれの画像表示領域の画像に対してガンマ補正を行うので、異なる方向からそれぞれの画像表示領域の画像に視線を向けている複数のユーザが存在する状況においても、それぞれのユーザにとって最適となるガンマ補正を行うことができる。
 <第2の実施形態>
 図6は、本発明の第2の実施形態に係る画像表示装置の構成の例を示すブロック図である。画像表示装置1は、表示制御部601、タイミング信号生成部602、画像表示部(表示パネル)603、ソースドライバ604、データ信号線605、ゲートドライバ606、ゲート信号線607、ガンマデータ記憶部608、ガンマ補正部609、タッチセンサ610、方向判定部611、角度変換部612、角度データ記憶部613、音声検出部614、および画像領域判定部615を備えている。
 表示制御部601、タイミング信号生成部602、画像表示部603、ソースドライバ604、データ信号線605、ゲートドライバ606、ゲート信号線607、ガンマデータ記憶部608、ガンマ補正部609、タッチセンサ610、角度変換部612、角度データ記憶部613、および画像領域判定部615は、図1で説明したそれぞれの要素と同一であるので、ここでの説明は省略する。
 方向判定部611は、音声検出部614から出力された音声信号の到達時間または電圧値に基づいて、ユーザの画像表示部603に対する視線方向を判定し、方向信号としてガンマ補正部609に出力する。
 音声検出部614は、ユーザにより発せられた音波を受信するマイクロホン6141、および、音波を検出して音声信号に変換する音声センサ6142を備えている。音声センサ6142は、マイクロホン6141が受信した音波を音声信号に変換して、方向判定部611に出力する。
 次に、本発明の第2の実施形態に係る画像表示装置の使用状態の例を、図7を参照して説明する。本発明の第2の実施形態に係る画像表示装置は、主に、スマートフォンおよびタブレット端末などを含む携帯型端末、カーナビゲーション装置、ならびにテレビに実装することを想定しているが、これらに限定されない。図7では、画像表示装置1をカーナビゲーション装置に実装した例であり、ユーザAおよびBが画像表示部103上の分割された画像表示領域のそれぞれに視線を向けていることを示している。
 図7に示すように、画像表示装置1は、画像表示部603周辺の上下左右の4箇所に音声検出部614a、614b、614c、および614dをそれぞれ備えている。本実施形態では、上下左右の4方向に応じて4つの音声検出部を備えているが、8方向または16方向などの複数の方向に応じてそれぞれの数の音声検出部を備えてもよい。なお、音声検出部は、少なくとも、画像表示部603の中心から二等辺三角形(例えば、右下、左下、中央上などの3箇所)もしくは逆二等辺三角形(例えば、右上、左上、中央下などの3箇所)を描くように3つの音声検出部を備えることで、後述する音波を検出することによって、ユーザの視線方向を判定することができる。
 画像表示部603は、複数の分割された画像表示領域603aおよび603bを備えている。画像表示領域603aの中心にポイントPが位置し、ポイントPに対するユーザAの視線を視線SLとする。また、画像表示領域603bの中心にポイントPが位置し、ポイントPに対するユーザBの視線を視線SLとする。画像表示部603の中心にポイントPが位置し、ポイントPを通り、画像表示部603の幅方向に水平な軸をX軸とする。ポイントPを通り、画像表示部603の長さ方向に水平な軸をY軸とする。ポイントPの法線をZ軸とし、ポイントPの法線をZ軸とする。
 図7に示すように、視線SLは、画像表示部603のX軸方向の右側から向けられたものである。したがって、視線SLの視線角度は、Z軸と視線SLのX軸上における方向との間で形成される視線角度θで表される。また、視線SLは、画像表示部603のY軸方向の上側から向けられたものである。したがって、視線SLの視線角度は、Z軸と視線SLのY軸上における方向との間で形成される視線角度θで表される。
 このような状態で、ユーザAは、画像表示領域603aに対して、タッチ操作またはタップ操作などの所定の入力操作を行う。そして、ユーザAが画像表示装置1に対して音声を発すると、4つの音声検出部614a乃至614dのマイクロホン6141a乃至6141dのそれぞれが、音波AWを受信する。分割された画像表示領域603aおよび603bの中で、画像表示領域603aに対して入力操作を行うのは、ユーザAの視線SLが画像表示領域603aに向けられているからである。
 次に、本発明の第2の実施形態に係る画像表示装置が実行する処理の例を、図8を参照して説明する。図8の説明では、図7で示した状態であることを前提とする。図8に示すステップS801、S802、S805、S806、およびS808乃至S810は、第1の実施形態において説明した図4のステップS401、S402、S405、S406、およびS408乃至S410とそれぞれ同一であるので、ここでの説明は省略する。
 ステップS803では、マイクロホン6141a乃至6141dのそれぞれは、ユーザが発した音波AWを受信する。また、音声センサ6142a乃至6142dのそれぞれが音波AWを音声信号AS乃至ASに変換して方向判定部611に出力する。
 ステップS804では、方向判定部611は、ステップS803で音声センサ6142a乃至6142dのそれぞれから出力された音声信号AS乃至ASのそれぞれの到達時間T乃至Tを判定する。そして、到達時間T乃至Tの中から最も早く音声信号を検出した音声検出部が設けられた位置に対応する方向を、ユーザの視線方向と判定する。この方向判定は、検出した音声信号AS乃至ASのそれぞれの電圧値を比較して、最も高い電圧値を検出した音声検出部が設けられた位置に対応する方向を、ユーザの視線方向と判定するように構成してもよい。方向判定部611は、上記判定結果を、方向信号としてガンマ補正部609に出力する。
 なお、上述したように音声検出部614が3箇所に設けられる場合(例えば、音声検出部614aが右上、音声検出部614bが左上、音声検出部614cが中央下に設けられる場合)は、以下のようにして視線方向を判定する。すなわち、音声検出部614aのマイクロホン6141aおよび音声検出部614bのマイクロホン6141bのそれぞれから出力された音声信号ASおよびASのそれぞれの到達時間TおよびTが同時、または、両者の時間差が所定値以内である場合は、視線方向を上と判定する。到達時間Tが到達時間Tよりも早く、かつ両者の時間差が所定値よりも大きい場合は、視線方向を右と判定する。TとTが逆の場合は、視線方向を左と判定する。音声検出部614cのマイクロホン6141cから出力された音声信号ASの到達時間Tが最も早い場合は、視線方向を下と判定する。
 ステップS807では、上述したように、ユーザのスライド操作などに応じて、タッチセンサ610が座標信号を角度変換部612に出力する。ここで、補正値調節入力インジケータ502による操作は、テレビなどで一般に使用されるリモートコントローラの操作によって行われてもよい(ステップS801における画像表示領域の選択についても同様)。この場合は、画像表示装置1は受信機(図示せず)を備えることになり、リモートコントローラから放出された信号波を受信機が受信および復調し、電気信号に変換して、角度変換部612に出力する(ステップS801においては、受信および復調された電気信号は画像領域判定部615に出力される)。
 このような構成を採用することによって、本実施形態に係る画像表示装置をテレビなどに実装し、当該テレビがユーザの手が届かない範囲に設置されている場合でも、ユーザの指定に応じて適切なガンマ補正を行うことができる。
 以上のように、本発明に係る第2の実施形態を説明したが、第2の実施形態は、第1の実施形態と同様の利点を有する。
 また、本実施形態をカーナビゲーション装置に実装することによって、運転手が運転中にハンドルから手を離すことができないが、カーナビゲーション装置の画像表示装置の輝度を調整したい場合に有効となる。つまり、運転手が音声を発し、画像の再調整は助手席にいる同乗者のタッチ操作によって行うことで、運転手は一切ハンドルから手を離さずに、自らの位置から見たときに最適となるガンマ補正値を適用しつつ、再補正を行えるという利点を有する。
 さらに、本実施形態をテレビに実装することによって、ユーザが音声を発し、再調整はリモートコントローラの操作により行うことができる。したがって、手が届かない範囲に設置されたテレビを見るユーザの位置を基準に最適となるガンマ補正値を適用しつつ、再補正を行えるという利点を有する。
 <第3の実施形態>
 図9は、本発明の第3の実施形態に係る画像表示装置の構成の例を示すブロック図である。画像表示装置1は、表示制御部901、タイミング信号生成部902、画像表示部(表示パネル)903、ソースドライバ904、データ信号線905、ゲートドライバ906、ゲート信号線907、ガンマデータ記憶部908、ガンマ補正部909、タッチセンサ910、方向・角度判定部911、角度変換部912、角度データ記憶部913、傾き検出部914、および画像領域判定部915を備えている。
 表示制御部901、タイミング信号生成部902、画像表示部903、ソースドライバ904、データ信号線905、ゲートドライバ906、ゲート信号線907、ガンマデータ記憶部908、ガンマ補正部909、タッチセンサ910、角度変換部912、角度データ記憶部913、および画像領域判定部915は、図1で説明したそれぞれの要素と同一であるので、ここでの説明は省略する。
 方向・角度判定部911は、タッチセンサ910がユーザによる所定の入力操作を検出したことに応じて、ユーザの画像表示部903に対する視線方向を判定し、方向信号としてガンマ補正部909に出力する。また、方向・角度判定部911は、傾き検出部914から出力された角速度を示すそれぞれの角速度信号に基づいて回転角(Roll)および傾斜角(Pitch)のそれぞれの角度を算出し、角度信号としてガンマ補正部909に出力する。
 傾き検出部914は、加速度センサ9141およびジャイロセンサ9142を備えている。傾き検出部914は、それらを組み合わせて、ユーザが画像表示装置1を傾けたときの角速度を検出し、角速度信号として方向・角度判定部911に出力する。
 次に、本発明の第3の実施形態に係る画像表示装置の使用状態の例を、図10を参照して説明する。本発明の第3の実施形態に係る画像表示装置は、主に、スマートフォンおよびタブレット端末などを含む携帯型端末に実装することを想定しているが、これらに限定されない。図10では、ユーザAおよびBが画像表示部903上の分割された画像表示領域のそれぞれに視線を向けていることを示している。
 図10に示すように、画像表示装置1は、画像表示部903およびタッチセンサ910を備えている。タッチセンサ910は、画像表示部903上の上下左右の4箇所、または、画像表示部903の周辺の上下左右の4箇所にタッチ検出領域910a、910b、910c、および910dをそれぞれ備えている。本実施形態では、上下左右の4方向に応じて4つのセンサを備えているが、8方向または16方向などの複数の方向に応じてそれぞれの数のタッチ検出領域を備えてもよい。
 画像表示部903は、複数の分割された画像表示領域903aおよび903bを備えている。画像表示領域903aの中心にポイントPが位置し、ポイントPに対するユーザAの視線を視線SLとする。また、画像表示領域903bの中心にポイントPが位置し、ポイントPに対するユーザBの視線を視線SLとする。画像表示部903の中心にポイントP1が位置し、長さ方向側面の中心にポイントP2、および幅方向側面の中心にポイントP3が位置する。ポイントP2を通り、画像表示部903の幅方向に水平な軸をX軸とする。ポイントP3を通り、画像表示部903の長さ方向に水平な軸をY軸とする。ポイントPの法線をZ軸とし、ポイントPの法線をZ軸とする。この状態を初期状態とし、ユーザが、画像表示装置1を、Y軸を中心に回転させた状態が図10の破線1aで示されている。また、回転後のX軸、Z軸およびZ軸をX1、Za1およびZb1とそれぞれ示されている。
 図10に示すように、視線SLは、画像表示部903のX軸方向の右側から向けられたものである。したがって、視線SLの視線角度は、Za1と視線SLのX軸上における方向との間で形成される視線角度θで表される。また、視線SLは、画像表示部903のY軸方向の上側から向けられたものである。したがって、視線SLの視線角度は、Zb1軸と視線SLのY軸上における方向との間で形成される視線角度θで表される。
 このような状態で、ユーザAは、画像表示領域903aに対して、タッチ操作またはタップ操作などの所定の入力操作を行う。また、ユーザAは、タッチ検出領域910bに対して、上記と同様の入力操作を行う。分割された画像表示領域903aおよび903bの中で、画像表示領域903aに対して入力操作を行うのは、ユーザAの視線SLが画像表示領域903aに向けられているからである。また、4つのタッチ検出領域910a乃至910bの中で、タッチ検出領域910bに対して入力操作を行うのは、視線SLがX軸方向の右側から向けられており、かつタッチ検出領域910bがその方向に対応した位置に設けられているからである。
 次に、本発明の第3の実施形態に係る画像表示装置が実行する処理の例を、図11を参照して説明する。図11の説明では、図10で示した状態であることを前提とする。図11に示すステップS1101乃至S1104、およびS1106乃至S1112は、第1の実施形態において説明した図4のステップS401乃至S404、およびS406乃至S410とそれぞれ同一であるので、ここでの説明は省略する。
 ステップS1105では、傾き検出部914は、画像表示装置1の長さ方向側面のポイントPを軸に回転したときの角速度ω、および幅方向側面のポイントPを軸に回転したときの角速度ωを検出し、それぞれを角速度信号として方向・角度判定部911に出力する。
 ステップS1106では、方向・角度判定部911は、ステップS1105で傾き検出部914から出力された角速度ωから、式4にしたがって傾斜角度θを算出する。また、ステップS1105で傾き検出部914から出力された角速度ωから、式5にしたがって回転角度θを算出する。
Figure JPOXMLDOC01-appb-M000001
 式4および式5において、tは、傾き検出部914が角速度ωおよび角速度ωを検出したときの時間である。ここで、画像表示装置1を回転させたときの傾斜角および回転角を、図12Aおよび図12Bを参照して説明する。
 図12Aは、画像表示装置1を長さ方向側面から見たときの、長さ方向側面の中心に位置するポイントPを軸に回転させたことを示している側面図である。ポイントPを通り、画像表示装置1の長さ方向に水平な軸をY軸とする。ポイントPを通り、Y軸と直交する軸をZ軸とする。画像表示装置1を回転させた状態を破線1aで示しており、回転後のY軸およびZ軸をそれぞれYおよびZでそれぞれ示している。このZ軸とZ軸との間で形成される角度を傾斜角度θとする。
 図12Bは、画像表示装置1を幅方向側面から見たときの、幅方向側面の中心に位置するポイントPを軸に回転させたことを示している側面図である。ポイントPを通り、画像表示装置1の幅方向に水平な軸をX軸とする。ポイントPを通り、X軸と直行する軸をZ軸とする。画像表示装置1を回転させた状態を破線1bで示しており、回転後のX軸およびZ軸をそれぞれXおよびZでそれぞれ示している。このZ軸とZ軸との間で形成される角度を回転角度θとする。
 ステップS1106の説明に戻ると、方向・角度判定部911は、上述した傾斜角度θおよび回転角度θを算出すると、角度信号としてガンマ補正部909に出力する。
 ステップS1107では、ガンマ補正部909は、方向・角度判定部911から出力された方向信号で示される方向と、方向・角度判定部911から出力された角度信号で示される傾斜角度θおよび回転角度θとに基づいて、ガンマデータ記憶部908からガンマ補正テーブルを取得する。ここで、上記方向信号が上または下方向(縦方向)を示している場合は、傾斜角度θに基づいてガンマ補正テーブルを取得する。また、方向信号が左または右方向(横方向)を示している場合は、回転角度θに基づいてガンマ補正テーブルを取得する。
 このように、ユーザのタッチ操作などに応じて判定された方向に基づいて、回転角または傾斜角を使用するかを判定しているので、ユーザの指定に応じてより適切なガンマ補正をすることができる。
 また、上記方向信号が縦方向を示していても、回転角度θの値が傾斜角度θの値と比較して所定の数値よりも大きい場合は、横方向に対してそれぞれ定義されたガンマ補正テーブルから回転角度θに基づいてガンマ補正テーブルを取得してもよい。上記方向信号が横方向を示しており、および、傾斜角度θの値が回転角度θの値と比較して所定の数値よりも大きい場合は、その逆である(第1の実施形態で説明した補正値算出式によってガンマ補正を行う方法においても同様に、この視線方向および視線角度の判定が行われる)。
 このような構成を採用することによって、例えば、画像表示部903の下部に設けられたタッチ検出部910dに対してタッチ操作をしても、実際に画像表示装置1が横への傾きの方が大きい場合などに、横から見たときに最適となるガンマ補正を適用することができる。
 ガンマ補正部909は、ガンマ補正テーブルを取得すると、表示制御部901から出力された出力画像信号Y1に対してガンマ補正を行って、出力画像信号Y2としてソースドライバ904に出力する。
 以上のように、本発明に係る第3の実施形態を説明したが、第3実施形態は、第1の実施形態と同様の利点を有するとともに、携帯型端末の傾きに応じて最適となるガンマ補正値を適用しつつ、再補正を行えるという利点を有する。特に、携帯型端末などでは、その形態性からタッチ操作などが有効な入力手段となり、本実施形態に係る画像表示装置を携帯型端末に実装することによって、上述した利点がさらに顕著となる。
 <第4の実施形態>
 図13は、本発明の第4の実施形態に係る画像表示装置の構成の例を示すブロック図である。画像表示装置1は、表示制御部1301、タイミング信号生成部1302、画像表示部(表示パネル)1303、ソースドライバ1304、データ信号線1305、ゲートドライバ1306、ゲート信号線1307、ガンマデータ記憶部1308、ガンマ補正部1309、方向判定部1310、角度変換部1311、角度データ記憶部1312、受信機1313、および画像領域判定部1315を備えている。
 表示制御部1301、タイミング信号生成部1302、画像表示部1303、ソースドライバ1304、データ信号線1305、ゲートドライバ1306、ゲート信号線1307、ガンマデータ記憶部1308、ガンマ補正部1309、および角度データ記憶部1312は、図1で説明したそれぞれの要素と同一であるので、ここでの説明は省略する。
 方向判定部1310は、受信機1313から出力された電気信号の到達時間に基づいて、ユーザの画像表示部1303に対する視線方向を判定し、方向信号としてガンマ補正部1309に出力する。
 角度変換部1311は、受信機1313から出力された電気信号で示されるユーザが指定したガンマ補正値変数を、視線角度に変換して、角度信号としてガンマ補正部1309に出力する。
 受信機1313は、ユーザがリモートコントローラ1314を介して所定の入力操作を行ったことによって、リモートコントローラ1314から放出される信号波を受信する。受信機1313は受信した信号波を復調し、電気信号に変換して方向判定部1310および画像領域判定部1315に出力する。
 画像領域判定部1315は、受信機1313から出力された電気信号に基づいて、ユーザが選択した画像表示部1303の画像表示領域を判定し、その画像表示領域に対応する座標信号をガンマ補正部1309に出力する。
 次に、本発明の第4の実施形態に係る画像表示装置の使用状態の例を、図14を参照して説明する。本発明の第4の実施形態に係る画像表示装置は、主に、テレビに実装することを想定しているが、これらに限定されない。図14では、ユーザAおよびBが画像表示部1303上の分割された画像表示領域のそれぞれに視線を向けていることを示している。
 図14に示すように、画像表示装置1は、その周辺の上下左右の4箇所に受信機1313a、1313b、1313c、および1313dをそれぞれ備えている。本実施形態では、上下左右の4方向に応じて4つの受信機を備えているが、8方向または16方向などの複数の方向に応じてそれぞれの数の受信機を備えてもよい。なお、受信機は、少なくとも、画像表示部1303の中心から二等辺三角形(例えば、右下、左下、中央上などの3箇所)もしくは逆二等辺三角形(例えば、右上、左上、中央下などの3箇所)を描くように3つの受信機を備えることで、後述する信号波を検出することによって、ユーザの視線方向を判定することができる。
 画像表示部1303は、複数の分割された画像表示領域1303aおよび1303bを備えている。画像表示領域1303aの中心にポイントPが位置し、ポイントPに対するユーザAの視線を視線SLとする。また、画像表示領域1303bの中心にポイントPが位置し、ポイントPに対するユーザBの視線を視線SLとする。画像表示部1303の中心にポイントPが位置する。ポイントPを通り、画像表示部1303の幅方向に水平な軸をX軸とする。ポイントPを通り、画像表示部1303の長さ方向に水平な軸をY軸とする。ポイントPの法線をZ軸とし、ポイントPの法線をZ軸とする。
 図14に示すように、視線SLは、画像表示部1303のX軸方向の右側から向けられたものである。したがって、視線SLの視線角度は、Z軸と視線SLのX軸上における方向との間で形成される視線角度θで表される。また、視線SLは、画像表示部1303のY軸方向の上側から向けられたものである。したがって、視線SLの視線角度は、Z軸と視線SLのY軸上における方向との間で形成される視線角度θで表される。
 このような状態で、ユーザAは、リモートコントローラ1314を介して画像表示領域1303aを選択することを示す信号波を放出する。そして、ユーザAがリモートコントローラ1314を介して画像表示装置1に対して信号波SWを放出すると、4つの受信機1313a乃至1313dのそれぞれが、信号波SWを受信する。分割された画像表示領域1303aおよび1303bの中で、画像表示領域1303aを選択するのは、ユーザAの視線SLが画像表示領域1303aに向けられているからである。
 次に、本発明の第4の実施形態に係る画像表示装置が実行する処理の例を、図15を参照して説明する。図15の説明では、図14で示した状態であることを前提とする。図15に示すステップS1505、S1506、およびS1508乃至S1510は、第1の実施形態において説明した図4のステップS405、S406、およびS408乃至S410とそれぞれ同一であるので、ここでの説明は省略する。
 ステップS1501では、受信機1313は、リモートコントローラ1314が発した、画像表示領域1303aおよび1303bのいずれかが選択されたことを示す値の成分を含む信号波を受信および復調し、電気信号に変換して画像領域判定部1315に出力する。
 ステップS1502では、画像領域判定部1315は、ステップS1501で出力された電気信号に基づいて、ユーザが画像表示領域1303aおよび1303bのいずれかを選択したかを判定する。そして、画像領域判定部1315は、上記選択された画像表示領域を示す座標信号をガンマ補正部1309に出力する。
 ステップS1503では、受信機1313a乃至1313dのそれぞれは、リモートコントローラ1314が発した信号波SWを受信および復調し、電気信号ES乃至ESのそれぞれに変換して方向判定部1310に出力する。
 ステップS1504では、方向判定部1310は、ステップS1503で受信機1313a乃至1313dのそれぞれから出力された電気信号ES乃至ESのそれぞれの到達時間T乃至Tを判定する。そして、到達時間T乃至Tの中から最も早く電気信号を検出した受信機が設けられた位置に対応する方向を、ユーザの視線方向と判定する。方向判定部1310は、上記判定結果を、方向信号としてガンマ補正部1309に出力する。
 上述したように受信機1313が3箇所に設けられる場合(例えば、受信機1313aが右上、受信機1313bが左上、受信機1313cが中央下に設けられる場合)は、以下のようにして視線方向を判定する。すなわち、受信機1313aおよび受信機1313bのそれぞれから出力された電気信号ESおよびESのそれぞれの到達時間TおよびTが同時、または、両者の時間差が所定値以内である場合は、視線方向を上と判定する。到達時間Tが到達時間Tよりも早く、かつ両者の時間差が所定値よりも大きい場合は、視線方向を右と判定する。TとTが逆の場合は、視線方向を左と判定する。受信機1313cから出力された電気信号ESの到達時間Tが最も早い場合は、視線方向を下と判定する。
 なお、リモートコントローラ1314から発せられる信号波SWが、赤外線などの指向性が高い信号波である場合は、受信機1313a乃至1313dのすべてが当該信号波を受信することができない場合がある。このような場合は、信号波SWを検出した受信機が設けられた位置に対応する方向が、ユーザの視線方向として判定される。
 ステップS1507では、ユーザがリモートコントローラ1314の操作を介して画像表示部1303上で表示された補正値調節入力インジケータ502をスライドさせると、受信機1313が、補正値調節入力インジケータ502が示す値の成分を含む信号波を受信する。受信機1313は、受信した電磁波を復調し、電気信号に変換して角度変換部1311に出力する。
 ステップS1508では、角度変換部1311は、ステップS1507で出力された電気信号に基づいて、補正値調節入力インジケータ502が示す値を判定する。角度変換部1311は、判定した値を、ユーザが指定した補正値に対応する角度信号に変換してガンマ補正部1309に出力する。この角度信号への変換は、補正値調節入力インジケータ502が示す値と角度とが対応するマッピングテーブル(図示せず)によって行われてもよい。
 以上のように、本発明に係る第4の実施形態を説明したが、第4の実施形態は、第1の実施形態と同様の利点を有する。また、本実施形態をテレビなどに実装することによって、ユーザは、ユーザが表示装置に手が届かない位置においてもユーザの輝度認識に応じてより最適なガンマ補正をすることができる。
    1 画像表示装置
   1a 画像表示装置
   1b 画像表示装置
  103 画像表示部
 103a 画像表示領域
 103b 画像表示領域
  105 データ信号線
  107 ゲート信号線
 110a タッチ検出領域
 110b タッチ検出領域
 110c タッチ検出領域
 110d タッチ検出領域
  501 補正値調節入力ゲージ
  502 補正値調節入力インジケータ
  603 画像表示部
 603a 画像表示領域
 603b 画像表示領域
  605 データ信号線
  607 ゲート信号線
 614a 音声検出部
 614b 音声検出部
 614c 音声検出部
 614d 音声検出部
  903 画像表示部
 903a 画像表示領域
 903b 画像表示領域
  905 データ信号線
  907 ゲート信号線
 910a タッチ検出領域
 910b タッチ検出領域
 910c タッチ検出領域
 910d タッチ検出領域
 1305 データ信号線
 1307 ゲート信号線
 1313 画像表示部
1303a 画像表示領域
1303b 画像表示領域
 1314 リモートコントローラ
1313a 受信機
1313b 受信機
1313c 受信機
1313d 受信機

Claims (18)

  1.  画像表示装置であって、
     表示パネルと、
     前記表示パネルの各々の方向に設けられた複数のタッチ検出領域のいずれかに対する第1の入力操作を検出する第1のタッチ検出部と、
     前記検出された第1の入力操作に基づいて、前記複数のタッチ検出領域が設けられた位置に対応する方向を判定する方向判定部と、
     前記画像表示装置に対する視線方向ごとに定義された第1の角度データを記憶した角度データ記憶部と、
     前記判定された方向および前記記憶された第1の角度データに基づいて、前記表示パネルに表示する画像に対して第1のガンマ補正値を適用するガンマ補正部と
     を備えたことを特徴とする画像表示装置。
  2.  前記表示パネル上に入力インタフェースを表示する画像表示部と、
     前記入力インタフェースを介して入力された第2の入力操作に基づいて、第2の角度データを算出する角度変換部と
     をさらに備え、
     前記ガンマ補正部は、前記算出された第2の角度データに基づいて、前記第1のガンマ補正値が適用された画像に対して第2のガンマ補正値を適用する
     ことを特徴とする請求項1に記載の画像表示装置。
  3.  前記角度変換部は、前記算出した第2の角度データを、前記角度データ記憶部に前記第1の角度データとして記憶することを特徴とする請求項2に記載の画像表示装置。
  4.  前記ガンマ補正部は、
     出力輝度=255×(入力階調/255)^(1/(γ×角度補正))
     角度補正=1+N×Cosθ
     式1
     式1にしたがって、前記第1のガンマ補正値および前記第2のガンマ補正値を適用し、
     γは、前記表示パネルが有しているガンマ値であり、Nは、前記判定された方向に応じて予め設定された補正係数であり、θは、前記第1の角度データおよび前記第2の角度データに対応する角度である
     ことを特徴とする請求項2または3に記載の画像表示装置。
  5.  前記入力インタフェースは、前記判定された方向に応じた向きで表示されることを特徴とする請求項2乃至4のいずれか一項に記載の画像表示装置。
  6.  前記表示パネルは、複数の画像表示領域を備えており、
     前記画像表示装置は、
      第3の入力操作を検出する第2のタッチ検出部と、
      前記検出された第3の入力操作に基づいて、前記複数の画像表示領域のいずれかが選択されたかを判定する画像領域判定部と
     をさらに備え
     前記ガンマ補正部は、前記判定された画像表示領域に対して前記第1のガンマ補正値を適用する
     ことを特徴とする請求項1乃至5のいずれか一項に記載の画像表示装置。
  7.  画像表示装置であって、
     表示パネルと、
     前記画像表示装置の各々の方向に設けられ、音声を検出する複数の音声検出部と、
     前記検出された音声に基づいて、音声の到来方向を判定する方向判定部と、
     前記画像表示装置に対する視線方向ごとに定義された第1の角度データを記憶した角度データ記憶部と、
     前記判定された到来方向および前記記憶された第1の角度データに基づいて、前記表示パネルに表示する画像に対して第1のガンマ補正値を適用するガンマ補正部と
     を備えたことを特徴とする画像表示装置。
  8.  前記表示パネル上に入力インタフェースを表示する画像表示部と、
     前記入力インタフェースを介して入力された第1の入力操作に基づいて、第2の角度データを算出する角度変換部と
     をさらに備え、
     前記ガンマ補正部は、前記算出された第2の角度データに基づいて、前記第1のガンマ補正値が適用された画像に対して第2のガンマ補正値を適用する
     ことを特徴とする請求項7に記載の画像表示装置。
  9.  前記角度変換部は、前記算出した第2の角度データを、前記角度データ記憶部に前記第1の角度データとして記憶することを特徴とする請求項8に記載の画像表示装置。
  10.  前記ガンマ補正部は、
     出力輝度=255×(入力階調/255)^(1/(γ×角度補正))
     角度補正=1+N×Cosθ
     式2
     式2にしたがって、前記第1のガンマ補正値および前記第2のガンマ補正値を適用し、
     γは、前記表示パネルが有しているガンマ値であり、Nは、前記判定された到来方向に応じて予め設定された補正係数であり、θは、前記第1の角度データおよび前記第2の角度データに対応する角度である
     ことを特徴とする請求項8または9に記載の画像表示装置。
  11.  前記入力インタフェースは、前記判定された到来方向に応じた向きで表示されることを特徴とする請求項8乃至10のいずれか一項に記載の画像表示装置。
  12.  前記表示パネルは、複数の画像表示領域を備えており、
     前記画像表示装置は、前記画像表示装置が受信した第2の入力操作に基づいて、前記複数の画像表示領域のいずれかが選択されたかを判定する画像領域判定部をさらに備え、
     前記ガンマ補正部は、前記判定された画像表示領域に対して前記第1のガンマ補正値を適用する
     ことを特徴とする請求項7乃至11のいずれか一項に記載の画像表示装置。
  13.  画像表示装置であって、
     表示パネルと、
     前記表示パネルの各々の方向に設けられた複数のタッチ検出領域のいずれかに対する第1の入力操作を検出する第1のタッチ検出部と、
     前記画像表示装置の長さ方向側面の中心を軸に回転させたときの第1の角速度を検出し、および、前記画像表示装置の幅方向側面の中心を軸に回転させたときの第2の角速度を検出する傾き検出部と、
     前記検出された第1の入力操作に基づいて、前記複数のタッチ検出領域が設けられた位置に対応する方向を判定し、前記検出された第1の角速度に基づいて、第1の角度を判定し、および、前記検出された第2の角速度に基づいて、第2の角度を判定する方向・角度判定部と、
     前記判定された方向、ならびに、前記判定された第1の角度または前記判定された第2の角度を使用して、前記表示パネルに表示する画像に対して第1のガンマ補正値を適用するガンマ補正部と
     を備えたことを特徴とする画像表示装置。
  14.  前記表示パネル上に入力インタフェースを表示する画像表示部と、
     前記入力インタフェースを介して入力された第2の入力操作に基づいて、角度データを算出する角度変換部と
     をさらに備え、
     前記ガンマ補正部は、前記算出された角度データに基づいて、前記第1のガンマ補正値が適用された画像に対して第2のガンマ補正値を適用する
     ことを特徴とする請求項13に記載の画像表示装置。
  15.  前記ガンマ補正部は、前記判定された方向に基づいて、前記判定された第1の角度または前記判定された第2の角度のいずれかを使用することを選択することを特徴とする請求項13に記載の画像表示装置。
  16.  前記ガンマ補正部は、前記判定された第1の角度の値および前記判定された第2の角度の値に基づいて、前記判定された第1の角度または前記判定された第2の角度のいずれかを使用することを選択することを特徴とする請求項13に記載の画像表示装置。
  17.  前記入力インタフェースは、前記判定された方向に応じた向きで表示されることを特徴とする請求項14に記載の画像表示装置。
  18.  前記表示パネルは、複数の画像表示領域を備えており、
     前記画像表示装置は、
      第3の入力操作を検出する第2のタッチ検出部と、
      前記検出された第3の入力操作に基づいて、前記複数の画像表示領域のいずれかが選択されたかを判定する画像領域判定部と
     をさらに備え、
     前記ガンマ補正部は、前記判定された画像表示領域に対して前記第1のガンマ補正値を適用する
     ことを特徴とする請求項13乃至17のいずれか一項に記載の画像表示装置。
PCT/JP2015/004232 2014-08-25 2015-08-24 画像表示装置 WO2016031224A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/505,372 US20170278483A1 (en) 2014-08-25 2015-08-24 Image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-170324 2014-08-25
JP2014170324 2014-08-25

Publications (1)

Publication Number Publication Date
WO2016031224A1 true WO2016031224A1 (ja) 2016-03-03

Family

ID=55399138

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/004232 WO2016031224A1 (ja) 2014-08-25 2015-08-24 画像表示装置

Country Status (2)

Country Link
US (1) US20170278483A1 (ja)
WO (1) WO2016031224A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3336687A1 (en) * 2016-12-16 2018-06-20 Chiun Mai Communication Systems, Inc. Voice control device and method thereof

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953577B2 (en) * 2013-12-09 2018-04-24 Joled Inc. Gate drive integrated circuit used in image display device, image display device, and organic EL display
JP6538871B2 (ja) * 2015-11-13 2019-07-03 マクセル株式会社 操作検出装置、操作検出方法、及び映像表示システム
WO2019043922A1 (ja) * 2017-09-01 2019-03-07 三菱電機株式会社 表示装置および表示制御方法
US11011095B2 (en) * 2018-08-31 2021-05-18 Chongqing Hkc Optoelectronics Technology Co., Ltd. Display panel, and image control device and method thereof
CN111383608B (zh) * 2018-12-29 2022-01-25 北京小米移动软件有限公司 显示控制方法和装置、电子设备以及计算机可读存储介质
CN112130740B (zh) * 2019-06-24 2023-08-11 中兴通讯股份有限公司 一种屏幕显示方法及装置
US11222614B1 (en) * 2020-08-05 2022-01-11 Novatek Microelectronics Corp. Image processing method, assembly and system with auto-adjusting gamma value

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092034A (ja) * 2003-09-19 2005-04-07 Hakko Denki Kk 液晶表示装置および表示方法
JP2006276692A (ja) * 2005-03-30 2006-10-12 Fujitsu Ltd 視角依存性のある表示装置のための高画質再生装置
JP2007004136A (ja) * 2005-05-26 2007-01-11 Nec Electronics Corp 表示装置、コントローラドライバ、及び表示パネルの駆動方法
JP2010113503A (ja) * 2008-11-06 2010-05-20 Sharp Corp 携帯端末装置
JP2010169868A (ja) * 2009-01-22 2010-08-05 Sony Corp 液晶表示装置
WO2011052589A1 (ja) * 2009-10-27 2011-05-05 シャープ株式会社 表示装置、当該表示装置の制御方法、プログラムおよびプログラムが記録されたコンピュータ読み取り可能な記録媒体
JP2013007912A (ja) * 2011-06-24 2013-01-10 Casio Comput Co Ltd 情報表示装置及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100828361B1 (ko) * 2005-09-28 2008-05-08 삼성전자주식회사 시야각에 적응적인 밝기-보정 전시 방법 및 이를 이용한화상 형성 장치
JP2010044179A (ja) * 2008-08-12 2010-02-25 Kenwood Corp 液晶表示装置
US20120280927A1 (en) * 2011-05-04 2012-11-08 Ludwig Lester F Simple touch interface and hdtp grammars for rapid operation of physical computer aided design (cad) systems
JP2012247936A (ja) * 2011-05-26 2012-12-13 Sony Corp 情報処理装置、表示制御方法及びプログラム
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
US20140071159A1 (en) * 2012-09-13 2014-03-13 Ati Technologies, Ulc Method and Apparatus For Providing a User Interface For a File System
EP2713244A1 (en) * 2012-10-01 2014-04-02 Alcatel Lucent Touchscreen device with parallax error compensation
US9389728B2 (en) * 2013-03-15 2016-07-12 Elwha Llc Systems and methods for parallax compensation
KR20150031986A (ko) * 2013-09-17 2015-03-25 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR20150107528A (ko) * 2014-03-14 2015-09-23 삼성전자주식회사 사용자 인터페이스를 제공하는 방법과 전자 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092034A (ja) * 2003-09-19 2005-04-07 Hakko Denki Kk 液晶表示装置および表示方法
JP2006276692A (ja) * 2005-03-30 2006-10-12 Fujitsu Ltd 視角依存性のある表示装置のための高画質再生装置
JP2007004136A (ja) * 2005-05-26 2007-01-11 Nec Electronics Corp 表示装置、コントローラドライバ、及び表示パネルの駆動方法
JP2010113503A (ja) * 2008-11-06 2010-05-20 Sharp Corp 携帯端末装置
JP2010169868A (ja) * 2009-01-22 2010-08-05 Sony Corp 液晶表示装置
WO2011052589A1 (ja) * 2009-10-27 2011-05-05 シャープ株式会社 表示装置、当該表示装置の制御方法、プログラムおよびプログラムが記録されたコンピュータ読み取り可能な記録媒体
JP2013007912A (ja) * 2011-06-24 2013-01-10 Casio Comput Co Ltd 情報表示装置及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3336687A1 (en) * 2016-12-16 2018-06-20 Chiun Mai Communication Systems, Inc. Voice control device and method thereof
US10504515B2 (en) 2016-12-16 2019-12-10 Chiun Mai Communication Systems, Inc. Rotation and tilting of a display using voice information

Also Published As

Publication number Publication date
US20170278483A1 (en) 2017-09-28

Similar Documents

Publication Publication Date Title
WO2016031224A1 (ja) 画像表示装置
US9891442B2 (en) Variable curvature display device and displaying method thereof
EP2728447B1 (en) Display apparatus and control method thereof
WO2017047150A1 (ja) 仮想空間提供方法及びプログラム
US20090072992A1 (en) Remote control for sensing movement, image display apparatus for controlling pointer by the remote control, and controlling method thereof
US9383776B2 (en) Display device
US20090102804A1 (en) Touch-based apparatus and method thereof
US20140118261A1 (en) Input device comprising geomagnetic sensor and acceleration sensor, display device for displaying cursor corresponding to motion of input device, and cursor display method thereof
US20070032886A1 (en) Electronic apparatus capable of adjusting display direction and display-direction adjusting method thereof
WO2014070477A4 (en) Systems and methods for configuring the display resolution of an electronic device based on distance
US20150084881A1 (en) Data processing method and electronic device
JP3854552B2 (ja) 表示装置
US20160364016A1 (en) Display apparatus, pointing apparatus, pointing system and control methods thereof
US10152158B2 (en) Information processing apparatus and control method of information processing apparatus
JP2018085072A (ja) 車両用表示装置
US20180052564A1 (en) Input control apparatus, input control method, and input control system
WO2018045688A1 (zh) 光标的控制方法和装置
US20110242008A1 (en) System, method and apparatus for initiating a user interface
WO2015083267A1 (ja) 表示制御装置及び表示制御方法
US20140085227A1 (en) Display and method in an electric device
JP5772804B2 (ja) 操作デバイス、及び操作デバイスの操作教示方法
US20190155560A1 (en) Multi-display control apparatus and method thereof
JP6014420B2 (ja) 操作制御装置、操作制御方法、および、操作制御装置用プログラム
JP2018116346A (ja) 入力制御装置、表示装置、及び入力制御方法
US20090146971A1 (en) Operation display device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15836278

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15505372

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 15836278

Country of ref document: EP

Kind code of ref document: A1