WO2018180843A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2018180843A1
WO2018180843A1 PCT/JP2018/011295 JP2018011295W WO2018180843A1 WO 2018180843 A1 WO2018180843 A1 WO 2018180843A1 JP 2018011295 W JP2018011295 W JP 2018011295W WO 2018180843 A1 WO2018180843 A1 WO 2018180843A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
display
value
area
conversion
Prior art date
Application number
PCT/JP2018/011295
Other languages
English (en)
French (fr)
Inventor
宮田 英利
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US16/496,226 priority Critical patent/US10810970B1/en
Publication of WO2018180843A1 publication Critical patent/WO2018180843A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0673Adjustment of display parameters for control of gamma adjustment, e.g. selecting another gamma curve
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Definitions

  • the present invention relates to a display device, and more particularly to a display device that displays HDR (High Dynamic Range).
  • HDR High Dynamic Range
  • Patent Document 1 when a user is paying attention to a low-brightness region in a display region in which a high-brightness region and a low-brightness region are mixed, the gradation value of the low-brightness region is adjusted to reduce the low-brightness region.
  • a technique for making the area easy to see is disclosed.
  • Patent Document 1 since the technique disclosed in Patent Document 1 only performs image correction within the attention area, the display gradation value of the attention area with respect to the entire screen becomes unnatural, and in particular, the maximum luminance as in an HDR-compatible display is high. In this case, when attention is paid to the low-brightness area, the contrast of display of the attention area disappears. That is, there is a problem that the displayed image becomes unnatural.
  • the image displayed in the attention area that the user is paying attention to is the brightness of the area around the attention area. If the value is too low, there is a problem that it is difficult to recognize the luminance difference of the image displayed in the attention area due to the influence of the surrounding luminance.
  • the present invention it is possible to easily recognize a luminance difference between images displayed in the attention area without being affected by luminance around the attention area, and to realize a display device in which the displayed image is not unnatural.
  • the purpose is to do.
  • a display device includes a display area and an attention area that identifies an attention area that a user is paying attention to among display areas of the entire display screen of the display panel.
  • the number of digits of the difference between the luminance center value of the luminance distribution of the attention area identified by the identification unit and the attention area identification unit and the luminance central value of the luminance distribution of the display area of the entire display screen is greater than or equal to a predetermined number of digits
  • a display control unit that converts the luminance central value of the luminance distribution of the display area of the entire display screen to the luminance value of each pixel of the entire screen so as to approach the luminance central value of the luminance distribution of the attention area.
  • the luminance center value of the luminance distribution of the attention area indicates the average value of the luminance values of all the pixels in the attention area
  • the luminance central value of the luminance distribution of the display area of the entire display screen is the entire luminance value of the entire screen. The average value of the luminance values of the pixels is shown.
  • FIG. 2 is a diagram illustrating a state in which a user is viewing the HDR display illustrated in FIG. 1. It is a table
  • FIG. 11 is a schematic lock diagram of the HDR display shown in FIG. 10.
  • Embodiment 1 Hereinafter, embodiments of the present invention will be described in detail.
  • an example in which the display device of the present invention is applied to an HDR (High Dynamic Range) display will be described.
  • FIG. 1 is a block diagram showing a schematic configuration of an HDR display 100 according to the present embodiment.
  • FIG. 2 is a diagram showing a state where the user is viewing the HDR display 100 shown in FIG.
  • the HDR display 100 is a high dynamic range (high luminance) display capable of high luminance display, and includes a control unit 10 (image processing device), a display unit 20, a camera 30, and a storage unit 40 as shown in FIG. I have.
  • the controller 10 will be described later.
  • Examples of the HDR display 100 include a personal information terminal such as a PC (Personal Computer), a multi-function mobile phone (smart phone), a tablet, or a television.
  • a personal information terminal such as a PC (Personal Computer), a multi-function mobile phone (smart phone), a tablet, or a television.
  • the display unit 20 displays an image under the control of the control unit 10 and includes, for example, a liquid crystal panel.
  • the camera 30 is composed of an image pickup device such as a CCD (charge coupled device) camera, and is provided at the center of the upper end of the HDR display 100 as shown in FIG.
  • the camera 30 preferably has an angle of view that can capture at least the face of the user 1 who is viewing the HDR display 100.
  • the storage unit 40 stores, for example, various control programs executed by the control unit 10, and includes a nonvolatile storage device such as a hard disk or a flash memory. For example, image data indicating an image to be displayed on the display unit 20 is stored in the storage unit 40.
  • control unit 10 reads out image data indicating an image as a still image stored from the storage unit 40.
  • image data indicating an image as a still image stored from the storage unit 40.
  • present invention is not limited thereto, and moving image data indicating a moving image is stored in the storage unit 40, and the moving image data may be read by the control unit 10.
  • the image data or the moving image data is not necessarily stored in the storage unit 40 in advance, and may be obtained by receiving broadcast waves, or may be acquired by receiving image data or moving images connected to the HDR display 100. You may acquire from the external apparatus (for example, recording device) which stores or produces
  • the external apparatus for example, recording device
  • the control unit 10 controls the HDR display 100 in an integrated manner. Particularly in the present embodiment, as shown in FIG. 2, the control unit 10 specifies the point P that the user 1 is paying attention from among the display areas 20 a of the display unit 20 of the HDR display 100, and starts from the specified point P. An area (attention area) A in which the user 1 is interested is specified, and the display gamma is corrected in accordance with the luminance distribution of the image displayed in the specified attention area. That is, as shown in FIG. 1, the control unit 10 includes an attention point specifying unit 11, an attention area specifying unit 12, a luminance distribution information acquisition unit 13, and an image processing unit (display control unit) 14.
  • the process of the control part 10 by these members is performed when there is one viewer. That is, the HDR display 100 does not perform the above process when it is determined by the face detection function that detects the viewer's face that a plurality of viewers are viewing the display unit 20.
  • the point-of-interest specifying unit 11 recognizes the user 1 who is viewing the display unit 20 based on the image data captured by the camera 30 (image data capturing at least the face of the user's eyes), and the eyeball of the recognized user 1 , And the user's 1 line of sight is followed from the position of the eyeball, and the point of interest (attention point P) in the display area 20a of the display unit 20 is specified.
  • the line of sight of the user 1 is based on the position of the iris with respect to the eye when the camera 30 captures the eyes of the user 1 and uses the reference point as the eye and the moving point as the iris in the captured eye image. To detect the line of sight.
  • the iris of the left eye is far from the eye, it can be seen that the user 1 is looking at the left side, and if the iris of the left eye is close to the iris, the user 1 is looking at the right side. In this way, the coordinates of the attention point P identified by the tracking of the line of sight of the user 1 are sent to the attention area identification unit 12 in the subsequent stage.
  • the attention area specifying unit 12 has a function of estimating a viewing distance (a distance between the user and the HDR display 100) in advance from image data obtained from the camera 30. For example, markers are displayed at the four corners and the center of the display area 20a of the display unit 20, the user is allowed to follow them, the movement of the eyeball (black eye) is acquired as image data, and the viewing distance is estimated from the image data. .
  • the attention area specifying unit 12 pays attention to an area on the display area 20a within a predetermined viewing angle (here, 5 °) from the estimated viewing distance and the coordinates of the attention point P specified by the attention point specifying unit 11. Identified as area A.
  • the viewing angle being 5 ° will be described later.
  • the point of interest means the line-of-sight center on the screen on which the user pays attention
  • the viewing angle means the angle from the line of sight connecting the eyeball and the point of interest on the user's eyeball.
  • the luminance distribution information acquisition unit 13 acquires the luminance distribution information of the entire screen of the image displayed on the display unit 20 and the luminance distribution information of the attention area A from the storage unit 40, and the acquired luminance distribution information is the image processing unit 14. Send to.
  • the luminance distribution information represents the distribution of the luminance values of all the pixels on the entire screen
  • the luminance distribution of the attention area A represents the distribution of the luminance values of all the pixels in the attention area A. It shall represent.
  • the image processing unit 14 is a digit of a difference between the luminance center value of the luminance distribution of the attention area A specified by the attention area specifying unit 12 and the luminance central value of the luminance distribution of the display area 20 a of the entire display screen of the display unit 20.
  • the luminance central value of the luminance distribution of the display area 20a of the entire display screen is set to the luminance of each pixel of the entire screen so as to approach the luminance central value of the luminance distribution of the attention area A. Convert the value.
  • the luminance center value of the luminance distribution of the attention area A indicates the average value of the luminance values of all the pixels in the attention area A
  • the luminance central value of the luminance distribution of the display area 20a of the entire display screen is the screen. An average value of luminance values of all the pixels is shown.
  • the image processing unit 14 displays when the difference between the luminance center value of the luminance distribution of the attention area A and the luminance central value of the luminance distribution of the display area 20a of the entire display screen is two digits or more.
  • the luminance center value of the luminance distribution of the display area 20a of the entire screen is converted so as to approach the luminance central value of the luminance distribution of the attention area A.
  • the above-mentioned predetermined number of digits is preferably two digits or more, but may be smaller than two digits. Details of the conversion processing in the image processing unit 14 will be described later.
  • the image processing unit 14 sends the display gamma image data corresponding to the luminance center value of the luminance distribution of the display area 20a of the entire converted display screen to the display unit 20.
  • the display unit 20 displays the image data from the image processing unit 14. At this time, an image with a clear luminance difference that is not influenced by the luminance of the display area 20a of the entire display screen is displayed in the attention area A where the user is paying attention.
  • the fact that the brightness difference is clear means that there is no unnaturalness in the displayed image.
  • FIG. 3 is a table showing HDR standard.
  • FIG. 4 is a graph showing the relationship between the video signal and the luminance in the HLG system, which is one standard of the HDR system, as a photoelectric conversion function.
  • FIG. 5 is a graph showing the relationship between the video signal and the luminance in the HLG system, which is one standard of the HDR system, as an electro-optic conversion function.
  • the HDR for TV includes an HLG (Hybrid Log-Gamma) method and a PQ (Perceptual Quantizer) method.
  • the main difference from the conventional TV system (SDR) is the expansion of the range of the expression range from the dark part to the bright part.
  • the output gamma is set on the assumption that the monitor output is 100 nits, whereas in HDR, the standard is such that luminance from 1000 nits to 10000 nits can be output.
  • the HDR display 100 is a liquid crystal display device and an OLED display device that satisfy the above specifications.
  • a liquid crystal display device is used as the HDR display 100, an area active backlight for local dimming is used as a method for satisfying the above specifications.
  • HDR high definition digital versatile disc
  • PC displays When performing high-brightness display for TVs, if the dynamic range is increased and displayed, a sense of depth is created in the video and the display quality is improved.
  • PC displays are different from TVs that display video on one side, such as starting up various windows or displaying video and Web information side by side.
  • the screen is more diverse than TV.
  • the visual characteristics with respect to changes in human brightness are said to cover 2 digits in the dynamic range, 4 digits for adaptation of the retina and the like, and 1 digit for pupil adaptation. Accordingly, since the dynamic range is about two digits on a screen in which the retina and the pupil are adapted, the luminance central value of the luminance distribution of the attention area A and the luminance central value of the luminance distribution of the display area 20a of the entire display screen are two. If there is a difference of more than digits, the details cannot be recognized in the attention area A.
  • an area of interest (attention area A) in more detail on a personal use display (such as a PC display).
  • HDR gradation luminance characteristics Before describing the gamma conversion (gradation luminance characteristic conversion) method performed in the image processing unit 14, the definition of the HDR gradation (video signal) luminance characteristic will be described.
  • the HDR standard as described above, there are the HLG method and the PQ method, and different characteristics are defined, but the basic concept is the same.
  • the characteristics of the HLG method will be described.
  • E ′ r ⁇ L (0 ⁇ L ⁇ 1)
  • E ′ aln (L ⁇ b) + c (1 ⁇ L)
  • r the video signal level with respect to the reference white level
  • r 0.5
  • L is a voltage proportional to the normalized input light of the camera 30
  • E ′ is a voltage proportional to the camera output of the video signal.
  • the graph of this function is as shown in FIGS.
  • the SDR in the graph shown in FIG. 4 is Standard Dynamic Range, which represents a conventional standard.
  • reference white 1 “100 nits”.
  • FIG. 6 is a flowchart showing the flow of image correction processing.
  • FIG. 7 shows the luminance value conversion of the luminance distribution when the average luminance of the attention area is smaller than the average luminance of the display area of the entire display screen, and (a) shows the luminance distribution of the entire screen before the luminance value conversion.
  • (B) is a graph of the luminance distribution of the entire screen after the luminance value conversion.
  • FIG. 8 shows luminance value conversion of the luminance distribution when the average luminance of the attention area is larger than the average luminance of the display area of the entire display screen.
  • FIG. 8A shows the luminance distribution of the entire screen before the luminance value conversion.
  • (B) is a graph of the luminance distribution of the entire screen after the luminance value conversion.
  • FIGS. 7 and 8 are graphs obtained by measuring the luminance distribution of the display area of the entire display screen, and are distribution diagrams in which the luminance values of all the pixels of the entire screen are aggregated.
  • the horizontal axis indicates the luminance value
  • the vertical axis indicates the number of pixels.
  • “Luminance center of entire screen: ac” shown in FIG. 7 indicates an average value of the aggregated luminance values.
  • Luminance center of attention area: tc” illustrated in FIG. 7 indicates an average value of luminance values of all the pixels in attention area A.
  • step S11 when an image is input (step S11), an image is displayed on the display unit 20.
  • the control unit 10 identifies a point of interest (step S12). Specifically, the eyeball of the user 1 viewing with the camera 30 is imaged, the position of the eyeball is identified, and the attention point P on which the user 1 is paying attention on the screen is specified from the position of the eyeball.
  • the control unit 10 identifies the attention area (step S13). Specifically, the viewing distance is estimated by displaying markers at the four corners and the center of the screen, tracking them with a line of sight, and recognizing the movement of the eyeball (black eye). From the estimated viewing distance and the coordinates of the attention point identified in S12, an area within a viewing angle of 5 ° with respect to the user's line of sight is identified as the attention area.
  • control unit 10 converts the image input signal input in step S11 into a luminance value (step S14). Thereby, the control part 10 acquires the information of luminance distribution information (ac, tc) (step S15).
  • ac is the luminance center value of the luminance distribution of the display area of the entire display screen
  • tc is the luminance central value of the luminance distribution of the attention area.
  • the luminance center value of the attention area is lower than 1/100 (the display is dark) compared to the luminance central value of the entire screen.
  • step S15 it is determined whether or not ac acquired in step S15 is larger than 100 times tc (step S16).
  • the average luminance of the entire screen is the attention area (viewing angle centered on the attention point). It is considered that the visibility of the display content in the attention area is deteriorated when it is two digits or more away from the luminance average of the range of 5 °.
  • step S16 if YES in step S16, that is, if ac is larger than 100 times tc, it is determined that the visibility of the display content of the attention area has deteriorated, and image correction is performed on the input image data. (Step S17), and image display based on the corrected image data is performed (step S18).
  • the luminance of the entire screen is changed in accordance with the luminance average of the attention area. Specifically, as shown in FIG. 7A, when ac> tc ⁇ 100, conversion is performed so that the center value of the luminance of the entire screen is tc ⁇ 100. Also, in the luminance conversion, the luminance value higher than the higher luminance value in the vicinity of the luminance center value of the area of interest is reduced as shown in FIG. Luminance conversion is performed as follows.
  • step S16 determines whether the visibility of the display content of the attention area has not deteriorated. If NO in step S16, that is, if ac is not larger than 100 times tc, it is determined that the visibility of the display content of the attention area has not deteriorated, and image display is performed without performing image correction. This is performed (step S18).
  • image correction is not performed on the input image data, An image is displayed based on the input image data.
  • step S16 it is determined whether or not ac is smaller than 1/100 of tc. When it is determined that ac is small, image correction is performed (step S17), and image display is performed (step S18). If it is determined, image display is performed without performing image correction (step S18).
  • the image correction in step S17 is performed as follows. As shown in FIG. 8A, when ac ⁇ tc ⁇ 0.01, conversion is performed so that the center value of the luminance of the entire screen is tc ⁇ 0.01. In addition, as shown in FIG. 8B, the luminance conversion increases the luminance value of the luminance lower than the luminance value on the lower side in the vicinity of the luminance central value of the attention area so as not to impair the display quality. Perform brightness conversion.
  • the luminance value is converted into a value that matches the visual characteristic (a value that is considered to be almost linear in human visual characteristics).
  • this conversion may be a conversion function of the HLG shown in FIGS.
  • E ′ is a value corresponding to the visual characteristic linear level, corresponds to a value having a linear characteristic with respect to the human visual characteristic
  • L represents a display luminance value.
  • ac is the luminance center value of the luminance distribution of the display area of the entire display screen
  • tc is the luminance central value of the luminance distribution of the attention area.
  • is also a function of luminance and is as follows.
  • p and q are values calculated from f (tc), f (ac), and f (tc ⁇ 100) as follows.
  • L ′ f ⁇ 1 ( ⁇ f (L)) (L ⁇ f ⁇ 1 (f (tc) ⁇ 0.1))
  • L ′ L (L> f ⁇ 1 (f (tc) ⁇ 0.1))
  • is the compression ratio
  • f ⁇ 1 () represents the inverse transformation of f ().
  • is also a function of luminance and is as follows.
  • p and q are values calculated from f (tc), f (ac), and f (tc ⁇ 0.01) as follows.
  • FIG. 9A shows an HDR display to be compared with the HDR display of the present embodiment
  • FIG. 9B shows the HDR display of the present embodiment.
  • the attention area A is a circle of 5 ° from the center of the user's line of sight, but the display displayed on a monitor or the like is often divided into a rectangular area like a window screen.
  • the attention area A is rectangular for convenience of explanation. That is, although the attention area A is specified to be a circle of 5 ° from the center of the user's line of sight, the object of image processing is a rectangular area including the circle.
  • the HDR display 100 when the dynamic range of the entire screen is large and the contrast and brightness are high, the HDR display 100 of the comparative example is shown in FIG. In this way, when the image of the attention area A that the user is paying attention to is dark, the display area 20a around the attention area A is too bright, so that the luminance difference of the image of the attention area A is difficult to recognize. . In this case, the luminance distribution is as shown in FIG. On the other hand, in the HDR display 100 of this embodiment, as shown in FIG.
  • the luminance distribution is as shown in FIG. That is, in the HDR display 100 of the present embodiment, the dynamic range of the entire display area 20a is low, and the contrast and brightness are low. Therefore, even if the attention area A is a slightly dark image, The displayed image is displayed so that it can be recognized in detail.
  • the distance between the user and the HDR display 100 that is, the viewing distance
  • markers are displayed at the four corners and the center of the screen, followed by a line of sight, and the movement of the eyeball (black eye) is recognized by image recognition.
  • the present invention is not limited to this, and other viewing distance estimation methods may be used.
  • Embodiment 2 below describes an example of another viewing distance estimation method.
  • FIG. 10 is a diagram illustrating a state where the user is viewing the HDR display 200 according to the present embodiment.
  • the HDR display 200 is different from the HDR display 100 of the first embodiment in that two cameras 30 are provided above the display unit 20 with a predetermined distance therebetween.
  • the distance between the user 1 and the HDR display 200 is estimated using the two cameras 30.
  • the viewing distance is estimated using the principle of triangulation using two cameras 30.
  • B indicates the distance between the cameras 30 and 30
  • f indicates the focal length of the camera 30
  • S indicates the shift (parallax) of the imaging position.
  • the parallax S is obtained by stereo-matching images obtained by capturing the user 1 with the two cameras 30. Since stereo matching is a general technique, detailed description thereof is omitted.
  • the HDR display 200 of the present embodiment it is not necessary for the user 1 to follow the marker displayed on the display unit 20 in order to estimate the viewing distance, so the burden on the user 1 is reduced. It becomes possible to do.
  • the line of sight of the user 1 is performed by analyzing an image captured by the camera 30 using visible light.
  • the line of sight of the user 1 is analyzed. An example in which the tracking is performed by analyzing an image captured by the camera 30 using infrared rays will be described.
  • FIG. 11 is a diagram illustrating a state in which the user is viewing the HDR display 300 according to the present embodiment.
  • FIG. 12 is a block diagram showing a schematic configuration of the HDR display 300 shown in FIG.
  • the HDR display 300 is provided with an infrared light emitting unit 50 that emits infrared light in addition to the camera 30 on the display unit 20, unlike the HDR display 100 of the first embodiment.
  • the infrared light emitting unit 50 includes an infrared LED and emits infrared light toward the user 1.
  • infrared light is emitted toward the eyes of the user 1.
  • the emitted infrared rays are reflected by the cornea of the user's 1 eye. Therefore, the eyes of the user 1 in a state where the infrared light emitted from the infrared light emitting unit 50 is reflected by the cornea of the user 1 are imaged by the camera 30.
  • the line of sight of the user 1 is tracked using this captured image.
  • the user's 1 face is imaged by the camera 30 while the infrared light emitting unit 50 illuminates the user's 1 face.
  • the corneal reflection point reflected by the cornea and the pupil are reflected in the eyes of the user 1, and the pupil position is on the left side and the right side of the reference point with the corneal reflection point as a reference point.
  • the direction of the line of sight of the user 1 can be known. That is, for example, if the pupil is closer to the eyes than the corneal reflection point of the left eye of the user 1, it can be seen that the user 1 is looking at the left side of the display unit 20, and if the pupil is closer to the front of the eye than the corneal reflection point. It can be seen that the user 1 is looking at the right side of the display unit 20.
  • the corneal reflection point as the reference point is easy to detect accurately by image processing, so that the accuracy of tracking the line of sight can be improved.
  • the attention area A which the user 1 is paying attention to can be specified more appropriately.
  • the display device includes a display panel (display unit 20) and an attention area A that the user 1 is paying attention to among the display area 20a of the entire display screen of the display panel (display unit 20).
  • the luminance center value of the luminance distribution of the display area 20a of the entire display screen is set to be close to the luminance central value of the luminance distribution of the attention area A.
  • a display control unit image processing unit 14 for converting the luminance value.
  • the number of digits of the difference between the luminance center value of the luminance distribution of the attention area of the user in the display area of the display screen and the luminance central value of the luminance distribution of the display area of the entire display screen is a predetermined digit.
  • the attention area of the user is not easily affected by the luminance of the display area of the entire display screen, so that it is easy to recognize the luminance difference between the images displayed in the attention area.
  • the above processing is effective when the user's attention area is darker than the display area of the entire display screen.
  • the predetermined number of digits is two or more. This is the number of digits obtained in consideration of human visual characteristics. However, with respect to the predetermined number of digits or more, two or more digits are preferable, but may be smaller than two digits.
  • the display control unit image processing unit 14
  • the display control unit is configured such that the luminance center value of the luminance distribution of the attention area A is the luminance of the display region 20a of the entire display screen.
  • the brightness center value of the distribution is smaller than the brightness center value of the brightness distribution of the entire display screen, the brightness center value of the brightness distribution of the display area 20a of the entire display screen approaches the brightness center value of the brightness distribution of the attention area A. You may perform the conversion which lowers.
  • the luminance central value of the luminance distribution of the display area of the entire display screen is determined.
  • the user's attention area is darker than the display area of the entire display screen by performing conversion that lowers the luminance value of each pixel of the entire screen so as to approach the luminance center value of the luminance distribution of the attention area.
  • the display device is the display apparatus according to aspect 2, wherein the luminance conversion of the display area of the entire display screen is higher than the luminance value on the higher luminance side near the luminance central value of the luminance distribution of the attention area.
  • the luminance value of each image may be converted to a luminance value lower than the respective value according to each luminance value.
  • the luminance conversion of the display area of the entire display screen is represented by L before luminance and L ′ after luminance (compression) conversion.
  • L ′ L (L ⁇ f ⁇ 1 (f (tc) +0.1))
  • L ′ f ⁇ 1 ( ⁇ f (L)) (L> f ⁇ 1 (f (tc) +0.1))
  • is the compression ratio
  • f ⁇ 1 () represents the inverse transformation of f ().
  • the display control unit image processing unit 14
  • the luminance center value of the luminance distribution of the attention area A is the luminance of the display area 20a of the entire display screen.
  • the luminance central value of the distribution is larger than the luminance central value of the luminance distribution of the entire display screen
  • the luminance central value of the luminance distribution of the display area 20a of the entire display screen approaches the luminance central value of the luminance distribution of the attention area A. You may perform the conversion which raises.
  • the luminance central value of the luminance distribution of the display area of the entire display screen is determined. Even if the user's attention area is brighter than the display area of the entire display screen by performing the conversion so as to approach the luminance center value of the luminance distribution of the attention area, the luminance of the user's attention area The difference can be easily recognized.
  • the luminance conversion of the display area of the entire display screen is lower than the luminance value on the higher luminance side near the luminance central value of the luminance distribution of the attention area.
  • the luminance value of each image may be converted to a luminance value higher than the respective value according to each luminance value.
  • the luminance conversion of the display area of the entire display screen is represented by L before luminance and L ′ after luminance (compression) conversion.
  • L ′ L (L ⁇ f ⁇ 1 (f (tc) ⁇ 0.1))
  • L ′ f ⁇ 1 ( ⁇ f (L)) (L> f ⁇ 1 (f (tc) ⁇ 0.1))
  • alpha is compressed magnification
  • f -1 () represents the inverse transform of f ().
  • a display device in any one of the first to seventh aspects, further includes an imaging device (camera 30) that captures at least the face of the user 1 and includes the attention area specifying unit 12. May specify the attention area A that the user 1 is paying attention to from the captured image obtained by the imaging device (camera 30).
  • an imaging device camera 30
  • the attention area specifying unit 12 May specify the attention area A that the user 1 is paying attention to from the captured image obtained by the imaging device (camera 30).
  • the number of the imaging devices is two, and both of them may image at least the face of the user 1.
  • the display device further includes an infrared light emitting unit 50 that emits infrared light to the user 1 in the above aspect 8 or 9, and the imaging device (camera 30) includes the infrared light emitting unit 50. At least the eyes of the face of the user 1 irradiated with infrared rays emitted from the user may be imaged.
  • a corneal reflection point in which infrared rays are reflected by the cornea and a pupil are projected in the user's eyes, and the position of the pupil is determined using the corneal reflection point as a reference point. If the pupil is closer to the reference point than the reference point, the user knows that he is looking at the left side of the display panel. If the pupil is closer to the eye than the corneal reflection point, the user is looking at the right side of the display panel. I understand.
  • the corneal reflection point as the reference point is easy to detect accurately by image processing, so that the accuracy of tracking the line of sight can be improved.
  • the display device in any one of the first to tenth aspects, is preferably an HDR (High Dynamic Range) display device.
  • HDR High Dynamic Range
  • the present invention is particularly effective in the case of a display device having a maximum luminance of 1000 nits or more, such as an HDR (High Dynamic Range) display device.
  • a display device having a maximum luminance of 1000 nits or more such as an HDR (High Dynamic Range) display device.

Abstract

注目エリアの周囲の輝度に影響されず、当該注目エリアに表示された画像の輝度差を容易に認識できる。HDRディスプレイ(100)は、表示部(20)の注目エリアの輝度分布の輝度中心値と、表示領域全体の輝度分布の輝度中心値との差の桁数が2桁以上であるとき、上記表示領域全体の輝度分布の輝度中心値を、上記注目エリアの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を変換する画像処理部(14)を備える。

Description

表示装置
 本発明は、表示装置に関し、特にHDR(High Dynamic Range)の表示を行う表示装置に関する。
 一般に、人間の視覚特性、特に明るさに対する目の順応特性(眼の順応レベル)により、液晶表示装置等の表示装置の表示領域内に高輝度の領域と低輝度の領域とが混在する場合、低輝度の領域における輝度差を認識し難くなる。
 例えば特許文献1には、高輝度領域と低輝度領域が混在した表示領域において、ユーザが低輝度領域を注目している場合に、当該低輝度領域の階調値を調整することで、低輝度領域を見やすくする技術が開示されている。
日本国公開特許公報「特開2016-24772号公報(2016年2月8日公開)」
 しかしながら、HDR(High Dynamic Range)の表示装置のように、最大輝度が1000nits以上ある表示装置の場合、特許文献1に開示された技術のように、低輝度領域の階調値を調整したとしても、高輝度領域の輝度に影響を受けて、低輝度領域における輝度差を認識するのが難しいという問題が生じる。
 しかも、特許文献1に開示された技術では、注目エリア内の画像補正のみ行うため、画面全体に対する注目エリアの表示階調値が不自然となり、特に、HDR対応のディスプレイのような最大輝度が高い場合、低輝度の領域を注目すると注目エリアの表示のコントラスト感がなくなる。つまり、表示される画像が不自然となるという問題が生じる。
 特に、HDR(High Dynamic Range)の表示装置のように、最大輝度が1000nits以上ある表示装置の場合、ユーザが注目している注目エリアに表示される画像が当該注目エリアの周囲のエリアの輝度よりも低い場合に、周囲の輝度に影響され、注目エリアに表示されている画像の輝度差が認識し難いという問題が生じる。
 本発明の一態様は、注目エリアの周囲の輝度に影響されず、当該注目エリアに表示された画像の輝度差を容易に認識できると共に、表示される画像に不自然さのない表示装置を実現することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る表示装置は、表示パネルと、上記表示パネルの表示画面全体の表示領域のうち、ユーザが注目している注目エリアを特定する注目エリア特定部と、上記注目エリア特定部によって特定された注目エリアの輝度分布の輝度中心値と、上記表示画面全体の表示領域の輝度分布の輝度中心値との差の桁数が所定の桁数以上であるとき、上記表示画面全体の表示領域の輝度分布の輝度中心値を、上記注目エリアの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を変換する表示制御部とを備えていることを特徴としている。ここで、注目エリアの輝度分布の輝度中心値は、注目エリア内のすべての画素の輝度値の平均値を示し、表示画面全体の表示領域の輝度分布の輝度中心値とは、画面全体のすべての画素の輝度値の平均値を示す。
 本発明の一態様によれば、注目エリアの周囲の輝度に影響されず、当該注目エリアに表示された画像の輝度差を容易に認識できると共に、不自然さのない画像を表示できるという効果を奏する。
本実施形態に係るHDRディスプレイの概略部ロック図である。 図1に示すHDRディスプレイをユーザが視聴している状態を示す図である。 HDR方式の規格を示す表である。 HDR方式の一つの規格であるHLG方式における映像信号と輝度との関係を光電変換関数で示したグラフである。 HDR方式の一つの規格であるHLG方式における映像信号と輝度との関係を電光変換関数で示したグラフである。 図1に示すHDRディスプレイにおける画像補正処理の流れを示すフローチャートである。 注目エリアの平均輝度が、表示画面全体の表示領域の平均輝度よりも小さい場合の輝度分布における輝度値変換を示すグラブであり、(a)は輝度値変換前のグラフ、(b)は輝度値変換後のグラフである。 注目エリアの平均輝度が、表示画面全体の表示領域の平均輝度よりも大きい場合の輝度分布における輝度値変換を示すグラブであり、(a)は輝度値変換前のグラフ、(b)は輝度値変換後のグラフである。 本実施形態に係るHDRディスプレイによる効果を説明するための図である。 本発明の実施形態2にかかるHDRディスプレイをユーザが視聴している状態を示す図である。 本発明の実施形態3にかかるHDRディスプレイをユーザが視聴している状態を示す図である。 図10に示すHDRディスプレイの概略部ロック図である。
 〔実施形態1〕
 以下、本発明の実施の形態について、詳細に説明する。本実施形態では、本発明の表示装置をHDR(High Dynamic Range)ディスプレイに適用した例について説明する。
 (HDRディスプレイの概略)
 図1は、本実施形態に係るHDRディスプレイ100の概略構成を示すブロック図である。
 図2は、図1に示すHDRディスプレイ100をユーザが視聴している状態を示す図である。
 HDRディスプレイ100は、高輝度表示可能な高ダイナミックレンジ(高輝度)ディスプレイであって、図1に示すように、制御部10(画像処理装置)、表示部20、カメラ30、および記憶部40を備えている。制御部10については後述する。
 HDRディスプレイ100としては、例えば、PC(Personal Computer)、多機能型携帯電話機(スマートフォン)、タブレット等の携帯型情報端末、または、テレビ等が挙げられる。
 表示部20は、制御部10による制御によって画像を表示するものであり、例えば液晶パネル等で構成される。
 カメラ30は、CCD(charge coupled device)カメラ等の撮像素子からなり、図2に示すように、HDRディスプレイ100の上端の中央部に設けられている。カメラ30は、HDRディスプレイ100を視聴しているユーザ1の少なくとも顔の目元を撮像できる画角であることが好ましい。
 記憶部40は、例えば、制御部10が実行する各種の制御プログラム等を記憶するものであり、例えばハードディスク、フラッシュメモリ等の不揮発性の記憶装置によって構成される。記憶部40には、例えば、表示部20に表示させる画像を示す画像データ等が格納されている。
 なお、本実施形態では、記憶部40から格納された、静止画としての画像を示す画像データを制御部10が読み出すものとして説明する。しかし、これに限らず、記憶部40には、動画を示す動画像データが格納されており、制御部10によって当該動画データが読み出されてもよい。
 また、画像データまたは動画像データは、記憶部40にあらかじめ格納されている必要は必ずしもなく、放送波を受信することにより取得されてもよいし、HDRディスプレイ100に接続された、画像データまたは動画像データを格納または生成する外部装置(例えば録画装置)から取得されてもよい。
 (制御部10の詳細)
 制御部10は、HDRディスプレイ100を統括的に制御するものである。本実施形態では特に、制御部10は、図2に示すように、HDRディスプレイ100の表示部20の表示領域20aのうち、ユーザ1が注目しているポイントPを特定として、特定したポイントPからユーザ1が注目しているエリア(注目エリア)Aを特定し、特定した注目エリアに表示される画像の輝度分布に合わせて表示ガンマを補正する機能を有する。すなわち、制御部10は、図1に示すように、注目ポイント特定部11、注目エリア特定部12、輝度分布情報取得部13、画像処理部(表示制御部)14を備えている。なお、これらの部材による制御部10の処理は、鑑賞者が1人である場合に行われる。すなわち、HDRディスプレイ100は、鑑賞者の顔を検出する顔検出機能によって複数の観賞者が表示部20を見ていると判定した場合には、上記処理を行わない。
 注目ポイント特定部11は、カメラ30によって撮像された画像データ(ユーザの少なくとも顔の目元を撮像した画像データ)により、表示部20を視聴しているユーザ1を認識し、認識したユーザ1の眼球の位置を識別し、眼球の位置より、ユーザ1の視線を追従し、当該表示部20の表示領域20aにおける注目しているポイント(注目ポイントP)を特定する。ここで、ユーザ1の視線の追従は、カメラ30によってユーザ1の目を撮像し、撮像した目の画像において基準点を、目頭にし、動点を、虹彩とし、当該目頭に対する虹彩の位置に基づいて、視線を検出する。例えば、左目の虹彩が目頭から離れていれば、ユーザ1は左側を見ていることが分かり、左目の目頭と虹彩が近ければ、ユーザ1は右側を見ていることが分かる。このように、ユーザ1の視線の追従によって特定した注目ポイントPの座標を後段の注目エリア特定部12に送る。
 注目エリア特定部12は、カメラ30から得られる画像データから、視聴距離(ユーザとHDRディスプレイ100との距離)をあらかじめ見積もる機能を有している。例えば表示部20の表示領域20aの四隅および中央にマーカーを表示させ、ユーザにそれを目で追わせて、その眼球(黒眼)の移動を画像データとして取得し、画像データから視聴距離を見積もる。注目エリア特定部12は、見積もった視聴距離と、注目ポイント特定部11によって特定された注目ポイントPの座標とから所定の視野角(ここでは、5°)以内の表示領域20a上のエリアを注目エリアAとして特定する。視野角を5°にしていることの説明は後述する。ここで、注目ポイントとは、ユーザが注目する画面上の視線中心を意味し、視野角とは、ユーザの眼球上での眼球と注目ポイントを結ぶ視線からの角度を意味する。
 輝度分布情報取得部13は、表示部20に表示する画像の画面全体の輝度分布情報と、注目エリアAの輝度分布情報とを記憶部40から取得し、取得した輝度分布情報を画像処理部14に送る。ここで、輝度分布情報は、画面全体の場合は、画面全体のすべての画素の輝度値の分布を表し、注目エリアAの輝度分布は、注目エリアA内のすべての画素の輝度値の分布を表すものとする。
 画像処理部14は、注目エリア特定部12によって特定された注目エリアAの輝度分布の輝度中心値と、表示部20の表示画面全体の表示領域20aの輝度分布の輝度中心値との差の桁数が所定の桁数以上であるとき、上記表示画面全体の表示領域20aの輝度分布の輝度中心値を、上記注目エリアAの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を変換する。ここで、注目エリアAの輝度分布の輝度中心値は、注目エリアA内のすべての画素の輝度値の平均値を示し、表示画面全体の表示領域20aの輝度分布の輝度中心値とは、画面全体のすべての画素の輝度値の平均値を示す。
 具体的には、画像処理部14は、注目エリアAの輝度分布の輝度中心値と、表示画面全体の表示領域20aの輝度分布の輝度中心値との差が2桁以上であるときに、表示画面全体の表示領域20aの輝度分布の輝度中心値を、注目エリアAの輝度分布の輝度中心値に近づくように変換する。
 なお、上記の所定の桁数以上は、2桁以上が好ましいが、2桁よりも小さくてもよい。また、画像処理部14における変換処理の詳細については後述する。
 画像処理部14は、変換した表示画面全体の表示領域20aの輝度分布の輝度中心値に応じた表示ガンマの画像データを表示部20に送る。
 表示部20は、画像処理部14からの画像データを表示する。このとき、ユーザが注目している注目エリアAには、表示画面全体の表示領域20aの輝度に影響されない輝度差が明確な画像が表示されることになる。また、輝度差が明確であることは、表示される画像に不自然さがないということになる。
 (HDRについて)
 図3は、HDR方式の規格を示す表である。
 図4は、HDR方式の一つの規格であるHLG方式における映像信号と輝度との関係を光電変換関数で示したグラフである。
 図5は、HDR方式の一つの規格であるHLG方式における映像信号と輝度との関係を電光変換関数で示したグラフである。
 TV向けのHDRは、図3に示すように、HLG(Hybrid Log-Gamma)方式とPQ(Perceptual Quantizer)方式がある。従来のTVの方式(SDR)からの主な違いは、暗部から明部までの表現レンジの範囲の拡大である。従来は、モニタ出力を100nitsであるとみなして、出力ガンマを設定していたのに対して、HDRでは1000nitsから10000nitsまでの輝度を出力できるような規格になっている。そのため、HDR方式の液晶表示装置では、
最大輝度:1000nits以上かつ、黒輝度:0.05nits以下
コントラスト比:2万:1
また、OLED表示装置では、
最大輝度:540nits以上かつ、黒輝度:0.0005nits以下
コントラスト比:108万:1
となっている。
 本実施形態に係るHDRディスプレイ100は、上記仕様を満たした液晶表示装置およびOLED表示装置である。なお、HDRディスプレイ100として液晶表示装置を用いる場合には、上記仕様を満たすための手法としてバックライトをローカルディミングするエリアアクティブバックライトとする。
 このようにTV向けとして、最近、規格化および普及しているHDRという技術であるが、PC向けのディスプレイにおいてもHDRに対応するものが出てきており、個人ユースのディスプレイ、すなわち、PC(ノートPC、タブレットPCも含む)のディスプレイなどにも普及してきている。
 TV向けとして、高輝度表示を行う場合、ダイナミックレンジを上げて、表示させると、映像に奥行き感が生まれ、表示品位が向上する。PC向けのディスプレイにおいても同様なことが言えるが、PC向けの表示は一面に映像を表示させるTVとは異なり、様々なウインドウを立上げたり、映像とWeb情報を並べて表示させたりするなど、表示画面がTVと比べて、多様である。
 一方、人間の視覚特性において、明るいところと、暗いところではその視覚特性が異なることが知られている。明るいところでは、暗い部分の視認性が十分でなくなる。したがって、上記HDRのような高輝度のディスプレイにおいて、その平均輝度および輝度分布に大きな差異がある2つ以上の映像を表示させる場合において、低輝度側の映像(画像)に注目しているにも関わらず、高輝度側の輝度の影響により、最適な視覚特性で、低輝度側の映像を視覚することができない。
 (注目エリアA)
 人間の明るさの変化に対する視覚特性は、ダイナミックレンジで2桁をカバーし、網膜などの順応で4桁、瞳孔の順応で1桁程度と言われている。したがって、網膜や瞳孔が順応したある画面においては、ダイナミックレンジは2桁程度であるため、注目エリアAの輝度分布の輝度中心値と表示画面全体の表示領域20aの輝度分布の輝度中心値に2桁以上の差がある場合、注目エリアAにおいてその詳細を認識することができなくなる。
 また注目エリアAに関しては、人間の視覚の視野角特性を示唆する情報として、錐体の密度分布を測定したデータがある(視覚情報処理ハンドブックP237参照;日本視覚学会編)。このデータによれば、視野中心0°で、その密度は、およそ200x10/mmであるのに対して、5°付近ではその10分の1程度のおよそ20x10/mmとなっている。
 従って、中心5°よりもそとのエリアに関して、ほとんど(10分の1以下)、その詳細を認識していないと考えられる。
 上記、理由により、注目しているエリア(注目エリアA)をより詳細に表現することが、個人ユースのディスプレイ(PCディスプレイなど)では、有効であると考えられる。
 (HDRの階調輝度特性)
 画像処理部14において行われるガンマ変換(階調輝度特性変換)方法の説明の前に、HDRの階調(ビデオ信号)輝度特性の定義を記載する。HDRの規格では、先に説明したようにHLG方式とPQ方式が有り、それぞれ異なった特性を定義しているが、基本的な考え方は同じであり、ここでは、HLG方式の特性について説明する。
 HLG方式の伝達関数は、下の様に定義されている。
E’=r√L             (0≦L≦1)
E’=aln(L-b)+c      ( 1<L) 
 ただし、r は基準白レベルに対する映像信号レベルで、r=0.5とする。また、Lは正規化したカメラ30の入力光に比例した電圧とし、E’は、映像信号のカメラ出力に比例した電圧とする。a、b、cは定数で、以下の通りである。
a=0.17883277
b=0.28466892
c=0.55991073
この関数のグラフは、図4および図5に示すようになる。
 図4に示すに示すグラフ中のSDRはStandard Dynamic Range で、従来の規格を表している。従来の基準白は100nitsであり、つまり、“基準白の1”= “100nits”のことである。このように、HDRの場合は輝度が0から1200nitsの範囲の映像信号が送られてくる。
 次に、本実施例での階調輝度変換を用いた画像補正処理に関して説明する。
 (画像補正処理)
 図6は、画像補正処理の流れを示すフローチャートである。
 図7は、注目エリアの平均輝度が、表示画面全体の表示領域の平均輝度よりも小さい場合の輝度分布の輝度値変換を示しており、(a)は輝度値変換前の画面全体の輝度分布のグラフ、(b)は輝度値変換後の画面全体の輝度分布のグラフである。
 図8は、注目エリアの平均輝度が、表示画面全体の表示領域の平均輝度よりも大きい場合の輝度分布の輝度値変換を示しており、(a)は輝度値変換前の画面全体の輝度分布のグラフ、(b)は輝度値変換後の画面全体の輝度分布のグラフである。
 ここで、図7、8は、表示画面全体の表示領域の輝度分布を測定したグラフであり、画面全体の全ての画素の輝度値を集計した分布図となる。このグラフにおいて、横軸は輝度値、縦軸は画素数を示す。図7に記載の「画面全体の輝度中心:ac」は、上記集計された輝度値の平均値を示す。また、図7に記載の「注目エリアの輝度中心:tc」は、注目エリアA内の全ての画素の輝度値の平均値を示す。
 まず、画像入力が行われる(ステップS11)と、表示部20に画像が表示される。このタイミングで、制御部10は、注目ポイントを特定する(ステップS12)。具体的には、カメラ30により視聴しているユーザ1の眼球を撮像、眼球の位置を識別し、眼球の位置より、ユーザ1が画面上の注目している注目ポイントPを特定する。
 次に、制御部10は、注目エリアを特定する(ステップS13)。具体的には、画面四隅および中央にマーカーを表示させ、それを視線で追わせて、その眼球(黒眼)の移動を画像認識することにより、視聴距離を見積もる。見積もった視聴距離と、S12で特定した注目ポイントの座標から、ユーザの視線に対して視野角5°以内のエリアを注目エリアと特定する。
 その後、制御部10は、ステップS11にて入力された画像入力信号の輝度値への変換を行う(ステップS14)。これにより、制御部10は、輝度分布情報(ac,tc)の情報を取得する(ステップS15)。ここで、acは、表示画面全体の表示領域の輝度分布の輝度中心値、tcは、注目エリアの輝度分布の輝度中心値とする。
 以下では、注目エリアの輝度中心値が画面全体の輝度中心値に比べて1/100より低く(表示が暗く)なっている場合を想定して説明する。
 次に、ステップS15において取得したacがtcの100倍よりも大きいか否かを判断する(ステップS16)。ここで、先述のように、人間の視覚特性は、網膜および瞳孔の順応を除いたダイナミックレンジは、およそ2桁であるため、画面全体の輝度平均が、注目エリア(注目ポイントを中心に視野角5°の範囲)の輝度平均と比べて、2桁以上離れている場合は、注目エリアの表示内容の視認性が悪くなってしまうと考えられる。
 従って、ステップS16において、YESの場合、すなわちacがtcの100倍よりも大きい場合、注目エリアの表示内容の視認性は悪くなっていると判断し、入力された画像データに対して画像補正を行って(ステップS17)、補正後の画像データに基づいた画像表示を行う(ステップS18)。ここでは、注目エリアの輝度平均に合わせて、画面全体の輝度を変化させる。具体的には、図7の(a)に示すように、ac>tc×100の場合、画面全体の輝度の中心値がtc×100になるように変換する。また、輝度変換は、注目エリアの輝度中心値近傍で高い側の輝度値より高い輝度の輝度値を、図7の(b)に示すように、画面全体の画素の輝度値が全体的に低くなるように輝度変換が行われる。
 一方、ステップS16において、NOの場合、すなわちacがtcの100倍よりも大きくない場合、注目エリアの表示内容の視認性は悪くなっていないと判断し、画像補正を行わずに、画像表示を行う(ステップS18)。
 また、複数の視線が検知された場合や視線が定まらず(一定時間注目していない場合など)注目エリアが無いと判断された場合は、入力された画像データに対して画像補正を行わず、入力された画像データに基づいた画像表示を行う。
 また、注目エリアの輝度中心値が画面全体の輝度中心値に比べて100倍より高く(表示が明るく)なっている場合には、図6に示すステップS11~S15までの処理が同じで、上記ステップS16において、acがtcの1/100よりも小さいか否かを判定し、小さいと判定した場合に、画像補正を行って(ステップS17)、画像表示を行い(ステップS18)、小さくないと判定した場合に、画像補正を行わなで、画像表示を行う(ステップS18)。
 ここで、ステップS17の画像補正は、以下のように行う。図8の(a)に示すように、ac<tc×0.01の場合、画面全体の輝度の中心値がtc×0.01になるように変換する。また、その輝度変換は、図8の(b)に示すように、注目エリアの輝度中心値近傍で低い側の輝度値より低い輝度の輝度値を、表示品位を損なわないように増加させるような輝度変換を行う。
 (輝度変換の具体例)
 ここで、上記輝度変換の具体例について説明する。
 まず、輝度値は、人間の視覚特性では線形でないため、輝度値を視覚特性に合った値(人間の視覚特性で、その値がほぼ線形と考えられる値)に変換する。例えば、この変換は、図4,図5に示すHLGの変換関数とすることもできる。ここでは、輝度―線形視覚特性値変換関数とし、一般化した関数として、
 E‘=f(L)
と表すことにする。ここで、E’は視覚特性線形レベルに相当する値で、人間の視覚特性に対して線形な特性をもつ値に相当し、Lは表示輝度値を表す。
上述の説明と同様に、acは、表示画面全体の表示領域の輝度分布の輝度中心値、tcは、注目エリアの輝度分布の輝度中心値とする。
 まず、(1)(ac>tc×100)の場合の輝度変換について説明する。変換前の輝度をL、輝度(圧縮)変換後の輝度をL’とすると、
 L’=L            (L≦f-1(f(tc)+0.1))
 L’=f-1(αf(L))    (L>f-1(f(tc)+0.1))
 と表せる。ここで、αは、圧縮倍率、f-1()は、f()の逆変換を表す。
 更に、αも輝度の関数となり、下記の様になる。
 α=pf(L)+q
 ここで、p、qは、下記のように、f(tc)とf(ac)、f(tc×100)から算出される値になる。
 p=(1-f(tc×100)/f(ac))
/(f(tc)+0.1―f(ac))
 q=(f(ac)-f(tc)+0.1)
× f(tc×100)/f(ac)
/ (f(ac)-(f(tc)+0.1))
 次に、(2)(ac<tc×0.01)の場合の輝度変換について説明する。変換前の輝度をL、輝度(圧縮)変換後の輝度をL’とすると、
 L’=f-1(αf(L))         (L≦f-1(f(tc)―0.1))
 L’=L                 (L>f-1(f(tc)―0.1))
 と表せる。ここで、αは、圧縮倍率、f-1()は、f()の逆変換を表す。
 更に、αも輝度の関数となり、下記の様になる。
 α=pf(L)+q
 ここで、p、qは、下記のように、f(tc)とf(ac)、f(tc×0.01)から算出される値になる。
 p=(1-f(tc×0.01)/f(ac))
/(f(tc)―0.1―f(ac))
 q=(f(ac)―(f(tc×0.01)×(f(tc)―0.1)))
/(f(ac)-(f(tc)―0.1))
 上記のような、L→L’輝度変換を画面全体の各画素で行うことにより、注目エリアの視認性を向上させることができるようになる。
 (効果)
 図9の(a)は、本実施形態のHDRディスプレイと比較するHDRディスプレイを示し、(b)は、本実施形態のHDRディスプレイを示す。なお、注目エリアAは、ユーザの視線中心から5°の円であるが、モニタなどに表示される表示では、ウインドウ画面の様に矩形状の領域に分けられた場合が多く、このような場合を想定し、図9では、説明の便宜上、注目エリアAを矩形状としている。つまり、注目エリアAとして特定されるのは、あくまでもユーザの視線中心から5°の円であるが、画像処理の対象は、その円を中心に含む矩形状の領域となる。
 また、
 HDRディスプレイ100では、図9の(a)(b)に示すように、画面全体のダイナミックレンジが大きく、コントラストや輝度は高い場合、比較例のHDRディスプレイ100では、図9の(a)に示すように、ユーザが注目している注目エリアAの画像が暗いとき、注目エリアAの周囲の表示領域20aが明るすぎるため、当該注目エリアAの画像の輝度差が認識し難い表示となっている。この場合、輝度分布は、図7の(a)に示すようになる。これに対して、本実施形態のHDRディスプレイ100では、図9の(b)に示すように、ユーザが注目している注目エリアAの画像が暗いとき、注目エリアAの輝度分布に合わせて、表示領域20aの輝度を下げるようにしているため、当該注目エリアAの画像の輝度差が認識し易い表示となっている。この場合、輝度分布は、図7の(b)に示すようになる。つまり、本実施形態のHDRディスプレイ100では、表示領域20a全体のダイナミックレンジが低くなり、コントラスト、輝度が低くなってはいるため、注目エリアAが多少暗い画像であっても、当該注目エリアAに表示されている画像は詳細に認識できるような表示となっている。
 なお、本実施形態では、ユーザとHDRディスプレイ100までの距離、すなわち視聴距離を、画面四隅および中央にマーカーを表示させ、それを視線で追わせて、その眼球(黒眼)の移動を画像認識することにより見積もっていたが、本発明はこれに限定されるものではなく、他の視聴距離の見積もり方法を用いてもよい。以下の実施形態2は、他の視聴距離の見積もり方法の一例について説明する。
 〔実施形態2〕
 本発明の他の実施形態について説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図10は、本実施形態に係るHDRディスプレイ200をユーザが視聴している状態を示す図である。
 HDRディスプレイ200は、図10に示すように、前記実施形態1のHDRディスプレイ100と異なり、表示部20の上部に2台のカメラ30が所定距離隔てられて設けられている。
 この2台のカメラ30を用いて、ユーザ1とHDRディスプレイ200までの距離、すなわち視聴距離を見積もる。具体的には、2台のカメラ30を用いた、三角測量の原理を利用して視聴距離を見積もる。例えば、視聴距離D=B×f/Sで求める。Bは、カメラ30・30の間の距離を示し、fはカメラ30の焦点距離を示し、Sは、撮像位置のずれ(視差)を示す。視差Sは、2台のカメラ30でユーザ1を撮像した画像をステレオマッチングすることで求める。ステレオマッチングについて、一般的な技術であるため、詳細な説明は省略する。
 以上のように、本実施形態のHDRディスプレイ200によれば、視聴距離を見積もるために、ユーザ1に表示部20に表示したマーカーを目で追わせる必要がないので、ユーザ1にとっての負担を軽減することが可能となる。
 なお、前記実施形態1、2では、ユーザ1の視線の追従は、可視光を用いてカメラ30で撮像した画像を解析して行っていたが、以下の実施形態3では、ユーザ1の視線の追従を、赤外線を用いてカメラ30で撮像した画像を解析して行う例について説明する。
 〔実施形態3〕
 本発明の他の実施形態について説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 図11は、本実施形態に係るHDRディスプレイ300をユーザが視聴している状態を示す図である。
 図12は、図11に示すHDRディスプレイ300の概略構成を示すブロック図である。
 HDRディスプレイ300は、図11に示すように、前記実施形態1のHDRディスプレイ100と異なり、表示部20の上部にカメラ30の他に、赤外線を発光する赤外線発光部50が設けられている。
 赤外線発光部50は、赤外線LEDからなり、ユーザ1に向けて赤外線を発光する。特に、ユーザ1の目に向けて赤外線を発光する。これにより、発光された赤外線は、ユーザ1の目の角膜で反射される。従って、赤外線発光部50が発光した赤外線がユーザ1の角膜で反射された状態の当該ユーザ1の目がカメラ30によって撮像される。この撮像画像を用いてユーザ1の視線の追従を行う。
 具体的には、赤外線発光部50によってユーザ1の顔を照らしながら、カメラ30によって当該ユーザ1の顔を撮像する。撮像した画像には、ユーザ1の目において、角膜で反射された角膜反射点と、瞳孔とが映し出されており、当該角膜反射点を基準点とし、瞳孔の位置が基準点よりも左側、右側、上側、下側などにあることがわかれば、ユーザ1の視線の方向が分かる。すなわち、例えば、ユーザ1の左目の角膜反射点よりも瞳孔が目じり側にあれば、ユーザ1は表示部20の左側を見ていることが分かり、角膜反射点よりも瞳孔が目頭側にあれば、ユーザ1は表示部20の右側を見ていることが分かる。
 このように、基準点とする角膜反射点は、画像処理で正確に検出し易いため、視線の追従の精度を高めることができる。これにより、ユーザ1が注目している注目エリアAをより適切に特定することができる。
 〔変形例〕
 前記実施形態3では、図11に示すように、カメラ30が1台のHDRディスプレイ300に赤外線発光部50を設けた例について説明したが、前記実施形態2のように、2台のカメラ30のHDRディスプレイ200に赤外線発光部50を設けてもよい。
 この場合、ユーザ1の視聴距離を簡単に且つ精度よく求めることができるため、ユーザ1の視線追従の精度もさらに高めることができる。
 〔まとめ〕
 本発明の態様1に係る表示装置は、表示パネル(表示部20)と、上記表示パネル(表示部20)の表示画面全体の表示領域20aのうち、ユーザ1が注目している注目エリアAを特定する注目エリア特定部12と、上記注目エリア特定部12によって特定された注目エリアAの輝度分布の輝度中心値と、上記表示画面全体の表示領域20aの輝度分布の輝度中心値との差の桁数が所定の桁数以上であるとき、上記表示画面全体の表示領域20aの輝度分布の輝度中心値を、上記注目エリアAの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を変換する表示制御部(画像処理部14)と、を備えていることを特徴としている。
 上記構成によれば、表示画面の表示領域における、ユーザの注目エリアの輝度分布の輝度中心値と、当該表示画面全体の表示領域の輝度分布の輝度中心値との差の桁数が所定の桁数以上であるとき、上記表示画面全体の表示領域の輝度分布の輝度中心値を、上記注目エリアの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を変換することで、ユーザの注目エリアと表示画面全体の表示領域との明るさの差を小さくすることができる。これにより、ユーザの注目エリアは、表示画面全体の表示領域の輝度の影響を受けにくくなるため、当該注目エリアに表示された画像の輝度差が認識し易くなる。特に、ユーザの注目エリアが、表示画面全体の表示領域よりも暗い場合に、上記の処理は有効である。
 なお、所定の桁数以上は、2桁以上が好ましい。これは、人間の視覚特性を考慮して得られた桁数である。しかしながら、所定の桁数以上については、2桁以上が好ましいが、2桁よりも小さくてもよい。
 本発明の態様2に係る表示装置は、上記態様1において、上記表示制御部(画像処理部14)は、上記注目エリアAの輝度分布の輝度中心値が上記表示画面全体の表示領域20aの輝度分布の輝度中心値よりも小さいとき、上記表示画面全体の表示領域20aの輝度分布の輝度中心値を、上記注目エリアAの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を下げる変換を行ってもよい。
 上記構成によれば、注目エリアの輝度分布の輝度中心値が上記表示画面全体の表示領域の輝度分布の輝度中心値よりも小さいとき、上記表示画面全体の表示領域の輝度分布の輝度中心値を、上記注目エリアの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を下げる変換を行うことで、ユーザの注目エリアが、表示画面全体の表示領域よりも暗い場合であっても、当該ユーザの注目エリアの輝度差を容易に認識することができる。具体的には以下のような変換を行う。
 本発明の態様3に係る表示装置は、上記態様2において、上記表示画面全体の表示領域の輝度変換は、上記注目エリアの輝度分布の輝度中心値付近の輝度が高い側の輝度値より高い輝度を持った各画素の輝度値に対して、各輝度値に応じて、それぞれの値より低い輝度値へ輝度値を低減する各画像の輝度値の変換であってもよい。
 本発明の態様4に係る表示装置は、上記態様3において、上記表示画面全体の表示領域の輝度変換は、変換前の輝度をL、輝度(圧縮)変換後の輝度をL’とすると、
 L’=L            (L≦f-1(f(tc)+0.1))
 L’=f-1(αf(L))    (L>f-1(f(tc)+0.1))
 と示される。ここで、αは、圧縮倍率、f-1()は、f()の逆変換を表す。
 本発明の態様5に係る表示装置は、上記態様1において、上記表示制御部(画像処理部14)は、上記注目エリアAの輝度分布の輝度中心値が上記表示画面全体の表示領域20aの輝度分布の輝度中心値よりも大きいとき、上記表示画面全体の表示領域20aの輝度分布の輝度中心値を、上記注目エリアAの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を上げる変換を行なってもよい。
 上記構成によれば、注目エリアの輝度分布の輝度中心値が上記表示画面全体の表示領域の輝度分布の輝度中心値よりも大きいとき、上記表示画面全体の表示領域の輝度分布の輝度中心値を、上記注目エリアの輝度分布の輝度中心値に近づくように上げる変換を行うことで、ユーザの注目エリアが、表示画面全体の表示領域よりも明るい場合であっても、当該ユーザの注目エリアの輝度差を容易に認識することができる。
 本発明の態様6に係る表示装置は、上記態様5において、上記表示画面全体の表示領域の輝度変換は、上記注目エリアの輝度分布の輝度中心値付近の輝度が高い側の輝度値より低い輝度を持った各画素の輝度値に対して、各輝度値に応じて、それぞれの値より高い輝度値へ輝度値を増加する各画像の輝度値の変換であってもよい。
 本発明の態様7に係る表示装置は、上記態様6において、上記表示画面全体の表示領域の輝度変換は、変換前の輝度をL、輝度(圧縮)変換後の輝度をL’とすると、
 L’=L            (L≦f-1(f(tc)-0.1))
 L’=f-1(αf(L))    (L>f-1(f(tc)-0.1))
 と示される。ここで、αは、圧縮倍率、f-1()は、f()の逆変換を表す。
 本発明の態様8に係る表示装置は、上記態様1~7の何れか1態様において、上記ユーザ1の少なくとも顔の目元を撮像する撮像装置(カメラ30)をさらに含み、上記注目エリア特定部12は、上記撮像装置(カメラ30)によって得られた撮像画像から、当該ユーザ1が注目している注目エリアAを特定してもよい。
 上記構成によれば、ユーザの少なくとも顔の目元を撮像する撮像装置を備えるだけで、容易にユーザが注目している注目エリアを特定することができる。
 本発明の態様9に係る表示装置は、上記態様8において、上記撮像装置(カメラ30)は、2台であり、2台とも上記ユーザ1の少なくとも顔の目元を撮像してもよい。
 上記構成によれば、2台の撮像装置によりユーザを撮像することで、撮像して得られた画像からユーザと表示パネルまでの距離(視聴距離)を測定することができる。
 本発明の態様10に係る表示装置は、上記態様8または9において、上記ユーザ1に対して赤外線を発光する赤外線発光部50をさらに含み、上記撮像装置(カメラ30)は、上記赤外線発光部50から発光された赤外線が照射されたユーザ1の少なくとも顔の目元を撮像してもよい。
 上記構成によれば、撮像した画像には、ユーザの目において、赤外線が角膜で反射された角膜反射点と、瞳孔とが映し出されており、当該角膜反射点を基準点とし、瞳孔の位置が基準点よりも瞳孔が目じり側にあれば、ユーザは表示パネルの左側を見ていることが分かり、角膜反射点よりも瞳孔が目頭側にあれば、ユーザは表示パネルの右側を見ていることが分かる。
 このように、基準点とする角膜反射点は、画像処理で正確に検出し易いため、視線の追従の精度を高めることができる。
 本発明の態様11に係る表示装置は、上記態様1~10の何れか1態様において、上記表示装置は、HDR(High Dynamic Range)の表示装置であることが好ましい。
 このように、本発明は、HDR(High Dynamic Range)の表示装置のように、最大輝度が1000nits以上ある表示装置の場合に特に有効な発明である。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
10 制御部
11 注目ポイント特定部
12 注目エリア特定部
13 輝度分布情報取得部
14 画像処理部(表示制御部)
20 表示部(表示パネル)
20a 表示領域
30 カメラ(撮像装置)
40 記憶部
50 赤外線発光部
100 HDRディスプレイ(表示装置)
200 HDRディスプレイ(表示装置)
300 HDRディスプレイ(表示装置)
A 注目エリア
D 視聴距離
P 注目ポイント

Claims (11)

  1.  表示パネルと、
     上記表示パネルの表示画面全体の表示領域のうち、ユーザが注目している注目エリアを特定する注目エリア特定部と、
     上記注目エリア特定部によって特定された注目エリアの輝度分布の輝度中心値と、上記表示画面全体の表示領域の輝度分布の輝度中心値との差の桁数が所定の桁数以上であるとき、上記表示画面全体の表示領域の輝度分布の輝度中心値を、上記注目エリアの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を変換する表示制御部とを備えていることを特徴とする表示装置。
  2.  上記表示制御部は、上記注目エリアの輝度分布の輝度中心値が上記表示画面全体の表示領域の輝度分布の輝度中心値よりも小さいとき、上記表示画面全体の表示領域の輝度分布の輝度中心値が、上記注目エリアの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を下げる変換を行うことを特徴とする請求項1に記載の表示装置。
  3.  上記表示画面全体の表示領域の輝度変換は、上記注目エリアの輝度分布の輝度中心値付近の輝度が高い側の輝度値より高い輝度を持った各画素の輝度値に対して、各輝度値に応じて、それぞれの値より低い輝度値へ輝度値を低減する各画像の輝度値の変換であることを特徴とする請求項2に記載の表示装置。
  4.  上記表示画面全体の表示領域の輝度変換は、変換前の輝度をL、輝度(圧縮)変換後の輝度をL’とし、圧縮倍率をα、f()の逆変換をf-1()とすると、
     L’=L            (L≦f-1(f(tc)+0.1))
     L’=f-1(αf(L))    (L>f-1(f(tc)+0.1))
     と示されることを特徴とする請求項3に記載の表示装置。
  5.  上記表示制御部は、上記注目エリアの輝度分布の輝度中心値が上記表示画面全体の表示領域の輝度分布の輝度中心値よりも大きいとき、上記表示画面全体の表示領域の輝度分布の輝度中心値を、上記注目エリアの輝度分布の輝度中心値に近づくように画面全体の各画素の輝度値を上げる変換を行うことを特徴とする請求項1に記載の表示装置。
  6.  上記表示画面全体の表示領域の輝度変換は、上記注目エリアの輝度分布の輝度中心値付近の輝度が高い側の輝度値より低い輝度を持った各画素の輝度値に対して、各輝度値に応じて、それぞれの値より高い輝度値へ輝度値を増加する各画像の輝度値の変換であることを特徴とする請求項5に記載の表示装置。
  7.  上記表示画面全体の表示領域の輝度変換は、変換前の輝度をL、輝度(圧縮)変換後の輝度をL’とし、圧縮倍率をα、f()の逆変換をf-1()とすると、
     L’=L            (L≦f-1(f(tc)-0.1))
     L’=f-1(αf(L))    (L>f-1(f(tc)-0.1))
     と示されることを特徴とする請求項6に記載の表示装置。
  8.  上記ユーザの少なくとも顔の目元を撮像する撮像装置をさらに含み、
     上記注目エリア特定部は、
     上記撮像装置によって得られた撮像画像から、当該ユーザが注目している注目エリアを特定することを特徴とする請求項1~7の何れか1項に記載の表示装置。
  9.  上記撮像装置は、2台であり、2台とも上記ユーザの少なくとも顔の目元を撮像することを特徴とする請求項8に記載の表示装置。
  10.  上記ユーザに対して赤外線を発光する赤外線発光部をさらに含み、
     上記撮像装置は、上記赤外線発光部から発光された赤外線が照射されたユーザの少なくとも顔の目元を撮像することを特徴とする請求項8または9に記載の表示装置。
  11.  上記表示装置は、HDR(High Dynamic Range)の表示装置であることを特徴とする請求項1~10の何れか1項に記載の表示装置。
PCT/JP2018/011295 2017-03-29 2018-03-22 表示装置 WO2018180843A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/496,226 US10810970B1 (en) 2017-03-29 2018-03-22 Display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-065357 2017-03-29
JP2017065357 2017-03-29

Publications (1)

Publication Number Publication Date
WO2018180843A1 true WO2018180843A1 (ja) 2018-10-04

Family

ID=63677985

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/011295 WO2018180843A1 (ja) 2017-03-29 2018-03-22 表示装置

Country Status (2)

Country Link
US (1) US10810970B1 (ja)
WO (1) WO2018180843A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110928618A (zh) * 2019-10-30 2020-03-27 西北工业大学 一种座舱人机界面注意力分配计算方法
WO2022014199A1 (ja) * 2020-07-15 2022-01-20 株式会社Jvcケンウッド 撮像制御装置、撮像制御方法及びプログラム
JP7475187B2 (ja) 2020-04-15 2024-04-26 キヤノン株式会社 表示制御装置および方法、プログラム、記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI774459B (zh) * 2021-07-05 2022-08-11 緯創資通股份有限公司 亮度調整方法及其相關顯示系統

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256536A (ja) * 2009-04-23 2010-11-11 Sharp Corp 画像処理装置及び画像表示装置
JP2013254358A (ja) * 2012-06-07 2013-12-19 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2016092576A (ja) * 2014-11-04 2016-05-23 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2445214A1 (en) * 2010-10-19 2012-04-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video coding using temporally coherent dynamic range mapping
JP2015164235A (ja) * 2012-06-19 2015-09-10 シャープ株式会社 画像処理装置、方法、プログラム、および記録媒体
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
JP2016024772A (ja) 2014-07-24 2016-02-08 キヤノン株式会社 画像処理装置および画像処理方法
KR102278334B1 (ko) * 2014-10-01 2021-07-19 삼성디스플레이 주식회사 유기 발광 표시 장치
DE112015006521T5 (de) * 2015-06-10 2018-02-15 Olympus Corporation Bildverarbeitungsvorrichtung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256536A (ja) * 2009-04-23 2010-11-11 Sharp Corp 画像処理装置及び画像表示装置
JP2013254358A (ja) * 2012-06-07 2013-12-19 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2016092576A (ja) * 2014-11-04 2016-05-23 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110928618A (zh) * 2019-10-30 2020-03-27 西北工业大学 一种座舱人机界面注意力分配计算方法
JP7475187B2 (ja) 2020-04-15 2024-04-26 キヤノン株式会社 表示制御装置および方法、プログラム、記憶媒体
WO2022014199A1 (ja) * 2020-07-15 2022-01-20 株式会社Jvcケンウッド 撮像制御装置、撮像制御方法及びプログラム
CN115336252A (zh) * 2020-07-15 2022-11-11 Jvc建伍株式会社 拍摄控制装置、拍摄控制方法及程序
CN115336252B (zh) * 2020-07-15 2023-07-25 Jvc建伍株式会社 拍摄控制装置、拍摄控制方法及存储介质

Also Published As

Publication number Publication date
US20200312272A1 (en) 2020-10-01
US10810970B1 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
WO2018180843A1 (ja) 表示装置
CN107635102B (zh) 高动态范围图像曝光补偿值获取方法和装置
RU2616158C2 (ru) Устройства и способы для кодирования и декодирования hdr-изображений
JP5772991B2 (ja) 電子機器
US8675091B2 (en) Image data processing with multiple cameras
US8681242B2 (en) Image signal processing system
JP5313037B2 (ja) 電子カメラ、画像処理装置および画像処理方法
US20150213586A1 (en) Image processing apparatus, image processing method, display apparatus, and control method for display apparatus
JP6553624B2 (ja) 計測機器、及びシステム
JP2017181668A5 (ja)
CN108986726B (zh) 一种信息终端
US9406113B2 (en) Image processing apparatus and image display apparatus
CN105208281A (zh) 一种夜景拍摄方法及装置
US20140092307A1 (en) Image processing apparatus
JP5781372B2 (ja) 画像処理装置及び撮像装置
US10713764B2 (en) Method and apparatus for controlling image data
WO2018219294A1 (zh) 一种信息终端
US20170024604A1 (en) Imaging apparatus and method of operating the same
US20130222643A1 (en) Image Capture Method and image Capture system thereof
JP2021128791A (ja) 画像処理装置、画像処理方法、およびプログラム
US8502882B2 (en) Image pick-up apparatus, white balance setting method and recording medium
US11310440B2 (en) Image processing apparatus, surveillance camera system, and image processing method
KR101571331B1 (ko) 휘도 표시 방법 및 장치, 및 이를 이용한 디지털 촬영 장치
JP5103984B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム
US20100123794A1 (en) System and method for capturing and reproducing an image optimized for characteristics of a reproducing apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18775448

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18775448

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP