WO2011061975A1 - 画像表示システム - Google Patents

画像表示システム Download PDF

Info

Publication number
WO2011061975A1
WO2011061975A1 PCT/JP2010/063110 JP2010063110W WO2011061975A1 WO 2011061975 A1 WO2011061975 A1 WO 2011061975A1 JP 2010063110 W JP2010063110 W JP 2010063110W WO 2011061975 A1 WO2011061975 A1 WO 2011061975A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
display device
observer
luminance
Prior art date
Application number
PCT/JP2010/063110
Other languages
English (en)
French (fr)
Inventor
康徳 明
岸本 和之
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US13/497,802 priority Critical patent/US20120218321A1/en
Publication of WO2011061975A1 publication Critical patent/WO2011061975A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Definitions

  • the present invention relates to an image display system capable of appropriately controlling the brightness (luminance) of a display screen according to visual characteristics.
  • the image display apparatus has a problem that the brightness of the display screen must be changed each time because the display screen becomes too bright or too dark when the indoor brightness changes. Therefore, there is a technique of measuring the brightness state around the observer with a brightness sensor (light reception detection unit) and adjusting the brightness (luminance) of the display screen according to the state of the observer's observation environment. . That is, the brightness sensor is mounted on the main body of the image display device, detects the brightness around the observer, and controls the brightness of the display screen according to the information.
  • a brightness sensor light reception detection unit
  • the periphery of the display screen of the image display apparatus main body 40 can be cited.
  • the brightness sensor is provided on the same plane as the display screen, and the brightness of the display screen is controlled based on the light intensity received by the brightness sensor 41. .
  • the display screen of the image display device When viewing the display screen of the image display device, light (background light) from behind the display screen enters the viewer's field of view along with the light of the display screen.
  • the discomfort that the screen is dazzling or dark can be reduced by making the brightness of the display screen appropriate to the brightness of the background light.
  • the brightness sensor 41 is provided on the same plane as the display screen and receives light hitting the display screen, so that it enters the observer from the display screen and its surroundings. It is difficult to properly detect the brightness (background brightness) of light.
  • the brightness sensor cannot correctly measure the observation environment of the observer due to the difference between the arrangement environment of the image display device and the location of the observer. Therefore, according to the prior art, the brightness of the display screen cannot be appropriately controlled, and the unpleasant feeling that the screen is dazzling or dark cannot be eliminated.
  • Patent Document 1 depending on the position of the illuminance sensor (brightness sensor), the sensor output is different from the brightness of the observation environment (external light illuminance). As a result, the accuracy of the brightness adjustment control according to the external light illuminance is disclosed. In order to prevent the decrease in the number, a configuration as shown in FIG. 8 has been proposed.
  • the display device 5 includes a first illuminance sensor 502 that is provided in the display device body 50 and measures the illuminance of external light in the display environment on the display panel 501 side, and the display panel 501 compared to the first illuminance sensor 502. And a second illuminance sensor 511 that measures the illuminance of external light in the observation environment. Then, the control unit 503 provided in the display device main body 50 controls the light intensity of the backlight 501A of the display panel 501 based on the two illuminance signals from the first and second illuminance sensors 502 and 511.
  • control unit uses either the average value of the first external light illuminance measured by the first illuminance sensor and the second external light illuminance measured by the second illuminance sensor, or the weighted addition average value. To control the brightness.
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2006-72255 (published on March 16, 2006)
  • Patent Document 1 describes an example in which a filter and a phototransistor are used in combination as an illuminance sensor.
  • the illuminance sensor with such a configuration simply measures the averaged light intensity considering only the difference in location environment between the display device body and the remote controller (usually placed at the viewer's hand).
  • appropriate visual field luminance cannot be measured. That is, since light cannot be selected from a specific direction and the intensity (illuminance) of the light cannot be measured, the brightness of the observation environment of the observer cannot be obtained accurately.
  • the present invention has been made in view of such conventional problems, and an object of the present invention is to provide an image display system capable of display brightness control adapted to the visual characteristics of an observer.
  • an image display system can be worn by an observer when visually recognizing a display device body having a display unit and a light source that emits light to the display unit, and an image of the display unit.
  • a light receiving detector for detecting the intensity of incident light, and a signal for transmitting the detection signal obtained by the light receiving detector to detect the intensity of incident light to the display device body.
  • a transmission control unit wherein the display device body includes a luminance control unit that controls the luminance of the light source based on the detection signal.
  • the display device main body can appropriately control the display brightness of the display unit by controlling the brightness of the light source based on the transmitted detection signal. That is, the light intensity of the observation environment can be detected from the observer side, and appropriate luminance can be maintained according to the human visual characteristics. Therefore, unlike the conventional case, the observer is less likely to feel uncomfortable that the display unit is dazzling or dark, and visual fatigue of the observer can be reduced. Further, the light source does not become brighter than necessary, and power consumption can be reduced.
  • FIG. 1 It is a block diagram which shows the structure of the principal part of the image display system which concerns on one Embodiment of this invention. It is a figure which shows a mode that the observer wears the glasses (observation means) of the image display system shown in FIG. 1, and is looking at the display apparatus main body. It is a figure which shows an example of the light reception image of the image sensor provided in the spectacles (observation means) which comprises embodiment of this invention.
  • (A) in a figure is a schematic diagram which shows the structure of the image sensor provided in the glasses (observation means) which comprises embodiment of this invention
  • (b) in the figure is the image sensor of (a). It is a schematic diagram which shows the relationship between each pixel of and the incident angle of incident light.
  • the image display system of the present invention includes a display device main body and observation means that can be worn when viewing the image of the display device main body.
  • the observation means receives light from the display device main body and the surroundings, and detects a detection signal (information on the intensity of the obtained light) obtained by detecting the intensity (brightness) of the light to the display device main body.
  • the display device main body receives information from the observation means, measures the luminance of the light received by the observation means, and controls the luminance of the light source of the display device main body based thereon. Thereby, it is possible to control the display luminance suitable for the observation environment and the visual characteristics of the observer.
  • FIG. 1 is a block diagram showing a configuration of a main part of an image display system according to an embodiment of the present invention.
  • the display device body is a thin television receiver including a liquid crystal panel
  • the observation means is glasses that can be worn when viewing an image on the liquid crystal panel. .
  • the image display system includes glasses 10 and a display device main body 20.
  • the glasses 10 determine whether to detect the intensity of light from the display device body 20 and its surroundings by the operation of the observer, and to determine that the operation input unit 11 detects the intensity of light.
  • the light reception control unit 12 that gives an instruction to detect the received light and the detection start instruction of the light reception control unit 12 are received and received from the display device body 20 and the surrounding light.
  • a light reception detection unit 13 that detects the light intensity and a signal transmission unit 14 that transmits a detection result of the light intensity from the light reception detection unit 13 to the display device main body 20 are provided.
  • the operation input unit 11 is used by the observer to select the start of light intensity detection, and starts the control of the surface luminance of the display device main body 20 by the operation of the observer. That is, by providing the operation input unit 11 in the glasses 10 that can be worn by the observer, the observer determines whether or not to detect the intensity of light from the surroundings according to his / her needs, and observes the display device body 20.
  • the surface brightness suitable for the person can be selectively controlled.
  • the light receiving detector 13 of the glasses 10 includes a light receiving lens and a sensor member in order to receive light from the display device body 20 and the surroundings and detect the intensity of the light.
  • a case will be described in which an ultra-wide-angle lens 131 such as a fisheye lens is used as the light receiving lens and an image sensor 132 such as a CMOS or CCD is used as the sensor member.
  • an ultra-wide-angle lens 131 such as a fisheye lens
  • an image sensor 132 such as a CMOS or CCD
  • the configuration of the light receiving detector is not particularly limited as long as it can receive light from the direction of the display device body 20 and detect the intensity of the light. Absent.
  • FIG. 4 shows an example of the structure of the light reception detection part 13 which has the super-wide-angle lens 131 and the image sensor 132.
  • the super wide angle lens 131 emits ambient light at an angle of view of 180 degrees. It can receive light.
  • the image sensor 132 can detect the light intensity for each direction in which light enters. Since the image sensor 132 can detect the intensity of incident light for each pixel arranged two-dimensionally, the received light can be captured as a two-dimensional image. That is, in the image sensor 132, an output corresponding to the intensity of incident light is output from each pixel of the image sensor 132.
  • the method for detecting the intensity of light incident by the image sensor is well known in the art and will not be described.
  • the light reception detection unit 13 includes an A / D conversion unit 133.
  • the A / D conversion unit 133 converts a signal output from each pixel of the image sensor 132 into a digital signal, and transmits it as a detection signal to the display device body 20 by the signal transmission unit 14.
  • the detection signal since the detection signal is generated by the image sensor 132, the detection signal can also be referred to as an image signal (a signal including information on the received light intensity corresponding to each pixel).
  • FIG. 2 is a diagram illustrating a state in which light from the display device main body 20 and its surroundings (hereinafter referred to as “incident light to the glasses 10”) is incident on the glasses 10 worn by the observer. Since the glasses 10 include the super-wide-angle lens 131, for example, in addition to the image light from the display device body 20, light having an angle of view of 180 degrees such as ambient light A to D can be received.
  • the triangular range surrounded by the dotted line is the observer's visual field range. That is, the ambient lights A and D that are incident from a range other than the field of view are not light in the direction that the observer sees, and thus are light that does not affect the viewing angle characteristics of the observer (unnecessary light). .
  • the luminance control of the light source 24 is performed in consideration of only the received light intensity corresponding to the above range.
  • the light receiving detector 13 provided in the glasses 10 not only detects the intensity of the incident light, but also stores information relating the incident angle of the incident light and the intensity of the light at the incident angle.
  • the detection signal is generated. More specifically, the incident angle of incident light is recognized based on the coordinates of each pixel of the image sensor 132. This point will be described with reference to FIGS.
  • the principal point position of the glasses 10 (the optical axis position of the super-wide-angle lens 131) is the origin O, and with respect to the origin O, the horizontal direction of the glasses 10 is the X axis, and the vertical direction is the Y axis. Is the Z-axis (the optical axis of the super-wide-angle lens 131). Further, on the plane formed by the X axis and the Y axis, the angle from the Y axis is defined as the azimuth angle ⁇ , and the angle from the Z axis is defined as the polar angle ⁇ . The incident angle of incident light is defined by this azimuth angle ⁇ and polar angle ⁇ .
  • FIG. 4B is a diagram showing the relationship between each pixel of the image sensor 132 and the incident angle (azimuth angle ⁇ and polar angle ⁇ ) of the incident light.
  • the squares in the figure represent each pixel of the image sensor 132.
  • the X axis and Y axis shown in FIG. 4B correspond to the X axis and Y axis in FIG.
  • ⁇ 1 is 30 degrees
  • ⁇ 2 is 60 degrees
  • ⁇ 3 is 90 degrees.
  • FIG. 3 is a diagram illustrating an example of light incident on the image sensor 132 through the super-wide-angle lens (fisheye lens) 131, that is, an image received by the image sensor 132.
  • the X axis and Y axis shown in FIG. 3 correspond to the X axis and Y axis in FIG.
  • the image sensor 132 includes a photoelectric conversion unit (pixel) 132a, and light incident on the super-wide-angle lens 131 (fisheye lens) forms an image on the photoelectric conversion unit 132a of the image sensor 132 in a circle indicated by a solid line in FIG. To do.
  • incident light to the super-wide-angle lens 131 corresponding to the polar angle direction is imaged in the radial direction around the principal point position (optical axis) of the super-wide-angle lens 131. Since the field angle of the super-wide-angle lens 131 is 180 degrees (half field angle 90 degrees), the polar angle ⁇ 3 of the outermost circumference (solid line in FIG. 3) of the radiation circle indicates 90 degrees. The polar angle decreases in the order of ⁇ 3, ⁇ 2, and ⁇ 1.
  • the incident angle of the incident light on the glasses 10 can be specified by the coordinates of each pixel of the photoelectric conversion unit 132a.
  • the range of light (necessary light) that affects the viewing angle characteristics of the observer among the incident light to the super-wide-angle lens 131 of the light receiving detector 13 is, for example, ⁇ 60 ° ⁇ ⁇ ⁇ 60 ° and 60 ° ⁇ ⁇ ⁇ 90 °. In FIG. 3, this range is hatched.
  • the calculation range selection unit 232 in the display device main body 20 detects detection signals (the coordinates of each pixel and the light reception at the coordinates) of the all pixels 132a of the image sensor 132, as will be described later. Pixels within the above range can be extracted from information associated with intensity. Then, the luminance control of the light source 24 can be performed based on the average luminance within this range.
  • the above-mentioned range of necessary light is an example of the present invention, and the present invention is not limited to this.
  • the necessary light range is set as appropriate based on the arrangement position of the light receiving detector 13 of the glasses 10, the light receiving angle of the light receiving lens, the position of the observer relative to the display device body 20, the display screen size of the display panel 21, and the like. do it. Since the azimuth angle ⁇ and polar angle ⁇ of the incident light to the image sensor 132 change according to the relative positional relationship between the observer wearing the glasses 10 and the display device body, the necessary light range is the observer. It is preferable to determine the relative position between the display device main body and the display device body.
  • the necessary light range is defined based on the range of the human visual field.
  • the viewing angle of view assumed in Super Hi-Vision, which is being developed by NHK (Japan Broadcasting Corporation) is a horizontal angle of view of ⁇ 50 °, which is a range that covers the human guidance field of view. Therefore, it is desirable that the necessary light range has a light receiving range in which light within the guide visual field can be detected.
  • the display device main body 20 receives a digital signal (detection signal) from the display panel (display unit) 21, the light source 24 that illuminates the display panel 21 from its back side, and the signal transmission unit 14 of the glasses 10.
  • a receiving unit 22 and a luminance control unit 23 that controls the luminance of the light source 24 based on information obtained by the signal receiving unit 22 are provided.
  • the display panel 21 displays video based on the input video signal.
  • a specific example of the display panel 21 is a liquid crystal panel.
  • the display panel 21 provides light of the image of the display device main body 20 of the glasses 10 by displaying the image.
  • the light source 24 irradiates the display panel 21 with light.
  • Specific examples of the light source 24 include a backlight that emits light from a fluorescent tube or an LED.
  • the signal reception unit 22 receives the detection signal from the signal transmission unit 14 of the glasses 10 as described above, and outputs the detection signal to the luminance control unit 23.
  • the luminance control unit 23 controls the luminance of the display panel 21 based on the signal from the signal receiving unit 22. As shown in FIG. 1, the luminance control unit 23 includes a memory 231, a calculation range selection unit 232, a visual field luminance calculation unit 233, a light source output calculation unit 234, and a light source output control unit 235.
  • the memory 231 temporarily stores a signal (information) from the signal receiving unit 22.
  • the calculation range selection unit 232 selects a necessary calculation range from the signal stored in the memory 231 based on the incident angle information included in the detection signal. That is, from the detection signal (image signal of incident light to the glasses 10) of all the pixels 132a of the photoelectric conversion unit of the image sensor 132 of the glasses 10 shown in FIG. Are extracted, and a detection signal of the corresponding pixel is input to the visual field luminance calculation unit 233.
  • the light intensity is detected by averaging the light received in all directions. Therefore, only light from the direction of the display device main body (effective visual field range) cannot be selected from the detection result. Accordingly, information on light in unnecessary directions is input to the visual field luminance calculation unit 233, and the luminance cannot be controlled to suit the observer.
  • the light receiving detection unit 13 has the above-described configuration, thereby generating information that associates the incident angle of incident light and the intensity of light at the incident angle as a detection signal, It transmits to the display device body 20. Then, in the calculation range selection unit 232 in the display device main body 20, necessary incidence is performed based on information on the incident angle included in the detection signal (in this embodiment, information on the coordinates of each pixel detected by the image sensor 132). Only an angle range (for example, the effective visual field range) is selected and set as an operation range.
  • an angle range for example, the effective visual field range
  • the visual field luminance calculation unit 233 calculates the average luminance by averaging the received light intensity in each detection signal based on the detection signal within the calculation range selected by the calculation range selection unit 232, and calculates the calculated average luminance. Is output to the light source output calculation unit 234 as adaptation luminance.
  • Adaptation luminance is luminance that is visually recognized when an observer looks at the display panel 21 under the influence of surrounding brightness where the display panel 21 is disposed.
  • the human eye since the human eye adapts to the light intensity in the visual field range, even if an object with the same luminance is viewed, the human eye feels different brightness (luminance) depending on the degree of adaptation (luminance).
  • the luminance (light reception intensity) of each detection signal within the calculation range selected as the effective visual field range is averaged to calculate the adaptation luminance Ys.
  • a weighted average may be performed, or a weighted average process may be performed.
  • the light source output calculation unit 234 calculates light emission luminance (light source output) based on the adaptation luminance calculated by the visual field luminance calculation unit 233.
  • the light emission luminance of the light source can be calculated based on the following relational expression (1).
  • B kY 0.31 - (mYs 0.31 + l) ...
  • B brightness sense value
  • Y object brightness (unit: cd / m 2 );
  • Ys adaptation brightness (unit: cd / m 2 );
  • k, m, l constant
  • This equation (1) is a brightness sense value. It is shown that when the object brightness Y is controlled according to the adaptation brightness Ys so that B becomes constant, the brightness does not impair the observer's viewing vision.
  • the object luminance Y corresponds to the luminance of the light source 24 that illuminates the display panel 21.
  • the horizontal axis in FIG. 5 is the adaptation brightness
  • the vertical axis is the object brightness
  • FIG. 6 shows the relationship of the light source output with respect to the adaptation luminance Ys with the adaptation luminance Ys on the horizontal axis and the light source output (unit%) on the vertical axis.
  • the light source output is the luminance of the light source 24, and an appropriate light source luminance when the adaptation luminance Ys is the maximum (300 cd / m 2 ) is obtained from the graph of FIG. 5 to obtain this light source luminance.
  • the light source output is 100%.
  • the relationship between the adaptation brightness Ys and the light source output shown in FIG. 6 is stored in the light source output control unit 235 (see FIG. 1).
  • the light source output control unit 235 changes the output of the power supplied to the light source 24 according to the adaptation luminance Ys calculated previously and the object luminance Y calculated by the light source output calculation unit 234, so that the light source 24 is appropriately Control so that the brightness is high (that is, the calculated object brightness Y).
  • the display brightness of the display panel 21 can be controlled to an appropriate display brightness according to the observation environment of the observer.
  • the display panel 21 viewed by the observer is displayed with an appropriate luminance corresponding to the brightness around the display device body 20. Therefore, the observer does not feel uncomfortable that the display screen of the display panel 21 is dazzling or dark and difficult to see, and the visual fatigue of the observer can be reduced. Furthermore, the power consumption can be reduced without the light source 24 becoming brighter than necessary.
  • the distance between the display device body 20 and the observer is an important factor.
  • the intensity of light for each observer is different, so it is difficult to control the surface brightness suitable for all observers at the same time.
  • a distance detection unit that detects the distance between the display device body 20 and the observer is provided, and control priority is determined based on the detection result.
  • the display brightness of the display panel 21 is preferentially controlled by the above-described method for the observer closest to the display device body 20 based on information from the glasses 10 worn by the observer.
  • preferentially control means that the brightness of the display device is controlled based on a detection signal from the glasses 10 worn by the observer furthest or closest to the display device body 20.
  • Average control means that the average distance between all observers and the display device body is detected, and the brightness of the display device is controlled for the observer located at the average distance. To do.
  • the specific control target is stored in advance in the memory 231 of the display device main body 20, and when the observer requests brightness control, the calculation range selection unit 232 reads out the instruction from the memory 231 and performs the calculation. Can be used for range selection.
  • Detecting the distance between the observer and the display device main body 20 can be realized, for example, by providing the display device main body 20 with an infrared LED (signal light emitting unit, distance detection unit).
  • infrared LEDs 241 for example, by incorporating infrared LEDs 241 (see FIG. 2) at the left and right ends of the display device main body 20 and photographing a signal emitted from the infrared LEDs 241 with a sensor member such as the image sensor 132 mounted on the glasses 10, The distance between the observer and the display device body 20 can be detected. That is, in the present embodiment, the distance detection unit is configured by the infrared LEDs 241 provided at the left and right ends of the display device body 20 and the image sensor 132 mounted on the glasses 10.
  • the data regarding the detected distance and viewing angle may be transmitted to the display device main body by the signal transmission unit 14 of the glasses 10.
  • the viewing angle refers to an angle at which an observer views the screen of the display device main body 20. Therefore, by controlling the display luminance in consideration of the distance and viewing angle of view, for example, more appropriate control can be performed as compared with the case of considering only the distance.
  • angles ⁇ and ⁇ from the infrared LEDs 241 built in the left and right ends of the front surface of the display device body 20 to the viewer are calculated. From the fixed distance L between the two infrared LEDs 241, the distance R from the observer to the display device body 20 can be calculated by the following relational expression (2) according to the principle of triangulation.
  • R L ⁇ (sin ⁇ + cos ⁇ ) / sin ( ⁇ ) (2) Further, as an example of a method for calculating the viewing angle of view ⁇ , it can be calculated by the following relational expression (3).
  • the above-described example is an example of a method for detecting the distance between the observer and the display device main body 20, and the distance between the observer and the display device main body 20 and the viewing angle of the observer can be detected and calculated. If possible, it is not particularly limited to the above example.
  • the first method is a method in which luminance control is preferentially performed for an observer closest to or farthest from the display device body 20 among a plurality of observers.
  • distance detection between the display device main body 20 and each observer is performed in the above-described distance detection unit. That is, the image sensor 132 provided in each observer's glasses 10 detects the infrared light emitted from the infrared LED 241 of the display device body 20 and generates distance data.
  • the brightness control unit 23 in the display device body 20 is closest to the display device body 20 based on the distance data and the detection signal transmitted from each observer's glasses 10 to the display device body 20.
  • a process of selecting a detection signal transmitted from the glasses 10 of the farthest observer is performed. Based on the selected detection signal, the brightness of the light source 24 is controlled.
  • the second method is a method of performing luminance control equally for all observers. In this method, it is not necessary to perform the distance detection as described above, and the luminance control unit 23 in the display device main body 20 averages each detection signal transmitted from the glasses 10 of each observer and averages the detection signals. Based on the detected signal, the brightness of the light source 24 is controlled.
  • the signal input unit, the image signal processing unit, and the like necessary for displaying an image on the display panel 21 of the display device body 20 are the same as those in the prior art. Omitted.
  • the present invention can also be applied to a 3D mechanism (for example, a 3D image display device with 3D glasses attached) that can visually recognize a display image on the display panel 21 as a stereoscopic image.
  • a 3D mechanism for example, a 3D image display device with 3D glasses attached
  • the display panel 21 in the display device body 20 shown in FIG. 1 is a 3D display panel
  • the glasses 10 are 3D glasses.
  • the human eyes are looking at the situation where the right and left eyes are slightly shifted from each other. This difference in angle is called “parallax”, and when the image that enters from the left and right eyes is processed into one image in the head (brain), the depth of the space and the stereoscopic effect are felt.
  • parallax the difference in angle
  • videos taken at different angles for the right eye and the left eye are respectively shown to the right eye and the left eye, thereby allowing recognition as if there is depth and a stereoscopic effect.
  • the method of observing a stereoscopic image by wearing 3D glasses includes a method of displaying the left and right images in an overlapping manner and a method of displaying the left and right images alternately.
  • the former is a display screen of the display device main body.
  • a 3D optical filter is attached to the lens and observed with polarized glasses.
  • the latter is a method of observing with shutter glasses.
  • an Xpol method will be described.
  • the image is displayed alternately for the right eye and the left eye for each scanning line, and by arranging fine circular polarizing elements along the scanning line on the surface of the screen, the right eye image and the left eye image are polarized.
  • the light of the even-numbered scanning lines enters the left eye and the light of the odd-numbered scanning lines enters the right eye, which is a three-dimensional structure.
  • the 3D image display device displays 60 frames per second for right-eye video and left-eye video (30 frames for normal image display devices), and passes only the images corresponding to the left and right eyes with liquid crystal shutter glasses. That is, it has a mechanism for stereoscopic viewing. In other words, the right-eye video and the left-eye video are alternately displayed to make a stereoscopic appearance.
  • the information (detection signal) obtained by detecting the received light is transmitted to the display device main body, thereby displaying the display device.
  • the main body can realize display luminance control according to the viewing angle characteristics of the observer.
  • the observer operates the operation input unit 11 provided in the glasses 10 to determine light reception from the display device main body 20 and the surroundings.
  • the light reception control unit 12 transmits a light detection instruction to the light reception detection unit 13.
  • the intensity of the light received by the light receiving detector 13 is detected, and data of the detection result of the light intensity is transmitted to the display device body 20 by the signal transmitter 14.
  • the display device body 20 receives a signal from the signal transmission unit 14 of the glasses 10 via the signal reception unit 22.
  • the luminance control unit 23 controls the luminance of the light source 24 based on the information obtained by the signal receiving unit 22.
  • the distance detection unit in the image display system the distance from the observer (glasses 10) to the display device body 20 and the viewing angle are considered as one parameter for controlling the surface luminance of the display device body. You can also Thereby, the surface brightness suitable for the observer can be selectively controlled by the observer's selection.
  • FIG. 11 is a block diagram showing a configuration of a main part of an image display system according to another embodiment of the present invention.
  • FIG. 10 is a diagram illustrating a state in which an observer wears the glasses (observation means) illustrated in FIG. 11 and looks at the display device main body.
  • the display device main body 20 ′ in this embodiment is further provided with an observer detection unit 25 such as a person detection sensor and a signal light-emitting unit 26 such as an infrared LED.
  • the operation input unit 11 is not provided in the glasses 10 '.
  • both the person detection sensor 242 constituting the observer detection unit 25 and the infrared LED 241 constituting the signal light emitting unit 26 are provided on the front surface portion of the display device main body 20.
  • the observer detection unit 25 may be provided avoiding the display screen on the display screen side of the display device body 20.
  • the observer detection unit 25 can detect whether or not an observer is present in the detection range in front of the display screen of the display device body 20. It is desirable to have a wide-angle sensor in the person detection sensor so as to detect a wide range facing the display panel 21 (see FIG. 10).
  • the observer detector 25 instructs the signal light emitter 26 to emit a signal from the signal light emitter 26 to the glasses 10 '.
  • the signal light emission unit 26 When receiving an instruction from the observer detection unit 25, the signal light emission unit 26 emits a signal to a sensor member such as the image sensor 132 of the light reception detection unit 13 of the glasses 10 '. Then, the signal received by the image sensor 132 undergoes conversion by the A / D conversion unit 133 and is received from the signal transmission unit 14 to receive an instruction to receive and detect light from the display device body 20 and the surroundings. It is sent to the control unit 12.
  • the light reception control unit 12 issues a light detection instruction to the light reception detection unit 13, and the light reception detection unit 13 detects the intensity of light received from the display device body 20 and the surroundings. Then, the data of the light intensity detection result is transmitted to the display device main body 20 by the signal transmission unit 14.
  • the display device main body 20 receives a signal from the signal transmission unit 14 of the glasses 10 via the signal reception unit 22.
  • the luminance control unit 23 controls the luminance of the light source 24 based on the information obtained by the signal receiving unit 22.
  • the distance from the observer (glasses 10 ') to the display device body 20' and the viewing angle can be considered as one parameter for controlling the surface brightness of the display device body.
  • a signal for detecting a distance / viewing angle of view is emitted from a signal light emitting unit (for example, an infrared LED) 26.
  • the distance between the observer (glasses 10 ′) and the display device body 20 ′ and the viewing angle of the observer are detected by photographing the light emission signal with a sensor member such as the image sensor 132. be able to. Thereby, control of the surface brightness suitable for the observer himself / herself can be performed.
  • the glasses 10 ′ are not provided with the operation input unit 11 (see FIG. 1), and an observer is detected by the observer detection unit 25.
  • a series of operations for controlling the surface brightness is automatically performed. That is, in the present embodiment, the operation of the observer is not required, and the surface brightness control suitable for the observer can be automatically performed.
  • the brightness control method and the like are the same as those in the first embodiment.
  • the present invention can also be expressed as follows.
  • the light reception detection unit generates, as the detection signal, information that associates an incident angle of incident light and light intensity at the incident angle
  • the luminance control unit includes the detection Based on the incident angle information included in the signal, a calculation range selection unit that selects a calculation range from the detection signal, and calculates an average luminance in the selected calculation range, and outputs the calculated average luminance as an adaptation luminance
  • the luminance control unit controls the luminance of the light source based on the adaptation luminance.
  • the incident angle of incident light means the incident angle of incident light with respect to the light receiving surface of the light receiving detector.
  • the detection signal generated by the light reception detection unit includes information on the incident angle of the incident light, and the calculation range selection unit performs all detections according to the incident angle of the transmitted detection signal.
  • a detection signal used for calculation can be selected from the signal.
  • the calculation range selection unit can select, as a predetermined signal, a detection signal (light intensity detection result) with respect to light (a necessary range of light) incident from within the visual field range of the observer who watches the display unit.
  • the visual field luminance calculation unit averages the detection results of the light intensity included in each selected detection signal, calculates the average luminance, and outputs this as adaptive luminance. That is, the average luminance of light within a necessary range (within a range that affects the viewing angle characteristics of the observer) is calculated, and an accurate luminance corresponding to the visual field range of the observer is obtained as the adaptation luminance. Then, luminance control of the light source is performed based on the obtained adaptation luminance.
  • the calculation range of the detection signal includes at least a detection signal of light incident from the direction of the display device body.
  • the image display system may further include a distance detection unit that detects the distance between the display device body and the observer.
  • the distance detection unit includes a signal light emitting unit installed in the display device body and a signal receiving unit installed in the observation unit.
  • the distance between the display device main body and the observer can be detected.
  • the distance detection unit is configured such that the distance between the observation means included in each observer and the display device body.
  • the brightness control unit controls the brightness of the light source based on a detection signal from the observation means at a position closest to the display device body, a position farthest from the display device, or an average distance. Also good.
  • the luminance of the light source is set with reference to the observer at the position closest to or farthest from the display device body, or at an intermediate position (average distance) between these positions. Can be controlled.
  • the luminance control unit averages the detection signals obtained from all the observation means and The luminance of the light source may be controlled.
  • the light reception detection unit includes a wide-angle lens or a super-wide-angle lens and a sensor member that detects the intensity and the incident angle of incident light.
  • the light intensity of the observation environment where the observer is located can be detected more accurately.
  • ambient light having an angle of view of 180 degrees can be received.
  • the super wide-angle lens is a fisheye lens and the sensor member is an image sensor.
  • the super wide-angle lens is a fisheye lens, it can receive light with a very wide angle of view. Further, since the intensity of light is detected by the image sensor, the intensity of light can be detected for each direction in which light enters (incident angle). Also. An output (detection signal) corresponding to the intensity of light detected by the image sensor is output from each pixel of the image sensor. For this reason, the output necessary for the luminance calculation can be easily obtained by extracting the output of only the pixels within the range selected by the calculation range selection unit.
  • the display device body includes an observer detection unit that detects the presence of an observer, and a signal light emission unit that emits a signal to the observation unit according to an instruction from the observer detection unit. It is preferable.
  • the signal light emission unit emits a signal to the observation unit based on the result of detecting the presence of the observer by the observer detection unit, and light reception of the observation unit is determined. Therefore, the surface brightness can be automatically controlled.
  • the present invention can be applied to an image display device illuminated by a light source, such as a television receiver or a computer device.

Abstract

 本発明は、人間の視覚特性に応じた適切な表示輝度を保つことができる画像表示装置を提供する。本発明の画像表示装置は、表示部(21)および光源(24)を有する表示装置本体(20)と、表示部(21)の映像を視認するときに観察者が着用できる観察手段(メガネ(10))とを備える。観察手段(10)は、入射光の強度を検知する受光検知部(13)と、受光検知部(13)が入射光の強度を検知することで得た検知信号を表示装置本体(20)に送信する信号送信部(14)とを備える。表示装置本体(20)は、検知信号に基づいて、光源(24)の輝度を制御することにより表示部(21)の輝度を制御する輝度制御部(23)を備える。

Description

画像表示システム
 本発明は、視覚特性に応じて表示画面の明るさ(輝度)を適切に制御できる画像表示システムに関するものである。
 従来から、画像表示装置は、テレビジョン受像機やコンピュータ装置などの画像表示に広く使用されている。画像表示装置は、室内の明るさが変化すると、表示画面が明るくなり過ぎたり、暗くなり過ぎたりするため、その都度表示画面の明るさを変えなければならないという問題がある。そこで、観察者の周囲の明るさ状態を、明るさセンサ(受光検知部)により計測して、観察者の観察環境の状況に応じて表示画面の明るさ(輝度)を調整するという技術がある。すなわち、明るさセンサは、画像表示装置の本体に搭載され、観察者の周囲の明るさを検知し、その情報に応じて表示画面の明るさを制御するものである。
 明るさセンサにより、表示画面の明るさを適切に制御できないと、「表示が眩しい」または「表示が暗い」という観察者の不快感を引き起こす。また、必要以上の明るさで表示している場合には、視覚疲労および消費電力の増大という問題も引き起こす。
 明るさセンサの設置位置として、従来では、例えば図7に示すように、画像表示装置本体40の表示画面の周囲が挙げられる。このように、図7に示す従来例では、明るさセンサを表示画面と同一面上に設けて、明るさセンサ41が受光した光強度を基にして、表示画面の明るさを制御している。
 通常、画像表示装置の表示画面を見る場合に、表示画面の光と共に、表示画面の背後方向からの光(背景光)が観察者の視野に入ることになる。この背景光の明るさに対して、表示画面の明るさの大きさを適切なものとすることによって、画面が眩しいまたは暗いという不快感を軽減することができる。つまり、実際に重要なのは、表示画面をみるときの表示画面およびその周囲の明るさ情報である。ところが、上記図7に示す従来例では、明るさセンサ41は、表示画面と同一平面上に設けられて、表示画面に当たる光を受光しているため、表示画面およびその周囲から観察者に入射する光の明るさ(背景輝度)を適切に検知することが困難である。
 また、画像表示装置の配置環境と観察者の所在位置との差異によって、明るさセンサが観察者の観察環境を正しく計測できない場合もある。したがって、上記従来技術によると、表示画面の明るさを適切に制御することができずに、画面が眩しいまたは暗いという不快感を解消することができない。
 そこで、特許文献1には、照度センサ(明るさセンサ)の位置によっては、観察環境の明るさ(外光照度)とは異なるセンサ出力となる結果、外光照度に応じた明るさ調整の制御の精度が低下することを防止するために、図8に示すような構成が提案されている。
 図8のように、表示装置5は、表示装置本体50に設けられ表示パネル501側の表示環境の外光照度を計測する第1の照度センサ502と、第1の照度センサ502に比べ表示パネル501との距離が遠い箇所、例えばユーザの手元で観察環境にあるリモートコントローラ51に設けられ、当該観察環境の外光照度を計測する第2の照度センサ511とを備える。そして、表示装置本体50に設けられた制御部503は、第1および第2の照度センサ502,511からの2つの照度信号に基づいて、表示パネル501のバックライト501Aの光強度を制御する。
 つまり、制御部は、第1の照度センサで計測した第1外光照度と、第2の照度センサで計測した第2外光照度との平均値、重み付け加算平均値の何れかを用いて、表示装置の輝度を制御する。
日本国公開特許公報「特開2006-72255号公報(2006年3月16日公開)」
 しかしながら、特許文献1のように、単に照度センサを画像表示装置本体およびリモートコントローラの両方に設置して、各照度センサによる照度(明るさ)を平均化することだけでは、画像表示装置の一般的な設置位置から考えて、表示輝度を適切に計測できない。
 また、特許文献1には、照度センサとして、フィルタとフォトトランジスタを組み合わせて使用する例が記載されている。しかしながら、このような構成の照度センサでは、単に、表示装置本体と、リモートコントローラ(普通は観察者の手元に置く)との所在環境の違いのみを考慮して、平均化された光強度を計測するだけであり、光の空間分布を考慮しないので、適切な視野輝度は計測できない。つまり、特定の方向から光を選択してその光の強度(照度)を計測することができないため、観察者の観察環境の明るさを正確に入手することはできない。
 本発明は、係る従来の課題に鑑みてなされたものであり、観察者の視覚特性に適合した表示輝度制御が可能な画像表示システムを提供することを目的とする。
 上記課題を解決するために、本発明に係る画像表示システムは、表示部および該表示部に光を照射する光源を有する表示装置本体と、表示部の映像を視認するときに観察者が着用できる観察手段とを備え、上記観察手段は、入射光の強度を検知する受光検知部と、上記受光検知部が入射光の強度を検知することで得た検知信号を上記表示装置本体に送信する信号送信部とを備え、上記表示装置本体は、上記検知信号に基づいて、上記光源の輝度を制御する輝度制御部を備えることを特徴とする。
 上記構成によれば、観察手段に受光検知部が設置されているので、観察者が観察手段を着用して表示装置本体の表示部の映像を視認すれば、観察手段に入射する光の強度を検知し、得られた検知信号を表示装置本体に送信することができる。また、表示装置本体は該送信された検知信号に基づいて、光源の輝度を制御することにより表示部の表示輝度を適切に制御することができる。つまり、観察者側から観察環境の光強度を検知することができ、人間の視覚特性に応じた、適切な輝度を保つことができる。したがって、従来のように、観察者が、表示部が眩しいまたは暗くみづらいという不快感を感じることが少なく、また観察者の視覚疲労を低減することができる。さらに、光源が必要以上に高輝度になることもなく、消費電力の削減も実現できる。
 以上のように、本発明によれば、人間の視覚特性に応じた適切な表示輝度を保つことができる画像表示システムを実現することができる。
本発明の一実施形態に係る画像表示システムの主要部の構成を示すブロック図である。 観察者が図1に示す画像表示システムのメガネ(観察手段)を着用して表示装置本体を見ている様子を示す図である。 本発明の実施形態を構成するメガネ(観察手段)に設けられたイメージセンサの受光画像の一例を示す図である。 図中の(a)は、本発明の実施形態を構成するメガネ(観察手段)に設けられたイメージセンサの構成を示す模式図であり、図中の(b)は、(a)のイメージセンサの各画素と入射光の入射角度との関係を示す模式図である。 本発明の実施形態に係る観察者の視覚特性を示す図である。 本発明の実施形態に係る順応輝度に対する光源出力(発光輝度)の関係を示す図である。 従来技術に係る表示装置本体に設置された明るさセンサの受光の様子を示す図である。 従来技術に係る画像表示装置の主要部の構成を示すブロック図である。 本発明の実施形態に係る画像表示システムを利用時、観察手段(観察者)から表示装置本体までの距離の算出方法を説明する図である。 観察者が本発明の他の一実施形態に係るメガネ(観察手段)を着用して表示装置本体を見ている様子を示す図である。 本発明の他の一つの実施形態に係る画像表示システムの主要部の構成を示すブロック図である。
 以下、図面を参照して本発明の実施形態について詳細に説明する。なお、本発明はこれに限定されるものではなく、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例に過ぎない。
 本発明の画像表示システムは、表示装置本体と、表示装置本体の映像の視認時に着用できる観察手段とを備える。観察手段は、表示装置本体および周囲からの光を受光し、それに対して光の強度(明るさ)を検知することで得られる検知信号(得られた光の強度に関する情報)を表示装置本体に送信する。表示装置本体は、観察手段からの情報を受信して、観察手段が受光した光の輝度を計測し、それに基づいて表示装置本体の光源の輝度を制御する。これにより、観察環境および観察者の視覚特性に適合した表示輝度の制御が可能となる。
 〔第1の実施形態〕
 図1は、本発明の一実施形態に係る画像表示システムの主要部の構成を示すブロック図である。本実施形態においては、本発明の一例として、表示装置本体が液晶パネルを備える薄型のテレビジョン受像機であり、観察手段が液晶パネルの映像を視認するときに着用できるメガネである場合について説明する。
 図1に示すように、本実施形態における画像表示システムは、メガネ10と表示装置本体20とを備える。
 メガネ10は、観察者の操作により表示装置本体20およびその周囲からの光の強度を検知するか否かを決定する操作入力部11と、操作入力部11が光の強度を検知することを決定した場合に、受光した光を検知するように指示を出す受光制御部12と、受光制御部12の検知開始の指示を受信し、表示装置本体20およびその周囲からの光を受けて、受光した光の強度を検知する受光検知部13と、受光検知部13からの光強度の検知結果を表示装置本体20に送信する信号送信部14とを備える。
 ここで、操作入力部11は、観察者が光の強度の検知開始を選択するために用いられるもので、観察者の操作によって、表示装置本体20の表面輝度の制御を開始する。つまり、観察者が着用できるメガネ10に操作入力部11を設けることで、観察者は、自身の必要によって、周囲からの光の強度を検知するか否かを決定し、表示装置本体20の観察者に適した表面輝度の制御を選択的に行うことができる。
 また、メガネ10の受光検知部13は、表示装置本体20および周囲からの光を受光して、その光の強度を検知するために、受光レンズおよびセンサ部材を備えている。ここで、受光レンズとして魚眼レンズなどの超広角レンズ131を用い、センサ部材としてCMOSまたはCCDなどのイメージセンサ132を用いた場合を説明する。もちろん、これは本発明の実施形態の一例であり、表示装置本体20の方向からの光を受光して、その光の強度を検知できる構成であれば、受光検知部の構成は特に限定されていない。
 図4の(a)は、超広角レンズ131とイメージセンサ132とを有する受光検知部13の構成の一例を示す。
 図4の(a)に示すように、受光検知部13が超広角レンズ131(魚眼レンズ)およびイメージセンサ(CMOSまたはCCD)132を備える場合、超広角レンズ131により画角180度で周囲の光を受光することができる。そして、イメージセンサ132は、光が入射する方向ごとの光強度を検知することができる。イメージセンサ132は2次元的に配置された画素ごとに入射光の強度を検知できるため、受光した光を2次元の画像として捉えることができる。つまり、イメージセンサ132では、入射光の強度に応じた出力が、イメージセンサ132の各画素から出力される。なお、イメージセンサにより入射される光の強度を検知する方式については、従来からよく知られているので、説明は省略する。
 また、受光検知部13はA/D変換部133を備える。A/D変換部133は、イメージセンサ132の各画素から出力された信号をデジタル信号に変換して、検知信号として信号送信部14により表示装置本体20まで送信される。なお、上記したように、本実施形態では、イメージセンサ132によって検知信号を生成しているため、検知信号は画像信号(各画素に対応した受光強度の情報を含む信号)ということもできる。
 図2は、観察者が着用しているメガネ10に、表示装置本体20およびその周囲からの光(以下、「メガネ10への入射光」と称する)が入射される様子を示す図である。メガネ10は、超広角レンズ131を備えているので、例えば、表示装置本体20からの映像の光に加え、周囲光A~Dのような、画角180度の光を受光することができる。
 図2において、点線で囲まれた三角形状の範囲が観察者の視野範囲となる。つまり、視野範囲以外の範囲から入射される周囲光A,Dは、観察者が目にする方向の光ではないため、観察者の視角特性に影響を与えない光(不必要な光)となる。
 そこで、本実施形態では、表示装置本体20からの映像の光および周囲光B,Cのみが観察者の視角特性に影響を与える光(必要な光)として、表示装置本体20では、必要な光の範囲に対応する受光強度のみを考慮して光源24の輝度制御を行うようになっている。
 これを実現するために、メガネ10に設けられた受光検知部13では、単に入射光の強度を検知するだけではなく、入射光の入射角度と該入射角度における光の強度とを関連付けた情報を検知信号として生成する構成となっている。より具体的には、イメージセンサ132の各画素の座標に基づいて、入射光の入射角度を認識する構成となっている。この点について、図2から図4を参照しながら説明する。
 図2において、メガネ10の主点位置(超広角レンズ131の光軸位置)を原点Oとして、その原点Oに対して、メガネ10の左右方向をX軸、その上下方向をY軸、垂直方向をZ軸(超広角レンズ131の光軸)とする。また、X軸とY軸でなす平面上でY軸からの角度を方位角φとし、Z軸からの角度を極角θとする。入射光の入射角度は、この方位角φと極角θとで規定される。
 図4の(b)は、イメージセンサ132の各画素と入射光の入射角度(方位角φおよび極角θ)の関係を示す図である。図中の枡目は、イメージセンサ132の各画素を表している。また、図4の(b)に示すX軸、Y軸は、図2のX軸、Y軸に対応している。また、θ1は30度であり、θ2は60度であり、θ3は90度である。
 図3は、超広角レンズ(魚眼レンズ)131を通してイメージセンサ132に入射した光、つまり、イメージセンサ132の受光画像の一例を示す図である。図3に示すX軸、Y軸は、図2のX軸、Y軸に対応している。イメージセンサ132は、光電変換部(画素)132aを有し、超広角レンズ131(魚眼レンズ)に入射した光は、イメージセンサ132の光電変換部132a上に図3の実線で示す円内に結像する。つまり、超広角レンズ131の主点位置(光軸)を中心とした放射円方向には、極角方向に対応した超広角レンズ131への入射光が撮像される。超広角レンズ131の画角が180度(半画角90度)であるので、放射円の最外周(図3の実線)の極角θ3は90度を示している。そして、θ3、θ2、θ1の順に極角は小さくなる。
 このようにして、メガネ10への入射光の入射角度を光電変換部132aの各画素の座標によって特定することができる。
 ここで、受光検知部13の超広角レンズ131への入射光のうち、観察者の視角特性に影響を与える光(必要な光)の範囲は、例えば、-60°≦φ≦60°および60°≦θ≦90°である。図3では、この範囲に斜線を付している。必要な範囲を上記のように規定した場合、表示装置本体20内の演算範囲選択部232では、後述するように、イメージセンサ132の全画素132aの検知信号(各画素の座標と該座標における受光強度とが関連付けられた情報)から、上記の範囲内の画素を抽出することができる。そして、この範囲内の平均輝度に基づいて、光源24の輝度制御を行うことができる。
 なお、上記の必要な光の範囲は、本発明の一例であり、本発明はこれに限定されない。この必要な光の範囲は、メガネ10の受光検知部13の配置位置や受光レンズの受光角、また、観察者の表示装置本体20に対する位置、表示パネル21の表示画面サイズなどに基づいて適宜設定すればよい。イメージセンサ132への入射光の方位角φおよび極角θは、メガネ10を着用した観察者と表示装置本体との相対位置関係に応じて変化するため、この必要な光の範囲は、観察者と表示装置本体との相対位置を考慮して決定することが好ましい。
 また、上記の必要な光の範囲は、人間の視野の範囲を元に規定することが好ましい。例えば、NHK(日本放送協会)が技術開発を進めているスーパーハイビジョンで想定されている観視画角は水平画角±50°であり、これは人間の誘導視野をカバーする範囲である。したがって、上記の必要な光の範囲は、誘導視野内の光を検知できる受光範囲があることが望ましい。
 一方、表示装置本体20は、表示パネル(表示部)21と、表示パネル21をその背面側から照明する光源24と、メガネ10の信号送信部14からのデジタル信号(検知信号)を受信する信号受信部22と、信号受信部22によりとり得た情報に基づいて、光源24の輝度を制御する輝度制御部23とを備える。
 表示パネル21は、入力された映像信号に基づく映像を表示する。表示パネル21の具体例としては、液晶パネルなどがある。表示パネル21は、映像を表示することで、メガネ10の、表示装置本体20の映像の光を提供する。
 光源24は、表示パネル21に対して光を照射する。光源24の具体例としては、蛍光管またはLEDからの光を面発光させるバックライトが挙げられる。
 信号受信部22は、上記のように、メガネ10の信号送信部14からの検知信号を受信して、輝度制御部23に出力する。
 輝度制御部23は、信号受信部22からの信号に基づいて、表示パネル21の輝度を制御する。図1に示すように、輝度制御部23は、メモリ231と、演算範囲選択部232と、視野輝度演算部233と、光源出力演算部234と、光源出力制御部235とを備える。
 メモリ231は、信号受信部22からの信号(情報)を一時的に記憶するものである。
 演算範囲選択部232は、メモリ231に記憶されている信号から、検知信号に含まれる入射角度の情報に基づいて、必要な演算範囲を選択する。つまり、図3に示すメガネ10のイメージセンサ132の、光電変換部の全画素132aの検知信号(メガネ10への入射光の画像信号)から、上記にように規定された必要な光の範囲内の画素を抽出して、それに対応する画素の検知信号を視野輝度演算部233に入力する。
 ここで、例えば、従来のように、受光した光の強度を検知するためのセンサとして、フォトダイオードやフォトトランジスタを用いる場合は、受光した全ての方向の光を平均化した形で光強度を検知するため、検知結果から表示装置本体の方向からの光のみ(有効視野範囲)を選別することができない。したがって、視野輝度演算部233には不必要な方向の光の情報が入力され、観察者に適合した輝度に制御することができない。
 これに対して、本発明においては、受光検知部13が上記のような構成を有することにより、入射光の入射角度と該入射角度における光の強度とを関連付けた情報を検知信号として生成し、表示装置本体20へ送信する。そして、表示装置本体20内の演算範囲選択部232では、検知信号に含まれる入射角度の情報(本実施形態では、イメージセンサ132が検知した各画素の座標の情報)に基づいて、必要な入射角度の範囲(例えば、上記有効視野範囲)のみを選択して、これを演算範囲とする。
 また、視野輝度演算部233は、演算範囲選択部232により選択した演算範囲内の検知信号に基づいて、各検知信号における受光強度を平均化することで平均輝度を算出し、算出された平均輝度を順応輝度として光源出力演算部234に出力する。
 順応輝度とは、表示パネル21が配置される周囲の明るさの影響を受けて、観察者が表示パネル21を見たときに視覚される輝度のことである。つまり、人間の眼は、視野範囲の光強度に順応するため、同じ輝度の対象物を見ても、順応した明るさ(輝度)程度によって異なる明るさ(輝度)に感じられる。本実施形態では、上記のように、有効視野範囲として選択した演算範囲内の各検知信号の輝度(受光強度)を平均化して順応輝度Ysを算出する。ここでの平均化処理では、加重平均してもよいし、重み付けをして平均化処理してもよい。
 光源出力演算部234は、視野輝度演算部233により算出された順応輝度に基づいて、発光輝度(光源出力)を算出する。
 光源の発光輝度は、以下の関係式(1)に基づいて算出することができる。
 B=kY0.31 -(mYs0.31 +l)   …(1)
 B:明るさ感覚値;Y:対象物輝度(単位cd/m2 );Ys:順応輝度(単位cd/m2 );k,m,l:定数
 この式(1)は、明るさ感覚値Bが一定になるように順応輝度Ysに応じて対象物輝度Yを制御すると、観察者の観察視覚を損なわれることのない輝度になることを示している。ここでは、対象物輝度Yは表示パネル21を照明する光源24の輝度に対応する。
 例えば、式(1)において、各定数k=23、m=5.62、l=1.65としたときに、明るさ感覚値Bが等しくなる対象物輝度Yと順応輝度Ysとの関係は、図5のようになる。図5の横軸は順応輝度であり、縦軸は対象物輝度であり、各明るさ感覚値B=80、90、100である場合を示している。
 図5によれば、順応輝度Ysが大きくなると、例えば明るさ感覚値B=100の線上に沿って、対象物輝度Yを大きくすると、観察者の視覚特性が損なわれない。また、順応輝度Ysに対する対象物輝度Yの変化率は、感覚値Bが変わっても略同じである。そこで、対象物輝度Yの変化率に着目して、対象物輝度である光源24の輝度が、順応輝度Ysの変化に対して、略この変化率で変わるようにする。この関係を図6に示す。
 図6は、横軸に順応輝度Ysをとり、縦軸に光源出力(単位%)をとって、順応輝度Ysに対する光源出力の関係を示している。ここで、光源出力は光源24の輝度であり、順応輝度Ysが最大(300cd/m2 )であるときの適切な光源輝度を、図5のグラフから求めておき、この光源輝度を得るための光源出力を100%としている。図6に示す順応輝度Ysと光源出力との関係は、光源出力制御部235(図1参照)に記憶される。
 そして、光源出力制御部235は、先に算出した順応輝度Ysと光源出力演算部234により算出された対象物輝度Yに従って、光源24に供給される電力の出力を変化させて、光源24が適切な輝度(すなわち、算出された対象物輝度Y)になるように制御する。これにより、表示パネル21の表示輝度が、観察者の観察環境に応じた適切な表示輝度に制御できる。
 以上のように本実施形態の画像表示システムにおいては、観察者が見る表示パネル21は、表示装置本体20の周囲の明るさに応じた適切な輝度で表示が行われている。そのため、表示パネル21の表示画面が眩しい、あるいは暗くて見づらいという不快感を観察者が感じることがなく、また観察者の視覚疲労を低減させることができる。さらに、光源24が必要以上に高輝度になることもなく、消費電力を削減させることができる。
 また、表示パネル21のより適切な輝度の制御において、表示装置本体20と観察者との距離が重要な要素となる。特に、複数名の観察者がいるとき、観察者ごとに対する光の強度が異なっているので、同時に全ての観察者に適した表面輝度に制御させることは困難である。
 このため、本発明においては、表示装置本体20と観察者との距離を検知する距離検知部を設けて、その検知結果を根拠として制御優先を決定する。例えば、表示装置本体20に一番近い観察者に対して、その観察者に着用されたメガネ10からの情報に基づいて、上記説明した方法により表示パネル21の表示輝度を優先的に制御する。あるいは、表示装置本体20に一番遠い観察者に対して、優先的に制御することもできる。また、あるいは、全ての観察者に対して平均的に制御することもできる。
 ここで、「優先的に制御する」とは、表示装置本体20に一番遠いまたは一番近い観察者が着用しているメガネ10からの検知信号に基づいて、表示装置の輝度制御を行うことを意味する。また、「平均的に制御する」とは、全ての観察者と表示装置本体との平均距離を検知し、平均距離に位置している観察者に対して表示装置の輝度制御を行うことを意味する。
 具体的な制御対象については、表示装置本体20のメモリ231に予め記憶しておき、観察者により輝度制御が要求されるときに、演算範囲選択部232がメモリ231からその指示を読み出して、演算範囲選択に用いることができる。
 観察者と表示装置本体20との距離を検知するためには、例えば、表示装置本体20に、赤外線LED(信号発光部、距離検知部)を設けるなどによって実現できる。例えば、表示装置本体20の左右端に赤外線LED241(図2参照)を内蔵し、赤外線LED241から発光される信号を、メガネ10に搭載しているイメージセンサ132などのセンサ部材で撮影することによって、観察者と表示装置本体20との距離を検知することができる。つまり、本実施形態では、表示装置本体20の左右端に設けられた赤外線LED241とメガネ10に搭載されたイメージセンサ132とで距離検知部が構成される。
 そして、検知した距離および観視画角に関するデータ(距離データおよび観視画角データ)は、メガネ10の信号送信部14により表示装置本体に送信すればよい。ここで、観視画角とは、観察者が表示装置本体20の画面を見る角度を指す。したがって、距離および観視画角を考慮して表示輝度を制御を行うことで、例えば距離のみを考慮する場合と比較してより適切な制御が可能となる。
 ここで、観察者から表示装置本体までの距離の算出方法について、図9を参照して説明する。まず、表示装置本体20の前面の左右端に内蔵された赤外線LED241から観察者への角度α、βをそれぞれ算出する。両赤外線LED241間の固定距離Lから、三角測量法の原理により、以下関係式(2)で観察者から表示装置本体20までの距離Rを計算することができる。
 R=L×(sinα+cosβ)/sin(α-β)   …(2)
 また、観視画角γの算出方法例として、下記関係式(3)により計算することができる。
 γ=180°-α-β   …(3)
 なお、上記した例は観察者と表示装置本体20との距離検知を行う方法の一例であり、観察者と表示装置本体20との距離および観察者の観視画角を検知・算出することができれば、特に上記例に限定されない。
 次に、複数の観察者がそれぞれメガネ10を着用している場合の、表示パネルの輝度制御の方法について説明する。
 第1の方法は、複数の観察者のうち表示装置本体20に一番近いまたは一番遠い観察者に対して優先的に輝度制御を行う方法である。この方法では、まず上記した距離検知部において、表示装置本体20と各観察者との距離検知が行われる。つまり、各観察者のメガネ10に設けられたイメージセンサ132が、表示装置本体20の赤外線LED241から照射される赤外光を検知して、距離データを生成する。続いて、表示装置本体20内の輝度制御部23において、各観察者のメガネ10から表示装置本体20に送信される距離データと検知信号とに基づいて、表示装置本体20と一番近いまたは一番遠い観察者のメガネ10から送信された検知信号を選び出すという処理が行われる。そして、この選び出した検知信号に基づいて、光源24の輝度制御を行う。
 第2の方法は、全ての観察者に対して均等に輝度制御を行う方法である。この方法では、上記したような距離検知を行う必要はなく、表示装置本体20内の輝度制御部23では、各観察者のメガネ10から送信された各検知信号を平均化処理し、平均化された検知信号に基づいて、光源24の輝度制御を行う。
 なお、本発明の画像表示システムにおいて、表示装置本体20の表示パネル21に画像を表示するために必要な信号入力部、画像信号処理部などの対しては、従来技術のとおりであり、説明を省略する。
 また、本発明は、表示パネル21の表示画像を立体画像として視認できる3Dメカニズム(例えば、3Dメガネを付属した3D画像表示装置など)にも適用できる。この場合、図1に示す表示装置本体20内の表示パネル21が3D表示パネルであり、メガネ10が3Dメガネである。
 人の目は、ものを見るときに右目と左目とで少しずつ角度がずれた状態で見ている。この角度の差を「視差」と呼び、左右の目から入った映像が頭の中(脳)で一つの像に処理される際に、空間の奥行きおよび立体感を感じる。3Dメカニズムは、右目用および左目用に別々の角度で撮影した映像を、それぞれ右目、左目に見せることで、あたかも奥行きおよび立体感があるかのように認知させている。
 3Dメガネ(観察手段)を着用して立体画像を観察する方式は、左右の画像を重ねて表示する方式および左右の画像を交互に表示する方式があるが、前者は、表示装置本体の表示画面に3D用光学フィルタを貼って、偏光メガネで観察する方式であり、後者は、シャッター式メガネで観察する方式である。
 前者の方式の一例として、Xpol方式で説明する。映像は走査線1本ごとに右目用および左目用を交互に表示し、画面の表面に走査線に沿って微細な円偏光素子を並べることで、右目用の映像および左目用の映像に偏光をかけて表示する。円偏光フィルタを使った3Dメガネをかけて見ると、偶数番目の走査線の光が左目に、奇数晩目の走査線の光が右目に入り、立体的に見える仕組みである。
 後者の方式の一例として、フレームシーケンシャル方式で説明する。3D画像表示装置側が右目用映像および左目用映像を毎秒60コマ(通常の画像表示装置は30コマ)、合計120コマを表示し、液晶シャッターめがねでそれぞれ左右の目に対応する映像だけを通過させることで、立体視させる仕組みのものである。すなわち、右目用映像と左目用映像とを交互に表示することで、立体的に見える仕組みである。
 これらの方式に用いられる3Dメガネを観察手段として使用する場合も、上記実施形態のように、受光した光を検知して得られる情報(検知信号)を表示装置本体に送信することで、表示装置本体では観察者の視角特性に応じた表示輝度の制御を実現できる。
 以上のように、本実施形態の画像表示システムの動作を簡単にまとめて説明すると、下記の通りである。図1を参照して、まず、観察者は、メガネ10に設けられた操作入力部11を操作して、表示装置本体20および周囲からの光の受光を決定する。操作入力部11が受光を決定した場合、受光制御部12は光の検知指示を受光検知部13に送信する。そして、受光検知部13により受光した光の強度を検知し、光の強度の検知結果のデータを信号送信部14によって表示装置本体20に送信する。
 次に、表示装置本体20は、信号受信部22を介してメガネ10の信号送信部14からの信号を受信する。輝度制御部23は、信号受信部22によって得られた情報に基づいて、光源24の輝度を制御する。ここで、画像表示システムに距離検知部を設けることで、観察者(メガネ10)から表示装置本体20までの距離および観視画角を、表示装置本体の表面輝度を制御する一つのパラメータとして考慮することもできる。これにより、観察者の選択によって観察者自身に適した表面輝度の制御を選択的に行うことができる。
 〔第2の実施形態〕
 本発明に係る画像表示システムの他の実施形態について、図10および図11に基づいて説明すれば以下の通りである。なお、説明の便宜上、上述の実施形態で用いたものと同じ機能を有する部材には同じ参照符号を付して、その説明を省略する。
 図11は、本発明の他の一実施形態に係る画像表示システムの主要部の構成を示すブロック図である。図10は、観察者が図11に示すメガネ(観察手段)を着用して表示装置本体を見ている様子を示す図である。
 上述の実施形態と異なり、本実施形態における表示装置本体20’には、人物検知センサなどの観察者検知部25と、赤外線LEDなどの信号発光部26とがさらに設けられている。一方、メガネ10’には操作入力部11(図1を参照)が設けられていない。図10に示すように、観察者検知部25を構成する人物検知センサ242および信号発光部26を構成する赤外線LED241の両方とも表示装置本体20の前面部に設けられている。
 観察者検知部25は、表示装置本体20の表示画面側で表示画面を避けて設ければよい。観察者検知部25により、表示装置本体20の表示画面の前の検知範囲内に観察者が存在するか否かを検知することができる。表示パネル21(図10を参照)に対面する広い範囲を検知するように、人物検知センサに広角センサを有することが望ましい。
 観察者検知部25により観察者を検知した場合は、観察者検知部25は、信号発光部26からメガネ10’に信号を発光するように、信号発光部26に指示する。
 信号発光部26は、観察者検知部25からの指示を受けると、メガネ10’の受光検知部13のイメージセンサ132などのセンサ部材に信号を発光する。そして、イメージセンサ132が受信した信号は、A/D変換部133の変換を経て、信号送信部14から、表示装置本体20および周囲からの光を受光して検知する指示を出すように、受光制御部12に送られる。
 次いで、上述の実施形態と同様にして、受光制御部12は受光検知部13に光の検知指示を出し、受光検知部13により、表示装置本体20および周囲から受光した光の強度を検知する。そして、光の強度の検知結果のデータを、信号送信部14により表示装置本体20に送信する。そして、表示装置本体20は、信号受信部22を介してメガネ10の信号送信部14からの信号を受信する。輝度制御部23は、信号受信部22により得られた情報に基づいて、光源24の輝度を制御する。
 もちろん、本実施形態においても、観察者(メガネ10’)から表示装置本体20’までの距離および観視画角を、表示装置本体の表面輝度を制御する一つのパラメータとして考慮することもできる。例えば、観察者検知部25により観察者を検知すると、信号発光部(例えば、赤外線LED)26から距離・観視画角検知用信号を発光する。そして、上記のように、イメージセンサ132などのセンサ部材で発光信号を撮影することによって、観察者(メガネ10’)と表示装置本体20’との距離および観察者の観視画角を検知することができる。これにより、観察者自身に適した表面輝度の制御を行うことができる。
 以上のように、図11に示すように、本実施形態においては、メガネ10’には操作入力部11(図1を参照)が設けられておらず、観察者検知部25により観察者を検知することで、表面輝度を制御する一連の動作が自動的に行われる。つまり、本実施形態では、観察者の操作が要らず、観察者自身に適した表面輝度の制御を自動的に行うことができる。
 なお、表面輝度の制御方法、観察者(メガネ10’)から表示装置本体20’までの距離および観視画角の算出方法、複数の観察者がそれぞれメガネ10’を着用している場合の表面輝度の制御方法などは上記第1の実施形態と同じである。
 上記実施形態においては、観察手段として、メガネを例として挙げて説明したが、本発明の観察手段は、表示装置本体の表示部の映像を視認するときに用いられるものであれば、特に限定されない。
 また、本発明は、以下のようにも表現できる。
 本発明の上記画像表示システムにおいて、上記受光検知部は、入射光の入射角度と、該入射角度における光の強度とを関連付けた情報を上記検知信号として生成し、上記輝度制御部は、上記検知信号に含まれる入射角度の情報に基づいて、上記検知信号から演算範囲を選択する演算範囲選択部と、上記選択された演算範囲における平均輝度を算出し、算出された平均輝度を順応輝度として出力する視野輝度演算部とを備え、上記輝度制御部は、上記順応輝度に基づいて上記光源の輝度を制御することが好ましい。
 ここで、入射光の入射角度とは、受光検知部の受光面に対する入射光の入射角のことを意味する。
 上記構成によれば、受光検知部で生成される検知信号に入射光の入射角度に関する情報が含まれており、演算範囲選択部では、送信された検知信号の入射角度に応じて、全ての検知信号から演算に用いる検知信号を選び出すことができる。例えば、演算範囲選択部は、表示部を見る観察者の視野範囲内から入射した光(必要な範囲の光)に対する検知信号(光強度の検知結果)を所定の信号として選択することができる。
 さらに、視野輝度演算部では、選択された各検知信号に含まれる光強度の検知結果を平均化して、平均輝度を算出し、これを順応輝度として出力する。つまり、必要な範囲内(観察者の視角特性に影響を与える範囲内)の光の平均輝度を算出することになり、観察者の視野範囲に対応する正確な輝度が順応輝度として得られる。そして、得られた順応輝度に基づいて光源の輝度制御が行われる。
 したがって、上記の構成によれば、観察者の視覚に対応する正確な輝度に基づいて、光源の発光輝度を制御することができるので、観察者の観察環境に応じた適切な輝度の画像表示を実現することができる。
 また、上記画像表示システムにおいて、上記検知信号の演算範囲には、上記表示装置本体の方向から入射した光の検知信号が少なくとも含まれることが好ましい。
 上記構成によれば、観察者の視覚特性に大きな影響を与える表示装置本体の方向から入射した光を演算範囲に含めることができる。
 また、上記画像表示システムは、上記表示装置本体と上記観察者との距離を検知する距離検知部をさらに備えていてもよい。当該距離検知部は、上記表示装置本体に設置された信号発光部と、上記観察手段に設置された信号受信部とにより構成されている。
 上記の構成によれば、表示装置本体と観察者との距離を検知することができる。
 また、上記画像表示システムは、上記観察者が複数であり、各観察者が観察手段を有している場合、上記距離検知部は、各観察者が有する観察手段と上記表示装置本体との距離をそれぞれ検知し、上記輝度制御部は、上記表示装置本体と一番近い位置または一番遠い位置または平均距離の位置にある上記観察手段からの検知信号に基づいて上記光源の輝度を制御してもよい。
 上記の構成によれば、観察者が複数いる場合に、表示装置本体に最も近い位置または最も遠い位置、またはこれら位置の中間の位置(平均距離)にいる観察者を基準として、光源の輝度を制御することができる。
 あるいは、上記画像表示システムは、上記観察者が複数であり、各観察者が上記観察手段を有している場合、上記輝度制御部は、全ての観察手段から得られる検知信号を平均化して上記光源の輝度を制御してもよい。
 上記の構成によれば、観察者が複数いる場合に、各観察者の視角特性を平均化して、光源の輝度を制御することができる。
 また、上記画像表示システムにおいて、上記受光検知部は、広角レンズまたは超広角レンズと、入射光の強度および入射角度を検知するセンサ部材とを備えることが好ましい。
 上記の構成によれば、広い画角の光が受光レンズを通して、センサ部材に受光できるので、観察者が位置している観察環境の光強度をより正確に検知することができる。
 なお、例えば、超広角レンズの場合、画角180度の周囲の光を受光することができる。
 また、上記画像表示システムにおいて、上記超広角レンズは魚眼レンズであり、上記センサ部材はイメージセンサであることが好ましい。
 上記の構成によれば、超広角レンズが魚眼レンズであるため、非常に広い画角の光を受光することができる。また、イメージセンサで光の強度を検知するので、光が入射する方向(入射角度)ごとに光の強度を検知することができる。また。イメージセンサにより検知された光の強度に応じた出力(検知信号)は、イメージセンサの各画素から出力される。このため、演算範囲選択部において選択した範囲にある画素のみの出力を抽出することで、輝度演算に必要な出力を容易に得ることができる。
 また、上記画像表示システムにおいて、上記表示装置本体には、観察者の存在を検知する観察者検知部と、当該観察者検知部の指示によって、上記観察手段に信号を発光する信号発光部を有することが好ましい。
 上記構成によれば、観察者検知部により観察者の存在を検知した結果によって、信号発光部により観察手段に信号を発光し、観察手段の受光を決定する。したがって、表面輝度の制御を自動的に行うことができる。
 本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明は、テレビジョン受像機やコンピュータ装置などの、光源により照明する画像表示装置に適用が可能である。
 10   メガネ(観察手段)
 11   操作入力部
 12   受光制御部
 13   受光検知部
 131  超広角レンズ
 132  イメージセンサ(信号受信部、距離検知部)
 133  A/D変換部
 14   信号送信部
 20   表示装置本体
 21   表示パネル(表示部)
 22   信号受信部
 23   輝度制御部
 231  メモリ
 232  演算範囲選択部
 233  視野輝度演算部
 234  光源出力演算部
 235  光源出力制御部
 241  赤外線LED(信号発光部、距離検知部)
 242  人物検知センサ(距離検知部)
 24   光源

Claims (9)

  1.  表示部および該表示部に光を照射する光源を有する表示装置本体と、表示部の映像を視認するときに観察者が着用できる観察手段とを備え、
     上記観察手段は、入射光の強度を検知する受光検知部と、上記受光検知部が入射光の強度を検知することで得た検知信号を上記表示装置本体に送信する信号送信部とを備え、
     上記表示装置本体は、上記検知信号に基づいて、上記光源の輝度を制御する輝度制御部を備えることを特徴とする画像表示システム。
  2.  上記受光検知部は、入射光の入射角度と、該入射角度における光の強度とを関連付けた情報を上記検知信号として生成し、
     上記輝度制御部は、上記検知信号に含まれる入射角度の情報に基づいて、上記検知信号から演算範囲を選択する演算範囲選択部と、上記選択された演算範囲における平均輝度を算出し、算出された平均輝度を順応輝度として出力する視野輝度演算部とを備え、
     上記輝度制御部は、上記順応輝度に基づいて上記光源の輝度を制御することを特徴とする請求項1に記載の画像表示システム。
  3.  上記検知信号の演算範囲には、上記表示装置本体の方向から入射した光の検知信号が少なくとも含まれることを特徴とする請求項2に記載の画像表示システム。
  4.  上記表示装置本体と上記観察者との距離を検知する距離検知部をさらに備えており、当該距離検知部は、上記表示装置本体に設置された信号発光部と、上記観察手段に設置された信号受信部とにより構成されていることを特徴とする請求項2または3に記載の画像表示システム。
  5.  上記観察者が複数であり、各観察者が上記観察手段を着用している場合、
     上記距離検知部は、各観察者が着用している上記観察手段と上記表示装置本体との距離をそれぞれ検知し、
     上記輝度制御部は、上記表示装置本体と一番近い位置または一番遠い位置または平均距離の位置にある上記観察手段からの検知信号に基づいて上記光源の輝度を制御することを特徴とする請求項4に記載の画像表示システム。
  6.  上記観察者が複数であり、各観察者が上記観察手段を着用している場合、
     上記輝度制御部は、全ての上記観察手段から得られる上記検知信号を平均化して上記光源の輝度を制御することを特徴とする請求項1から3の何れか1項に記載の画像表示システム。
  7.  上記受光検知部は、広角レンズまたは超広角レンズと、入射光の強度および入射角度を検知するセンサ部材とを備えることを特徴とする請求項1から6の何れか1項に記載の画像表示システム。
  8.  上記超広角レンズは魚眼レンズであり、上記センサ部材はイメージセンサであることを特徴とする請求項7に記載の画像表示システム。
  9.  上記表示装置本体は、観察者の存在を検知する観察者検知部と、当該観察者検知部からの指示によって上記観察手段に信号を発光する信号発光部とをさらに有することを特徴とする請求項4~8に記載の画像表示システム。
PCT/JP2010/063110 2009-11-19 2010-08-03 画像表示システム WO2011061975A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/497,802 US20120218321A1 (en) 2009-11-19 2010-08-03 Image display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009264206 2009-11-19
JP2009-264206 2009-11-19

Publications (1)

Publication Number Publication Date
WO2011061975A1 true WO2011061975A1 (ja) 2011-05-26

Family

ID=44059460

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/063110 WO2011061975A1 (ja) 2009-11-19 2010-08-03 画像表示システム

Country Status (2)

Country Link
US (1) US20120218321A1 (ja)
WO (1) WO2011061975A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012026375A1 (ja) * 2010-08-24 2012-03-01 シャープ株式会社 立体表示装置
WO2012176683A1 (ja) * 2011-06-20 2012-12-27 シャープ株式会社 画像表示装置および画像表示システム
WO2014155623A1 (ja) * 2013-03-28 2014-10-02 株式会社東芝 携帯端末装置、表示制御方法およびプログラム
CN104282254A (zh) * 2014-08-21 2015-01-14 深圳创锐思科技有限公司 调节显示系统成像质量的方法、显示装置及显示系统
WO2021147931A1 (zh) * 2020-01-21 2021-07-29 上海掌门科技有限公司 一种用于检测场景光线的方法与设备

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894511B (zh) * 2010-07-15 2012-03-14 鸿富锦精密工业(深圳)有限公司 电子看板
GB2484919A (en) * 2010-10-25 2012-05-02 Cambridge Silicon Radio Directional display device arranged to display visual content toward a viewer
US9495004B2 (en) * 2014-09-08 2016-11-15 Qualcomm Incorporated Display device adjustment by control device
US20170039993A1 (en) * 2015-08-04 2017-02-09 International Business Machines Coprporation Optimized Screen Brightness Control Via Display Recognition From a Secondary Device
KR102489402B1 (ko) * 2015-11-02 2023-01-18 삼성전자주식회사 디스플레이 장치 및 그의 영상 표시 방법
KR102388249B1 (ko) * 2015-11-27 2022-04-20 엘지이노텍 주식회사 일반 촬영 및 적외선 촬영 겸용 카메라 모듈
US10472090B2 (en) * 2017-04-27 2019-11-12 Qualcomm Incorporated Environmentally aware status LEDs for use in drones
CN113643674B (zh) * 2021-08-13 2022-09-30 深圳创维-Rgb电子有限公司 显示装置及其屏幕亮度调节方法、装置和可读存储介质
CN115268130B (zh) * 2022-07-28 2023-06-02 龙岩学院 一种实验室量子点发光设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001281054A (ja) * 2000-03-31 2001-10-10 Mitsubishi Electric Corp 照度検知装置
JP2003271283A (ja) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd 情報表示装置
JP2004088757A (ja) * 2002-07-05 2004-03-18 Toshiba Corp 3次元画像表示方法、及びその装置、光方向検出器、光方向検出方法
JP2006196995A (ja) * 2005-01-11 2006-07-27 Matsushita Electric Ind Co Ltd 3次元めがね視聴検知
WO2008059637A1 (fr) * 2006-11-16 2008-05-22 Sharp Kabushiki Kaisha Appareil d'affichage d'image et procédé d'affichage d'image
JP2009077156A (ja) * 2007-09-20 2009-04-09 Sharp Corp 画像表示装置、画像表示方法、及び、リモートコントローラー

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4931865A (en) * 1988-08-24 1990-06-05 Sebastiano Scarampi Apparatus and methods for monitoring television viewers
US6005607A (en) * 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
KR100388918B1 (ko) * 1995-09-29 2003-09-13 삼성테크윈 주식회사 카메라의측광영역이가변되는휘도측광장치및그제어방법
US6611249B1 (en) * 1998-07-22 2003-08-26 Silicon Graphics, Inc. System and method for providing a wide aspect ratio flat panel display monitor independent white-balance adjustment and gamma correction capabilities
US7345684B2 (en) * 1998-06-25 2008-03-18 Intel Corporation Perceptually based display
US7233312B2 (en) * 2000-07-31 2007-06-19 Panaseca, Inc. System and method for optimal viewing of computer monitors to minimize eyestrain
US20020165894A1 (en) * 2000-07-28 2002-11-07 Mehdi Kashani Information processing apparatus and method
US6650322B2 (en) * 2000-12-27 2003-11-18 Intel Corporation Computer screen power management through detection of user presence
KR100406945B1 (ko) * 2001-02-19 2003-11-28 삼성전자주식회사 착용형 디스플레이 장치
KR20030097310A (ko) * 2002-06-20 2003-12-31 삼성전자주식회사 디스플레이장치의 화상크기조절방법 및 그화상크기조절시스템과 화상크기조절방법을 수행하는프로그램이 저장된 기록매체
JP2004287168A (ja) * 2003-03-24 2004-10-14 Pioneer Electronic Corp 情報表示装置及び情報表示方法
JP2004318121A (ja) * 2003-04-04 2004-11-11 Canon Inc 表示制御装置及び表示システム及びtv装置
US8159526B2 (en) * 2004-09-17 2012-04-17 Seiko Epson Corporation Stereoscopic image display system
JP4899334B2 (ja) * 2005-03-11 2012-03-21 ブラザー工業株式会社 情報出力装置
WO2007013652A1 (ja) * 2005-07-29 2007-02-01 Pioneer Corporation 画像表示制御装置、画像表示装置、遠隔操作器、画像表示システム
KR100667823B1 (ko) * 2005-10-13 2007-01-11 삼성전자주식회사 멀티 채널 영상 시스템
KR101261550B1 (ko) * 2006-02-01 2013-05-06 삼성전자주식회사 가상 영역을 이용한 포인팅 장치, 포인터 디스플레이 장치,포인팅 방법 및 포인터 디스플레이 방법
JP5079384B2 (ja) * 2006-05-15 2012-11-21 株式会社ジャパンディスプレイウェスト 表示装置および電子機器
CN101127202B (zh) * 2006-08-18 2011-07-27 鸿富锦精密工业(深圳)有限公司 显示装置参数自动调节系统及方法
US7608825B2 (en) * 2006-12-14 2009-10-27 Sumitomo Electric Industries, Ltd. Image pickup device, vision enhancement apparatus, night-vision apparatus, navigation support apparatus, and monitoring apparatus
US8269822B2 (en) * 2007-04-03 2012-09-18 Sony Computer Entertainment America, LLC Display viewing system and methods for optimizing display view based on active tracking
US20080316372A1 (en) * 2007-06-20 2008-12-25 Ning Xu Video display enhancement based on viewer characteristics
CN101419391B (zh) * 2007-10-24 2010-06-02 佛山普立华科技有限公司 自动调整显示器亮度的系统及方法
JP4975592B2 (ja) * 2007-11-19 2012-07-11 アルプス電気株式会社 撮像装置
RU2501095C2 (ru) * 2007-11-20 2013-12-10 Конинклейке Филипс Электроникс Н.В. Энергосберегающий дисплей пропускающего типа
US8209635B2 (en) * 2007-12-20 2012-06-26 Sony Mobile Communications Ab System and method for dynamically changing a display
WO2009130699A2 (en) * 2008-04-22 2009-10-29 3Ality, Inc. Position-permissive autostereoscopic display systems and methods
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
US20100107184A1 (en) * 2008-10-23 2010-04-29 Peter Rae Shintani TV with eye detection
US8441350B2 (en) * 2009-09-10 2013-05-14 Sony Corporation Apparatus and method for operation of a display device to provide a home security alarm
US8629938B2 (en) * 2009-10-05 2014-01-14 Sony Corporation Multi-point television motion sensor system and method
KR101626159B1 (ko) * 2009-11-25 2016-05-31 엘지전자 주식회사 사용자 적응형 디스플레이 장치 및 디스플레이 방법
TW201128631A (en) * 2010-02-11 2011-08-16 Wistron Corp Driving device, driving method, and flat panel display
KR20110114257A (ko) * 2010-04-13 2011-10-19 삼성전자주식회사 3d 디스플레이 장치 및 그의 디스플레이 모드 설정 방법, 그리고 3d 영상 제공 시스템
KR20120000161A (ko) * 2010-06-25 2012-01-02 삼성전자주식회사 포인팅 디바이스와 이의 제어 방법, 입체 영상용 안경 및 디스플레이 장치
KR101719981B1 (ko) * 2010-07-13 2017-03-27 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기
JP2012058838A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法
US20120218253A1 (en) * 2011-02-28 2012-08-30 Microsoft Corporation Adjusting 3d effects for wearable viewing devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001281054A (ja) * 2000-03-31 2001-10-10 Mitsubishi Electric Corp 照度検知装置
JP2003271283A (ja) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd 情報表示装置
JP2004088757A (ja) * 2002-07-05 2004-03-18 Toshiba Corp 3次元画像表示方法、及びその装置、光方向検出器、光方向検出方法
JP2006196995A (ja) * 2005-01-11 2006-07-27 Matsushita Electric Ind Co Ltd 3次元めがね視聴検知
WO2008059637A1 (fr) * 2006-11-16 2008-05-22 Sharp Kabushiki Kaisha Appareil d'affichage d'image et procédé d'affichage d'image
JP2009077156A (ja) * 2007-09-20 2009-04-09 Sharp Corp 画像表示装置、画像表示方法、及び、リモートコントローラー

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012026375A1 (ja) * 2010-08-24 2012-03-01 シャープ株式会社 立体表示装置
WO2012176683A1 (ja) * 2011-06-20 2012-12-27 シャープ株式会社 画像表示装置および画像表示システム
WO2014155623A1 (ja) * 2013-03-28 2014-10-02 株式会社東芝 携帯端末装置、表示制御方法およびプログラム
JP5861218B2 (ja) * 2013-03-28 2016-02-16 株式会社東芝 携帯端末装置、表示制御方法およびプログラム
CN104282254A (zh) * 2014-08-21 2015-01-14 深圳创锐思科技有限公司 调节显示系统成像质量的方法、显示装置及显示系统
CN104282254B (zh) * 2014-08-21 2017-02-15 深圳创锐思科技有限公司 调节显示系统成像质量的方法、显示装置及显示系统
WO2021147931A1 (zh) * 2020-01-21 2021-07-29 上海掌门科技有限公司 一种用于检测场景光线的方法与设备

Also Published As

Publication number Publication date
US20120218321A1 (en) 2012-08-30

Similar Documents

Publication Publication Date Title
WO2011061975A1 (ja) 画像表示システム
US8629870B2 (en) Apparatus, method, and program for displaying stereoscopic images
JP6520119B2 (ja) 画像処理装置および画像処理方法
US8487983B2 (en) Viewing area adjusting device, video processing device, and viewing area adjusting method based on number of viewers
US20100020162A1 (en) Stereo image display device and method
US8797263B2 (en) Apparatus, method for measuring 3 dimensional position of a viewer and display device having the apparatus
WO2007055943B1 (en) Multi-user stereoscopic 3-d panoramic vision system and method
JP2006308674A (ja) 画像表示装置
US20130050449A1 (en) Video processing apparatus and video processing method
JP5343156B1 (ja) 検出装置、検出方法および映像表示装置
US20120099195A1 (en) Eyewear, three-dimensional image display system employing the same, and method of allowing viewing of image
JP2013051629A (ja) 立体画像表示装置
JP2011010126A (ja) 画像処理装置、画像処理方法
KR101046259B1 (ko) 응시위치를 추적하여 입체영상을 표시하는 입체영상 표시장치
JP2662252B2 (ja) 立体像表示装置
JP2013148599A (ja) 表示装置
US20130050444A1 (en) Video processing apparatus and video processing method
WO2012176683A1 (ja) 画像表示装置および画像表示システム
US8144262B2 (en) Projection apparatus and system
WO2012053480A1 (ja) 画像表示装置
CN114365077B (zh) 观看者同步的照明感测
CN101216661B (zh) 投影装置及系统
JP2006250999A (ja) 立体画像表示装置
JP2014089521A (ja) 検出装置、映像表示システムおよび検出方法
KR20110136326A (ko) 삼차원 입체안경의 수평각 정보를 반영한 삼차원 스테레오스코픽 렌더링 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10831374

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13497802

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10831374

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP