WO2020225906A1 - 画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体 - Google Patents

画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体 Download PDF

Info

Publication number
WO2020225906A1
WO2020225906A1 PCT/JP2019/018561 JP2019018561W WO2020225906A1 WO 2020225906 A1 WO2020225906 A1 WO 2020225906A1 JP 2019018561 W JP2019018561 W JP 2019018561W WO 2020225906 A1 WO2020225906 A1 WO 2020225906A1
Authority
WO
WIPO (PCT)
Prior art keywords
temperature
light emitting
image
emitting element
image data
Prior art date
Application number
PCT/JP2019/018561
Other languages
English (en)
French (fr)
Inventor
俊明 久保
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021518278A priority Critical patent/JP7019100B2/ja
Priority to CN201980096031.2A priority patent/CN113785347A/zh
Priority to DE112019007303.6T priority patent/DE112019007303T5/de
Priority to PCT/JP2019/018561 priority patent/WO2020225906A1/ja
Priority to US17/606,768 priority patent/US20220208065A1/en
Publication of WO2020225906A1 publication Critical patent/WO2020225906A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2003Display of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/041Temperature compensation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/16Determination of a pixel data signal depending on the signal applied in the previous frame

Definitions

  • the present invention relates to an image processing device and method, and an image display device.
  • the present invention also relates to programs and recording media.
  • the present invention particularly relates to a technique for correcting unevenness in brightness or chromaticity of a display panel.
  • a display panel in which light emitting elements composed of a combination of red, green, and blue LEDs are arranged in a matrix as pixels is known.
  • light emitting elements composed of LEDs have variations in the brightness or chromaticity of the generated light.
  • the brightness or chromaticity of the light generated changes depending on the temperature. Therefore, unevenness in brightness or chromaticity occurs in the displayed image.
  • Patent Document 1 proposes a method of measuring the temperature of the LED of the backlight of the liquid crystal display panel using a temperature sensor and correcting the image data using the correction data for each temperature.
  • the temperature of each light emitting element is different because the current flowing through each light emitting element changes depending on the display content. If the temperatures are different, uneven brightness or uneven color may occur. This is because the color or brightness of the light emitting element composed of the LED changes depending on the temperature.
  • a temperature sensor is provided in the backlight of the liquid crystal display panel, but if this idea is applied to a display panel having a plurality of light emitting elements, it is necessary to provide a temperature sensor in each light emitting element. This increases the number and wiring of temperature sensors, as well as space for installation.
  • An object of the present invention is to provide an image processing device capable of compensating for unevenness of at least one of the brightness and chromaticity of a light emitting element due to a temperature change even if each light emitting element is not provided with a temperature sensor.
  • the image processing apparatus of the present invention In an image processing device that corrects unevenness in at least one of brightness and color of an image display unit in which a plurality of light emitting elements including a plurality of LEDs are arranged.
  • An element temperature estimation unit that estimates the temperature of each light emitting element from the image data of the input images of the latest multiple frames including the current frame and the ambient temperature of the image display unit. It is provided with a temperature change compensating unit that corrects at least one unevenness of the brightness and chromaticity of the light emitting element by correcting the image data of the input image of the current frame based on the temperature of each light emitting element.
  • the element temperature estimation unit It is characterized in that the temperature of the light emitting element is estimated based on the result of learning the relationship between the image data of the input image of the plurality of frames and the measured value of the temperature of the light emitting element.
  • the image processing apparatus of the present invention can estimate the temperature of each light emitting element from the input image and the ambient temperature, and even if each light emitting element is not provided with a temperature sensor, the brightness and chromaticity of the light emitting element due to temperature change. At least one of the unevenness can be compensated.
  • FIG. 1 It is a figure which shows the image display apparatus provided with the image processing apparatus of Embodiment 1 of this invention.
  • (A) and (b) are diagrams showing an example of changes in luminance and chromaticity depending on the temperature of a light emitting element.
  • FIG. 5 is a block diagram showing an image display device, a learning device, an element temperature measuring unit, and a temperature control device of FIG. 1. It is a flowchart which shows the procedure of the process in the learning by the 1st method performed by using the learning apparatus of FIG.
  • FIG. 6 is a block diagram showing an image display device, a learning device, an element temperature measuring unit, and a temperature control device of FIG. It is a flowchart which shows the procedure of the process in the learning performed using the learning apparatus of FIG. It is a flowchart which shows the procedure of the process in the learning performed using the learning apparatus of FIG.
  • FIG. 1 is a diagram showing an image display device including the image processing device according to the first embodiment of the present invention.
  • the image display device of the first embodiment includes an image processing device 1, an image display unit 2, and an ambient temperature measurement unit 3.
  • the image display unit 2 is composed of a display having a display panel in which red, green, and blue LEDs are arranged.
  • a combination of red, green, and blue LEDs constitutes one light emitting element, and a plurality of such light emitting elements are regularly arranged as pixels in a matrix to form a display panel.
  • each light emitting element is called a 3in1 LED light emitting element in which a red LED chip, a green LED chip, and a blue LED chip are provided in one package.
  • FIG. 2A shows an example of a change in luminance Vp with temperature.
  • FIG. 2B shows an example of the change in chromaticity with temperature.
  • the chromaticity is represented by, for example, the X stimulus value and the Y stimulus value of the CIE-XYZ color system.
  • FIG. 2B shows changes in the X stimulation value Xp and the Y stimulation value Yp.
  • the ambient temperature measuring unit 3 measures the temperature around the display panel and outputs the measured value Tma.
  • the ambient temperature measuring unit 3 has one or more temperature sensors composed of, for example, a thermistor or a thermocouple.
  • One or more temperature sensors are installed so as to be able to measure the temperature of one or both of the outside of the housing and the inside of the housing of the image display unit 2. When it is installed outside the housing, it may be embedded in the front frame, for example.
  • the ambient temperature measuring unit 3 outputs the measured ambient temperature Tma.
  • the average value thereof may be output as the ambient temperature Tma.
  • the image processing device 1 may be composed of a part or all of the processing circuit.
  • the functions of each part of the image processing apparatus may be realized by separate processing circuits, or the functions of a plurality of parts may be collectively realized by one processing circuit.
  • the processing circuit may be composed of hardware or software, that is, a programmed computer. Of the functions of each part of the image processing device, a part may be realized by hardware and the other part may be realized by software.
  • FIG. 3 shows a computer 9 that realizes all the functions of the image processing device 1 together with an image display unit 2 and an ambient temperature measuring unit 3.
  • the computer 9 has a processor 91 and a memory 92.
  • a program for realizing the functions of each part of the image processing device 1 is stored in the memory 92.
  • the processor 91 uses, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a microprocessor, a microcontroller, a DSP (Digital Signal Processor), or the like.
  • the memory 92 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ReadOnly Memory), an EEPROM (Electrically Memory Disk, etc.), or an EEPROM (Electrically Memory) Alternatively, a photomagnetic disk or the like is used.
  • the processor 91 realizes the function of the image processing device by executing the program stored in the memory 92.
  • the function of the image processing device includes the control of the display in the image display unit 2 as described above.
  • the computer of FIG. 3 includes a single processor, but may include two or more processors.
  • FIG. 1 shows functional blocks constituting the image processing device 1.
  • the image processing device 1 includes an image input unit 11, an input image storage unit 12, an element temperature estimation unit 13, a compensation table storage unit 14, a temperature change compensation unit 15, and an image output unit 16.
  • the image input unit 11 will be described as being a digital interface that receives and outputs digital image data.
  • the image input unit 11 may be configured by an A / D converter that converts an analog image signal into digital image data.
  • the image input unit 11 outputs digital image data as input image data to the input image storage unit 12 and the temperature change compensation unit 15.
  • the input image storage unit 12 stores the input image data for a plurality of frames.
  • the input image storage unit 12 has a plurality of storage areas MA and can hold image data of a plurality of frames. That is, the image data of the newly input frame (input image data of the current frame) F (t) and the image data of one or more frames before it (input image data of the past frame) F. (T-1) to F (tM) can be retained.
  • t represents the current time
  • F (tm) represents the input image data m frames before (m is any of 1 to M) with respect to the input image data of the current frame. .. M is an integer greater than or equal to 1.
  • the input image data F (t) of the current frame and the input image data F (t-1) to F (tM) of the past frame form a time series SE of the image data.
  • Each image data has red, green, and blue pixel values for each pixel.
  • the time series of image data for each pixel is a time series of pixel values.
  • the element temperature estimation unit 13 is based on the ambient temperature Tma measured by the ambient temperature measurement unit 3 and the time-series SE of the image data composed of the image data of a plurality of frames output from the input image storage unit 12. The temperature of the light emitting element is estimated, and the estimated value Tme is output.
  • the element temperature estimation unit 13 includes a weight storage unit 31, an average calculation unit 32, a conversion table storage unit 33, and a temperature calculation unit 34.
  • Input image data F (t), F (t-1), ... F (t-M) of the latest M + 1 frame constituting the above time series SE are input to the average calculation unit 32.
  • the weight storage unit 31 stores weights ⁇ 0c to ⁇ Mc for each color. Where c is R, G or B. That is, the weight storage unit 31 stores weights ⁇ 0R to ⁇ MR for red, weights ⁇ 0G to ⁇ MG for green, and weights ⁇ 0B to ⁇ MB for blue, that is, (M + 1) ⁇ 3 weights. doing.
  • the set of these weights ⁇ 0R to ⁇ MR , ⁇ 0G to ⁇ MG , and ⁇ 0B to ⁇ MB is referred to as a set of weights WS and is represented by the code WS.
  • the average calculation unit 32 calculates the weighted average FA based on the input image data F (t) to F (tm) of the latest M + 1 frame and the weight set WS. The weighted average is calculated for each pixel.
  • FA (x, y) ⁇ 0R ⁇ F (t, x, y, R) + ⁇ 1R ⁇ F (t-1, x, y, R) + ...
  • x indicates the horizontal position of the pixel of interest
  • y indicates the vertical position of the pixel of interest
  • the weights ⁇ 0c to ⁇ Mc are image data F (t) to F (t ⁇ ) in the product-sum operation for obtaining the weighted average. It is multiplied by M).
  • FIG. 6 shows an example of the relationship between the input and the output defined in the conversion table CA stored in the conversion table storage unit 33.
  • the horizontal axis represents the weighted average FA as the input of the conversion table CA
  • the vertical axis represents the rising temperature Tmu as the output of the conversion table CA.
  • the rising temperature Tmu here means the range of temperature rise.
  • the conversion table storage unit 33 stores the conversion table CA illustrated in FIG. 6 and outputs the corresponding rising temperature Tmu according to the input weighted average FA.
  • the conversion table CA is also created and stored by machine learning as described later.
  • the conversion table CA assumes that each of the values that the weighted average FA can take has a value of the rising temperature Tmu, but the conversion table CA is not limited to this. That is, for the weighted average FA, which has the value of the rising temperature Tmu discretely and does not have the value of the rising temperature Tmu, the corresponding rising temperature Tmu value may be obtained by interpolation. This interpolation can be performed, for example, by using the value of the rising temperature corresponding to the value of the weighted average FA (table point) having the value of the rising temperature.
  • the element temperature estimation unit 13 may calculate the temperature Tme (x, y) by the following formula (3) instead of the formula (2).
  • the formula (3) when the temperature Tme (x, y) of each light emitting element (light emitting element of the pixel of interest) is obtained, the light emitting element located around the light emitting element (light emitting element of the pixel around the pixel of interest). The calculation that takes into account the influence of the rising temperature of is shown.
  • Tme (x, y) Tma + ⁇ 1 ⁇ Tmu (x-1, y-1) + ⁇ 2 x Tmu (x-1, y) + ⁇ 3 x Tmu (x-1, y + 1) + ⁇ 4 x Tmu (x, y-1) + ⁇ 5 x Tmu (x, y) + ⁇ 6 x Tmu (x, y + 1) + ⁇ 7 x Tmu (x + 1, y-1) + ⁇ 8 x Tmu (x + 1, y) + ⁇ 9 x Tmu (x + 1, y + 1) Equation (3)
  • ⁇ 1 to ⁇ 9 are coefficients.
  • the estimated value of the temperature of the light emitting element obtained in consideration of the influence of the rising temperature of the surrounding pixels can be said to be an estimated value of the temperature of the light emitting element obtained in consideration of the weighted average FA (x, y) of the surrounding pixels.
  • the pixels in the region consisting of 3 ⁇ 3 pixels centered on the pixel of interest are considered, eight pixels are considered as the surrounding pixels.
  • the number of pixels to be considered is not limited to 8, and may be 9 or more, 7 or less, and may be 1, for example.
  • the input image storage unit 12 holds the image data of the latest M + 1 frame, and the element temperature estimation unit 13 emits light based on the image data of the latest M + 1 frame output from the input image storage unit 12.
  • M may be 1 or more.
  • the input image storage unit 12 may hold image data of a plurality of frames, and the element temperature estimation unit 13 determines the temperature of the light emitting element based on the time series SE composed of the latest image data of the plurality of frames. Anything that can be estimated will do.
  • the compensation table storage unit 14 stores a compensation table for compensating for changes in brightness and chromaticity due to temperature.
  • the temperature change compensation unit 15 corrects the image data supplied from the image input unit 11 by referring to the compensation table stored in the compensation table storage unit 4 according to the temperature estimated by the element temperature estimation unit 13. To do. This compensation is made pixel by pixel. This compensation is for canceling changes in brightness and chromaticity due to changes in the temperature of the light emitting element.
  • 7 (a) and 7 (b) show an example of the relationship between the input and the output defined in the compensation table stored in the compensation table storage unit 14.
  • the relationship between the input and the output referred to here is expressed by the ratio of the output to the input, that is, a coefficient. This coefficient is called the compensation coefficient.
  • the compensation table for brightness has an input-output relationship illustrated in FIG. 7 (a), that is, the temperature. It is memorized that the change with respect to the rise is opposite to that in FIG. 2 (a).
  • the compensation table is constructed by the compensation coefficient Vq equal to the reciprocal of the normalized value of the luminance Vp.
  • the normalized value here is the ratio to the brightness at the reference temperature.
  • Tmr is used as the reference temperature in FIGS. 2A and 7A
  • the compensation coefficient Vq in FIG. 7A is 1 at the reference temperature Tmr.
  • the compensation table includes the input-output relationship exemplified in FIG. 7 (b). That is, the one having the above, that is, the one in which the change with respect to the temperature rise is opposite to that in FIG. 2 (b) is stored.
  • a compensation table for the X stimulus value is constructed by a compensation coefficient Xq equal to the reciprocal of the normalized value of the X stimulus value Xp.
  • the compensation table for the Y stimulation value is constructed by the compensation coefficient Yq equal to the reciprocal of the normalized value of the Y stimulation value Yp.
  • the normalized value referred to here is the ratio to the X stimulation value and the Y stimulation value at the reference temperature.
  • Tmr when used as the reference temperature, the compensation coefficients Xq and Yq in FIG. 7 (b) are 1 at the reference temperature Tmr.
  • a value representing an average change is used as a curve showing the brightness and chromaticity of FIGS. 2A and 2B.
  • a compensation table representing the compensation coefficients of FIGS. 7A and 7B is created to compensate for such average changes. Will be done.
  • the compensation table has a compensation coefficient value for each of the possible values of the temperature Tme of the light emitting element, but the compensation table is not limited to this. That is, for the temperature Tme of the light emitting element, which has the value of the compensation coefficient discretely and does not have the value of the compensation coefficient, the value of the corresponding compensation coefficient may be obtained by interpolation. This interpolation can be performed, for example, by using the value of the compensation coefficient corresponding to the value of the temperature Tme (table point) having the value of the compensation coefficient.
  • the temperature change compensation unit 15 generates and outputs compensated image data Db corresponding to the input image Di based on the compensation table stored in the compensation table storage unit 14 and the temperature Tme of each light emitting element.
  • the image data is corrected so as to adjust the light emission amount of the red, green, and blue LEDs based on the compensation coefficient for the X stimulation value and the Y stimulation value.
  • the image output unit 16 converts the image data Db output from the temperature change compensation unit 15 into a signal having a format matching the display method of the image display unit 2, and outputs the converted image signal Do. If the light emitting element of the image display unit 2 emits light by PWM (Pulse Width Modulation) drive, the gradation value of the image data is converted into a PWM signal.
  • PWM Pulse Width Modulation
  • the image display unit 2 displays an image based on the image signal Do.
  • changes in brightness and chromaticity due to temperature are compensated for each pixel. Therefore, an image without uneven brightness and uneven color is displayed.
  • Data compensation may be performed every M + 1 frame, once in a cycle longer than the M + 1 frame, or once in a cycle shorter than the M + 1 frame. For example, it may be performed every frame.
  • the estimated value of the temperature of the light emitting element may be obtained by using the image data of the frame actually input at each time point and the image data of the M frame before that.
  • step ST1 the input image is stored. This process is the same as the process by the input image storage unit 12 of FIG.
  • step ST2 the ambient temperature is measured. This process is the same as the process by the ambient temperature measuring unit 3 of FIG.
  • the process of step ST2 can be performed in parallel with the process of step ST1.
  • step ST3 the temperature of each light emitting element is estimated. This process is the same as the process by the element temperature estimation unit 13 of FIG. In step ST4, temperature change compensation is performed. This process is the same as the process by the temperature change compensation unit 15 of FIG. In step ST5, image output is performed. This process is the same as the process by the image output unit 16 of FIG.
  • FIG. 9 shows the details of step ST3 of FIG. In step ST31 of FIG. 9, the weighted average is calculated. This process is the same as the process by the average calculation unit 32 of FIG. In step ST32, the temperature of the light emitting element is calculated. This process is the same as the process by the temperature calculation unit 34 in FIG.
  • the weight set WS stored in the weight storage unit 31 and the conversion table CA stored in the conversion table storage unit 33 are determined or created by machine learning.
  • the learning device for machine learning is used by being connected to the image display device of FIG. FIG. 10 shows a learning device 101 connected to the image display device of FIG. FIG. 10 also shows an element temperature measuring unit 102 and a temperature control device 103 used together with the learning device 101.
  • the element temperature measuring unit 102 has a plurality of temperature sensors. Each of the plurality of temperature sensors is provided corresponding to a plurality of light emitting elements constituting the image display unit 2, and each temperature sensor measures and outputs the temperature Tmf of the corresponding light emitting element. Each temperature sensor may be a contact type or a non-contact type. The contact type temperature sensor may be composed of, for example, a thermistor or a thermocouple. The non-contact temperature sensor may be one that receives infrared rays to detect the surface temperature.
  • the element temperature measuring unit 102 also includes a single thermal image sensor, measures the temperature distribution of the display screen of the image display unit 2, and associates the position in the thermal image with the position on the display screen of the image display unit 2. Therefore, the temperature of each light emitting element may be obtained.
  • the temperature control device 103 maintains the ambient temperature of the image display unit 2 at the set value Tms specified by the learning device 101.
  • the temperature control device 103 is composed of, for example, an air conditioner, and maintains the temperature of the space in which the image display unit 2 is arranged at a set value Tms.
  • the learning device 101 may be composed of a computer.
  • the same computer may be configured as the learning device 101.
  • the computer constituting the learning device 101 may be, for example, the one shown in FIG. In that case, the function of the learning device 101 may be realized by the processor 91 executing the program stored in the memory 92.
  • the learning device 101 operates the image processing device 1, and the temperature (estimated value) Tme of the light emitting element calculated by the element temperature estimation unit 13 is the temperature (measured value) of the light emitting element measured by the element temperature measuring unit 102. Learning is performed so as to be close to Tmf. For learning, a plurality of sets LDS of learning input data composed of a set value Tms of ambient temperature and a time series SF of image data are used.
  • the learning device 101 inputs the time-series SF of the image data included in the set LDS of the learning input data to the image input unit 11, and measures the estimated value Tme of the temperature of the light emitting element calculated by the element temperature estimation unit 13 and the element temperature.
  • the measured value Tmf of the temperature of the light emitting element measured by the unit 102 is acquired, and learning is performed so that the estimated value Tme is close to the measured value Tmf.
  • the time-series SF of the image data constituting the set LDS of the learning input data is the number of frames of the image data constituting the time-series SE used for estimating the temperature in the element temperature estimation unit 13 when the image display device displays the image. It is composed of image data having the same number of frames as (M + 1). At least one of the set value Tms of the ambient temperature or the time series SF of the image data is different between the sets of the plurality of learning input data LDSs.
  • the weight set WS can be determined by learning and the conversion table CA can be created by, for example, the following first method or second method.
  • the weight set WS and the conversion table CA are determined so that the difference between the estimated value Tme of the temperature of the light emitting element and the measured value Tmf is minimized.
  • a plurality of sets of learning input data LDS prepared in advance are selected in order, and the ambient temperature is maintained at the set value Tms of the ambient temperature of the selected set of learning input data, and is selected.
  • the difference between the measured value Tmf and the estimated value Tme of the temperature of the light emitting element when the time series SF of the image data of the LDS is obtained as the error ER, and the above-mentioned plurality of training input data
  • the sum ES of the above error ERs for the set LDS of the above is obtained as a cost function, and the weight set WS and the conversion table CA are determined by learning so that the cost function is minimized.
  • the conversion table CA is created first, and then the weight set WS is determined.
  • the temperature Tmf of the light emitting element and the ambient temperature Tma when the time series SF of the image data in which the pixel value is fixed to the gradation value is input.
  • the rising temperature Tmu is calculated from the measurement result, and the conversion table CA is created from the relationship between the gradation value and the rising temperature for a plurality of gradation values.
  • the temperature change compensation unit 15 does not perform temperature change compensation, and supplies the image data output from the image input unit 11 to the image output unit 16 as it is. That is, the learning device 101 controls the temperature change compensating unit 15 so as to operate in that way.
  • the image data in which the pixel value is fixed to a certain gradation value may be image data in which only the pixel value of a specific light emitting element is fixed to the gradation value, and a plurality of light emitting elements, for example, an image display unit.
  • the pixel values of all the light emitting elements constituting 2 may be image data fixed to the gradation value.
  • the temperature of any one of the light emitting elements may be used as the temperature of the above light emitting element, and a plurality of light emitting elements may be used.
  • the average temperature of the light emitting element may be used.
  • the learning device 101 needs to be notified of the measured value Tmf from the ambient temperature measuring unit 3. This is because the measured value of the ambient temperature is used for calculating the rising temperature as described above.
  • the notification of the measured value from the ambient temperature measuring unit 3 to the learning device 101 is shown by a dotted line in FIG.
  • the ambient temperature constant when the time series SF of image data with fixed pixel values is input and the measured value Tmf of the temperature of the light emitting element is acquired.
  • this point is not essential. In short, it suffices if the rising temperature Tmu can be obtained from the measured value Tma of the ambient temperature and the measured value Tmf of the temperature of the light emitting element.
  • the difference between the estimated value Tme of the temperature of the light emitting element calculated using the conversion table CA created as described above with respect to the measured value Tmf is minimized.
  • the set of weights WS is defined as follows.
  • a plurality of sets of learning input data LDS prepared in advance are selected in order, and the ambient temperature is maintained at the set value Tms of the ambient temperature of the selected set LDS of the learning input data, and is selected.
  • the difference between the measured value Tmf of the temperature of the light emitting element and the estimated value Tme when the time series SF of the image data of the LDS is input as the set of the training input data to be obtained as the error ER, and the above-mentioned plurality of learning inputs The sum ES of the above error ERs for the data set LDS is obtained as a cost function, and the weight set WS is determined by learning so that the cost function is minimized.
  • the sum of the absolute values of the error ER or the sum of the squares of the error ER can be used as the total ES of the error ER.
  • the learning device 101 notifies the temperature control device 103 of the set value Tms, and the temperature control device 103 maintains the ambient temperature at the set value Tms. It is done by working.
  • the temperature sensor of the element temperature measuring unit 102 is removed, and the image display device is used for image display with the temperature sensor removed. That is, when used for image display, the image display device does not require a temperature sensor that detects the temperature of the light emitting element. This is because the element temperature estimation unit 13 can estimate the temperature of the light emitting element even if there is no temperature sensor that detects the temperature of the light emitting element.
  • the learning device 101 may be removed or may remain attached after the learning is completed.
  • the program may remain stored in the memory 92.
  • FIG. 11 shows a processing procedure when the above-mentioned first method is used.
  • the learning device 101 selects one combination from the combination of the plurality of weight sets WS and the conversion table CA prepared in advance.
  • the learning device 10 temporarily sets the weight set WS of the selected combination in the weight storage unit 31, and temporarily sets the conversion table CA of the selected combination in the conversion table storage unit 33.
  • step ST202 the learning device 101 selects one combination from a plurality of combinations of the ambient temperature set value Tms and the time-series SF of the image data prepared in advance.
  • step ST203 the learning device 101 controls the temperature so that the ambient temperature is maintained at the set value Tms of the ambient temperature of the combination selected in step ST202. Specifically, the learning device 101 causes the temperature control device 103 to perform temperature control.
  • step ST204 the learning device 101 inputs the time series SF of the image data of the combination selected in step ST202. Specifically, the learning device 101 inputs the time-series SF of the image data to the image input unit 11. The time-series SF of the input image data is supplied to the element temperature estimation unit 13 and to the temperature change compensation unit 15 via the input image storage unit 12.
  • the learning device 101 acquires the measured value Tmf of the temperature of the light emitting element.
  • the measured value Tmf acquired here is a value measured by the element temperature measuring unit 102, and the ambient temperature is controlled by the set value Tms of the ambient temperature of the selected combination, and when the image data of the selected combination is used. It is a measured value of the temperature of the light emitting element when the series SF is input and the image display unit 2 displays an image according to the image data included in the time series SF.
  • the learning device 101 acquires the estimated value Tme of the light emitting element temperature.
  • the estimated value Tme acquired here is controlled by the set value Tms of the ambient temperature of the selected combination, and the element temperature when the time series SF of the image data of the selected combination is input.
  • the estimation unit 13 is an estimated value calculated using the selected weight set WS and the conversion table CA.
  • the selected weight set WS is a weight set WS tentatively set in the weight storage unit 31
  • the selected conversion table CA is a conversion table CA tentatively set in the conversion table storage unit 33. Is.
  • step ST207 the learning device 101 obtains the difference between the measured value Tmf acquired in step ST205 and the estimated value Tme acquired in step ST206 as an error ER.
  • step ST208 the learning device 101 determines whether or not the processing of steps ST202 to ST207 has been completed for all the combinations of the plurality of ambient temperature set values Tms and the time series SF of the image data. If the above processing is not completed for all of the plurality of combinations, the process returns to step ST202.
  • step ST202 the combination of the next ambient temperature set value Tms and the time-series SF of the image data is selected, and in steps ST203 to ST207, the same processing as described above is repeated for the selected combination.
  • the error ER is calculated.
  • step ST209 the learning device 101 obtains the total ES (sum of a plurality of combinations) ES of the above error ERs as a cost function.
  • the total ES of the error ER the sum of the absolute values of the error ER or the sum of the squares of the error ER can be used.
  • step ST210 the learning device 101 determines whether or not all of the plurality of combinations of the weight set WS and the conversion table CA have been selected. If not all are selected, the process returns to step ST201. In this case, in step ST201, among the combinations of the weight set WS and the conversion table CA, a combination that has not yet been selected is selected.
  • step ST210 If all are selected in step ST210, the process proceeds to step ST211.
  • step ST211th the learning device 101 adopts the combination of the weight set WS and the conversion table CA that minimizes the cost function obtained in step ST209 as the optimum combination.
  • the learning device 101 writes the set WS of the weights of the adopted combination in the weight storage unit 31, and writes the conversion table CA of the adopted combination in the conversion table storage unit 33. This completes the process of optimizing the combination of weights and conversion table.
  • the conversion table CA is determined in steps ST301 to ST307 shown in FIG. 12, and the weight set WS is determined in steps ST311 to ST320 shown in FIG.
  • the learning device 101 selects one from a plurality of gradation values prepared in advance.
  • step ST302 the learning device 101 inputs a time series of image data with fixed pixel values to the image input unit 11.
  • the learning device 101 controls the temperature change compensation unit 15 to supply the input from the image input unit 11 to the image output unit 16 as it is without performing the temperature change compensation operation.
  • the input image storage unit 12 and the element temperature estimation unit 13 may be in a state in which the operation is continued, or may be in a state in which the operation is stopped.
  • step ST303 the learning device 101 acquires the measured value Tma of the ambient temperature.
  • the measured value Tma acquired here is a measured value by the ambient temperature measuring unit 3.
  • step ST304 the learning device 101 acquires the measured value Tmf of the temperature of the light emitting element.
  • the measured value Tmf acquired here is a value measured by the element temperature measuring unit 102, the time series of the image data of the selected gradation value is input, and the image display unit 2 selects the pixel value. It is a measured value of the temperature of the light emitting element when the image is displayed according to the image data fixed to the gradation value.
  • the image data in which the pixel value is fixed to a certain gradation value may be the image data in which only the pixel value of a specific light emitting element is fixed to the gradation value, and a plurality of light emitting elements.
  • the pixel values of all the light emitting elements constituting the image display unit 2 may be image data fixed to the gradation value.
  • the temperature of any one of the light emitting elements is acquired as the measured value of the temperature of the above light emitting elements.
  • the average temperature of a plurality of light emitting elements may be obtained.
  • step ST305 the learning device 101 calculates the rising temperature Tmu from the measured values Tma and Tmf acquired in steps ST303 and ST304.
  • the rising temperature Tmu is obtained by subtracting the measured value Tma of the ambient temperature from the measured value Tmf of the temperature of the light emitting element.
  • step ST306 the learning device 101 determines whether or not all the plurality of gradation values prepared in advance have been selected. If not all are selected, the process returns to step ST301. In this case, in step ST301, among the plurality of gradation values, a gradation value that has not yet been selected is selected.
  • step ST307 the learning device 101 determines a conversion table CA showing the relationship between the weighted average FA and the rising temperature Tmu from the plurality of gradation values and the rising temperature Tmu calculated for the plurality of gradation values. ..
  • the weighted average FA is equal to the fixed gradation value. Therefore, the relationship between the gradation value and the rising temperature Tmu corresponds to the relationship between the weighted average FA and the rising temperature Tmu, and the above conversion table CA can be determined from the relationship between the gradation value and the rising temperature. ..
  • the learning device 101 writes the determined conversion table CA in the conversion table storage unit 33.
  • step ST311 of FIG. 13 the learning device 101 selects one weight set from a plurality of weight sets WS prepared in advance.
  • the learning device 101 tentatively sets the weight set WS of the selected combination in the weight storage unit 31.
  • steps ST202 to ST209 is the same as the processing of steps ST202 to ST209 of FIG. That is, in step ST202, one combination is selected from a plurality of combinations of the set value Tms of the ambient temperature and the time series SF of the image data prepared in advance.
  • step ST203 temperature control is performed so that the ambient temperature is maintained at the set value Tms of the ambient temperature of the combination selected in step ST202.
  • step ST204 the time series SF of the image data of the combination selected in step ST202 is input.
  • step ST205 the measured value Tmf of the temperature of the light emitting element is acquired.
  • step ST206 the estimated value Tme of the temperature of the light emitting element is acquired.
  • step ST207 the difference between the measured value Tmf and the estimated value Tme is obtained as the error ER.
  • step ST208 it is determined whether or not the processing of steps ST202 to ST207 has been completed for all the combinations of the plurality of ambient temperature set values Tms and the time series SF of the image data. If the above processing is completed for all of the plurality of combinations, the process proceeds to step ST209. In step ST209, the total ES (sum of a plurality of combinations) ES of the above error ERs is obtained as a cost function.
  • step ST320 it is determined whether or not all of the weight sets WS have been selected. If not all are selected, the process proceeds to step ST321. In step ST321, the weight set WS that minimizes the cost function obtained in step ST209 is adopted as the optimum set. This completes the process of optimizing the weight set.
  • the image display device provided with the image processing device does not have to be equipped with a temperature sensor for each light emitting element, and the temperature of each light emitting element can be measured. It can be estimated, and it is possible to prevent the occurrence of unevenness in brightness and chromaticity due to changes in temperature.
  • FIG. 14 is a diagram showing an image display device including the image processing device 1b according to the second embodiment of the present invention.
  • the image processing device 1b shown in FIG. 14 is generally the same as the image processing device 1 of FIG. 1, but a variation correction coefficient storage unit 17 and a variation correction unit 18 are added. Similar to the image processing device 1, the image processing device 1b may be configured by, for example, the computer shown in FIG.
  • the variation correction coefficient storage unit 17 stores a variation correction coefficient for each light emitting element, that is, a coefficient for correcting a variation in brightness and color for each light emitting element.
  • each light emitting element has nine correction coefficients ⁇ 1 to ⁇ 9 .
  • the variation correction unit 18 has the following equations (4a), (4a), based on the image data Db output from the temperature change compensation unit 15 and the correction coefficients ⁇ 1 to ⁇ 9 stored in the variation correction coefficient storage unit 17. The operations shown in 4b) and (4c) are performed to generate and output the image data Dc in which the variation of the light emitting element is corrected.
  • Rc (x, y) ⁇ 1 (x, y) ⁇ Rb (x, y) + ⁇ 2 (x, y) ⁇ Gb (x, y) + ⁇ 3 (x, y) ⁇ Bb (x, y) Equation (4a)
  • Gc (x, y) ⁇ 4 (x, y) ⁇ Rb (x, y) + ⁇ 5 (x, y) ⁇ Gb (x, y) + ⁇ 6 (x, y) ⁇ Bb (x, y) Equation (4b)
  • Bc (x, y) ⁇ 7 (x, y) x Rb (x, y) + ⁇ 8 (x, y) x Gb (x, y) + ⁇ 9 (x, y) ⁇ Bb (x, y) Equation (4c)
  • Rb (x, y), Gb (x, y), and Bb (x, y) indicate red, green, and blue pixel values of the pixel of interest of the image data Db input to the variation correction unit 18.
  • Rc (x, y), Gc (x, y) and Bc (x, y) indicate the red, green and blue pixel values of the corrected image data Dc output from the variation correction unit 18.
  • ⁇ 1 (x, y) to ⁇ 9 (x, y) indicate the correction coefficient for the pixel of interest.
  • the image output unit 16 converts the image data Dc output from the variation correction unit 18 into a signal having a format matching the display method of the image display unit 2, and outputs the converted image signal Do. If the light emitting element of the image display unit 2 emits light by PWM (Pulse Width Modulation) drive, the gradation value of the image data is converted into a PWM signal.
  • PWM Pulse Width Modulation
  • the image display unit 2 displays an image based on the image signal Do.
  • changes in brightness and chromaticity due to temperature are compensated for each pixel, and variations in light emitting elements are corrected. Therefore, an image without uneven brightness and uneven color is displayed.
  • FIG. 15 is generally the same as FIG. 8, with the addition of step ST7.
  • step ST7 variation correction is performed. This process is the same as the process by the variation correction unit 18 in FIG.
  • the weight set WS and the conversion table CA used in the element temperature estimation unit 13 of the image processing device 1b of the second embodiment are determined by the same machine learning as described in the first embodiment.
  • the image display device provided with the image processing device does not have to have a temperature sensor in each light emitting element.
  • the temperature of each light emitting element can be estimated, and the occurrence of unevenness in brightness and chromaticity due to a change in temperature can be prevented.
  • FIG. 16 is a diagram showing an image display device including the image processing device 1c according to the third embodiment of the present invention.
  • the image processing device 1c shown in FIG. 16 is generally the same as the image processing device 1b of FIG. 14, but the element temperature estimation unit 13c is provided instead of the element temperature estimation unit 13.
  • the image processing device 1c may be partially or wholly composed of a processing circuit.
  • the processing circuit may be composed of hardware or software, that is, a programmed computer. Of the functions of each part of the image processing device 1c, a part may be realized by hardware and the other part may be realized by software.
  • the computer may be, for example, the one shown in FIG.
  • the element temperature estimation unit 13c emits light based on the ambient temperature Tma measured by the ambient temperature measurement unit 3 and the time series of image data composed of image data of a plurality of frames output from the input image storage unit 12. The temperature of the element is estimated and the estimated value Tme is output.
  • the element temperature estimation unit 13c is composed of a neural network. FIG. 17 shows an example of such a neural network.
  • the illustrated neural network captures the ambient temperature Tma measured by the ambient temperature measuring unit 3 and the time series of the image data output from the input image storage unit 12 (pixel values represented by the image data constituting the time series). As an input, an estimated value of the temperature of each light emitting element of the image display unit 2 is output.
  • the illustrated neural network has an input layer La, an intermediate layer (hidden layer) Lb, and an output layer Lc.
  • the number of intermediate layers is 2, but the number of intermediate layers may be 1 or 3 or more.
  • Each neuron P in the input layer La is assigned either an ambient temperature Tma or a pixel value represented by image data constituting the time series, and each neuron is assigned an assigned ambient temperature Tma or a pixel. The value is entered.
  • the neurons in the input layer La output the input as it is.
  • the neurons P of the output layer Lc are provided corresponding to the light emitting elements of the image display unit 2, respectively.
  • Each neuron P in the output layer Lc is composed of a plurality of bits, for example, 10 bits, and outputs data indicating a temperature estimate of the corresponding light emitting element.
  • the temperature estimates of the light emitting elements from the pixel positions (1,1) to (x max , y max ) are indicated by the symbols Tme (1,1) to Tme (x max , y max ). .. (1,1) indicates the pixel position in the upper left corner of the display screen, and (x max , y max ) indicates the pixel position in the lower right corner of the display screen.
  • the neurons P in the intermediate layer Lb and the output layer Lc each perform an operation represented by the following model formula for a plurality of inputs.
  • N is the number of inputs to neurons P and is not necessarily the same between neurons.
  • x 1 to x N are input data of neuron P
  • w 1 to w N are weights for inputs x 1 to x N
  • b is a bias.
  • Weights and biases are determined by learning. In the following, weights and biases are collectively referred to as parameters.
  • the function s (a) is an activation function.
  • the activation function may be, for example, a step function that outputs 0 if a is 0 or less, and outputs 1 otherwise.
  • the activation function s (a) may be a ReLU function that outputs 0 if a is 0 or less, and outputs an input value a otherwise, and is an identity function that uses the input value a as it is as an output value. However, it may be a jigmoid function.
  • the neuron of the input layer La outputs the input as it is, it can be said that the activation function used by the neuron of the input layer La is an identity function.
  • the step function or the jigmoid function may be used in the intermediate layer Lb, and the ReLU function may be used in the output layer.
  • different activation functions may be used between neurons in the same layer.
  • the number of neurons P and the number of layers (number of stages) are not limited to the example shown in FIG.
  • FIG. 18 is generally the same as FIG. 15, but includes step ST3c instead of step ST3.
  • step ST3c the temperature of each light emitting element is estimated. This process is the same as the process in the element temperature estimation unit 13c of FIG.
  • the neural network constituting the element temperature estimation unit 13c is generated by machine learning.
  • the learning device for machine learning is used by being connected to the image display device of FIG.
  • FIG. 19 shows a learning device 101c connected to the image display device of FIG.
  • FIG. 19 also shows an element temperature measuring unit 102 and a temperature control device 103 used together with the learning device 101c.
  • the element temperature measuring unit 102 and the temperature control device 103 are the same as those described in the first embodiment.
  • the learning device 101c may be composed of a computer.
  • the same computer may be configured as the learning device 101c.
  • the computer constituting the learning device 101c may be, for example, the one shown in FIG. In that case, the function of the learning device 101c may be realized by the processor 91 executing the program stored in the memory 92.
  • the learning device 101c operates the image processing device 1c, and the temperature (estimated value) Tme of the light emitting element calculated by the element temperature estimation unit 13c is the temperature (measured value) of the light emitting element measured by the element temperature measuring unit 102. Learning is performed so as to be close to Tmf. For learning, a plurality of sets LDS of learning input data composed of a set value Tms of ambient temperature and a time series SF of image data are used.
  • the learning device 101c sequentially selects a plurality of sets of learning input data LDS prepared in advance, and the temperature control device 103 selects the ambient temperature.
  • the temperature of the light emitting element calculated by the element temperature estimation unit 13c by inputting the time-series SF of the image data included in the selected training input data set LDS to the image input unit 11 by controlling to maintain Tms.
  • the estimated value Tme of the above and the measured value Tmf of the temperature of the light emitting element measured by the element temperature measuring unit 102 are acquired, and learning is performed so that the estimated value Tme is close to the measured value Tmf.
  • the time series SF of the image data constituting the set LDS of the learning input data is the same frame as the number of frames (M + 1) of the image data used for estimating the temperature in the element temperature estimation unit 13c when the image display device displays the image. It is composed of a number of image data. At least one of the set value Tms of the ambient temperature or the time series SF of the image data is different between the sets of the plurality of learning input data LDSs.
  • the original neural network is prepared. That is, the element temperature estimation unit 13c is tentatively constructed by the original neural network.
  • This neural network is similar to the neural network shown in FIG. 17, but each of the neurons in the intermediate layer and the output layer is connected to all the neurons in the previous layer.
  • a set of parameters for a plurality of neurons is called a set of parameters and is represented by the code PS.
  • the parameter set PS is optimized so that the difference between the estimated value Tme of the temperature of the light emitting element and the measured value Tmf is minimized by using the above-mentioned original neural network.
  • the optimization can be performed by, for example, the error back propagation method.
  • a plurality of sets LDS of learning input data composed of a predetermined ambient temperature set value Tms and a time-series SF of image data are prepared, and the initial value of the parameter set PS is set.
  • the above training input data set LDS is selected in order, and the ambient temperature is maintained at the set value Tms of the ambient temperature of the selected learning input data set LDS, and the selected training input data set LDS.
  • the difference between the measured value Tmf of the temperature of the light emitting element and the estimated value Tme when the time series SF of the image data is input is obtained as the error ER, and the sum of the above error ERs for the set LDS of a plurality of training data.
  • ES is obtained as a cost function, and if the above cost function is larger than the threshold value, the set of parameters PS is changed so that the above cost function becomes smaller. The above process is repeated until the cost function becomes equal to or less than the threshold value.
  • the parameter set PS can be changed by the gradient descent method. As the total ES of the error ER, the sum of the absolute values of the error ER or the sum of the squares of the error ER can be used.
  • the synaptic connection (connection between neurons) with zero weight is cut.
  • the temperature sensor of the element temperature measuring unit 102 is removed, and the image display device is used with the temperature sensor removed. That is, when used for image display, the image display device does not require a temperature sensor that detects the temperature of the light emitting element. This is because the element temperature estimation unit 13c can estimate the temperature of the light emitting element even if there is no temperature sensor that detects the temperature of the light emitting element.
  • the learning device 101c may be removed or may remain attached after the learning is completed.
  • the program may remain stored in the memory 92.
  • step ST400 of FIG. 20 the learning device 101c prepares the original neural network. That is, the element temperature estimation unit 13c is tentatively constructed by the original neural network.
  • This neural network is similar to the neural network shown in FIG. 17, but each of the neurons in the intermediate layer and the output layer is connected to all the neurons in the previous layer.
  • step ST401 the learning device 101c sets the initial value of the set PS of the parameters (weights and biases) used in the operations in each of the neurons in the intermediate layer and the output layer of the neural network prepared in step ST400.
  • the initial value may be a randomly selected value or a value expected to be appropriate.
  • steps ST202 to ST209 is the same as the processing of steps ST202 to ST209 of FIG. That is, in step ST202, the learning device 101c selects one combination from a plurality of combinations of the ambient temperature set value Tms and the time-series SF of the image data prepared in advance. In step ST203, the learning device 101c controls the temperature so that the ambient temperature is maintained at the set value Tms of the ambient temperature of the combination selected in step ST202.
  • step ST204 the learning device 101c inputs the time series SF of the image data of the combination selected in step ST202.
  • the learning device 101c acquires the measured value Tmf of the temperature of the light emitting element.
  • step ST206 the learning device 101c acquires the estimated value Tme of the light emitting element temperature.
  • the estimated value Tme acquired here is controlled by the set value Tms of the ambient temperature of the selected combination, and the element temperature when the time series SF of the image data of the selected combination is input.
  • the estimation unit 13c is an estimated value calculated by using the set PS of the set parameters.
  • step ST207 the learning device 101c obtains the difference between the measured value Tmf acquired in step ST205 and the estimated value Tme acquired in step ST206 as an error ER.
  • step ST208 of FIG. 21 the learning device 101c determines whether or not the processing of steps ST202 to ST207 has been completed for all the combinations of the plurality of ambient temperature set values Tms and the time-series SF of the image data. To do. If the above processing is not completed for all of the plurality of combinations, the process returns to step ST202.
  • step ST209 the learning device 101c obtains the sum (sum) ES of the above error ERs as a cost function.
  • the total ES of the error ER the sum of the absolute values of the error ER or the sum of the squares of the error ER can be used.
  • step ST410 the learning device 101c determines whether or not the cost function is equal to or less than a predetermined value. If the cost function is larger than the threshold value in step ST410, the process proceeds to step ST411.
  • step ST411 the learning device 101c changes the parameter set PS.
  • the change is made so that the cost function is smaller. Gradient descent can be used for the change.
  • the process returns to step ST202.
  • step ST410 If the cost function is equal to or less than the threshold value in step ST410, the process proceeds to step ST412.
  • the learning device 101c adopts the set parameter set PS, that is, the parameter set PS used in the calculation of the estimated value in the immediately preceding step ST206 as the optimum parameter set.
  • step ST413 the synaptic connection having a weight of zero included in the set PS of the adopted parameters is cleaved. This completes the process of generating the neural network. That is, the element temperature estimation unit 13c is configured by the neural network generated by the above processing.
  • step ST413 By breaking the coupling in step ST413 described above, the configuration of the neural network becomes simpler, and the calculation of temperature estimation at the time of image display becomes easier.
  • the image display apparatus provided with the image processing apparatus does not include a temperature sensor in each light emitting element.
  • the temperature of each light emitting element can be estimated, and unevenness in brightness and chromaticity due to a change in temperature can be prevented. Further, as in the second embodiment, it is possible to correct the variation for each light emitting element.
  • the light emitting element is composed of three LEDs of red, green, and blue, but the number of LEDs constituting the light emitting element is not limited to three. In short, it suffices that the light emitting element is composed of a plurality of LEDs.
  • the image processing device compensates for both the brightness and the chromaticity
  • the image processing device may be any one that compensates for at least one of the brightness and the chromaticity.
  • step ST202 when the set value Tms of the ambient temperature and the image data are obtained in step ST202.
  • the combination of the series SF is selected, and the processes of steps ST203 to ST207 are performed for the selected combination. That is, as for the time series of image data, it is assumed that the input of the next time series is started after the input of one time series is completed.
  • the processing of image data for a time series is not limited to the above method. For example, the time series of a plurality of image data may partially overlap.
  • the image data of the M + 1 frame starting from the frame following the above-mentioned certain frame is used as one time series by supplying the image data of the number of frames larger than the above-mentioned M + 1 frame and using the image data of the M + 1 frame starting from a certain frame. It may be possible to repeat the process of using as another time series. In this case, the processes of steps ST202 to ST207 are performed in parallel for a plurality of different time series.
  • the ambient temperature of the image display unit 2 is controlled when the weight and the conversion table are optimized or the learning for the generation of the neural network is performed.
  • the size of the image display unit 2 may be large, and it may be difficult to fit the entire image display unit 2 in an air-conditioned space. In that case, if the image display unit is configured by connecting a plurality of division units, learning may be performed for each division unit.
  • the image processing apparatus of the present invention has been described above, the image processing method implemented by the above-mentioned image processing apparatus also forms a part of the present invention.
  • a program for causing a computer to perform processing in the above-mentioned image processing apparatus or image processing method and a computer-readable recording medium for recording the program, for example, a non-temporary recording medium also form a part of the present invention. ..
  • 1 image processing device 2 image display unit, 3 ambient temperature measurement unit, 9 computer, 11 image input unit, 12 input image storage unit, 13, 13c element temperature estimation unit, 14 compensation table storage unit, 15 temperature change compensation unit, 16 image output unit, 31 weight storage unit, 32 average calculation unit, 33 conversion table storage unit, 34 temperature calculation unit, 17 variation correction coefficient storage unit, 18 variation correction unit, 91 processor, 92 memory, 101, 10c learning device, 102 element temperature measuring unit, 103 temperature control device.

Abstract

各々複数のLEDを含む複数の発光素子が配列された画像表示部に画像を表示させる画像処理装置において、複数フレームの入力画像の画像データと発光素子の温度の測定値との関係を学習した結果に基づいて、発光素子の温度を推定し、推定した温度に基づいて発光素子の輝度及び色度の少なくとも一方のムラを補正する。発光素子毎に温度センサーを備えていなくても、温度変化による発光素子の輝度及び色度の少なくとも一方のムラを補償することができる。

Description

画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体
 本発明は、画像処理装置及び方法、並びに画像表示装置に関する。本発明はまた、プログラム及び記録媒体に関する。本発明は特に、表示パネルの輝度又は色度のムラを補正する技術に関する。
 赤、緑及び青のLEDの組合せから成る発光素子が画素としてマトリックス状に配置された表示パネルが知られている。
 一般的にLEDで構成される発光素子には、発生する光の輝度又は色度にばらつきがある。また、温度によって発生する光の輝度又は色度が変化する。そのため、表示画像に輝度又は色度のムラが発生する。
 特許文献1には温度センサーを用いて液晶表示パネルのバックライトのLEDの温度を測定し、温度毎の補正データを用いて画像データを補正する方法が提案されている。
国際公開第2011―125374号(段落0045、0050~0053、図1)
 複数の発光素子がマトリックス状に配置された表示パネルでは、表示コンテンツによって個々の発光素子に流される電流が変わるため、個々の発光素子の温度が異なるものとなる。
 温度が異なるものとなると、輝度ムラ又は色ムラが発生する可能性がある。LEDで構成される発光素子は温度によって色又は輝度が変化するためである。
 上記のように特許文献1の技術では液晶表示パネルのバックライトに温度センサーを設けているが、この考えを、複数の発光素子を有する表示パネルに適用すると、温度センサーを各発光素子に設ける必要があるため、温度センサーの数及び配線、さらには設置のためのスペースが増加する。
 本発明は、発光素子毎に温度センサーを備えていなくても、温度変化による発光素子の輝度及び色度の少なくとも一方のムラを補償することができる画像処理装置を提供することを目的とする。
 本発明の画像処理装置は、
 各々複数のLEDを含む複数の発光素子が配列された画像表示部の輝度及び色の少なくとも一方のムラを補正する画像処理装置において、
 現フレームを含む直近の複数フレームの入力画像の画像データと、前記画像表示部の周辺温度とから各発光素子の温度を推定する素子温度推定部と、
 各発光素子の温度に基づいて現フレームの入力画像の画像データを補正することで、当該発光素子の輝度及び色度の少なくとも一方のムラを補正する温度変化補償部とを備え、
 前記素子温度推定部は、
 前記複数フレームの入力画像の画像データと前記発光素子の温度の測定値との関係を学習した結果に基づいて、前記発光素子の温度を推定する
 ことを特徴とする。
 本発明の画像処理装置は、入力画像と周辺温度とから各発光素子の温度を推定することができ、発光素子毎に温度センサーを備えていなくても、温度変化による発光素子の輝度及び色度の少なくとも一方のムラを補償することができる。
本発明の実施の形態1の画像処理装置を備えた画像表示装置を示す図である。 (a)及び(b)は、発光素子の温度による輝度及び色度の変化の例を示す図である。 画像処理装置の機能を実現するコンピュータを、画像表示部及び周辺温度測定部とともに示す図である。 図1の入力画像格納部のメモリ領域の構成を示す図である。 図1の素子温度推定部の構成例を示すブロック図である。 図5の変換テーブル格納部に格納されている変換テーブルで定義される入力と出力との関係の一例を示す図である。 (a)及び(b)は、図1の補償テーブル格納部に格納されている補償テーブルで定義される入力と出力との関係の一例を示す図である。 実施の形態1の画像処理装置の機能をコンピュータで実現する場合の処理の手順を示すフローチャートである。 図8の素子温度推定のステップの具体例を示すフローチャートである。 図1の画像表示装置と、学習装置と、素子温度測定部と、温度制御装置とを示すブロック図である。 図10の学習装置を用いて行われる、第1の方法による学習における処理の手順を示すフローチャートである。 図10の学習装置を用いて行われる、第2の方法による学習における処理の手順を示すフローチャートである。 図10の学習装置を用いて行われる、第2の方法による学習における処理の手順を示すフローチャートである。 本発明の実施の形態2の画像処理装置を備えた画像表示装置を示す図である。 実施の形態2の画像処理装置の機能をコンピュータで実現する場合の処理の手順を示すフローチャートである。 本発明の実施の形態3の画像処理装置を備えた画像表示装置を示す図である。 図16の素子温度推定部を構成するニューラルネットワークの一例を示す図である。 実施の形態3の画像処理装置の機能をコンピュータで実現する場合の処理の手順を示すフローチャートである。 図16の画像表示装置と、学習装置と、素子温度測定部と、温度制御装置とを示すブロック図である。 図19の学習装置を用いて行われる学習における処理の手順を示すフローチャートである。 図19の学習装置を用いて行われる学習における処理の手順を示すフローチャートである。
実施の形態1.
 図1は、本発明の実施の形態1の画像処理装置を備えた画像表示装置を示す図である。実施の形態1の画像表示装置は、画像処理装置1のほか、画像表示部2及び周辺温度測定部3を備える。
 画像表示部2は、赤、緑及び青のLEDが配列された表示パネルを有するディスプレイで構成されている。例えば、赤、緑及び青のLEDの組合せによって1つの発光素子が構成され、複数のそのような発光素子が画素としてマトリックス状に規則正しく配置されて、表示パネルが構成されている。例えば各発光素子は、1つのパッケージ内に赤のLEDチップ、緑のLEDチップ及び青のLEDチップが設けられている、3in1LED発光素子と呼ばれるものである。
 LEDで構成される発光素子は、発生する光の輝度及び色度の双方又は一方が温度によって変化する。
 図2(a)は、温度による輝度Vpの変化の例を示す。
 図2(b)は、温度による色度の変化の例を示す。色度は、例えばCIE-XYZ表色系のX刺激値及びY刺激値で表されている。図2(b)は、X刺激値Xp及びY刺激値Ypの変化を示す。
 周辺温度測定部3は表示パネル周辺の温度を測定して測定値Tmaを出力する。
 周辺温度測定部3は、例えば、サーミスタ又は熱電対により構成されている1又は2以上の温度センサーを有する。1又は2以上の温度センサーは、画像表示部2の筐体外部及び筐体内部の一方又は双方の温度を測定できるように設置されている。筐体外部に設置される場合、例えば前面額縁に埋め込まれていても良い。
 周辺温度測定部3は、測定された周辺温度Tmaを出力する。
 2以上の温度センサーで温度を測定する場合には、それらの平均値を周辺温度Tmaとして出力しても良い。
 画像処理装置1は、その一部又は全部を処理回路で構成し得る。
 例えば、画像処理装置の各部分の機能をそれぞれ別個の処理回路で実現してもよいし、複数の部分の機能をまとめて1つの処理回路で実現しても良い。
 処理回路はハードウェアで構成されていても良くソフトウェアで、即ちプログラムされたコンピュータで構成されていても良い。
 画像処理装置の各部分の機能のうち、一部をハードウェアで実現し、他の一部をソフトウェアで実現するようにしても良い。
 図3は、画像処理装置1の全ての機能を実現するコンピュータ9を、画像表示部2及び周辺温度測定部3とともに示す。
 図示の例ではコンピュータ9は、プロセッサ91及びメモリ92を有する。
 メモリ92には、画像処理装置1の各部の機能を実現するためのプログラムが記憶されている。
 プロセッサ91は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)等を用いたものである。
 メモリ92は、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)等の半導体メモリ、磁気ディスク、光ディスク、又は光磁気ディスク等を用いたものである。
 プロセッサ91は、メモリ92に記憶されているプログラムを実行することにより、画像処理装置の機能を実現する。
 画像処理装置の機能には、上記のように画像表示部2における表示の制御が含まれる。
 図3のコンピュータは単一のプロセッサを含むが、2以上のプロセッサを含んでいても良い。
 図1には、画像処理装置1を構成する機能ブロックが示されている。
 画像処理装置1は、画像入力部11と、入力画像格納部12と、素子温度推定部13と、補償テーブル格納部14と、温度変化補償部15と、画像出力部16とを備える。
 本実施の形態では、画像入力部11はデジタル画像データを受信して出力するデジタルインターフェースであるものとして説明する。しかしながら、画像入力部11は、アナログ画像信号からデジタル画像データに変換するA/D変換器で構成されていても良い。
 画像入力部11はデジタル画像データを入力画像データとして、入力画像格納部12及び温度変化補償部15に出力する。
 入力画像格納部12は入力画像データを複数フレーム分格納する。
 入力画像格納部12は、例えば図4に示されるように、複数の記憶領域MAを有し、複数フレームの画像データを保持することが可能なものである。即ち、新たに入力されているフレームの画像データ(現フレームの入力画像データ)F(t)と、それより前の、1又は2以上のフレームの画像データ(過去のフレームの入力画像データ)F(t-1)~F(t-M)とを保持することができる。
 上記の画像データを表す符号におけるtは現在時刻を表し、F(t-m)は、現フレームの入力画像データに対しmフレーム前(mは1からMのいずれか)の入力画像データを表す。Mは1以上の整数である。
 現フレームの入力画像データF(t)と、過去のフレームの入力画像データF(t-1)~F(t-M)とは、画像データの時系列SEを構成する。
 各画像データは画素毎に赤、緑、青の画素値を持っている。各画素についての画像データの時系列は、画素値の時系列である。
 素子温度推定部13は、周辺温度測定部3で測定された周辺温度Tmaと入力画像格納部12から出力された、複数フレームの画像データで構成される画像データの時系列SEとに基づいて各発光素子の温度を推定して、推定値Tmeを出力する。
 素子温度推定部13は、例えば図5に示すように、重み格納部31と、平均算出部32と、変換テーブル格納部33と、温度算出部34とを備える。
 平均算出部32には、上記の時系列SEを構成する直近のM+1フレームの入力画像データF(t)、F(t-1)、・・・F(t-M)が入力される。
 重み格納部31は色毎に重みα0c~αMcを格納している。ここでcは、R、G又はBである。即ち、重み格納部31は、赤についての重みα0R~αMR、緑についての重みα0G~αMG、及び青についての重みα0B~αMB、即ち(M+1)×3個の重みを格納している。
 これらの重みα0R~αMR、α0G~αMG、及びα0B~αMBの集合を重みの組WSと言い、符号WSで表す。
 平均算出部32は、直近のM+1フレームの入力画像データF(t)~F(t-M)と重みの組WSとに基づき加重平均FAを算出する。加重平均の算出は、画素毎に行われる。
 各画素(注目画素)についての加重平均FA(x,y)の算出は下記の式(1)で表される。
FA(x,y)
=α0R×F(t,x,y,R)+α1R×F(t-1,x,y,R)
+・・・+αMR×F(t-M,x,y,R)
+α0G×F(t,x,y,G)+α1G×F(t-1,x,y,G)
+・・・+αMG×F(t-M,x,y,G)
+α0B×F(t,x,y,B)+α1B×F(t-1,x,y,B)
+・・・+αMB×F(t-M,x,y,B)
                           式(1)
 式(1)で、
 xは注目画素の水平方向位置を示し、
 yは注目画素の垂直方向位置を示す。
 式(1)に示されるように、重みα0c~αMc(cは、R、G又はB)は、加重平均を求めるための積和演算において、画像データF(t)~F(t-M)に乗算される。
 各色c(R、G又はB)についての重み相互間には、
 α0c≧α1c≧・・・≧αMc
 の関係がある。
 つまり、時系列SEを構成する複数フレームの画像データのうち、より新しいフレームの画像データ(現在時刻により近いフレームの画像データ)に対する重みほどより大きい値を有する。
 重みは、後述のように機械学習により決定され、記憶されている。
 図6は変換テーブル格納部33に格納されている変換テーブルCAで定義される入力と出力との関係の一例を示す。
 図6で、横軸は変換テーブルCAの入力としての加重平均FAを表し、縦軸は変換テーブルCAの出力としての上昇温度Tmuを表す。ここでいう上昇温度Tmuは、温度上昇の幅を意味する。
 変換テーブル格納部33は図6に例示される変換テーブルCAを格納しており、入力された加重平均FAに応じて対応する上昇温度Tmuを出力する。
 変換テーブルCAも、後述のように機械学習により作成され、記憶されている。
 変換テーブルCAは加重平均FAが取り得る値の各々に対して、上昇温度Tmuの値を持つものを想定しているが、これに限定されない。即ち、加重平均FAにつき、離散的に上昇温度Tmuの値を持ち、上昇温度Tmuの値を持たない加重平均FAについては、補間によって対応する上昇温度Tmuの値を求めても良い。この補間は、例えば、上昇温度の値を持つ加重平均FAの値(テーブル点)に対応する上昇温度の値を用いて行うことができる。
 温度算出部34は、画素毎の加重平均FA(x,y)と変換テーブルCAとに基づき、各画素の上昇温度Tmu(x,y)を求め、さらに周辺温度Tmaと上昇温度Tmu(x,y)とに基づき、当該画素位置における温度(推定値)Tme(x,y)を算出する。各画素位置における温度は、当該画素位置の発光素子の温度である。各発光素子の温度Tme(x,y)は、下記の式(2)に示すように、周辺温度Tmaに上昇温度Tmu(x,y)を加算することで求められる。
 Tme(x,y)=Tma+Tmu(x,y)  式(2)
 素子温度推定部13は、式(2)の代わりに下記の式(3)により、温度Tme(x,y)を算出しても良い。式(3)は、各発光素子(注目画素の発光素子)の温度Tme(x,y)を求めるに際し、該発光素子の周囲に位置する発光素子(該注目画素の周囲の画素の発光素子)の上昇温度の影響をも考慮に入れる演算を示す。
Tme(x,y)
=Tma+γ×Tmu(x-1,y-1)
+γ×Tmu(x-1,y)+γ×Tmu(x-1,y+1)
+γ×Tmu(x,y-1)+γ×Tmu(x,y)
+γ×Tmu(x,y+1)+γ×Tmu(x+1,y-1)
+γ×Tmu(x+1,y)+γ×Tmu(x+1,y+1)
                         式(3)
 式(3)で、γ~γは係数である。
 式(3)の演算では、周囲の画素として、注目画素を中心とする3×3個の画素から成る領域内の画素を考慮している。
 周囲の画素の上昇温度は、画素毎の加重平均FA(x,y)から求められたものであるので、周囲の画素の上昇温度の影響を考慮して求められた発光素子の温度の推定値は、周囲の画素についての加重平均FA(x,y)を考慮して求められた発光素子の温度の推定値であると言える。
 上記の例では、注目画素を中心とする3×3個の画素から成る領域内の画素を考慮しているので、周囲の画素として8個の画素を考慮していることになる。しかしながら、考慮する画素の数は8に限定されず、9以上であっても良く、7以下であっても良く、例えば1であっても良い。
 上記のように、入力画像格納部12は直近のM+1フレームの画像データを保持し、素子温度推定部13は、入力画像格納部12から出力される直近のM+1フレームの画像データに基づいて発光素子の温度を推定する。
 ここでMは1以上であれば良い。要するに、入力画像格納部12は、複数フレームの画像データを保持するものであれば良く、素子温度推定部13は、直近の複数フレームの画像データから成る時系列SEに基づいて発光素子の温度を推定するものであれば良い。
 補償テーブル格納部14は、温度による輝度及び色度の変化を補償するための補償テーブルを格納している。
 温度変化補償部15は、素子温度推定部13で推定された温度に応じて、補償テーブル格納部4に格納されている補償テーブルを参照して、画像入力部11から供給される画像データを補正する。
 この補償は、画素毎に行われる。
 この補償は、発光素子の温度の変化による輝度及び色度の変化を打ち消すための補償である。
 図7(a)及び(b)は、補償テーブル格納部14に格納されている補償テーブルで定義される入力と出力との関係の一例を示す。ここで言う入力と出力との関係は、入力に対する出力の比、即ち係数で表される。この係数を補償係数と言う。
 例えば、温度による輝度の変化が、図2(a)に示す如くである場合、輝度についての補償テーブルとしては、図7(a)に例示される入力-出力関係を有するもの、即ち、温度の上昇に対する変化が、図2(a)とは逆向きであるものが記憶されている。
 例えば輝度Vpの正規化値の逆数に等しい補償係数Vqにより補償テーブルが構成されている。
 ここで言う、正規化値は基準温度における輝度に対する比である。例えば、図2(a)及び図7(a)で、Tmrを基準温度とする場合、図7(a)の補償係数Vqは、基準温度Tmrで1となる。
 同様に、温度による色度を表すX刺激値及びY刺激値の変化が、図2(b)に示す如くである場合、補償テーブルとしては、図7(b)に例示される入力-出力関係を有するもの、即ち、温度の上昇に対する変化が、図2(b)とは逆向きであるものが記憶されている。
 例えば、X刺激値Xpの正規化値の逆数に等しい補償係数XqによりX刺激値の補償テーブルが構成されている。同様にY刺激値Ypの正規化値の逆数に等しい補償係数YqによりY刺激値の補償テーブルが構成されている。
 ここで言う、正規化値は基準温度におけるX刺激値及びY刺激値に対する比である。例えば、図2(b)及び図7(b)で、Tmrを基準温度とする場合、図7(b)の補償係数Xq、Yqは、基準温度Tmrで1となる。
 発光素子相互間では、温度による輝度及び色度の変化の仕方が異なる可能性がある。その場合には、図2(a)及び(b)の輝度及び色度を示す曲線として、平均的な変化を表す値が用いられる。例えば、多数の発光素子についての変化を平均した値が用いられ、図7(a)及び(b)の補償係数を表す補償テーブルとして、そのような平均的な変化を補償するためのものが作成される。
 補償テーブルは発光素子の温度Tmeが取り得る値の各々に対して、補償係数の値を持つものとしているが、これに限定されない。即ち、発光素子の温度Tmeにつき、離散的に補償係数の値を持ち、補償係数の値を持たない発光素子の温度Tmeについては、補間によって対応する補償係数の値を求めても良い。この補間は、例えば、補償係数の値を持つ温度Tmeの値(テーブル点)に対応する補償係数の値を用いて行うことができる。
 温度変化補償部15は補償テーブル格納部14に格納されている補償テーブルと各発光素子の温度Tmeとに基づいて、入力画像Diに対応する補償された画像データDbを生成して、出力する。
 色度の補償に関しては、X刺激値及びY刺激値に対する補償係数に基づいて、赤、緑及び青のLEDの発光量を調整するように画像データの補正が行われる。
 画像出力部16は、温度変化補償部15から出力された画像データDbを、画像表示部2の表示方式に合致したフォーマットの信号に変換し、変換後の画像信号Doを出力する。
 画像表示部2の発光素子がPWM(Pulse Width Modulation)駆動で発光するのであれば、画像データの階調値をPWM信号に変換する。
 画像表示部2は画像信号Doに基づいて画像を表示する。表示される画像は、温度による輝度及び色度の変化が画素毎に補償されたものとなる。従って輝度ムラ及び色ムラのない画像が表示される。
 上記したM+1フレームの画像データの時系列SEに基づく発光素子の温度の推定値Tmeの計算、計算された推定値に基づく補償係数Vq、Xq、Yqの決定、決定された補償係数を用いた画像データの補償は、M+1フレーム毎に行っても良く、M+1フレームよりも長い周期に一度行っても良く、M+1フレームよりも短い周期に一度行っても良い。例えば1フレーム毎に行っても良い。
 いずれの場合にも、各時点で現に入力されているフレームの画像データとそれよりも前のMフレームの画像データとを用いて発光素子の温度の推定値を求めれば良い。
 上記した画像処理装置1が図3のコンピュータで構成されている場合の、プロセッサ91による処理の手順を図8及び図9を参照して説明する。
 図8において、ステップST1では、入力画像の格納が行われる。この処理は、図1の入力画像格納部12による処理と同様である。
 ステップST2では、周辺温度の測定が行われる。この処理は、図1の周辺温度測定部3による処理と同様である。ステップST2の処理は、ステップST1の処理と並行して行い得る。
 ステップST3では、各発光素子の温度の推定が行われる。この処理は、図1の素子温度推定部13による処理と同様である。
 ステップST4では、温度変化補償が行われる。この処理は、図1の温度変化補償部15による処理と同様である。
 ステップST5では、画像出力が行われる。この処理は、図1の画像出力部16による処理と同様である。
 図9は、図8のステップST3の詳細を示す。
 図9のステップST31では、加重平均が算出される。この処理は、図5の平均算出部32による処理と同様である。
 ステップST32では、発光素子の温度が算出される。この処理は、図5の温度算出部34による処理と同様である。
 上記のように、重み格納部31に格納されている重みの組WSと変換テーブル格納部33に格納されている変換テーブルCAとは、機械学習により決定され或いは作成される。
 機械学習のための学習装置は、図1の画像表示装置に接続されて使用される。
 図10は、図1の画像表示装置に接続された学習装置101を示す。図10は、該学習装置101とともに用いられる素子温度測定部102及び温度制御装置103をも示す。
 素子温度測定部102は、複数の温度センサーを有する。複数の温度センサーはそれぞれ、画像表示部2を構成する複数の発光素子に対応して設けられたものであり、各温度センサーは対応する発光素子の温度Tmfを測定して出力する。
 各温度センサーは、接触式のものであっても良く、非接触式のものであっても良い。
 接触式の温度センサーは、例えば、サーミスタ又は熱電対により構成されたものであっても良い。
 非接触式の温度センサーは、赤外線を受けて表面温度を検知するものであっても良い。
 素子温度測定部102はまた、単一の熱画像センサを備え、画像表示部2の表示画面の温度分布を測定し、熱画像内の位置を画像表示部2の表示画面上の位置に対応付けることで、各発光素子の温度を求めるものであっても良い。
 温度制御装置103は、画像表示部2の周辺温度を、学習装置101により指定された設定値Tmsに維持する。温度制御装置103は、例えば空気調和機で構成されており、画像表示部2が配置された空間の温度を設定値Tmsに維持する。
 学習装置101は、コンピュータで構成されていても良い。画像処理装置1がコンピュータで構成される場合、同じコンピュータが学習装置101を構成していても良い。学習装置101を構成するコンピュータは、例えば図3に示されるものであっても良い。その場合、学習装置101の機能はプロセッサ91がメモリ92に記憶されているプログラムを実行することで実現されるものであっても良い。
 学習装置101は、画像処理装置1を動作させ、素子温度推定部13で算出された発光素子の温度(推定値)Tmeが、素子温度測定部102で測定された発光素子の温度(測定値)Tmfに近くなるように学習を行う。
 学習には、周辺温度の設定値Tmsと画像データの時系列SFとで構成される学習入力データの組LDSが複数個用いられる。
 学習装置101は、学習入力データの組LDSに含まれる画像データの時系列SFを画像入力部11に入力し、素子温度推定部13で算出された発光素子の温度の推定値Tmeと素子温度測定部102で測定された発光素子の温度の測定値Tmfとを取得し、推定値Tmeが測定値Tmfに近くなるように学習を行う。
 学習入力データの組LDSを構成する画像データの時系列SFは、画像表示装置が画像表示を行う際に素子温度推定部13における温度の推定に用いられる時系列SEを構成する画像データのフレーム数(M+1)と同じフレーム数の画像データで構成される。
 複数個の学習入力データの組LDS相互間では、周辺温度の設定値Tms又は画像データの時系列SFの少なくとも一方が異なる。
 学習による重みの組WSの決定及び変換テーブルCAの作成は、例えば、以下の第1の方法又は第2の方法で行うことができる。
 第1の方法では、発光素子の温度の推定値Tmeの、測定値Tmfに対する差が最小となるように重みの組WS及び変換テーブルCAを定める。
 具体的には、予め用意された複数個の学習入力データの組LDSを順に選択し、周辺温度が選択されている学習入力データの組の周辺温度の設定値Tmsに維持されており、選択されている学習入力データの組LDSの画像データの時系列SFが入力されたときの発光素子の温度の測定値Tmfと推定値Tmeとの差を誤差ERとして求め、上記の複数個の学習入力データの組LDSについての上記の誤差ERの総和ESをコスト関数として求め、該コスト関数が最小となるように学習することで重みの組WS及び変換テーブルCAを定める。
 第2の方法では、変換テーブルCAの作成を先に行い、その後で重みの組WSを決定する。
 変換テーブルCAの作成に当たっては、複数の階調値の各々について、画素値が当該階調値に固定された画像データの時系列SFが入力されたときの、発光素子の温度Tmfと周辺温度Tmaとを測定し、測定結果から上昇温度Tmuを算出し、複数の階調値についての、階調値と上昇温度との関係から変換テーブルCAを作成する。このとき、温度変化補償部15は、温度変化補償を行わず、画像入力部11から出力された画像データをそのまま画像出力部16に供給する。即ち学習装置101は、温度変化補償部15がそのように動作するように制御を行なう。
 画素値がある階調値に固定された画像データとは、特定の発光素子の画素値のみが当該階調値に固定された画像データであっても良く、複数の発光素子、例えば画像表示部2を構成する全ての発光素子の画素値が当該階調値に固定された画像データであっても良い。複数の発光素子の画素値が当該階調値に固定された画像データを用いる場合には、上記の発光素子の温度としては、いずれか1個の発光素子の温度を用いても良く、複数の発光素子の温度の平均を用いても良い。
 第2の方法で変換テーブルCAを作成する場合には、学習装置101は、周辺温度測定部3から測定値Tmfの通知を受ける必要がある。上記のように上昇温度の算出に周辺温度の測定値を用いるためである。周辺温度測定部3から学習装置101への測定値の通知が図10には点線で示してある。
 なお、変換テーブルCAの作成のため、画素値が固定された画像データの時系列SFを入力して、発光素子の温度の測定値Tmfを取得する際、周辺温度を一定に維持するのが望ましいが、この点は必須ではない。要するに、周辺温度の測定値Tmaと発光素子の温度の測定値Tmfとから上昇温度Tmuを求めることができれば良い。
 第2の方法における重みの組WSの決定においては、上記のようにして作成された変換テーブルCAを用いて算出される発光素子の温度の推定値Tmeの、測定値Tmfに対する差が最小となるように重みの組WSが定められる。
 具体的には、予め用意された複数個の学習入力データの組LDSを順に選択し、周辺温度が選択されている学習入力データの組LDSの周辺温度の設定値Tmsに維持されており、選択されている学習入力データの組LDSの画像データの時系列SFが入力されたときの発光素子の温度の測定値Tmfと推定値Tmeとの差を誤差ERとして求め、上記の複数個の学習入力データの組LDSについての上記の誤差ERの総和ESをコスト関数として求め、該コスト関数が最小となるように学習することで重みの組WSを決定する。
 上記の第1の方法及び第2の方法のいずれにおいても、誤差ERの総和ESとしては誤差ERの絶対値の和又は誤差ERの2乗の和を用いることができる。
 また、周辺温度を上記の設定値Tmsに維持するための制御は、学習装置101が温度制御装置103に設定値Tmsを通知し、温度制御装置103が周辺温度を設定値Tmsに維持するように動作することよって行われる。
 学習が終了したら、素子温度測定部102の温度センサーは、取り外され、画像表示装置は、該温度センサーが取り外された状態で画像表示のために使用される。
 即ち、画像表示のために利用される際は、画像表示装置は、発光素子の温度を検知する温度センサーを必要としない。発光素子の温度を検知する温度センサーがなくても、素子温度推定部13で発光素子の温度を推定することができるためである。
 学習装置101は、学習の終了後には取り外されても良く、装着されたままであっても良い。
 特に、学習装置101の機能がプロセッサ91によるプログラムの実行によって実現される場合には、該プログラムは、メモリ92に記憶されたままであっても良い。
 上記した学習装置101が図3のコンピュータで構成されている場合の、プロセッサ91による処理の手順を図11、図12及び図13を参照して説明する。
 図11は、上記の第1の方法が用いられる場合の処理の手順を示す。
 ステップST201では、学習装置101は、予め用意された複数個の重みの組WSと変換テーブルCAの組合せから、一つの組合せを選択する。学習装置10は、選択した組合せの重みの組WSを重み格納部31に仮に設定し、選択した組合せの変換テーブルCAを変換テーブル格納部33に仮に設定する。
 ステップST202では、学習装置101は、予め用意された複数個の、周辺温度の設定値Tmsと画像データの時系列SFとの組合せから、一つの組合せを選択する。
 ステップST203では、学習装置101は、周辺温度が、ステップST202で選択した組合せの周辺温度の設定値Tmsに維持されるように温度制御を行う。具体的には、学習装置101は、温度制御装置103に温度制御を行なわせる。
 ステップST204では、学習装置101は、ステップST202で選択した組合せの画像データの時系列SFを入力する。具体的には、学習装置101は、画像データの時系列SFを、画像入力部11に入力する。入力された画像データの時系列SFは、入力画像格納部12を介して素子温度推定部13に供給されるとともに、温度変化補償部15に供給される。
 ステップST205では、学習装置101は、発光素子の温度の測定値Tmfを取得する。ここで取得される測定値Tmfは、素子温度測定部102による測定値であり、周辺温度が選択されている組合せの周辺温度の設定値Tmsに制御され、選択されている組合せの画像データの時系列SFが入力され、画像表示部2が時系列SFに含まれる画像データに応じて画像を表示したときの発光素子の温度の測定値である。
 ステップST206では、学習装置101は、発光素子温度の推定値Tmeを取得する。ここで取得される推定値Tmeは、周辺温度が選択されている組合せの周辺温度の設定値Tmsに制御され、選択されている組合せの画像データの時系列SFが入力されたときに、素子温度推定部13が、選択されている重みの組WS及び変換テーブルCAを用いて算出した推定値である。選択されている重みの組WSは、重み格納部31に仮に設定されている重みの組WSであり、選択されている変換テーブルCAは、変換テーブル格納部33に仮に設定されている変換テーブルCAである。
 ステップST207では、学習装置101は、ステップST205で取得した測定値TmfとステップST206で取得した推定値Tmeとの差を誤差ERとして求める。
 ステップST208では、学習装置101は、上記の複数個の周辺温度の設定値Tmsと画像データの時系列SFとの組合せの全てについて、ステップST202~ST207の処理が終わったか否かを判定する。
 複数個の組合せの全てについて上記の処理が終わっていなければ、ステップST202に戻る。
 その結果、ステップST202では、次の周辺温度の設定値Tmsと画像データの時系列SFとの組合せが選択され、ステップST203~ST207では、選択された組合せについて、上記と同様の処理が繰り返され、誤差ERが求められる。
 ステップST208で複数個の組合せの全てについてステップST203~ST207の処理が終わっていれば、ステップST209に進む。
 ステップST209では、学習装置101は、上記の誤差ERの総和(複数個の組合せについての総和)ESをコスト関数として求める。
 誤差ERの総和ESとしては誤差ERの絶対値の和又は誤差ERの2乗の和を用いることができる。
 次にステップST210では、学習装置101は、重みの組WSと変換テーブルCAとの複数個の組合せの全てが選択されたか否かの判定を行なう。
 全てが選択されていなければ、ステップST201に戻る。
 この場合、ステップST201では、重みの組WSと変換テーブルCAの組合せのうち、いまだ選択されていない組合せが選択される。
 ステップST210で、全てが選択されていれば、ステップST211に進む。
 ステップST211では、学習装置101は、上記のステップST209で求められたコスト関数が最小となる重みの組WSと変換テーブルCAとの組合せを最適な組合せとして採用する。
 学習装置101は、採用した組合せの重みの組WSを重み格納部31に書き込み、採用した組合せの変換テーブルCAを変換テーブル格納部33に書き込む。
 以上で、重みの組と変換テーブルの組合せの最適化の処理が終わる。
 図12及び図13は、上記の第2の方法が用いられる場合の処理の手順を示す。
 図12に示されるステップST301~ST307で、変換テーブルCAを決定し、図13に示されるステップST311~ST320で、重みの組WSの決定を行う。
 まず、図12のステップST301では、学習装置101は、予め用意された複数の階調値から一つを選択する。
 ステップST302では、学習装置101は、画素値が固定された画像データの時系列を画像入力部11に入力する。これとともに、学習装置101は、温度変化補償部15を制御して、温度変化補償の動作を行わず、画像入力部11からの入力をそのまま画像出力部16に供給する状態にする。入力画像格納部12及び素子温度推定部13はそれぞれ動作を継続した状態であっても良く、動作を停止した状態としても良い。
 ステップST303では、学習装置101は、周辺温度の測定値Tmaを取得する。ここで取得される測定値Tmaは、周辺温度測定部3による測定値である。
 ステップST304では、学習装置101は、発光素子の温度の測定値Tmfを取得する。ここで取得される測定値Tmfは、素子温度測定部102による測定値であり、選択されている階調値の画像データの時系列が入力され、画像表示部2が、画素値が選択されている階調値に固定された画像データに応じて画像を表示したときの発光素子の温度の測定値である。
 上記のように、画素値がある階調値に固定された画像データとは、特定の発光素子の画素値のみが当該階調値に固定された画像データであっても良く、複数の発光素子、例えば画像表示部2を構成する全ての発光素子の画素値が当該階調値に固定された画像データであっても良い。複数の発光素子の画素値が当該階調値に固定された画像データが入力される場合には、上記の発光素子の温度の測定値としては、いずれか1個の発光素子の温度を取得しても良く、複数の発光素子の温度の平均を取得しても良い。
 ステップST305では、学習装置101は、ステップST303及びST304で取得した測定値Tma及びTmfから上昇温度Tmuを算出する。上昇温度Tmuは、発光素子の温度の測定値Tmfから周辺温度の測定値Tmaを減算することで求められる。
 ステップST306では、学習装置101は、予め用意された複数の階調値が全て選択されたか否かを判定する。
 全てが選択されていなければ、ステップST301に戻る。
 この場合、ステップST301では、複数の階調値のうち、いまだ選択されていない階調値が選択される。
 ステップST306で、複数の階調値が全て選択されていれば、ステップST307に進む。
 ステップST307では、学習装置101は、複数の階調値と、該複数の階調値について算出された上昇温度Tmuとから、加重平均FAと上昇温度Tmuとの関係を示す変換テーブルCAを決定する。
 階調値が固定された画像が連続して入力される場合、加重平均FAは当該固定された階調値に等しい。従って、階調値と上昇温度Tmuとの関係は、加重平均FAと上昇温度Tmuとの関係に相当し、階調値と上昇温度との関係から、上記の変換テーブルCAを決定することができる。
 学習装置101は、決定した変換テーブルCAを変換テーブル格納部33に書き込む。
 図13のステップST311では、学習装置101は、予め用意された複数個の重みの組WSから、一つの重みの組を選択する。学習装置101は、選択した組合せの重みの組WSを重み格納部31に仮に設定する。
 ステップST202~ST209の処理は、図11のステップST202~ST209の処理と同じである。
 即ち、ステップST202では、予め用意された複数個の、周辺温度の設定値Tmsと画像データの時系列SFとの組合せから、一つの組合せが選択される。
 ステップST203では、周辺温度が、ステップST202で選択された組合せの周辺温度の設定値Tmsに維持されるように温度制御が行なわれる。
 ステップST204では、ステップST202で選択された組合せの画像データの時系列SFが入力される。
 ステップST205では、発光素子の温度の測定値Tmfが取得される。
 ステップST206では、発光素子の温度の推定値Tmeが取得される。
 ステップST207では、上記の測定値Tmfと推定値Tmeとの差が誤差ERとして求められる。
 ステップST208では、上記の複数個の周辺温度の設定値Tmsと画像データの時系列SFとの組合せの全てについて、ステップST202~ST207の処理が終わったか否かが判定される。
 複数個の組合せの全てについて上記の処理が終わっていれば、ステップST209に進む。
 ステップST209では、上記の誤差ERの総和(複数個の組合せについての総和)ESがコスト関数として求められる。
 ステップST320では、重みの組WSの全てが選択されたか否かが判定される。
 全てが選択されていなければ、ステップST321に進む。
 ステップST321では、上記のステップST209で求められたコスト関数が最小となる重みの組WSが最適な組として採用される。
 以上で、重みの組の最適化の処理が終わる。
 以上のように、本実施の形態1に係る画像処理装置は、該画像処理装置を備える画像表示装置が、各発光素子に温度センサーを備えたものでなくても良く、各発光素子の温度を推定することができ、温度の変化による輝度及び色度のムラの発生を防ぐことができる。
実施の形態2.
 図14は、本発明の実施の形態2の画像処理装置1bを備えた画像表示装置を示す図である。
 図14に示される画像処理装置1bは、図1の画像処理装置1と概して同じであるが、ばらつき補正係数格納部17及びばらつき補正部18が付加されている。
 画像処理装置1bは、画像処理装置1と同様に、例えば図3に示されるコンピュータで構成されていても良い。
 発光素子相互間には、発生する光の輝度或いは色度のばらつきが存在する。
 ばらつき補正係数格納部17は、発光素子毎のばらつき補正係数、即ち、発光素子毎の輝度及び色のばらつきを補正するための係数を格納している。例えば、各発光素子につき9個の補正係数β~βを持つ。
 ばらつき補正部18は、温度変化補償部15から出力された画像データDbとばらつき補正係数格納部17に格納されている補正係数β~βとに基づいて、下記の式(4a)、(4b)及び(4c)に示される演算を行なって、発光素子のばらつきが補正された画像データDcを生成して出力する。
Rc(x,y)
=β(x,y)×Rb(x,y)+β(x,y)×Gb(x,y)
+β(x,y)×Bb(x,y)           式(4a)
Gc(x,y)
=β(x,y)×Rb(x,y)+β(x,y)×Gb(x,y)
+β(x,y)×Bb(x,y)           式(4b)
Bc(x,y)
=β(x,y)×Rb(x,y)+β(x,y)×Gb(x,y)
+β(x,y)×Bb(x,y)           式(4c)
 式(4a)~(4c)で、
 Rb(x,y)、Gb(x,y)及びBb(x,y)は、ばらつき補正部18に入力される画像データDbの注目画素の赤、緑及び青の画素値を示す。
 Rc(x,y)、Gc(x,y)及びBc(x,y)は、ばらつき補正部18から出力される、補正された画像データDcの赤、緑及び青の画素値を示す。
 β(x,y)~β(x,y)は、注目画素についての補正係数を示す。
 画像出力部16は、ばらつき補正部18から出力された画像データDcを、画像表示部2の表示方式に合致したフォーマットの信号に変換し、変換後の画像信号Doを出力する。
 画像表示部2の発光素子がPWM(Pulse Width Modulation)駆動で発光するのであれば、画像データの階調値をPWM信号に変換する。
 画像表示部2は画像信号Doに基づいて画像を表示する。表示される画像は、温度による輝度及び色度の変化が画素毎に補償され、かつ発光素子のばらつきが補正されたものとなる。従って、輝度ムラ及び色ムラのない画像が表示される。
 上記した画像処理装置1bが図3のコンピュータで構成されている場合の、プロセッサ91による処理の手順を図15を参照して説明する。
 図15は、図8と概して同じであるが、ステップST7が付加されている。
 ステップST7では、ばらつき補正が行われる。この処理は、図14のばらつき補正部18による処理と同様である。
 実施の形態2の画像処理装置1bの素子温度推定部13で用いられる重みの組WS及び変換テーブルCAは、実施の形態1で説明したのと同様の機械学習により決定される。
 以上のように、本実施の形態2に係る画像処理装置は、実施の形態1と同様に、該画像処理装置を備える画像表示装置が、各発光素子に温度センサーを備えたものでなくても良く、各発光素子の温度を推定することができ、温度の変化による輝度及び色度のムラの発生を防ぐことができる。また、発光素子毎のばらつきを補正することができる。
実施の形態3.
 図16は、本発明の実施の形態3の画像処理装置1cを備えた画像表示装置を示す図である。
 図16に示される画像処理装置1cは、図14の画像処理装置1bと概して同じであるが、素子温度推定部13の代わりに、素子温度推定部13cが設けられている。
 画像処理装置1cは、画像処理装置1bと同様に、その一部又は全部が処理回路で構成されていても良い。処理回路は、ハードウェアで構成されていても良く、ソフトウェアで、即ちプログラムされたコンピュータで構成されていても良い。
 画像処理装置1cの各部分の機能のうち、一部がハードウェアで実現され、他の一部がソフトウェアで実現されていても良い。
 画像処理装置1cがコンピュータで構成される場合、コンピュータは例えば図3に示されるものであっても良い。
 素子温度推定部13cは、周辺温度測定部3で測定された周辺温度Tmaと入力画像格納部12から出力された、複数フレームの画像データで構成される画像データの時系列とに基づいて各発光素子の温度を推定して、推定値Tmeを出力する。
 素子温度推定部13cは、ニューラルネットワークで構成されている。図17にはそのようなニューラルネットワークの一例が示されている。
 図示のニューラルネットワークは、周辺温度測定部3で測定された周辺温度Tmaと入力画像格納部12から出力された画像データの時系列(時系列を構成する画像データで表される画素値)とを入力とし、画像表示部2の各発光素子の温度の推定値を出力とする。
 図示のニューラルネットワークは、入力層Laと、中間層(隠れ層)Lbと、出力層Lcとを有する。図示の例では、中間層の数は2であるが中間層の数は、1であっても良く3以上であっても良い。
 入力層LaのニューロンPの各々には、周辺温度Tma又は時系列を構成する画像データで表される画素値のいずれかが割り当てられており、各ニューロンには、割り当てられた周辺温度Tma又は画素値が入力される。入力層Laのニューロンは入力をそのまま出力する。
 出力層LcのニューロンPは、それぞれ画像表示部2の発光素子に対応して設けられている。出力層LcのニューロンPは各々複数のビット、例えば10ビットから成り、対応する発光素子の温度推定値を示すデータを出力する。
 図17には、画素位置(1,1)から(xmax,ymax)までの発光素子の温度推定値が符号Tme(1,1)~Tme(xmax,ymax)で示されている。
 (1,1)は表示画面の左上隅の画素位置を示し、(xmax,ymax)は表示画面の右下隅の画素位置を表す。
 中間層Lb及び出力層LcのニューロンPは、各々複数の入力に対して下記のモデル式で表される演算を行う。
 y=s(w×x+w×x+・・・・+w×x+b)  式(5)
 式(5)で、Nは、ニューロンPへの入力の数であり、ニューロン相互間で同じとは限らない。
 x~xはニューロンPの入力データ、
 w~wは入力x~xに対する重み、
 bはバイアスである。
 重み及びバイアスは、学習により定められている。
 以下では、重み及びバイアスを纏めてパラメータと言う。
 関数s(a)は、活性化関数である。
 活性化関数は、例えば、aが0以下であれば0を出力し、それ以外であれば1を出力するステップ関数であっても良い。
 活性化関数s(a)は、aが0以下であれば0を出力し、それ以外なら入力値aを出力するReLU関数であっても良く、入力値aをそのまま出力値とする恒等関数でもよく、ジグモイド関数であっても良い。
 上記のように、入力層Laのニューロンは入力をそのまま出力するものであるので、入力層Laのニューロンで用いられる活性化関数は恒等関数であると言える。
 例えば、中間層Lbでは、ステップ関数又はジグモイド関数を用い、出力層ではReLU関数を用いても良い。また、同じ層内のニューロン相互間で異なる活性化関数が用いられていても良い。
 ニューロンPの数、層の数(段階数)は、図17に示される例に限定されない。
 上記した画像処理装置1cが図3のコンピュータで構成されている場合の、プロセッサ91による処理の手順を図18を参照して説明する。
 図18は、図15と概して同じであるが、ステップST3の代わりにステップST3cが含まれている。
 ステップST3cでは、各発光素子の温度を推定する。この処理は、図16の素子温度推定部13cにおける処理と同様である。
 素子温度推定部13cを構成するニューラルネットワークは、機械学習により生成される。
 機械学習のための学習装置は、図16の画像表示装置に接続されて使用される。
 図19は、図1の画像表示装置に接続された学習装置101cを示す。図19は、学習装置101cとともに用いられる素子温度測定部102及び温度制御装置103をも示す。
 素子温度測定部102及び温度制御装置103は実施の形態1で説明したのと同様のものである。
 学習装置101cは、コンピュータで構成されていても良い。画像処理装置1cがコンピュータで構成される場合、同じコンピュータが学習装置101cを構成していても良い。学習装置101cを構成するコンピュータは、例えば図3に示されるものであっても良い。その場合、学習装置101cの機能はプロセッサ91がメモリ92に記憶されているプログラムを実行することで実現されるものであっても良い。
 学習装置101cは、画像処理装置1cを動作させ、素子温度推定部13cで算出された発光素子の温度(推定値)Tmeが、素子温度測定部102で測定された発光素子の温度(測定値)Tmfに近くなるように学習を行う。
 学習には、周辺温度の設定値Tmsと画像データの時系列SFとで構成される学習入力データの組LDSが複数個用いられる。
 学習装置101cは、予め用意された複数個の学習入力データの組LDSを順に選択し、温度制御装置103に、周辺温度を選択されている学習入力データの組LDSに含まれる周辺温度の設定値Tmsに維持するように制御させ、選択されている学習入力データの組LDSに含まれる画像データの時系列SFを画像入力部11に入力し、素子温度推定部13cで算出された発光素子の温度の推定値Tmeと素子温度測定部102で測定された発光素子の温度の測定値Tmfとを取得し、推定値Tmeが測定値Tmfに近くなるように学習を行う。
 学習入力データの組LDSを構成する画像データの時系列SFは、画像表示装置が画像表示を行う際に素子温度推定部13cにおける温度の推定に用いられる画像データのフレーム数(M+1)と同じフレーム数の画像データで構成される。
 複数個の学習入力データの組LDS相互間では、周辺温度の設定値Tms又は画像データの時系列SFの少なくとも一方が異なる。
 学習装置101cによるニューラルネットワークの生成においては、まず元となるニューラルネットワークを用意する。即ち、素子温度推定部13cを、元となるニューラルネットワークで仮に構築する。このニューラルネットワークは、図17に示されるニューラルネットワークと同様のものであるが、中間層及び出力層のニューロンの各々は、その前段の層の全てのニューロンに結合されている。
 ニューラルネットワークの生成においては、複数のニューロンの各々についてパラメータ(重み及びバイアス)の値を定める必要がある。複数のニューロンについてのパラメータの集合をパラメータの組と言い、符号PSで表す。
 ニューラルネットワークの生成においては、上記の元となるニューラルネットワークを用いて、発光素子の温度の推定値Tmeの、測定値Tmfに対する差が最小となるように、パラメータの組PSの最適化を行う。最適化は例えば誤差逆伝搬法により行い得る。
 具体的には、予め定められた周辺温度の設定値Tmsと画像データの時系列SFとで構成される学習入力データの組LDSを複数個用意し、パラメータの組PSの初期値を設定し、上記の学習入力データの組LDSを順に選択し、周辺温度が選択されている学習入力データの組LDSの周辺温度の設定値Tmsに維持されており、選択されている学習入力データの組LDSの画像データの時系列SFが入力されたときの、発光素子の温度の測定値Tmfと推定値Tmeとの差を誤差ERとして求め、複数個の学習データの組LDSについての上記の誤差ERの総和ESをコスト関数として求め、上記のコスト関数が閾値よりも大きければ、上記のコスト関数がより小さくなるように、パラメータの組PSを変更する。以上の処理を、コスト関数が閾値以下となるまで繰り返す。パラメータの組PSの変更は、勾配降下法で行い得る。
 誤差ERの総和ESとしては誤差ERの絶対値の和又は誤差ERの2乗の和を用いることができる。
 パラメータの組PSの最適化の後、重みがゼロとなったシナプス結合(ニューロン間の結合)を切断する。
 学習が終了したら、素子温度測定部102の温度センサーは、取り外され、画像表示装置は、該温度センサーが取り外された状態で使用される。
 即ち、画像表示のために利用される際は、画像表示装置は、発光素子の温度を検知する温度センサーを必要としない。発光素子の温度を検知する温度センサーがなくても、素子温度推定部13cで発光素子の温度を推定することができるためである。
 学習装置101cは、学習の終了後には取り外されても良く、装着されたままであっても良い。
 特に、学習装置101cの機能がプロセッサ91によるプログラムの実行によって実現される場合には、該プログラムは、メモリ92に記憶されたままであっても良い。
 上記した学習装置101cが図3のコンピュータで構成されている場合の、プロセッサ91による処理の手順を図20及び図21を参照して説明する。
 図20のステップST400では、学習装置101cは、元となるニューラルネットワークを用意する。即ち、素子温度推定部13cを元となるニューラルネットワークで仮に構築する。
 このニューラルネットワークは、図17に示されるニューラルネットワークと同様のものであるが、中間層及び出力層のニューロンの各々は、その前段の層の全てのニューロンに結合されている。
 ステップST401では、学習装置101cは、ステップST400で用意されたニューラルネットワークの中間層及び出力層のニューロンの各々における演算で用いられるパラメータ(重み及びバイアス)の組PSの初期値を設定する。
 初期値はランダムに選択された値であっても良く、適切と予想される値であっても良い。
 ステップST202~ST209の処理は、図11のステップST202~ST209の処理と同じである。
 即ち、ステップST202では、学習装置101cは、予め用意された複数個の、周辺温度の設定値Tmsと画像データの時系列SFとの組合せから、一つの組合せを選択する。
 ステップST203では、学習装置101cは、周辺温度が、ステップST202で選択した組合せの周辺温度の設定値Tmsに維持されるように温度制御を行なう。
 ステップST204では、学習装置101cは、ステップST202で選択した組合せの画像データの時系列SFを入力する。
 ステップST205では、学習装置101cは、発光素子の温度の測定値Tmfを取得する。
 ステップST206では、学習装置101cは、発光素子温度の推定値Tmeを取得する。ここで取得される推定値Tmeは、周辺温度が選択されている組合せの周辺温度の設定値Tmsに制御され、選択されている組合せの画像データの時系列SFが入力されたときに、素子温度推定部13cが、設定されているパラメータの組PSを用いて算出した推定値である。
 ステップST207では、学習装置101cは、ステップST205で取得した測定値TmfとステップST206で取得した推定値Tmeとの差を誤差ERとして求める。
 図21のステップST208では、学習装置101cは、上記の複数個の周辺温度の設定値Tmsと画像データの時系列SFとの組合せの全てについて、ステップST202~ST207の処理が終わったか否かを判定する。
 複数個の組合せの全てについて上記の処理が終わっていなければ、ステップST202に戻る。
 複数個の組合せの全てについて上記の処理が終わっていれば、ステップST209に進む。
 ステップST209では、学習装置101cは、上記の誤差ERの総和(複数個の組合せについての総和)ESをコスト関数として求める。
 誤差ERの総和ESとしては誤差ERの絶対値の和又は誤差ERの2乗の和を用いることができる。
 次にステップST410では、学習装置101cは、コスト関数が予め定められた値以下であるか否かの判定を行なう。
 ステップST410でコスト関数が閾値よりも大きければ、ステップST411に進む。
 ステップST411では、学習装置101cは、パラメータの組PSを変更する。
 変更は、コスト関数がより小さくなるように行う。
 変更に当たっては勾配降下法を用い得る。
 変更後、ステップST202に戻る。
 ステップST410で、コスト関数が閾値以下であれば、ステップST412に進む。
 ステップST412では、学習装置101cは、設定されているパラメータの組PS、即ち直前のステップST206における推定値の算出で用いられたパラメータの組PSを、最適なパラメータの組として採用する。
 ステップST413では、採用されたパラメータの組PSに含まれる重みがゼロとなったシナプス結合を切断する。
 以上で、ニューラルネットワークの生成の処理が終わる。
 即ち、素子温度推定部13cは、以上の処理で生成されたニューラルネットワークによって構成されたものとなる。
 上記のステップST413における結合の切断を行うことで、ニューラルネットワークの構成がより簡単なものとなり、画像表示の際の温度推定の演算がより簡単となる。
 以上のように、本実施の形態3に係る画像処理装置は、実施の形態1及び2と同様に、該画像処理装置を備える画像表示装置が、各発光素子に温度センサーを備えたものでなくても良く、各発光素子の温度を推定することができ、温度の変化による輝度及び色度のムラの発生を防ぐことができる。また、実施の形態2と同様に、発光素子毎のばらつきを補正することができる。
 本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではなく、種々の変形が可能である。
 例えば、上記の例では、発光素子が赤、緑及び青の3つのLEDで構成されているが、発光素子を構成するLEDの数は3に限定されない。要するに複数個のLEDで発光素子が構成されていれば良い。
 また、画像処理装置が、輝度及び色度の双方の補償を行うものであるとして説明したが、画像処理装置は、輝度及び色度の少なくとも一方の補償を行うものであれば良い。
 また、実施の形態1に関し図11及び図13を参照して説明した手順及び実施の形態3に関し図20を参照して説明した手順では、ステップST202で周辺温度の設定値Tmsと画像データの時系列SFの組合せを選択し、選択した組合せについて、ステップST203~ST207の処理を行うこととしている。即ち、画像データの時系列は、一つの時系列の入力が終わってから次の時系列の入力が開始されるものとしている。
 しかしながら、画像データの時系列に対する処理は、上記の方法に限定されない。例えば、複数の画像データの時系列は、部分的に重なり合うものであっても良い。例えば、上記したM+1フレームよりも多いフレーム数の画像データを供給し、あるフレームから始まるM+1フレームの画像データを1つの時系列として用い、上記のあるフレームの次のフレームから始まるM+1フレームの画像データを別の一つの時系列として用いる処理を繰り返すこととしても良い。この場合、上記のステップST202からステップST207の処理が複数の異なる時系列について並行に行われることになる。
 実施の形態1~3では、重み及び変換テーブルの最適化、或いはニューラルネットワークの生成のための学習に際し、画像表示部2の周辺温度を制御することとしている。画像表示部2のサイズが大きくて、その全体を空調可能な空間内に収めるのが困難な場合がある。その場合、画像表示部が複数の分割ユニットを連結することで構成されるものであれば、分割ユニット毎に学習を行うこととしても良い。
 以上本発明の画像処理装置について説明したが、上記の画像処理装置で実施される画像処理方法もまた本発明の一部を成す。また、上記の画像処理装置又は画像処理方法における処理をコンピュータに実行させるプログラム及び該プログラムを記録した、コンピュータで読取可能な記録媒体、例えば非一時的な記録媒体もまた本発明の一部を成す。
 1 画像処理装置、 2 画像表示部、 3 周辺温度測定部、 9 コンピュータ、 11 画像入力部、 12 入力画像格納部、 13,13c 素子温度推定部、 14 補償テーブル格納部、 15 温度変化補償部、 16 画像出力部、 31 重み格納部、 32 平均算出部、 33 変換テーブル格納部、 34 温度算出部、 17 ばらつき補正係数格納部、 18 ばらつき補正部、 91 プロセッサ、 92 メモリ、 101,10c 学習装置、 102 素子温度測定部、 103 温度制御装置。

Claims (15)

  1.  各々複数のLEDを含む複数の発光素子が配列された画像表示部の輝度及び色の少なくとも一方のムラを補正する画像処理装置において、
     現フレームを含む直近の複数フレームの入力画像の画像データと、前記画像表示部の周辺温度とから各発光素子の温度を推定する素子温度推定部と、
     各発光素子の温度に基づいて現フレームの入力画像の画像データを補正することで、当該発光素子の輝度及び色度の少なくとも一方のムラを補正する温度変化補償部とを備え、
     前記素子温度推定部は、
     前記複数フレームの入力画像の画像データと前記発光素子の温度の測定値との関係を学習した結果に基づいて、前記発光素子の温度を推定する
     ことを特徴とする画像処理装置。
  2.  前記素子温度推定部は、
     前記直近の複数フレームの入力画像の画像データに対する重みを格納する重み格納部を備え、
     前記重みを用いて前記直近の複数フレームの入力画像の画像データの加重平均を算出し、前記加重平均と前記周辺温度とに基づいて各発光素子の温度を算出する
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記重み格納部に格納されている前記重みのうち、現在時刻により近い入力画像の画像データのための重みほどより大きな値を有する
     ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記重み格納部に格納されている前記重みの組は、
     周辺温度の設定値と画像データの時系列とで構成される学習入力データの組を複数個用いた学習により定められたものである
     ことを特徴とする請求項2又は3に記載の画像処理装置。
  5.  前記素子温度推定部は、
     前記加重平均と前記発光素子の上昇温度とを対応付ける変換テーブルを格納する変換テーブル格納部をさらに備え、
     前記素子温度推定部は、前記変換テーブルを参照することで、前記加重平均に対応する前記発光素子の上昇温度を求め、前記上昇温度と前記周辺温度とに基づいて前記発光素子の温度を算出し、
     前記変換テーブルは、前記複数個の学習入力データの組を用いた学習により定められたものである
     ことを特徴とする請求項4に記載の画像処理装置。
  6.  前記重み及び前記変換テーブルは、前記複数個の学習入力データの組を順に選択し、前記周辺温度が選択されている学習入力データの組の周辺温度の設定値に維持されており、選択されている学習入力データの組の画像データの時系列が入力されたときの前記発光素子の温度の測定値と推定値との差を求め、前記複数個の学習入力データの組についての上記の差の総和が最小となるように学習した結果得られたものである
     ことを特徴とする請求項5に記載の画像処理装置。
  7.  前記変換テーブルは、複数の階調値のうちの各々について、画素値が当該階調値に固定された画像データの時系列が入力されたときの、前記発光素子の温度の測定値と前記周辺温度との差を上昇温度として求めることで得られたものであり、
     前記重みは、前記複数個の学習入力データの組を順に選択し、前記周辺温度が選択されている学習入力データの組の周辺温度の設定値に維持されており、選択されている学習入力データの組の画像データの時系列が入力されたときの前記発光素子の温度の測定値と推定値との差を求め、前記複数個の学習入力データの組についての上記の差の総和が最小となるように学習した結果得られたものである
     ことを特徴とする請求項5に記載の画像処理装置。
  8.  前記素子温度推定部は、各発光素子の温度を推定するに当たり、当該発光素子についての画像データの前記加重平均に加えて、当該発光素子の周囲に位置する1又は2以上の発光素子の各々についての画像データの前記加重平均をも用いる
     ことを特徴とする請求項2から7のいずれか1項に記載の画像処理装置。
  9.  前記素子温度推定部は、ニューラルネットワークで構成されており、
     該ニューラルネットワークは、周辺温度の設定値と画像データの時系列とで構成される学習入力データの組を複数個用いた学習により生成されたものである
     ことを特徴とする請求項1に記載の画像処理装置。
  10.  各発光素子の輝度及び色度の少なくとも一方の素子ばらつきを補正するばらつき補正部をさらに備える
     ことを特徴とする請求項1~9のいずれか一項に記載の画像処理装置。
  11.  各発光素子の素子ばらつき補正係数を格納するばらつき補正係数格納部をさらに備え、
     前記ばらつき補正部は、前記温度変化補償部で補正された画像データに対し、前記ばらつき補正係数格納部に格納されている補正係数を用いて補正を行う
     ことを特徴とする請求項10に記載の画像処理装置。
  12.  請求項1から11のいずれか1項に記載の画像処理装置と、
     前記画像処理装置で処理された画像データに基づいて画像を表示する画像表示部とを備える
     画像表示装置。
  13.  各々複数のLEDを含む複数の発光素子が配列された画像表示部の輝度及び色の少なくとも一方のムラを補正する画像処理方法において、
     現フレームを含む直近の複数フレームの入力画像の画像データと、前記画像表示部の周辺温度とから各発光素子の温度を推定し、
     各発光素子の温度に基づいて現フレームの入力画像の画像データを補正することで、当該発光素子の輝度及び色度の少なくとも一方のムラを補正し、
     前記素子温度の推定においては、
     前記複数フレームの入力画像の画像データと前記発光素子の温度の測定値との関係を学習した結果に基づいて、前記発光素子の温度を推定する
     ことを特徴とする画像処理方法。
  14. 請求項13に記載の画像処理方法における処理を、コンピュータに実行させるためのプログラム。
  15. 請求項14に記載のプログラムを記録した、コンピュータで読取り可能な記録媒体。
PCT/JP2019/018561 2019-05-09 2019-05-09 画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体 WO2020225906A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021518278A JP7019100B2 (ja) 2019-05-09 2019-05-09 画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体
CN201980096031.2A CN113785347A (zh) 2019-05-09 2019-05-09 图像处理装置和方法、图像显示装置、程序和记录介质
DE112019007303.6T DE112019007303T5 (de) 2019-05-09 2019-05-09 Bildverarbeitungseinrichtung, Verfahren, Bildanzeigeeinrichtung, Programm und Aufzeichnungsmedium
PCT/JP2019/018561 WO2020225906A1 (ja) 2019-05-09 2019-05-09 画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体
US17/606,768 US20220208065A1 (en) 2019-05-09 2019-05-09 Image processing device, method, image display device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/018561 WO2020225906A1 (ja) 2019-05-09 2019-05-09 画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体

Publications (1)

Publication Number Publication Date
WO2020225906A1 true WO2020225906A1 (ja) 2020-11-12

Family

ID=73051332

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/018561 WO2020225906A1 (ja) 2019-05-09 2019-05-09 画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体

Country Status (5)

Country Link
US (1) US20220208065A1 (ja)
JP (1) JP7019100B2 (ja)
CN (1) CN113785347A (ja)
DE (1) DE112019007303T5 (ja)
WO (1) WO2020225906A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113154A1 (ja) * 2020-11-24 2022-06-02 三菱電機株式会社 映像表示装置および輝度補正方法
WO2023017912A1 (ko) * 2021-08-09 2023-02-16 삼성전자주식회사 디스플레이 장치 및 그 제어 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3968247A4 (en) * 2019-06-21 2022-12-21 Siemens Aktiengesellschaft METHOD AND DEVICE FOR ELECTRIC LOAD DATA PREDICTION AND INFORMATION HOLDER

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011125374A1 (ja) * 2010-04-09 2011-10-13 シャープ株式会社 表示パネルの駆動方法、表示パネルの駆動回路、表示装置
JP2012237972A (ja) * 2011-04-26 2012-12-06 Canon Inc 温度推定装置、その制御方法、及び画像表示装置
JP2014013335A (ja) * 2012-07-05 2014-01-23 Canon Inc 表示装置及び表示パネルの駆動方法
JP2017201340A (ja) * 2016-05-02 2017-11-09 Necディスプレイソリューションズ株式会社 Ledディスプレイ、およびledディスプレイの輝度補正方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100604303B1 (ko) * 2003-10-30 2006-07-25 가부시키가이샤 히타치 디스프레이즈 표시 장치 및 표시 제어 방법
JP2006195231A (ja) * 2005-01-14 2006-07-27 Kawasaki Microelectronics Kk オーバードライブ回路および液晶パネル駆動装置
KR101710577B1 (ko) * 2010-05-11 2017-02-28 삼성디스플레이 주식회사 데이터 보상 방법 및 이를 수행하기 위한 표시 장치
TW201218151A (en) * 2010-10-19 2012-05-01 Chimei Innolux Corp Overdriving apparatus and over driving value generating method
CN105869580B (zh) * 2016-06-15 2018-05-22 京东方科技集团股份有限公司 色温调节方法及装置、背光源、显示设备
US20180075798A1 (en) * 2016-09-14 2018-03-15 Apple Inc. External Compensation for Display on Mobile Device
US11282449B2 (en) * 2016-09-22 2022-03-22 Apple Inc. Display panel adjustment from temperature prediction
JP7139333B2 (ja) * 2017-08-11 2022-09-20 株式会社半導体エネルギー研究所 表示装置
US11322073B2 (en) * 2018-09-21 2022-05-03 Dell Products, Lp Method and apparatus for dynamically optimizing gamma correction for a high dynamic ratio image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011125374A1 (ja) * 2010-04-09 2011-10-13 シャープ株式会社 表示パネルの駆動方法、表示パネルの駆動回路、表示装置
JP2012237972A (ja) * 2011-04-26 2012-12-06 Canon Inc 温度推定装置、その制御方法、及び画像表示装置
JP2014013335A (ja) * 2012-07-05 2014-01-23 Canon Inc 表示装置及び表示パネルの駆動方法
JP2017201340A (ja) * 2016-05-02 2017-11-09 Necディスプレイソリューションズ株式会社 Ledディスプレイ、およびledディスプレイの輝度補正方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113154A1 (ja) * 2020-11-24 2022-06-02 三菱電機株式会社 映像表示装置および輝度補正方法
WO2023017912A1 (ko) * 2021-08-09 2023-02-16 삼성전자주식회사 디스플레이 장치 및 그 제어 방법

Also Published As

Publication number Publication date
DE112019007303T5 (de) 2022-03-24
JP7019100B2 (ja) 2022-02-14
JPWO2020225906A1 (ja) 2021-12-02
US20220208065A1 (en) 2022-06-30
CN113785347A (zh) 2021-12-10

Similar Documents

Publication Publication Date Title
JP7019100B2 (ja) 画像処理装置及び方法、並びに画像表示装置、並びにプログラム及び記録媒体
WO2017215321A1 (zh) 建立亮度补偿模型的方法、补偿显示屏幕的亮度的方法、装置及显示设备
US20180342224A1 (en) Electronic device, and display panel device correction method and system thereof
JP6827594B2 (ja) Led表示システムおよびled表示制御装置
US11287860B2 (en) Ambient temperature estimating device, ambient temperature estimating method, program and system
JP6437123B2 (ja) Led表示装置およびその輝度補正方法
KR20120108445A (ko) 유기전계 발광 표시장치용 휘도 보정 시스템
US9591720B2 (en) LED display apparatus
JPWO2017061195A1 (ja) 発光ダイオード表示装置
CN109147657A (zh) 应用于显示面板的光学补偿装置及其运作方法
TW201734999A (zh) 顯示裝置、光學補償系統及該顯示裝置的光學補償方法
JPWO2018179196A1 (ja) Led表示装置およびその輝度補正方法
TW201438468A (zh) 投影系統、投影機及其校正方法
JP6594086B2 (ja) Led表示装置
JP2013044959A5 (ja)
US11837161B2 (en) Display device and control method therefor
JP6739151B2 (ja) Led表示装置
KR20210039822A (ko) 디스플레이 장치 및 그 제어방법
KR101900682B1 (ko) 표시 장치의 소모 전력을 분석하는 방법 및 장치
WO2022074784A1 (ja) Led表示システム
JP2017032888A (ja) Led表示装置
WO2020115905A1 (ja) マルチディスプレイシステムおよびマルチディスプレイシステムの調整方法
KR20160054698A (ko) 유기발광표시장치 및 그 표시방법
US20220309999A1 (en) Image display device, display control device, image processing device, and recording medium
CN113096575B (zh) 一种显示装置的寿命补偿方法、装置及显示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19927871

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021518278

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19927871

Country of ref document: EP

Kind code of ref document: A1