JP5474264B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP5474264B2
JP5474264B2 JP2013547421A JP2013547421A JP5474264B2 JP 5474264 B2 JP5474264 B2 JP 5474264B2 JP 2013547421 A JP2013547421 A JP 2013547421A JP 2013547421 A JP2013547421 A JP 2013547421A JP 5474264 B2 JP5474264 B2 JP 5474264B2
Authority
JP
Japan
Prior art keywords
illuminance
sensor
pixel
value
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013547421A
Other languages
Japanese (ja)
Other versions
JPWO2013102952A1 (en
Inventor
正和 奥田
裕章 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP5474264B2 publication Critical patent/JP5474264B2/en
Publication of JPWO2013102952A1 publication Critical patent/JPWO2013102952A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Liquid Crystal (AREA)

Description

この発明は、ディスプレイの表示領域内に照度センサを配置した表示装置に関するものである。   The present invention relates to a display device in which an illuminance sensor is arranged in a display area of a display.

近年、照度センサをディスプレイの画面表示領域(画素配置エリア)に配置する技術が提案されている。例えば、特許文献1には、画素回路内にフォトセンサを配置し、電気的にノイズを低減する回路が開示されている。また、特許文献2には、フォトセンサと発光画素を密接して配置したエリアセンサが開示されている。また、特許文献3には、画素エリア内に照度センサを形成する技術が開示されている。   In recent years, techniques for arranging an illuminance sensor in a screen display area (pixel arrangement area) of a display have been proposed. For example, Patent Document 1 discloses a circuit in which a photosensor is arranged in a pixel circuit to electrically reduce noise. Patent Document 2 discloses an area sensor in which a photosensor and a light emitting pixel are arranged in close contact. Patent Document 3 discloses a technique for forming an illuminance sensor in a pixel area.

これらの特許文献1〜3では、照度センサは液晶画素(TFT基板上)配列内に配置される。これによりTFT形成と同時にセンサを形成でき、また各画素への画像信号配線とともにセンサ信号の配線を行うことができる。
また、例えば特許文献4には、画素エリア内照度センサをタッチパネルに利用する技術として、画素ごとにフォトセンサを設けたタッチパネル型表示装置が開示されている。
In these patent documents 1 to 3, the illuminance sensor is arranged in a liquid crystal pixel (on the TFT substrate) array. Thus, a sensor can be formed simultaneously with the TFT formation, and sensor signal wiring can be performed together with image signal wiring to each pixel.
For example, Patent Document 4 discloses a touch panel display device in which a photosensor is provided for each pixel as a technique for using an illuminance sensor in a pixel area for a touch panel.

国際公開第2010/038512号International Publication No. 2010/038512 特開2001−292276号公報JP 2001-292276 A 特開2006−251806号公報JP 2006-251806 A 特開2010−108489号公報JP 2010-104889 A

しかしながら、特許文献1〜4に示すような従来技術では、これらの技術でディスプレイ外部からの入射光を測定する場合、ディスプレイ自身の発光による内光(ディスプレイ内のセンサ周辺の画素からの光)も同時にセンサに入ってしまい、センサ感度を高くすると、表示している内容によって測定結果が変動してしまう、という課題があった。そのためディスプレイ画面を点灯した状態では、画面内ではない暗所に設置された照度センサのように極めて細かい入射光の変化を測定することは不可能であった。   However, in the conventional techniques as shown in Patent Documents 1 to 4, when measuring incident light from the outside of the display using these techniques, internal light (light from pixels around the sensor in the display) is also emitted from the display itself. If the sensor enters the sensor at the same time and the sensor sensitivity is increased, there is a problem that the measurement result varies depending on the displayed contents. Therefore, when the display screen is turned on, it is impossible to measure a very fine change in incident light like an illuminance sensor installed in a dark place that is not in the screen.

この発明は、上記のような課題を解決するためになされたものであり、ディスプレイの表示領域内に照度センサを配置する構成において、ディスプレイ自身の発光による内光を考慮して、ディスプレイに届く外部からの光のみの量を正確に測定することができる表示装置を提供することを目的とする。   The present invention has been made to solve the above-described problems. In the configuration in which the illuminance sensor is arranged in the display area of the display, the external light reaching the display is considered in consideration of internal light due to light emission of the display itself. An object of the present invention is to provide a display device capable of accurately measuring the amount of light only from the light source.

上記目的を達成するため、この発明は、表示領域を有する表示装置において、前記表示領域内に配置された画素および照度センサと、前記表示領域に画面表示する映像信号の1フレーム分を保存するフレームバッファと、前記表示領域内の画素に対応付けて、当該画素自身による内部発光照度を予め保存しておくテーブルと、前記照度センサにより検出された照度値から当該照度センサ周辺の外光のみの照度値を算出するセンサ出力補正演算部とを備え、前記センサ出力補正演算部は、前記フレームバッファに保存されたフレームから画素番地および画素値を読み出し、前記テーブルから、当該読み出した画素番地と画素値に対応する内部発光照度を取得するとともに、前記照度センサにより検出された照度値を取得して、当該取得した照度値から、前記テーブルから取得した内部発光照度を減算することにより、前記照度センサ周辺の外光のみの照度値を算出することを特徴とする。   In order to achieve the above object, according to the present invention, in a display device having a display area, a pixel and an illuminance sensor arranged in the display area, and a frame for storing one frame of a video signal displayed on the screen in the display area A buffer, a table that stores in advance the internal light emission illuminance by the pixel itself in association with the pixel in the display area, and the illuminance of only ambient light around the illuminance sensor from the illuminance value detected by the illuminance sensor A sensor output correction calculation unit for calculating a value, the sensor output correction calculation unit reads a pixel address and a pixel value from a frame stored in the frame buffer, and reads the read pixel address and pixel value from the table Is obtained, the illuminance value detected by the illuminance sensor is obtained, and the obtained illuminance is obtained. From by subtracting the internal luminous intensity obtained from the table, and calculates the illuminance value of the external light only near the illuminance sensor.

この発明の表示装置によれば、ディスプレイの表示領域内に照度センサを配置する構成において、ディスプレイ自身の発光による内光を考慮した上で、ディスプレイに届く外部からの光のみを正確に測定することができる。   According to the display device of the present invention, in the configuration in which the illuminance sensor is arranged in the display area of the display, only the external light reaching the display is accurately measured in consideration of the internal light due to the light emission of the display itself. Can do.

この発明の実施の形態1における表示装置の全体構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a whole block diagram of the display apparatus in Embodiment 1 of this invention. 演算処理部での内部処理について説明するブロック図である。It is a block diagram explaining the internal process in an arithmetic processing part. 表示フレームと各処理のタイミングを示す説明図である。It is explanatory drawing which shows a display frame and the timing of each process. 表示領域内の画素Pと照度センサSの配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of the pixel P and the illumination intensity sensor S in a display area. 演算処理部における処理動作を示すフローチャートである。It is a flowchart which shows the processing operation in an arithmetic processing part.

以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1における表示装置の全体構成図である。この表示装置1は、表示領域(画素配置エリア)内に照度センサが配置された液晶ディスプレイであって、内部に照度センサを有していない通常の表示装置と同様に、LCD(Liquid Crystal Display:液晶ディスプレイ)モジュール10とディスプレイ基板20により構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is an overall configuration diagram of a display device according to Embodiment 1 of the present invention. The display device 1 is a liquid crystal display in which an illuminance sensor is arranged in a display area (pixel arrangement area), and an LCD (Liquid Crystal Display) as in a normal display device having no illuminance sensor inside. A liquid crystal display) module 10 and a display substrate 20 are included.

LCDモジュール10は、表示領域11内に照度センサS(図1においては図示せず、図4参照)が配置されており、組み込まれたセンサドライバ12をセンサコントローラ13により制御することで、表示領域11の周辺照度を取得することができるものである。なお、表示領域内に照度センサを形成する方法については、例えば特許文献1,2等に開示されているとおり公知の技術であるため、ここでは説明を省略する。
そして、センサドライバ12を制御することにより照度センサSから取得した周辺照度はセンサADC(Analog Digital Converter)14でデジタル値に変換され、センサ出力結果としてディスプレイ基板20に接続される。この際、センサ出力結果の専用線は、通常の液晶モジュールと同様の映像信号接続線(多くの場合FPC(Flexible Printed Circuits))と一緒にディスプレイ基板20へと配線される。したがって、ディスプレイ基板20とLCDモジュール10の接続には、通常の映像信号線に加えてセンサ出力結果の専用線が含まれる。
In the LCD module 10, an illuminance sensor S (not shown in FIG. 1, see FIG. 4) is disposed in the display area 11, and the built-in sensor driver 12 is controlled by the sensor controller 13. 11 ambient illuminances can be acquired. The method for forming the illuminance sensor in the display area is a known technique as disclosed in, for example, Patent Documents 1 and 2, and the description thereof is omitted here.
The ambient illuminance acquired from the illuminance sensor S by controlling the sensor driver 12 is converted into a digital value by a sensor ADC (Analog Digital Converter) 14 and connected to the display substrate 20 as a sensor output result. At this time, the dedicated line of the sensor output result is wired to the display substrate 20 together with a video signal connection line (in many cases, FPC (Flexible Printed Circuits)) similar to that of a normal liquid crystal module. Therefore, the connection between the display substrate 20 and the LCD module 10 includes a dedicated line for the sensor output result in addition to the normal video signal line.

ディスプレイ基板20上には、LCDモジュール10へ映像信号と同期信号を送信するLCDコントローラ21と、そのLCDコントローラ21の前段で各種映像処理や演算等のセンサ出力処理を行う演算処理部22、その演算処理部22に映像信号を送り込む映像レシーバ23、および、マイコン24などが含まれている。なお、LCDコントローラ21、演算処理部22、映像レシーバ23は、それぞれが個別のICにより構成されていてもよいし、LCDコントローラ21および演算処理部22が1つのICとして構成されていてもよいし、すべてを1つのIC(ASIC:Application Specific Integrated Circuit)で処理するようにしてもよい。また、マイコン24が、各種映像ラインのICを制御するようにしてもよい。なお、図1に示す破線は、マイコン24からの制御信号線を示している。   On the display substrate 20, an LCD controller 21 that transmits a video signal and a synchronization signal to the LCD module 10, an arithmetic processing unit 22 that performs sensor output processing such as various video processes and calculations in the previous stage of the LCD controller 21, and its arithmetic operation A video receiver 23 for sending a video signal to the processing unit 22 and a microcomputer 24 are included. Note that the LCD controller 21, the arithmetic processing unit 22, and the video receiver 23 may each be configured by individual ICs, or the LCD controller 21 and the arithmetic processing unit 22 may be configured as one IC. All may be processed by one IC (ASIC: Application Specific Integrated Circuit). Further, the microcomputer 24 may control ICs of various video lines. A broken line shown in FIG. 1 indicates a control signal line from the microcomputer 24.

映像レシーバ23に供給される映像ソースは、ディスプレイ基板20の外部から供給されるものであり、デジタル/アナログ様々なフォーマットが考えられる。また、映像ソースを供給する外部機器としては、チューナー、外部記憶装置、または別の映像機器からの信号入力などが考えられる。
映像レシーバ23は、供給される映像ソースのフォーマットに合わせたものであり、ディスプレイ基板20上に配置され、ディスプレイ基板20での映像処理に適した映像形式への変換を行う。変換された映像・制御信号は、ディスプレイ基板20上の演算処理部22やLCDコントローラ21に送られ、LCDモジュール10で表示される。なお、映像変換や各種映像処理はMPU(Micro Processing Unit)やDSP(Digital Signal Processer)などを使ってソフトウェアで処理することも可能である。
The video source supplied to the video receiver 23 is supplied from the outside of the display substrate 20, and various digital / analog formats can be considered. Further, as an external device that supplies a video source, a signal input from a tuner, an external storage device, or another video device can be considered.
The video receiver 23 is adapted to the format of the supplied video source, is arranged on the display substrate 20, and performs conversion into a video format suitable for video processing on the display substrate 20. The converted video / control signal is sent to the arithmetic processing unit 22 and the LCD controller 21 on the display substrate 20 and displayed on the LCD module 10. Note that video conversion and various types of video processing can be processed by software using an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or the like.

次に、映像レシーバ23からの出力と、照度センサSからのセンサ出力の処理について説明する。図2は、演算処理部22での内部処理について説明するブロック図である。
図2に示すように、演算処理部22には内部的に、映像処理部31、フレームバッファ32、センサ出力補正演算部33およびLUT(Look Up Table)34が含まれている。なお、フレームバッファ32やLUT34は、例えばDRAM(Dynamic Random Access Memory)やフラッシュメモリなどの外部記憶装置に備えるようにしてもよいが、演算処理部22と同じICに含めるようにした方が処理が速い。
Next, processing of output from the video receiver 23 and sensor output from the illuminance sensor S will be described. FIG. 2 is a block diagram for explaining internal processing in the arithmetic processing unit 22.
As shown in FIG. 2, the arithmetic processing unit 22 internally includes a video processing unit 31, a frame buffer 32, a sensor output correction arithmetic unit 33, and an LUT (Look Up Table) 34. The frame buffer 32 and the LUT 34 may be provided in an external storage device such as a DRAM (Dynamic Random Access Memory) or a flash memory. fast.

映像処理部31には、映像レシーバ23で変換された映像信号が入力される。一般的にはRGB各8ビットの映像と垂直・水平同期信号が入る。信号本数を減らした高速シリアルバスで映像と同期信号の伝送を行うケースもある。映像処理部31では、入力された映像をその表示デバイスに好ましい形に補正を行う。ガンマ補正・コントラスト調整・色度調整・応答速度補正などが一般的である。なお、映像レシーバ23内部やLCDコントローラ21内部にこの補正機能を取り込むようにしてもよい。   The video signal converted by the video receiver 23 is input to the video processing unit 31. Generally, RGB 8-bit video and vertical / horizontal synchronization signals are input. In some cases, video and synchronization signals are transmitted using a high-speed serial bus with a reduced number of signals. The video processing unit 31 corrects the input video into a form preferable for the display device. Gamma correction, contrast adjustment, chromaticity adjustment, response speed correction, etc. are common. Note that this correction function may be incorporated into the video receiver 23 or the LCD controller 21.

映像レシーバ23からの入力映像は映像処理部31に伝送されるとともにフレームバッファ32にも伝送されて格納される。このフレームバッファ32では、最大1フレーム分の映像を保存している。保存する大きさはセンサ配置やセンサ補正の範囲によって変わるが、最大1フレーム分となる。このようにフレームバッファ32に1フレーム分の映像を保存するのは、補正演算の際に使用するためである。すなわち、照度センサSの取得値は映像レシーバ23からの映像信号より1フレーム分過去のフレームを表示しているときに取得された値であるため、補正演算の際に同じフレームについて減算を行うことができるよう、1フレーム分過去のフレームを保存しておくのである。   The input video from the video receiver 23 is transmitted to the video processing unit 31 and also transmitted to the frame buffer 32 for storage. The frame buffer 32 stores a maximum of one frame of video. The size to be stored varies depending on the sensor arrangement and the range of sensor correction, but is a maximum of one frame. The reason why the image for one frame is stored in the frame buffer 32 in this way is to use it for the correction calculation. That is, since the acquired value of the illuminance sensor S is a value acquired when displaying a frame that is one frame past the video signal from the video receiver 23, the same frame is subtracted during the correction calculation. For this purpose, the past frames are stored for one frame.

照度センサSの出力値は、センサ出力補正演算部33に入力される。また、センサ出力補正演算部33には、フレームバッファ32に蓄えられた映像レシーバ23からの映像信号も入力される。ここで入力される映像レシーバ23からの映像信号は、映像処理部31に入力されるフレーム(fn+1)より1フレーム前のフレーム(fn)になる。
センサ出力補正演算部33では、照度センサSからの生の出力値(演算部への入力値)から液晶ディスプレイ(表示領域)自身の画素が発光した分の内部発光照度を減算する。この減算は事前測定によって作成したLUT34を使って行うため、そのLUT34からの読み出し値もセンサ出力補正演算部33に入力される。なお、この補正演算とLUT34の作成については後述する。
The output value of the illuminance sensor S is input to the sensor output correction calculation unit 33. Further, the video signal from the video receiver 23 stored in the frame buffer 32 is also input to the sensor output correction calculation unit 33. The video signal from the video receiver 23 input here is a frame (fn) one frame before the frame (fn + 1) input to the video processing unit 31.
The sensor output correction calculation unit 33 subtracts the internal light emission illuminance corresponding to the amount of light emitted from the pixels of the liquid crystal display (display area) itself from the raw output value from the illuminance sensor S (input value to the calculation unit). Since this subtraction is performed using the LUT 34 created by prior measurement, the read value from the LUT 34 is also input to the sensor output correction calculation unit 33. The correction calculation and creation of the LUT 34 will be described later.

補正演算後の出力値がセンサ出力補正演算部33から、マイコン24に出力される。補正演算後の出力値は、ディスプレイがどんな画像を表示していたとしてもその影響を排除したディスプレイ外部からの光のみの照度値となる。この補正演算後の出力値をいろいろな用途(バックライト輝度調整や昼/夜判定、屋外/屋内判定、指などの物体近接判定)に使うことにより、表示領域内の照度センサからの出力値そのままの値を使っていた従来とは異なり、映像を表示し続けているときの外光のみの照度を正確に取得することが可能となる。   The output value after the correction calculation is output from the sensor output correction calculation unit 33 to the microcomputer 24. The output value after the correction calculation is an illuminance value of only light from the outside of the display, which eliminates the influence of whatever image the display displays. By using the output value after this correction calculation for various purposes (backlight brightness adjustment, day / night determination, outdoor / indoor determination, object proximity determination such as finger), the output value from the illuminance sensor in the display area is used as it is. Unlike the conventional method using the value of, the illuminance of only the outside light when the image is continuously displayed can be accurately acquired.

次に、フレームバッファ32を使ってセンサ出力補正演算部33に1フレーム分遅らせた画像を入力することについて、図3を用いて説明する。図3は、表示フレームと各処理のタイミングを示す説明図である。
この図3において、fnはn番目のフレーム、fn+1はn番目の次の(n+1)番目のフレームを意味している。また、横軸は時間を表している。
Next, input of an image delayed by one frame to the sensor output correction calculation unit 33 using the frame buffer 32 will be described with reference to FIG. FIG. 3 is an explanatory diagram showing the display frame and the timing of each process.
In FIG. 3, fn means the nth frame, and fn + 1 means the nth next (n + 1) th frame. The horizontal axis represents time.

表示フレーム有効期間では、例えば、動画像が1秒間に60枚入ってくるとした場合に、現在、何枚目の画像が表示されているか、ということを示している。この図では、最初のタイミングでn番目のfn、次のタイミングで(n+1)番目のfn+1、さらに次のタイミングで(n+2)番目のfn+2が表示される状態を示している。ここで、信号レベルがHIGHの時が、その1枚の画像を表示していることを示しており、次の画像に移る前に数mm秒間だけLOWの時間(映像が表示されないブランキング期間)があることがわかる。   The display frame valid period indicates, for example, what number of images are currently displayed when 60 moving images are included per second. This figure shows a state in which the nth fn is displayed at the first timing, the (n + 1) th fn + 1 is displayed at the next timing, and the (n + 2) th fn + 2 is displayed at the next timing. Here, when the signal level is HIGH, it indicates that the one image is being displayed, and the LOW time (blanking period during which no image is displayed) for several mm seconds before moving to the next image. I understand that there is.

表示フレームがn番目のとき、その表示している最中のn番目の画像を、フレームバッファ32にも蓄えていく。そのためフレームバッファ32内には1枚前の表示フレームfn−1と現在表示している表示フレームfnとが入り交じった状態になる。そして、fnの伝送が完了してブランキング期間(映像が表示されない期間)に入ったとき、フレームバッファ32内は完全にfnのみを保存している。そして表示領域にはfnが表示されている。この瞬間に(図中、「fn表示時の照度読み出し」と記載された位置のタイミングで)表示領域内の照度センサSの出力値を読み出し、センサ出力補正演算部33に引き渡す。   When the display frame is nth, the nth image being displayed is also stored in the frame buffer 32. Therefore, the previous display frame fn−1 and the currently displayed display frame fn are mixed in the frame buffer 32. When the transmission of fn is completed and the blanking period (period in which no video is displayed) is entered, the frame buffer 32 completely stores only fn. In the display area, fn is displayed. At this moment (in the drawing, the output value of the illuminance sensor S in the display area is read out (at the timing of the position described as “illuminance readout at the time of fn display”) and delivered to the sensor output correction calculation unit 33.

この結果、センサ出力補正演算部33にはfn表示時の照度センサSの出力値が入力される。また、図2に示すとおり、センサ出力補正演算部33には、フレームバッファ32内のfn映像信号の値も取り込まれる。
そして、センサ出力補正演算部33は、fn表示時の照度センサSからの出力値とフレームバッファ32に蓄えられたfn映像値とを使って、補正演算を行う。具体的な補正演算については後述する。
As a result, the output value of the illuminance sensor S during fn display is input to the sensor output correction calculation unit 33. As shown in FIG. 2, the sensor output correction calculation unit 33 also captures the value of the fn video signal in the frame buffer 32.
The sensor output correction calculation unit 33 performs correction calculation using the output value from the illuminance sensor S during fn display and the fn video value stored in the frame buffer 32. Specific correction calculation will be described later.

ここで、ブランキング期間内に補正が終了しなければ、フレームバッファ32にfn+1が上書き開始されてしまうため、fnの映像を使う処理である補正演算を継続することができなくなる。そのような場合には、フレームバッファを2つ用意すれば対処することができる。しかし、このブランキング期間内に補正を終える処理能力を持たせれば、フレームバッファを2つ用意しなくてもよい。そしてこの発明では、ブランキング期間に入ったところで照度センサSからの出力値の読み出しを行い、補正演算もブランキング期間内に実施および終了される。   Here, if the correction is not completed within the blanking period, fn + 1 is started to be overwritten in the frame buffer 32, so that the correction calculation that is a process using the video of fn cannot be continued. Such a case can be dealt with by preparing two frame buffers. However, it is not necessary to prepare two frame buffers as long as the processing capability to finish the correction within this blanking period is provided. In the present invention, the output value from the illuminance sensor S is read when the blanking period starts, and the correction calculation is performed and terminated within the blanking period.

次に、照度センサ出力値の補正演算について説明する。
図4は、表示領域内の画素Pと照度センサSの配置の一例を示す図である。破線矢印は表示領域内の画素Pの光が照度センサSに届く経路(内光)を示す。すなわち、照度センサSには、ディスプレイ外部からの光(外光)だけではなく、周辺の画素Pからの内光も届いてしまう。しかもこの内光は、表示している画像によって変動するものである。この発明では、表示している画像によって変動する内光の影響を取り除いて、外光の照度のみを精度よく測定することを目的としている。
Next, correction calculation of the illuminance sensor output value will be described.
FIG. 4 is a diagram illustrating an example of the arrangement of the pixels P and the illuminance sensor S in the display area. A broken line arrow indicates a path (internal light) through which the light of the pixel P in the display area reaches the illuminance sensor S. That is, not only light from the outside of the display (external light) but also internal light from surrounding pixels P reaches the illuminance sensor S. Moreover, this internal light varies depending on the displayed image. An object of the present invention is to accurately measure only the illuminance of external light by removing the influence of internal light that varies depending on the displayed image.

補正演算では、照度センサSの出力値(外光+内光)から、内光分を減算する。内光量は、フレームバッファ32から取り出した照度センサS周辺の画素値を元に計算する。周辺画素をどこまで使用するかはシステムの演算・メモリリソースによって自由に選択すればよい。図4の例は、上下左右に2画素ずつまで考慮する場合を示す。また、それぞれの画素Pからの内光の強度は、独立に線形であると言えるものとする。すなわち、画素番地P2−1のみが、ある画素値(通常0−255の間)で点灯していたときに、照度センサSが検出した出力値(画素P2−1の照度値)をS(P2−1)と表すものとすると、上下左右2画素ずつまでを補正範囲(画素考慮範囲)に選んだ時の内光値は、その範囲のすべての画素の照度値を加算した値S(P2−1)+S(P2−2)+・・・+S(P2−12)+S(P1−1)+S(P1−2)+S(P1−3)+S(P1−4)となる。   In the correction calculation, the amount of internal light is subtracted from the output value of the illuminance sensor S (external light + internal light). The internal light amount is calculated based on the pixel values around the illuminance sensor S taken out from the frame buffer 32. The extent to which the peripheral pixels are used may be freely selected according to the calculation / memory resources of the system. The example of FIG. 4 shows a case where up to two pixels are taken into consideration in the vertical and horizontal directions. Further, it can be said that the intensity of the internal light from each pixel P is independently linear. That is, the output value (the illuminance value of the pixel P2-1) detected by the illuminance sensor S when only the pixel address P2-1 is lit with a certain pixel value (usually between 0 and 255) is represented by S (P2 −1), the internal light value when selecting up to two pixels in the upper, lower, left, and right directions as the correction range (pixel consideration range) is a value S (P2−) obtained by adding the illuminance values of all the pixels in the range. 1) + S (P2-2) +... + S (P2-12) + S (P1-1) + S (P1-2) + S (P1-3) + S (P1-4).

一方、LUT34には、事前に測定したS(P1−1)〜S(P2−12)までの値を、RGBそれぞれについて画素値0〜255の範囲ですべて格納しておくものとする。
センサ出力補正演算部33は、フレームバッファ32から取り出した各画素(画素番地)P1−1〜P2−12と画素値(0〜255)をインデックスとして、LUT34からセンサ出力値S(P1−1)〜S(P2−12)を取り出す。そして、システムに最適に定めた画素考慮範囲(図4の例では上下左右2画素)分の内光値をすべて加算し、その値をそのフレームにおける内光分(内部発光照度)とする。その後、元の照度センサSの出力値(外光+内光)から先に算出した内光分(内部発光照度)を減算することにより、外光分のみの照度を得ることができる。この処理を毎フレーム行うため、各フレームでどんな画像を表示していても、純粋な外光分のみの照度を得ることができる。
On the other hand, in the LUT 34, all the values from S (P1-1) to S (P2-12) measured in advance are stored in the range of pixel values 0 to 255 for each of RGB.
The sensor output correction calculation unit 33 uses each pixel (pixel address) P1-1 to P2-12 and the pixel value (0 to 255) taken out from the frame buffer 32 as an index, and outputs the sensor output value S (P1-1) from the LUT 34. -S (P2-12) is taken out. Then, all the internal light values for the pixel consideration range optimally determined for the system (upper, lower, left and right in the example of FIG. 4) are added, and the value is used as the internal light component (internal light emission illuminance) in the frame. Thereafter, by subtracting the previously calculated internal light (internal light emission illuminance) from the output value (external light + internal light) of the original illuminance sensor S, the illuminance of only the external light can be obtained. Since this process is performed every frame, the illuminance of pure external light can be obtained regardless of what image is displayed in each frame.

次に、LUT34の事前作成方法およびLUT参照について説明する。
まず、外光をゼロにできる暗室にて、照度センサSの周辺画素を1つずつ順番に点灯していき、そのときのセンサ出力値を記録していく。この際、各画素ごとに0〜255の画素値を測る。すなわち、ここでの画素はRGBそれぞれを指し、一般的にはサブピクセルと呼ぶこともあるが、その画素が赤・緑・青のいずれであるかに関わらず順番に1つずつ測定して記録する。このようにして測定した値を並べてテーブルにして、LUT34に格納する。例えば、画素番地P2−1が画素値128で点灯したとき(他は消灯)のセンサ出力値が50だったとしたら、LUT34には「画素番地P2−1、画素値128、センサ出力値(内部発光照度)50」を1データとして格納する。
そして、このLUT34を参照してデータを取り出す場合には、インデックスは画素番地と画素値であり、取り出される要素はそのときのセンサ出力値(内部発光照度)である。例えば、画素番地P2−1、画素値128のインデックスでセンサ出力補正演算部33がLUT34にアクセスしてきたら、LUT34はセンサ出力値50を内部発光照度として返す。
Next, a method for creating the LUT 34 in advance and LUT reference will be described.
First, the surrounding pixels of the illuminance sensor S are sequentially turned on one by one in a dark room where the outside light can be reduced to zero, and the sensor output value at that time is recorded. At this time, a pixel value of 0 to 255 is measured for each pixel. That is, the pixel here indicates each of RGB and is generally called a sub-pixel, but it is measured and recorded one by one regardless of whether the pixel is red, green, or blue. To do. The values measured in this way are arranged in a table and stored in the LUT 34. For example, if the sensor output value when the pixel address P2-1 is lit at the pixel value 128 (others are extinguished) is 50, the LUT 34 will display “pixel address P2-1, pixel value 128, sensor output value (internal light emission). Illuminance) 50 "is stored as one data.
When data is extracted with reference to this LUT 34, the index is the pixel address and the pixel value, and the extracted element is the sensor output value (internal light emission illuminance) at that time. For example, when the sensor output correction calculation unit 33 accesses the LUT 34 at the index of the pixel address P2-1 and the pixel value 128, the LUT 34 returns the sensor output value 50 as the internal light emission illuminance.

このLUT作成とLUT参照は、近似計算を使って簡単化することができる。上記の方法をそのまま実装する場合には、非常に大きなサイズのLUT34になり、また、大量の参照を行わなくてはならない。そこで簡単化の方法として、例えば、内光照度はセンサと画素の距離に反比例することを利用する。照度センサSに対して一番内側の画素P1−1〜P1−4の照度を測ったあと、それより外側の画素の分は、P1−1〜P1−4の値に距離が遠くなる分の係数を乗じて求めることにする。そうするとLUTサイズを小さくできる上に、LUT参照回数も減らすことができる。また別のアプローチとして、1つの位置の画素についての画素値0〜255の256個の照度値をすべて測定するのではなく、いくつか代表的な画素値についてのみ照度を測定して、その他は線形近似で求めることもできる。例えばある画素について、画素値0と128と255の3種類だけの照度を測っておいて、その間の照度は線形補完演算で求めることができる。この方法を用いた場合でも、LUTサイズとLUT参照回数を減らすことができる。   This LUT creation and LUT reference can be simplified using approximate calculation. When the above method is implemented as it is, the LUT 34 has a very large size, and a large amount of references must be performed. Therefore, as a simplification method, for example, it is used that the internal light illuminance is inversely proportional to the distance between the sensor and the pixel. After measuring the illuminance of the innermost pixels P1-1 to P1-4 with respect to the illuminance sensor S, the portion of the pixels outside the illuminance sensor S is the distance that is far from the value of P1-1 to P1-4. It is determined by multiplying by a coefficient. As a result, the LUT size can be reduced and the number of LUT references can be reduced. As another approach, instead of measuring all 256 illuminance values of pixel values 0 to 255 for a pixel at one position, illuminance is measured only for some representative pixel values, and the others are linear It can also be obtained by approximation. For example, with respect to a certain pixel, only three types of illuminances of pixel values 0, 128, and 255 are measured, and the illuminance therebetween can be obtained by linear interpolation. Even when this method is used, the LUT size and the number of LUT references can be reduced.

図5は、演算処理部22における処理動作を示すフローチャートである。基本的には、図2および図3において説明した内容と同じであるが、演算処理部22が映像入力を受け付けてからの処理フローについて、図5を参照しながら説明する。
まず、映像レシーバ23からの映像入力を受け付けると、映像処理部31が映像処理を行い(ステップST1)、その映像信号がLCDコントローラ21を介してLCDモジュール10に送信され、表示領域11に画面表示される(ステップST2)。一方、映像レシーバ23からの映像入力信号は、フレームバッファ32に順次保存される(ステップST3)。これを、映像入力信号が続く間(ステップST4のYESの場合)、繰り返すことにより、画面表示およびフレームバッファへの保存が継続される。
FIG. 5 is a flowchart showing the processing operation in the arithmetic processing unit 22. Although basically the same as the contents described in FIGS. 2 and 3, a processing flow after the arithmetic processing unit 22 receives a video input will be described with reference to FIG. 5.
First, when receiving a video input from the video receiver 23, the video processing unit 31 performs video processing (step ST1), and the video signal is transmitted to the LCD module 10 via the LCD controller 21 and displayed on the display area 11 as a screen display. (Step ST2). On the other hand, video input signals from the video receiver 23 are sequentially stored in the frame buffer 32 (step ST3). By repeating this while the video input signal continues (in the case of YES in step ST4), screen display and storage in the frame buffer are continued.

その後、1枚のフレームの映像入力が終了してブランキング期間に入ると(ステップST4のNOの場合)、センサ出力補正演算部33が、画面表示されている表示領域11内の照度センサSによる出力値(照度値)を読み出して取得する(ステップST5)と同時に、フレームバッファ32に保存されているフレームから画素番地および画素値も読み出して取得する(ステップST6)。そして、LUT34を参照して、照度センサSによる出力値(照度値)から画素自身による内光分(内部発光照度)を減算する補正演算を行い(ステップST7)、算出された照度値(外光分)をマイコン24等に出力する(ステップST8)。   Thereafter, when the video input of one frame is finished and the blanking period starts (in the case of NO in step ST4), the sensor output correction calculation unit 33 uses the illuminance sensor S in the display area 11 displayed on the screen. The output value (illuminance value) is read and acquired (step ST5), and at the same time, the pixel address and pixel value are also read and acquired from the frame stored in the frame buffer 32 (step ST6). Then, referring to the LUT 34, a correction calculation is performed to subtract the internal light component (internal light emission illuminance) from the pixel itself from the output value (illuminance value) from the illuminance sensor S (step ST7), and the calculated illuminance value (external light Minute) is output to the microcomputer 24 or the like (step ST8).

このように、表示領域内に配置された照度センサSにより検出された出力値(照度値)から、表示領域の画素自身が発光した内光分の照度値(内部発光照度)を減算することにより、表示領域(画素)周辺の外光のみを精度よく測定することができる。そしてこれにより、例えばバックライトの調整を効率よく行うことができる。また、例えばこの表示装置をタッチパネルに適用して、表示領域内に数多くのセンサを埋め込むことにより、タッチパネルへの指等の接近や接触箇所の照度が下がる(暗くなる)ことからタッチ位置を精度よく検出することもできる。   In this way, by subtracting the illuminance value (internal illuminance) for the internal light emitted by the pixels in the display area from the output value (illuminance value) detected by the illuminance sensor S arranged in the display area. Only the external light around the display area (pixel) can be measured with high accuracy. Thereby, for example, the backlight can be adjusted efficiently. In addition, for example, by applying this display device to a touch panel and embedding a large number of sensors in the display area, the touch position can be accurately determined because the proximity of a finger or the like to the touch panel or the illuminance at the contact point decreases (darkens). It can also be detected.

以上のように、この実施の形態1によれば、ディスプレイの表示領域内に照度センサを配置する構成において、照度センサにより検出された照度値(外光+内光)から、表示領域内の画素自身による発光分の内部発光照度を減算するようにしたので、ディスプレイ自身の発光による内光を考慮した上で、ディスプレイに届く外部からの光のみを正確に測定することができる。   As described above, according to the first embodiment, in the configuration in which the illuminance sensor is arranged in the display area of the display, the pixels in the display area are determined from the illuminance value (external light + internal light) detected by the illuminance sensor. Since the internal illuminance of the light emitted by itself is subtracted, only the external light reaching the display can be accurately measured in consideration of the internal light due to the light emitted from the display itself.

なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。   In the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.

以上のように、この発明に係る表示装置は、バックライトの調整や、タッチパネルに適用することができる。   As described above, the display device according to the present invention can be applied to backlight adjustment and a touch panel.

1 表示装置、10 LCDモジュール、11 表示領域(画素配置エリア、センサ配置エリア)、12 センサドライバ、13 センサコントローラ、14 センサADC、15 ソースドライバ、16 ゲートドライバ、20 ディスプレイ基板、21 LCDコントローラ、22 演算処理部、23 映像レシーバ、24 マイコン、31 映像処理部、32 フレームバッファ、33 センサ出力補正演算部、34 LUT、P1−1〜P1−4,P2−1〜P2−12 画素、S 照度センサ。   DESCRIPTION OF SYMBOLS 1 Display apparatus, 10 LCD module, 11 Display area (pixel arrangement area, sensor arrangement area), 12 Sensor driver, 13 Sensor controller, 14 Sensor ADC, 15 Source driver, 16 Gate driver, 20 Display substrate, 21 LCD controller, 22 Arithmetic processing unit, 23 video receiver, 24 microcomputer, 31 video processing unit, 32 frame buffer, 33 sensor output correction calculation unit, 34 LUT, P1-1 to P1-4, P2-1 to P2-12 pixel, S illuminance sensor .

Claims (2)

表示領域を有する表示装置において、
前記表示領域内に配置された画素および照度センサと、
前記表示領域に画面表示する映像信号の1フレーム分を保存するフレームバッファと、
前記表示領域内の画素に対応付けて、当該画素自身による内部発光照度を予め保存しておくテーブルと、
前記照度センサにより検出された照度値から当該照度センサ周辺の外光のみの照度値を算出するセンサ出力補正演算部とを備え、
前記センサ出力補正演算部は、
前記フレームバッファに保存されたフレームから画素番地および画素値を読み出し、前記テーブルから、当該読み出した画素番地と画素値に対応する内部発光照度を取得するとともに、
前記照度センサにより検出された照度値を取得して、
当該取得した照度値から、前記テーブルから取得した内部発光照度を減算することにより、前記照度センサ周辺の外光のみの照度値を算出する
ことを特徴とする表示装置。
In a display device having a display area,
A pixel and an illuminance sensor arranged in the display area;
A frame buffer for storing one frame of a video signal to be displayed on the screen in the display area;
In association with the pixels in the display area, a table that stores in advance the internal light emission illuminance by the pixels themselves;
A sensor output correction calculation unit that calculates an illuminance value of only external light around the illuminance sensor from an illuminance value detected by the illuminance sensor;
The sensor output correction calculator is
The pixel address and the pixel value are read from the frame stored in the frame buffer, and the internal emission illuminance corresponding to the read pixel address and the pixel value is acquired from the table,
Obtain the illuminance value detected by the illuminance sensor,
An illuminance value of only the external light around the illuminance sensor is calculated by subtracting the internal light emission illuminance acquired from the table from the acquired illuminance value.
前記センサ出力補正演算部による前記照度センサからの照度値の取得、および、前記照度センサ周辺の外光のみの照度値の算出は、前記表示領域に映像信号が表示されないブランキング期間に実施される
ことを特徴とする請求項1記載の表示装置。
The acquisition of the illuminance value from the illuminance sensor by the sensor output correction calculation unit and the calculation of the illuminance value of only the ambient light around the illuminance sensor are performed during a blanking period in which no video signal is displayed in the display area. The display device according to claim 1.
JP2013547421A 2012-01-05 2012-01-05 Display device Active JP5474264B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/000038 WO2013102952A1 (en) 2012-01-05 2012-01-05 Display device

Publications (2)

Publication Number Publication Date
JP5474264B2 true JP5474264B2 (en) 2014-04-16
JPWO2013102952A1 JPWO2013102952A1 (en) 2015-05-11

Family

ID=48745030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013547421A Active JP5474264B2 (en) 2012-01-05 2012-01-05 Display device

Country Status (2)

Country Link
JP (1) JP5474264B2 (en)
WO (1) WO2013102952A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9997137B2 (en) * 2015-09-30 2018-06-12 Apple Inc. Content-based statistics for ambient light sensing
KR102508792B1 (en) * 2018-08-07 2023-03-13 엘지디스플레이 주식회사 Display device
KR102486625B1 (en) 2018-09-21 2023-01-11 삼성전자주식회사 Display apparatus and control method thereof
CN114459600A (en) * 2022-01-29 2022-05-10 维沃移动通信有限公司 Ambient light detection method and device and display screen compensation display method and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304900A (en) * 2007-05-08 2008-12-18 Epson Imaging Devices Corp Display device and electronic device equipped with the same
JP2009134211A (en) * 2007-12-03 2009-06-18 Epson Imaging Devices Corp Electrooptical apparatus, electronic device, and apparatus and method for detecting outside light

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304900A (en) * 2007-05-08 2008-12-18 Epson Imaging Devices Corp Display device and electronic device equipped with the same
JP2009134211A (en) * 2007-12-03 2009-06-18 Epson Imaging Devices Corp Electrooptical apparatus, electronic device, and apparatus and method for detecting outside light

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6012013288; Hirotaka Hayashi, Takashi Nakamura, Norio Tada, Takayuki Imai, Masahiro Yoshida, and Hiroki Nakamura: '"24.4: Optical Sensor Embedded Input Display Usable under High-Ambient-Light Conditions"' SID 07 DIGEST Vol. 38, Book II, 20070523, p. 1105-1108 *

Also Published As

Publication number Publication date
JPWO2013102952A1 (en) 2015-05-11
WO2013102952A1 (en) 2013-07-11

Similar Documents

Publication Publication Date Title
US10504461B2 (en) Display apparatus and display method
WO2019210687A1 (en) Optical compensation method and device, display device, display method and storage medium
TWI423198B (en) Display apparatus and method for adjusting gray-level of screen image depending on environment illumination
WO2017113343A1 (en) Method for adjusting backlight brightness and terminal
CN1988628A (en) Self adaptive image display method for environment light
KR20160047972A (en) Image processing apparatus, image processing method, and image display apparatus
JP2009134258A (en) Display device, display control method and electronic device
JP5474264B2 (en) Display device
JP6186465B2 (en) Electronic display adjustment based on gaze tracking
JP2009031666A (en) Display device with integrated touch panel
CN102169683B (en) Image display device and brightness control method
CN109683315B (en) Head-mounted display device and brightness control method thereof
WO2012086493A1 (en) Display device with optical sensor included and image reading method employing same
US11363193B2 (en) Electronic apparatus and image correction method thereof
KR101691310B1 (en) Display device using environmental information detecting module
US20190051270A1 (en) Display processing device and imaging device
US10600357B2 (en) Method and system for speckle phenomenon of display image
US20110109644A1 (en) System and method for performing motion control with display luminance compensation
WO2013115356A1 (en) Image display device, electronic apparatus, electronic camera, and information terminal
JP2010066352A (en) Measuring device, correction data generating device, measuring method, correction data generating method and correction data generating program
JP2008244950A (en) Remote operation apparatus and video display system
JP2009077156A (en) Image display device, image display method, and remote controller
US11232739B2 (en) Electronic device, color adjustment method, and computer-readable recording medium
JP2017212533A (en) Imaging display system and imaging device
WO2019239918A1 (en) Control device, display device, and control method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140204

R150 Certificate of patent or registration of utility model

Ref document number: 5474264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250