JP5586858B2 - Display control apparatus and display control method - Google Patents

Display control apparatus and display control method Download PDF

Info

Publication number
JP5586858B2
JP5586858B2 JP2009041001A JP2009041001A JP5586858B2 JP 5586858 B2 JP5586858 B2 JP 5586858B2 JP 2009041001 A JP2009041001 A JP 2009041001A JP 2009041001 A JP2009041001 A JP 2009041001A JP 5586858 B2 JP5586858 B2 JP 5586858B2
Authority
JP
Japan
Prior art keywords
image
pixel value
input
area
light emission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009041001A
Other languages
Japanese (ja)
Other versions
JP2010197597A (en
Inventor
剛範 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009041001A priority Critical patent/JP5586858B2/en
Publication of JP2010197597A publication Critical patent/JP2010197597A/en
Application granted granted Critical
Publication of JP5586858B2 publication Critical patent/JP5586858B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、動画像の表示制御方法に関する。   The present invention relates to a moving image display control method.

駆動周波数を増加させることで、フリッカ(表示画面のちらつき)を低減できることが知られている。駆動周波数は、1秒あたりに表示画面を書き換える回数を示しており、垂直同期周波数、リフレッシュレートなどに対応する。例えば、特許文献1には、静止画像を表示させる場合に、駆動周波数(リフレッシュレート)を上げることでフリッカを低減することが記載されている。   It is known that flicker (flickering of the display screen) can be reduced by increasing the drive frequency. The drive frequency indicates the number of times the display screen is rewritten per second, and corresponds to the vertical synchronization frequency, the refresh rate, and the like. For example, Patent Document 1 describes that flicker is reduced by increasing the drive frequency (refresh rate) when displaying a still image.

特開2006−98765号公報JP 2006-98765 A

しかしながら、駆動周波数によっては、表示画像の劣化が知覚されてしまう恐れがあった。   However, depending on the drive frequency, there is a risk that the degradation of the display image is perceived.

例えば、駆動周波数を動画像コンテンツのフレームレートよりも上げれば、フリッカを低減できるが、ジャーキネス(動領域の輪郭ボケ)が発生してしまう恐れがある。一方、駆動周波数を動画像コンテンツのフレームレートと同じにすれば、フリッカの問題が発生する恐れがある。   For example, if the drive frequency is increased above the frame rate of the moving image content, flicker can be reduced, but jerkiness (outline blur of the moving area) may occur. On the other hand, if the drive frequency is set to be the same as the frame rate of the moving image content, a flicker problem may occur.

また、同じ動画像を同じ駆動周波数で表示させても、フリッカやジャーキネスが知覚されるか否かはユーザによって異なる。また、例えば、同じ駆動周波数で画像を表示させた場合であっても、表示画像の画素値によって、フリッカの知覚されやすさが異なる。   Also, even if the same moving image is displayed at the same drive frequency, whether or not flicker or jerkiness is perceived varies depending on the user. Further, for example, even when images are displayed at the same drive frequency, the ease of perceiving flicker differs depending on the pixel value of the display image.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザにとって表示画像の劣化が知覚されにくくすることである。   The present invention has been made in view of the above problems, and an object thereof is to make it difficult for a user to perceive deterioration of a display image.

上記の問題点を解決するために、本発明の表示制御装置は、例えば、以下の構成を有する。即ち、表示画面の発光間隔を制御可能な表示制御装置であって、画像信号の入力に応じて画像を表示させる表示制御手段と、前記表示された画像からユーザがちらつきを知覚したか否かを示す評価情報を入力する入力手段と、第1の画像信号の入力に応じて第1の画素値の第1の画像及び第2の画素値の第2の画像を第1の発光間隔で表示した場合にユーザがちらつきを知覚したことを示す評価情報が入力された場合の前記第1の画像の前記第1の画素値、及び前記第2の画像の前記第2の画素値を記憶する記憶手段と、第2の画像信号の入力に応じて順次、表示される第3の画像と第4の画像のうち、前記第3の画像内の領域の画素値が、前記記憶手段に記憶された前記第1の画素値に対応し、前記第4の画像内の前記領域の画素値が、前記記憶手段に記憶された前記第2の画素値に対応する場合、前記領域の発光間隔を前記第1の発光間隔よりも短い第2の発光間隔にする制御と前記領域の輝度を下げる制御の少なくとも一方を行う制御手段とを有する。 In order to solve the above problems, the display control apparatus of the present invention has the following configuration, for example. That is, a display control device capable of controlling the light emission interval of the display screen, the display control means for displaying an image in response to an input of an image signal, and whether or not the user perceives flicker from the displayed image. input means for inputting the evaluation information indicating, display a first image of the first pixel value in response to an input of the first image signal, and a second image of the second pixel value in the first light emission interval A memory for storing the first pixel value of the first image and the second pixel value of the second image when evaluation information indicating that the user perceives flickering is input. And the pixel value of the region in the third image among the third image and the fourth image that are sequentially displayed in response to the input of the second image signal and the second image signal is stored in the storage means the first corresponds to the pixel value, the pixel value of the region in said fourth image is, If corresponding to the stored previous SL second image pixel value to the serial storage means, lowering the brightness of the control and the area of the emission interval of the region a short second light-emitting interval than the first light emission interval Control means for performing at least one of the controls.

本発明によれば、ユーザにとって表示画像の劣化が知覚されにくくすることができる。   According to the present invention, it is possible to make it difficult for a user to perceive deterioration of a display image.

実施形態1における表示制御装置のブロック図1 is a block diagram of a display control device according to a first embodiment. 実施形態1における表示制御処理のフローチャート図FIG. 6 is a flowchart of display control processing according to the first embodiment. 移動領域の抽出概念図Conceptual diagram of moving area extraction 移動領域の時間変化例図Example of time variation of moving area 移動領域の時空間表示例図Spatio-temporal display example of moving area 視覚される移動領域の時空間スペクトル表示例図Spatio-temporal spectrum display example of the visible moving region 視覚特性決定処理のフローチャート図Flow chart of visual characteristic determination process 時間応答特性取得のためのテスト画像の輝度の時間変化の例Example of temporal change in luminance of test image for time response characteristics acquisition 実施形態2のテスト画像の例Example of test image of embodiment 2 実施形態2の表示制御処理のフローチャート図FIG. 9 is a flowchart of display control processing according to the second embodiment. 実施形態3の表示制御装置のブロック図Block diagram of display control apparatus of embodiment 3 実施形態3の表示制御方法のフローチャート図FIG. 9 is a flowchart of a display control method according to the third embodiment. 時間応答特性、及び、空間応答特性の例Examples of time response characteristics and spatial response characteristics ユーザの視覚特性の例Examples of user visual characteristics 時間応答特性取得のためのテスト画像の画素値の時間変化の例Example of temporal change in pixel value of test image for time response characteristics acquisition 空間応答特性取得のためのテスト画像の画素値変化の例Example of change in pixel value of test image for obtaining spatial response characteristics 移動領域の時空間スペクトルの例Examples of spatiotemporal spectra of moving regions 実施形態2のユーザの視覚特性の例Example of visual characteristics of user of embodiment 2 フリッカ候補領域抽出例Flicker candidate area extraction example フリッカ候補領域の時空間表示の例Spatio-temporal display example of flicker candidate area フリッカ候補領域の時空間スペクトルの例Example of spatio-temporal spectrum of flicker candidate region フリッカ候補領域の時間周波数スペクトルの例Example of time-frequency spectrum of flicker candidate region

以下、図面を参照して本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<実施形態1>
<システム構成について>
図1は、本実施形態における表示制御装置の構成例を示すブロック図である。
<Embodiment 1>
<About system configuration>
FIG. 1 is a block diagram illustrating a configuration example of a display control apparatus according to the present embodiment.

表示制御装置106は、入力部101、決定部102、調整部103、画像処理部104、表示部105を備える。尚、本実施形態の表示制御装置106は、表示部105(例えばディスプレイ)を備えているが、表示部105とは別の装置であっても良い。また、表示制御装置106は、駆動周波数を60〜240Hzの範囲で制御可能である。ここで、駆動周波数とは、1秒あたりに表示画面を書き換える回数を示しており、垂直同期周波数、リフレッシュレートなどに対応する。即ち、表示制御装置106は、表示画面の発光間隔を制御可能な表示制御装置である。   The display control device 106 includes an input unit 101, a determination unit 102, an adjustment unit 103, an image processing unit 104, and a display unit 105. The display control device 106 according to the present embodiment includes the display unit 105 (for example, a display), but may be a device different from the display unit 105. Further, the display control device 106 can control the drive frequency in the range of 60 to 240 Hz. Here, the drive frequency indicates the number of times the display screen is rewritten per second, and corresponds to the vertical synchronization frequency, the refresh rate, and the like. That is, the display control device 106 is a display control device that can control the light emission interval of the display screen.

入力部101は、ユーザ(視聴者)の視覚応答特性を、ユーザが操作するリモコン等を介して取得する。そして、入力部101は、ユーザの視覚応答特性を入力する。本形態の視覚応答特性は、表示部105に表示されたテスト画像に対するユーザの評価値に応じて取得される。即ち、入力部101は、テスト画像の表示結果に対する評価情報を入力する。視覚応答特性の取得の詳細は図7を用いて後述する。   The input unit 101 acquires the visual response characteristics of the user (viewer) via a remote controller operated by the user. And the input part 101 inputs a user's visual response characteristic. The visual response characteristic of this embodiment is acquired according to the user's evaluation value for the test image displayed on the display unit 105. That is, the input unit 101 inputs evaluation information for the display result of the test image. Details of the acquisition of the visual response characteristics will be described later with reference to FIG.

決定部102は、入力部101によって入力されたユーザの視覚応答特性に基づいて、ユーザの視覚特性を決定する。つまり、決定部102は、ユーザの視覚特性を決定する。視覚特性の決定方法については、図7を用いて後述する。   The determination unit 102 determines the user's visual characteristics based on the user's visual response characteristics input by the input unit 101. That is, the determination unit 102 determines the visual characteristics of the user. A method for determining visual characteristics will be described later with reference to FIG.

調整部103は、ユーザの視覚特性と、入力動画像信号に基づいて、入力動画像信号の変換、及び/又は、表示部105のパラメータの変更の有無を決定する。   The adjustment unit 103 determines whether to convert the input moving image signal and / or change the parameter of the display unit 105 based on the visual characteristics of the user and the input moving image signal.

調整部103は、ユーザの視覚特性と、入力動画像信号に基づいて、入力動画像信号に応じた画像を表示させた場合に、例えば、フリッカが知覚されるか否かを判定する。そして、調整部103は、フリッカが知覚されると判定した場合、入力動画像信号を変換、及び/又は、表示部105のパラメータの変更を行うことを決定する。より具体的には、調整部103は、フリッカが知覚されると判定した場合、表示画面の駆動周波数を上げる、及び/又は、表示画像の輝度値を入力動画像信号に応じた画像の輝度値よりも低くすることを決定する。   The adjustment unit 103 determines, for example, whether or not flicker is perceived when an image corresponding to the input moving image signal is displayed based on the visual characteristics of the user and the input moving image signal. When the adjustment unit 103 determines that flicker is perceived, the adjustment unit 103 determines to convert the input moving image signal and / or change the parameter of the display unit 105. More specifically, when the adjustment unit 103 determines that flicker is perceived, the adjustment unit 103 increases the drive frequency of the display screen and / or the brightness value of the display image according to the input moving image signal. Decide to lower.

また、調整部103は、ユーザの視覚特性と、入力動画像信号に基づいて、入力動画像信号に応じた画像を表示させた場合に、例えば、ジャーキネスが知覚されるか否かを判定する。つまり、調整部103は、入力動画像信号のフレームレートよりも高い駆動周波数で表示させた表示画像の動領域と静領域の境界において、擬似輪郭が知覚されるか否かを判定する。そして、調整部103は、ジャーキネスが知覚されると判定した場合、入力動画像信号を変換、及び/又は、表示部105のパラメータの変更を行うことを決定する。より具体的には、調整部103は、ジャーキネスが知覚されると判定した場合、表示画面の駆動周波数を下げる、及び/又は、表示画像のコントラスト比を入力動画像信号に応じた画像のコントラスト比よりも低くすることを決定する。   The adjustment unit 103 determines, for example, whether jerkiness is perceived when an image corresponding to the input moving image signal is displayed based on the visual characteristics of the user and the input moving image signal. That is, the adjustment unit 103 determines whether or not a pseudo contour is perceived at the boundary between the moving area and the static area of the display image displayed at a driving frequency higher than the frame rate of the input moving image signal. When the adjustment unit 103 determines that jerkiness is perceived, the adjustment unit 103 determines to convert the input moving image signal and / or change the parameter of the display unit 105. More specifically, when the adjustment unit 103 determines that jerkiness is perceived, the adjustment unit 103 decreases the drive frequency of the display screen and / or sets the contrast ratio of the display image according to the input moving image signal. Decide to lower.

また、調整部103は、入力動画像信号を変換すると決定した場合、その変換に係るパラメータを決定し、決定したパラメータ(調整データ)を画像処理部104に出力する。また、調整部103は、表示部105のパラメータを変更すると決定した場合、その変更に係るパラメータを決定し、決定したパラメータ(調整データ)を表示部105に出力する。   Further, when the adjustment unit 103 determines to convert the input moving image signal, the adjustment unit 103 determines a parameter related to the conversion and outputs the determined parameter (adjustment data) to the image processing unit 104. Further, when the adjustment unit 103 determines to change the parameter of the display unit 105, the adjustment unit 103 determines a parameter related to the change and outputs the determined parameter (adjustment data) to the display unit 105.

調整部103は、例えば、入力動画像信号に応じた画像の輝度よりも表示画像の輝度を5%下げると決定した場合、そのことを示す調整データを画像処理部104に出力する。ただし、調整部103は、上記のような輝度値の例に限らず、例えば、入力動画像信号に対応する1枚のフレームデータに基づいて生成される複数のフレームデータ(サブフレーム)の輝度値の分配比率を変更するための調整データを出力しても良い。また、調整部103は、例えば、一部のサブフレームから高周波成分を除去するための調整データを画像処理部104に出力するようにしても良い。   For example, when the adjustment unit 103 determines that the luminance of the display image is 5% lower than the luminance of the image corresponding to the input moving image signal, the adjustment unit 103 outputs adjustment data indicating the fact to the image processing unit 104. However, the adjustment unit 103 is not limited to the example of the luminance value as described above, and for example, the luminance values of a plurality of frame data (subframes) generated based on one frame data corresponding to the input moving image signal. Adjustment data for changing the distribution ratio may be output. For example, the adjustment unit 103 may output adjustment data for removing high-frequency components from some subframes to the image processing unit 104.

また、調整部103は、例えば、表示部105における駆動周波数を120Hzから60Hzに下げることを決定した場合、そのことを示す調整データを表示部105に出力する。尚、調整部103が、表示画像の輝度値を下げるための調整データを表示部105に出力し、表示部105が表示画面の輝度値を制御するようにしても良い。   For example, when the adjustment unit 103 determines to reduce the drive frequency in the display unit 105 from 120 Hz to 60 Hz, the adjustment unit 103 outputs adjustment data indicating the fact to the display unit 105. Note that the adjustment unit 103 may output adjustment data for reducing the luminance value of the display image to the display unit 105, and the display unit 105 may control the luminance value of the display screen.

画像処理部104は、調整部103によって出力された調整データに応じて、入力動画像信号を変換する。ここで、入力動画像信号は、例えば、デジタルビデオカメラなどの映像入力装置や、ハードディスクドライブなどの記憶媒体や、インターネット等を介したサーバ等から入力される。また、本形態では、入力動画像信号に応じた動画像を表示させる場合について説明するが、静止画像を表示させる場合にも本発明は適用可能である。画像処理部104は、変換後の信号を表示部105に出力する。   The image processing unit 104 converts the input moving image signal in accordance with the adjustment data output by the adjustment unit 103. Here, the input moving image signal is input from, for example, a video input device such as a digital video camera, a storage medium such as a hard disk drive, a server via the Internet, or the like. In this embodiment, a case where a moving image corresponding to an input moving image signal is displayed will be described. However, the present invention can also be applied to a case where a still image is displayed. The image processing unit 104 outputs the converted signal to the display unit 105.

表示部105は、画像処理部104から出力された画像信号に応じた画像を、設定されたパラメータ(駆動周波数、コントラスト比等)に応じて表示させる。   The display unit 105 displays an image corresponding to the image signal output from the image processing unit 104 according to the set parameters (drive frequency, contrast ratio, etc.).

<視覚特性の決定処理>
次に、入力部101によるユーザの視覚応答特性の取得、及び、決定部102による視覚特性の決定処理について、図7を用いて説明する。本形態では、入力部101が、ユーザの視覚応答特性として、時間応答特性、及び、空間応答特性を取得する(ステップS701〜S710)。そして、決定部102は、入力部101によって取得された時間応答特性、及び、空間応答特性に基づいて、ユーザの視覚特性を決定する(ステップ711)。
<Determination process of visual characteristics>
Next, the acquisition of the visual response characteristic of the user by the input unit 101 and the determination process of the visual characteristic by the determination unit 102 will be described with reference to FIG. In this embodiment, the input unit 101 acquires time response characteristics and spatial response characteristics as the user's visual response characteristics (steps S701 to S710). Then, the determination unit 102 determines the visual characteristic of the user based on the time response characteristic and the spatial response characteristic acquired by the input unit 101 (step 711).

図7は、入力部101によるユーザの視覚応答特性の取得処理、及び、決定部102によるユーザの視覚特性の決定処理を示すフローチャートである。尚、図7の処理のうち、ステップS701からステップS705までの処理が、ユーザの視覚応答特性のうち、時間応答特性(時間周波数の応答特性)を取得するための処理である。また、ステップS706からステップS710までの処理が、ユーザの視覚応答特性のうち、空間応答特性(空間周波数の応答特性)を取得するための処理である。そして、ステップS711において、決定部102は、取得された時間応答特性、及び空間応答特性から、ユーザの視覚特性を決定する。   FIG. 7 is a flowchart illustrating the process of acquiring the visual response characteristic of the user by the input unit 101 and the process of determining the visual characteristic of the user by the determination unit 102. Of the processes in FIG. 7, the processes from step S701 to step S705 are processes for obtaining a time response characteristic (time frequency response characteristic) among the visual response characteristics of the user. Further, the processing from step S706 to step S710 is processing for acquiring spatial response characteristics (spatial frequency response characteristics) among the user's visual response characteristics. In step S711, the determination unit 102 determines the visual characteristics of the user from the acquired time response characteristics and spatial response characteristics.

ここで、時間応答特性は、駆動周波数と、ユーザのコントラスト感度との関係を示している。取得される時間応答特性の例を図13(A)に示す。図13(A)では、ある駆動周波数(時間周波数)において、ユーザが画面のちらつきを知覚しやすい(表示画像の輝度が低くてもちらつきを知覚する)場合は、対応するコントラスト感度が高くなるようにプロットされている。つまり、時間応答特性は、各駆動周波数(時間周波数)における画面のちらつきの知覚しやすさを示す。   Here, the time response characteristic indicates the relationship between the driving frequency and the contrast sensitivity of the user. An example of the acquired time response characteristic is shown in FIG. In FIG. 13A, when the user easily perceives screen flicker at a certain driving frequency (time frequency) (perceives flicker even when the brightness of the display image is low), the corresponding contrast sensitivity is increased. Is plotted. That is, the time response characteristic indicates the ease of perception of screen flicker at each drive frequency (time frequency).

また、空間応答特性は、表示画像内の移動物体の空間周波数と、ユーザのコントラスト感度との関係を示している。取得される空間応答特性の例を図13(B)に示す。図13(B)では、ある空間周波数において、ユーザがコントラストを知覚しやすい(表示画像内のコントラスト比が低くても画素値の違いを知覚する)場合は、対応するコントラスト感度が高くなるようにプロットされている。つまり、空間応答特性は、各空間周波数の移動物体に対するコントラストの知覚しやすさを示す。尚、本形態では、空間応答特性を、移動物体の移動速度ごとに取得する。図13(B)に示した空間応答特性は、ある移動速度における空間応答特性の例である。つまり、本形態の入力部101は、複数の移動速度ごとに空間応答特性を取得する。   The spatial response characteristic indicates the relationship between the spatial frequency of the moving object in the display image and the contrast sensitivity of the user. An example of the acquired spatial response characteristic is shown in FIG. In FIG. 13B, when a user easily perceives contrast at a certain spatial frequency (perceives a difference in pixel value even if the contrast ratio in the display image is low), the corresponding contrast sensitivity is increased. It is plotted. That is, the spatial response characteristic indicates the ease of perception of contrast with respect to a moving object having each spatial frequency. In this embodiment, the spatial response characteristic is acquired for each moving speed of the moving object. The spatial response characteristic shown in FIG. 13B is an example of the spatial response characteristic at a certain moving speed. That is, the input unit 101 of the present embodiment acquires spatial response characteristics for each of a plurality of moving speeds.

図7の処理は、例えば、ユーザによるリモコンや操作パネル等の操作によって、視覚特性の登録モードに設定されたことにより開始される。   The processing in FIG. 7 is started when, for example, the visual characteristic registration mode is set by the user's operation of the remote control or the operation panel.

ステップS701において、入力部101は、時間応答特性を取得するためのテスト画像をある時間周波数(例えば10[cycle/sec])で表示部105に表示させる。ステップS701において表示されるテスト画像は、フレーム全体が同じ画素値のテスト画像(テスト画像1、テスト画像2)が表示される。尚、テスト画像1とテスト画像2の画素値は異なる。テスト画像1、2を交互に表示させた場合の表示画面の輝度の例を図8に示す。図8に示すように、フレーム全体がLmaxの輝度値であるテスト画像1と、フレーム全体がLminの輝度値であるテスト画像2が、時間周波数に応じて交互に表示される。つまり、例えば、時間周波数が10[cycle/sec]の場合、1秒間にテスト画像1とテスト画像2をそれぞれ10回ずつ表示させる。尚、テスト画像は、2種類に限らず、例えば、徐々に輝度値が変化するようにしても良い。また、輝度値の代わりに色度を変化させても良い。ステップS701において、ユーザから評価値が入力されると、ステップS702に進む。   In step S701, the input unit 101 causes the display unit 105 to display a test image for acquiring time response characteristics at a certain time frequency (for example, 10 [cycle / sec]). The test image displayed in step S701 is a test image (test image 1, test image 2) having the same pixel value throughout the frame. Note that the pixel values of the test image 1 and the test image 2 are different. An example of the brightness of the display screen when the test images 1 and 2 are alternately displayed is shown in FIG. As shown in FIG. 8, the test image 1 whose entire frame has a luminance value of Lmax and the test image 2 whose entire frame has a luminance value of Lmin are alternately displayed according to the time frequency. That is, for example, when the time frequency is 10 [cycle / sec], the test image 1 and the test image 2 are each displayed 10 times per second. Note that the test image is not limited to two types, and for example, the luminance value may gradually change. Further, the chromaticity may be changed instead of the luminance value. When an evaluation value is input from the user in step S701, the process proceeds to step S702.

ステップS702(入力手順)において、入力部101は、ユーザから入力された評価値を、ユーザが操作するリモコン等から取得する。ここで、ユーザから入力される評価値は、テスト画像1、2を交互に表示させた場合に、表示画面の変化(ちらつき)が知覚されるか否かを示す評価情報である。ユーザは、画面がちらつくと感じた場合、リモコンの所定のボタンを押す。ステップS702において、表示画面のちらつきを知覚したことを示す評価値を取得した場合はステップS703に進む。一方、表示画面のちらつきを知覚したことを示す評価値が取得されない場合、あるいは、表示画面のちらつきが知覚されないことを示す評価値を取得した場合はステップS701に戻り、テスト画像1及び2のコントラスト比を上げる。ここで、コントラスト比を上げるとは、例えば、テスト画像1の輝度Lmaxを上げ、テスト画像2の輝度Lminを変更しないことによって行われる。ただし、Lmaxを変更せずにLminを下げるなど、ほかの方法によりコントラスト比を変更しても良い。即ち、ステップS702において、入力部101は、第1の画像信号(テスト画像の画像信号)に基づき第1の画像(テスト画像1)及び第2の画像(テスト画像2)を第1の発光間隔で表示させた場合の表示結果に対する評価情報を入力する。   In step S702 (input procedure), the input unit 101 acquires an evaluation value input from the user from a remote controller or the like operated by the user. Here, the evaluation value input from the user is evaluation information indicating whether or not a change (flicker) of the display screen is perceived when the test images 1 and 2 are alternately displayed. When the user feels that the screen flickers, he presses a predetermined button on the remote control. In step S702, if an evaluation value indicating that the display screen flicker is perceived is acquired, the process proceeds to step S703. On the other hand, when the evaluation value indicating that the flicker of the display screen is perceived is not acquired, or when the evaluation value indicating that the flicker of the display screen is not perceived is obtained, the process returns to step S701, and the contrast of the test images 1 and 2 is obtained. Increase the ratio. Here, increasing the contrast ratio is performed, for example, by increasing the luminance Lmax of the test image 1 and not changing the luminance Lmin of the test image 2. However, the contrast ratio may be changed by other methods such as lowering Lmin without changing Lmax. That is, in step S702, the input unit 101 converts the first image (test image 1) and the second image (test image 2) to the first emission interval based on the first image signal (image signal of the test image). Enter the evaluation information for the display result when displayed in.

本形態の入力部101は、初めにLmaxとLminの差を十分に小さくしてテスト画像を表示させ、ユーザがちらつきを知覚しないと評価すると、徐々にコントラスト比を上げていく。つまり、入力部101は、ユーザがちらつきを知覚しないと評価した場合、ステップS701に戻り、コントラスト比を上げる。そして、入力部101は、ユーザがちらつきを知覚するまで処理を続けることで、ちらつきを知覚するコントラスト比と、ちらつきを知覚しないコントラスト比の境界に基づくLmaxとLminを取得する。
ステップS702において、所定の評価情報(ちらつきを知覚することを示す評価値)が入力されると、ステップS703に進む。
ステップS703(記憶手順)において、入力部101は、所定の評価情報(ちらつきを知覚することを示す評価値)が入力された第1の画像(テスト画像1)の画素値(Lmax)、及び第2の画像(テスト画像2)の画素値(Lmin)を記憶する。尚、本形態の入力部101は、ちらつきを知覚すると評価されたときのテスト画像の画素値として、輝度値を記憶しているが、これに限らない。例えば、テスト画像1とテスト画像2で色度が異なるテスト画像を用いる場合は、色度を記憶するようにしても良い。
The input unit 101 according to the present embodiment first displays a test image with a sufficiently small difference between Lmax and Lmin, and gradually increases the contrast ratio when it is evaluated that the user does not perceive flicker. That is, if the input unit 101 evaluates that the user does not perceive flicker, the input unit 101 returns to step S701 to increase the contrast ratio. Then, the input unit 101 obtains Lmax and Lmin based on the boundary between the contrast ratio that perceives flicker and the contrast ratio that does not perceive flicker by continuing the process until the user perceives flicker.
When predetermined evaluation information (an evaluation value indicating that flicker is perceived) is input in step S702, the process proceeds to step S703.
In step S703 (storage procedure), the input unit 101 receives the pixel value (Lmax) of the first image (test image 1) to which predetermined evaluation information (evaluation value indicating perception of flicker) is input, and the first The pixel value (Lmin) of the second image (test image 2) is stored. Note that the input unit 101 of the present embodiment stores the luminance value as the pixel value of the test image when it is evaluated that the flicker is perceived, but the present invention is not limited to this. For example, when using test images having different chromaticities between the test image 1 and the test image 2, the chromaticity may be stored.

さらに、ステップS703において、入力部101は、ステップS702でフリッカを知覚したと判定されたときの輝度値Lmax、Lmin、及び式(1)を用いて時間的コントラスト感度mを求める。   Further, in step S703, the input unit 101 obtains the temporal contrast sensitivity m using the luminance values Lmax and Lmin when it is determined that flicker is perceived in step S702, and Expression (1).

式(1)に示すように、時間的コントラスト感度mの値が高いユーザほど、テスト画像1、テスト画像2の輝度差が小さくても画面のちらつきが知覚される。つまりフリッカが気になりやすいユーザであるといえる。   As shown in the equation (1), the user having a higher value of the temporal contrast sensitivity m perceives the flickering of the screen even if the luminance difference between the test image 1 and the test image 2 is small. In other words, it can be said that the user is likely to be concerned about flicker.

また、時間的コントラスト感度mは、テスト画像の平均輝度Lmeanと振幅ΔLを用いて、式(2)から求めても良い。   Further, the temporal contrast sensitivity m may be obtained from Equation (2) using the average luminance Lmean and the amplitude ΔL of the test image.

また、テスト画像は、図15のように、テスト画像1とテスト画像2の輝度値の和が一定になるようにして、色度だけを時間的に変化させるようにしても良い。つまり、テスト画像1の色度C1とテスト画像2の色度C2が異なるようにしても良い。この場合のコントラスト感度mは、以下の式(3)から求められる。   Further, as shown in FIG. 15, the test image may be such that only the chromaticity is changed with time so that the sum of the luminance values of the test image 1 and the test image 2 becomes constant. That is, the chromaticity C1 of the test image 1 and the chromaticity C2 of the test image 2 may be different. The contrast sensitivity m in this case is obtained from the following equation (3).

ステップS703において、ある時間周波数の時間的コントラスト感度の算出を終えると、ステップS704に進む。   In step S703, when the calculation of the temporal contrast sensitivity of a certain time frequency is finished, the process proceeds to step S704.

ステップS704において、入力部101は、すべての時間周波数(駆動周波数)における時間的コントラスト感度の算出を終えたか判定する。そして、すべての時間周波数における時間的コントラスト感度の算出を終えたと判定された場合はステップS705に進む。一方、まだ時間的コントラスト感度を算出していない時間周波数があると判定された場合は、ステップS701に戻り、テスト画像を表示させる際の時間周波数(駆動周波数)を変更して時間的コントラスト感度の取得処理を継続する。つまり、例えば、時間周波数10[cycle/sec]から120[cycle/sec]まで、10[cycle/sec]刻みで、時間周波数における時間的コントラスト感度を算出する場合、ステップS703の処理を12回行うことになる。   In step S704, the input unit 101 determines whether the calculation of temporal contrast sensitivity at all time frequencies (drive frequencies) has been completed. If it is determined that the temporal contrast sensitivity has been calculated for all temporal frequencies, the process proceeds to step S705. On the other hand, if it is determined that there is a time frequency for which the temporal contrast sensitivity has not yet been calculated, the process returns to step S701 to change the time frequency (driving frequency) for displaying the test image to change the time contrast sensitivity. Continue the acquisition process. That is, for example, when calculating the temporal contrast sensitivity in the time frequency from 10 [cycle / sec] to 10 [cycle / sec] from the time frequency 10 [cycle / sec] to 120 [cycle / sec], the process of step S703 is performed 12 times. It will be.

ステップS705において、入力部101は、ステップS703で得られた各時間周波数での時間的コントラスト感度mに基づいて、ユーザの時間応答特性を取得する。ユーザの時間応答特性は、例えば図13(A)のようになる。入力部101が、取得した時間応答特性を決定部102へ出力すると、ステップS706に進む。   In step S705, the input unit 101 acquires the user's time response characteristics based on the temporal contrast sensitivity m at each time frequency obtained in step S703. The user's time response characteristic is, for example, as shown in FIG. When the input unit 101 outputs the acquired time response characteristic to the determination unit 102, the process proceeds to step S706.

ステップS706において、入力部101は、空間応答特性を取得するためのテスト画像を表示部105に表示させる。ステップS706において表示されるテスト画像は、フレーム内に異なる画素値の領域がある画像である。入力部101は、テスト画像内のある画素値の領域がフレーム内で移動して見えるように、複数のテスト画像を順次表示させる。ステップS706で表示されるテスト画像内の画素値の例を図16に示す。図16に示されるテスト画像は、フレーム内の位置に応じて輝度値が異なる。即ち、ステップS706において、表示部105は、第1の画素値の領域と第2の画素値の領域を含む動画像を第1の画素値の領域を移動させながら第1の発光間隔で表示する。ただし、テスト画像は図16の例に限らない。また、テスト画像は、画像内の色度が異なるようにしても良い。   In step S706, the input unit 101 causes the display unit 105 to display a test image for acquiring spatial response characteristics. The test image displayed in step S706 is an image having regions with different pixel values in the frame. The input unit 101 sequentially displays a plurality of test images so that a region of a certain pixel value in the test image appears to move within the frame. An example of pixel values in the test image displayed in step S706 is shown in FIG. The test image shown in FIG. 16 has different luminance values depending on the position in the frame. That is, in step S706, the display unit 105 displays the moving image including the first pixel value region and the second pixel value region at the first light emission interval while moving the first pixel value region. . However, the test image is not limited to the example of FIG. The test image may have different chromaticity in the image.

また、本形態では、テスト画像における最大の輝度値をLmax、最小の輝度値をLminと示している。また、本形態の入力部101は、図16に示すようなテスト画像を一定速度で移動させて表示させている。そのため、ステップS706で最初に表示されるテスト画像1に対応する図16の正弦波と、その次に表示されるテスト画像2に対応する正弦波とでは、移動速度に応じてずれる。設定する移動速度として、例えば、1[pixel/frame]や6.5[pixel/frame]などがある。   In this embodiment, the maximum luminance value in the test image is indicated as Lmax, and the minimum luminance value is indicated as Lmin. Further, the input unit 101 of this embodiment displays a test image as shown in FIG. 16 by moving it at a constant speed. Therefore, the sine wave of FIG. 16 corresponding to the test image 1 displayed first in step S706 and the sine wave corresponding to the test image 2 displayed next are shifted according to the moving speed. Examples of the moving speed to be set include 1 [pixel / frame] and 6.5 [pixel / frame].

ステップS707において、入力部101は、ユーザから入力された評価値を入力する。ここで、ユーザから入力される評価値は、テスト画像中の画素値の違い(コントラスト)を知覚できるか否かを示す情報である。つまり、ユーザは、テスト画像中に異なる画素値の領域があるか、テスト画像内の画素値がすべて同じに見えるかを示す評価情報を入力する。   In step S707, the input unit 101 inputs an evaluation value input from the user. Here, the evaluation value input from the user is information indicating whether or not a difference (contrast) in pixel values in the test image can be perceived. That is, the user inputs evaluation information indicating whether there are regions having different pixel values in the test image or whether the pixel values in the test image all look the same.

即ち、ステップS707において、入力部101は、第1の画素値の領域と第2の画素値の領域を含む動画像を第1の画素値の領域を移動させながら第1の発光間隔で表示させた場合の表示結果に対する評価情報を入力する。ステップS707において、コントラストを知覚したことを示す評価値が入力された場合はステップS708に進む。一方、コントラストを知覚しない(すべて同じ画素値に見える)ことを示す評価値が入力された場合はステップS706に戻り、テスト画像のコントラスト比を上げる。コントラスト比を上げるとは、例えば、テスト画像中の最大の輝度値Lmaxを上げ、最小の輝度値Lminを変更しないことによって行われる。ただし、Lmaxを変更せずにLminを下げるなど、ほかの方法によりコントラスト比を変更しても良い。   That is, in step S707, the input unit 101 displays a moving image including the first pixel value region and the second pixel value region at the first light emission interval while moving the first pixel value region. Enter the evaluation information for the display result. If an evaluation value indicating that the contrast is perceived is input in step S707, the process proceeds to step S708. On the other hand, if an evaluation value indicating that no contrast is perceived (all appear to be the same pixel value) is input, the process returns to step S706 to increase the contrast ratio of the test image. Increasing the contrast ratio is performed, for example, by increasing the maximum luminance value Lmax in the test image and not changing the minimum luminance value Lmin. However, the contrast ratio may be changed by other methods such as lowering Lmin without changing Lmax.

本形態の入力部101は、初めにLmaxとLminの差を十分に小さくしてテスト画像を表示させ、ユーザがコントラストを知覚しないと評価すると、徐々にコントラスト比を上げていく。そして、入力部101は、ユーザがコントラストを知覚するまで処理を続けることで、コントラストを知覚するときのコントラスト比と、コントラストを知覚しないときのコントラスト比の境界に基づいたLmaxとLminを取得する。   The input unit 101 according to the present embodiment first displays a test image with a sufficiently small difference between Lmax and Lmin, and gradually increases the contrast ratio when it is evaluated that the user does not perceive contrast. The input unit 101 continues processing until the user perceives contrast, thereby acquiring Lmax and Lmin based on the contrast ratio when the contrast is perceived and the boundary between the contrast ratio when the contrast is not perceived.

そして、入力部101は、ステップS707において、所定の評価情報(コントラストを知覚したことを示す評価値)が入力された第1の画素値(Lmax)、第2の画素値(Lmin)を記憶する。   In step S707, the input unit 101 stores the first pixel value (Lmax) and the second pixel value (Lmin) to which predetermined evaluation information (an evaluation value indicating that a contrast is perceived) is input. .

このように、入力部101は、ある空間周波数(例えば10[cycle/deg])の、ある移動速度(例えば10[pixel/sec])において、ユーザがテスト画像中の画素値の違い(コントラスト)を知覚するコントラスト比を取得する。   As described above, the input unit 101 allows the user to change the pixel value in the test image (contrast) at a certain spatial frequency (for example, 10 [cycle / deg]) at a certain moving speed (for example, 10 [pixel / sec]). Get the contrast ratio to perceive.

尚、本形態におけるdegはdegreeの省略であり、例えば10[cycle/deg]は、視野角1度に対して図16に示す正弦波が10周期分表示されていることを示している。ユーザが表示画面のコントラストを知覚しないことを示す評価を行うと、ステップS708に進む。   Note that deg in this embodiment is an abbreviation for degree, and for example, 10 [cycle / deg] indicates that 10 cycles of the sine wave shown in FIG. 16 are displayed for a viewing angle of 1 degree. If the user evaluates that the display screen contrast is not perceived, the process proceeds to step S708.

ステップS708において、入力部101は、ステップS707で取得されたコントラストを知覚したときの輝度値Lmax、Lmin、及び、上述の式(1)を用いて空間的コントラスト感度mを算出する。式(1)に示すように、空間的コントラスト感度mの値が高いユーザほど、輝度値の差が小さくても画面内のコントラストを知覚するユーザであるといえる。尚、空間的コントラスト感度mの算出にも、式(2)や、(3)を用いることが可能である。ステップ708において、ある空間周波数、ある移動速度における空間的コントラスト感度の算出を終えると、ステップS709に進む。   In step S708, the input unit 101 calculates the spatial contrast sensitivity m using the luminance values Lmax and Lmin when the contrast acquired in step S707 is perceived, and the above equation (1). As shown in Expression (1), a user having a higher spatial contrast sensitivity m can be said to be a user who perceives the contrast in the screen even if the difference in luminance value is small. It should be noted that the equations (2) and (3) can also be used for calculating the spatial contrast sensitivity m. When the calculation of the spatial contrast sensitivity at a certain spatial frequency and a certain moving speed is completed in step 708, the process proceeds to step S709.

ステップS709において、入力部101は、すべての空間周波数、すべての移動速度における空間的コントラスト感度の算出を終えたか判定する。そして、すべての空間周波数、すべての移動速度における空間的コントラスト感度の算出を終えたと判定された場合はステップS710に進む。一方、空間的コントラスト感度を算出していない空間周波数、又は移動速度があると判定された場合は、ステップS706に戻り、テスト画像の空間周波数、又はテスト画像の移動速度を変更して空間的コントラスト感度の取得処理を継続する。   In step S709, the input unit 101 determines whether calculation of spatial contrast sensitivity at all spatial frequencies and all moving speeds has been completed. If it is determined that the calculation of spatial contrast sensitivity at all spatial frequencies and all moving speeds has been completed, the process proceeds to step S710. On the other hand, if it is determined that there is a spatial frequency or moving speed for which the spatial contrast sensitivity is not calculated, the process returns to step S706 to change the spatial frequency of the test image or the moving speed of the test image to change the spatial contrast. Continue the sensitivity acquisition process.

ステップS710において、入力部101は、ステップS709で得られた各空間周波数における空間的コントラスト感度mに基づいて、ユーザの空間応答特性を取得する。ユーザの空間応答特性は、例えば図13(B)のようになる。   In step S710, the input unit 101 acquires the user's spatial response characteristics based on the spatial contrast sensitivity m at each spatial frequency obtained in step S709. The spatial response characteristic of the user is, for example, as shown in FIG.

尚、入力部101は、図13(B)に示すような空間応答特性を、テスト画像内における移動速度ごとに取得し、決定部102へ出力する。入力部101が、移動速度ごとの空間応答特性を決定部102へ出力すると、ステップS711に進む。   The input unit 101 acquires the spatial response characteristics as shown in FIG. 13B for each moving speed in the test image and outputs the acquired spatial response characteristics to the determination unit 102. When the input unit 101 outputs the spatial response characteristics for each moving speed to the determination unit 102, the process proceeds to step S711.

ステップS711において、決定部102は、ステップS705とステップS710で取得された時間応答特性と空間応答特性とを組み合わせてユーザの視覚特性を決定する。   In step S711, the determination unit 102 determines the visual characteristics of the user by combining the time response characteristics and the spatial response characteristics acquired in steps S705 and S710.

尚、ステップS711において、決定部102は、ステップS710で移動速度ごとに求められた空間的コントラスト感度を、最大のコントラスト感度の値を用いて正規化する。つまり、上述のように、空間応答特性は、テスト画像の移動速度ごとに取得されている。そして、本形態の決定部102は、最も高く算出された空間的コントラスト感度が1となるように、他の空間的コントラスト感度を正規化する。   In step S711, the determination unit 102 normalizes the spatial contrast sensitivity obtained for each moving speed in step S710 using the maximum contrast sensitivity value. That is, as described above, the spatial response characteristic is acquired for each moving speed of the test image. Then, the determination unit 102 according to the present embodiment normalizes other spatial contrast sensitivities so that the highest spatial contrast sensitivity calculated is 1.

また、ステップS711において、決定部102は、ステップS705で求められた時間応答特性を、最大のコントラスト感度の値を用いて正規化する。つまり、最も高い時間的コントラスト感度が1となるように、他の時間周波数で求めた時間的コントラスト感度を正規化する。図13(A)、(B)に示した応答特性は、正規化された応答特性の図である。   In step S711, the determination unit 102 normalizes the time response characteristic obtained in step S705 using the maximum contrast sensitivity value. That is, the temporal contrast sensitivity obtained at other temporal frequencies is normalized so that the highest temporal contrast sensitivity is 1. The response characteristics shown in FIGS. 13A and 13B are normalized response characteristics.

決定部102は、ステップS711において図13(A)に示した時間応答特性、及び,図13(B)に示した空間応答特性を時空間周波数平面上で積算することでユーザの視覚特性を決定する。例えば、縦軸を時間周波数、横軸を空間周波数として、時間応答特性を縦軸に平行に並べ、空間応答特性を横軸に平行に並べて積算する。このようにして決定されたユーザの視覚特性は、例えば図14のようになる。ここで決定されたユーザの視覚特性と入力動画像信号に応じた画像の時空間スペクトルを積算することで、ユーザによって実際に知覚される画像のスペクトルを得ることができる。   In step S711, the determination unit 102 determines the user's visual characteristics by integrating the temporal response characteristics shown in FIG. 13A and the spatial response characteristics shown in FIG. 13B on the spatio-temporal frequency plane. To do. For example, the vertical axis is the time frequency, the horizontal axis is the spatial frequency, the time response characteristics are arranged in parallel to the vertical axis, and the spatial response characteristics are arranged in parallel to the horizontal axis. The visual characteristics of the user determined in this way are as shown in FIG. 14, for example. The spectrum of the image actually perceived by the user can be obtained by accumulating the spatiotemporal spectrum of the image corresponding to the user's visual characteristics determined here and the input moving image signal.

尚、ユーザの応答特性を取得する方法は上記の方法に限らず、例えば、図8、図16に示したようなテスト画像の代わりに、入力動画像信号に応じた画像を用いてユーザの応答特性を取得しても良い。この場合、例えば、ユーザが表示部105に表示されている画像の視聴中に行われた駆動周波数やコントラスト比、輝度などのパラメータの変更操作に応じて、ユーザの視覚特性を取得するようにしても良い。ユーザは、例えば、リモコンのボタン操作や、表示画面上に表示されたスライドバーをマウスなどの指示具で操作することによってパラメータを変更することができる。   Note that the method of acquiring the user response characteristics is not limited to the above method. For example, instead of the test image as shown in FIGS. 8 and 16, the user response using the image corresponding to the input moving image signal is used. Characteristics may be acquired. In this case, for example, the user's visual characteristics are acquired in accordance with a change operation of parameters such as a drive frequency, a contrast ratio, and luminance performed while the user is viewing the image displayed on the display unit 105. Also good. The user can change the parameter, for example, by operating a button on a remote controller or operating a slide bar displayed on the display screen with an indicator such as a mouse.

<システム全体の処理>
次に、本実施形態の表示制御装置106が行う、表示制御処理について、説明する。尚、本形態の調整部103は、入力動画像信号に応じた画像と、図7を用いて説明した方法によって取得されたユーザの視覚特性とに基づいて、入力動画像信号に応じた画像を表示させた場合にユーザがフリッカを知覚するか否かを示すフリッカ評価値Fを算出する。また、本形態の調整部103は、入力動画像信号に応じた画像と、ユーザの視覚特性とに基づいて、入力動画像信号に応じた画像を表示させた場合にユーザがジャーキネスを知覚するか否かを示すジャーキネス評価値Jを算出する。そして、調整部103は、フリッカ評価値F、ジャーキネス評価値Jが閾値よりも大きい場合、入力動画像信号の変換、及び/又は表示部の設定の変更を行う。
<System-wide processing>
Next, display control processing performed by the display control apparatus 106 according to the present embodiment will be described. Note that the adjustment unit 103 according to the present embodiment generates an image corresponding to the input moving image signal based on the image corresponding to the input moving image signal and the visual characteristics of the user acquired by the method described with reference to FIG. A flicker evaluation value F indicating whether or not the user perceives flicker when displayed is calculated. In addition, the adjustment unit 103 according to the present exemplary embodiment determines whether the user perceives jerkiness when displaying an image according to the input moving image signal based on the image according to the input moving image signal and the visual characteristics of the user. A jerkiness evaluation value J indicating whether or not is calculated. When the flicker evaluation value F and the jerkiness evaluation value J are larger than the threshold values, the adjustment unit 103 converts the input moving image signal and / or changes the setting of the display unit.

以下、図2のフローチャートを用いて本実施形態の動作について詳細に説明する。   Hereinafter, the operation of this embodiment will be described in detail with reference to the flowchart of FIG.

ステップS201において、決定部102は、図7のフローチャートを用いて上述した手順によりユーザの視覚特性を決定し、決定された視覚特性を調整部103に出力する。   In step S <b> 201, the determination unit 102 determines the visual characteristics of the user by the procedure described above using the flowchart of FIG. 7, and outputs the determined visual characteristics to the adjustment unit 103.

ステップS202において、調整部103は、決定部102から出力された視覚特性と共に、画像処理部104から入力動画像信号を取得する。ここで、調整部103が取得する入力動画像信号は、ユーザが現在視聴している番組の、これから表示部105にて表示させる画像(フレーム)に対応する動画像信号である。調整部103は、取得した入力動画像信号に応じた画像から、移動物体のエッジ部を含む領域(移動領域)を抽出する。つまり、本形態の調整部103は、入力動画像信号に応じたフレーム内における移動物体の領域と、移動していない領域の境界を含む領域を抽出する。移動物体のエッジ部を検出する方法として、例えば、前に入力されたフレームとの差分や、動きベクトルの情報などを用いて行う方法がある。   In step S <b> 202, the adjustment unit 103 acquires the input moving image signal from the image processing unit 104 together with the visual characteristics output from the determination unit 102. Here, the input moving image signal acquired by the adjusting unit 103 is a moving image signal corresponding to an image (frame) of a program that the user is currently viewing and to be displayed on the display unit 105 from now on. The adjustment unit 103 extracts a region (moving region) including the edge portion of the moving object from the image corresponding to the acquired input moving image signal. That is, the adjustment unit 103 according to the present embodiment extracts a region including the boundary between the moving object region and the non-moving region in the frame corresponding to the input moving image signal. As a method for detecting an edge portion of a moving object, for example, there is a method using a difference from a previously input frame, information on a motion vector, or the like.

また、ステップS202において、調整部103は、入力動画像信号に応じた画像から、フリッカ候補領域を抽出する。フリッカ候補領域の抽出の詳細は後述する。   In step S202, the adjustment unit 103 extracts a flicker candidate region from an image corresponding to the input moving image signal. Details of the flicker candidate area extraction will be described later.

また、ステップS202において、調整部103は、抽出された移動領域、フリッカ候補領域のそれぞれの輝度値を一定時間計測する。つまり、調整部103は、移動領域とフリッカ候補領域として抽出したブロックの輝度値を複数フレーム分、計測する。そして、複数フレーム分計測された輝度値に基づいて、移動領域、フリッカ候補領域のそれぞれの時空間スペクトルを取得する。時空間スペクトルとは、領域内の輝度値変化を空間周波数、時間周波数について2次元フーリエ変換して得られるスペクトルである。時空間スペクトルの取得処理の詳細は後述する。調整部103が、移動領域、及びフリッカ候補領域の時空間スペクトルを取得するとステップS203に進む。   In step S202, the adjustment unit 103 measures the luminance values of the extracted moving area and flicker candidate area for a certain period of time. That is, the adjustment unit 103 measures the luminance values of the blocks extracted as the moving area and the flicker candidate area for a plurality of frames. Then, based on the luminance values measured for a plurality of frames, the spatiotemporal spectra of the moving area and the flicker candidate area are acquired. A spatio-temporal spectrum is a spectrum obtained by two-dimensional Fourier transform of a change in luminance value within a region with respect to a spatial frequency and a temporal frequency. Details of the spatiotemporal spectrum acquisition process will be described later. When the adjustment unit 103 acquires the spatio-temporal spectrum of the moving region and the flicker candidate region, the process proceeds to step S203.

ステップS203において、調整部103は、取得された時空間スペクトルに対して、ステップS201で決定されたユーザの視覚特性でフィルタ処理することにより、観察スペクトルを取得する。   In step S203, the adjustment unit 103 acquires the observation spectrum by filtering the acquired spatiotemporal spectrum with the visual characteristics of the user determined in step S201.

つまり、調整部103は、ステップS202で取得された移動領域の時空間スペクトルと、ステップS201で決定されたユーザの視覚特性を積算して、ユーザによって実際に視聴される画像の移動領域における時空間スペクトル(移動領域観察スペクトル)を得る。移動領域観察スペクトルの例を図6に示す。同様に、調整部103は、ステップS202で取得されたフリッカ候補領域の時空間スペクトルと、ステップS201で決定されたユーザの視覚特性を積算して、視聴される画像のフリッカ候補領域における時空間スペクトル(フリッカ観察スペクトル)を得る。   That is, the adjustment unit 103 integrates the spatiotemporal spectrum of the moving region acquired in step S202 and the visual characteristics of the user determined in step S201, and the spatiotemporal region in the moving region of the image actually viewed by the user. A spectrum (moving region observation spectrum) is obtained. An example of the moving region observation spectrum is shown in FIG. Similarly, the adjustment unit 103 integrates the spatio-temporal spectrum of the flicker candidate area acquired in step S202 and the visual characteristics of the user determined in step S201, and the spatio-temporal spectrum in the flicker candidate area of the viewed image. (Flicker observation spectrum) is obtained.

つまり、この処理によって、ユーザが入力動画像信号に応じた動画像を視聴した場合に、移動領域、及び、フリッカ候補領域がどのように見えるかがわかる。調整部103が、移動領域観察スペクトル、及び、フリッカ観察スペクトルを取得すると、ステップS204に進む。   In other words, this process shows how the moving area and the flicker candidate area look when the user views a moving image corresponding to the input moving image signal. When the adjustment unit 103 acquires the moving region observation spectrum and the flicker observation spectrum, the process proceeds to step S204.

ステップS204において、調整部103は、フリッカ評価値F、及びジャーキネス評価値Jを算出する。フリッカ評価値Fは、ステップS202において取得された入力動画像信号に応じた動画像を表示させた場合に、ユーザがフリッカを知覚する度合いを示す評価値である。また、ジャーキネス評価値Jは、ステップS202において取得された入力動画像信号に応じた動画像を表示させた場合に、ユーザがジャーキネスを知覚する度合いを示す評価値である。つまり、これらの評価値が高い場合に、ユーザは、フリッカ、ジャーキネスをより強く感じる。フリッカ評価値Fおよびジャーキネス評価値Jの算出の処理は後述する。   In step S204, the adjustment unit 103 calculates the flicker evaluation value F and the jerkiness evaluation value J. The flicker evaluation value F is an evaluation value indicating the degree to which the user perceives flicker when a moving image corresponding to the input moving image signal acquired in step S202 is displayed. The jerkiness evaluation value J is an evaluation value indicating the degree to which the user perceives jerkiness when a moving image corresponding to the input moving image signal acquired in step S202 is displayed. That is, when these evaluation values are high, the user feels flicker and jerkiness more strongly. Processing for calculating the flicker evaluation value F and the jerkiness evaluation value J will be described later.

ステップS205において、調整部103は、算出されたフリッカ評価値Fとジャーキネス評価値Jが、それぞれ閾値よりも高いか否かを判定する。この結果により、フリッカやジャーキネスがユーザにとって気になるかが判定される。つまり、フリッカ評価値Fがフリッカ閾値Fthより高い、またはジャーキネス評価値Jがジャーキネスの閾値Jthより高い場合(ステップS205でYes)、入力動画像信号に応じた画像のフリッカ、またはジャーキネスが気になると判定して、ステップS206に進む。また、どちらの評価値も閾値以下の場合(ステップS205でNoの場合)、フリッカ、及びジャーキネスが気にならないと判定して、入力動画像信号をそのまま表示部105に出力する。 In step S205, the adjustment unit 103 determines whether or not the calculated flicker evaluation value F and jerkiness evaluation value J are each higher than a threshold value. Based on this result, it is determined whether flicker and jerkiness are anxious for the user. That is, the flicker evaluation value F is higher than the flicker threshold F th, or jerkiness evaluation value J is higher than the threshold J th of jerkiness (Yes in step S205), the image corresponding to the input video signal flicker or jerkiness is air, The process proceeds to step S206. If both evaluation values are equal to or less than the threshold value (No in step S205), it is determined that flicker and jerkiness are not anxious, and the input moving image signal is output to the display unit 105 as it is.

ステップS206(制御手順)において、調整部103は、ステップS205の判定結果と観察スペクトルに応じて、調整データを生成する。   In step S206 (control procedure), the adjustment unit 103 generates adjustment data according to the determination result in step S205 and the observation spectrum.

つまり、調整部103は、ステップS205において、例えば、フリッカ評価値Fがフリッカ閾値Fthより高いと判定された場合、調整部103は、駆動周波数を上げるための調整データを生成する。駆動周波数を上げると、発光間隔が短くなり、フリッカが知覚される度合いを低減することができる。調整部103は、駆動周波数を上げる場合、駆動周波数を上げたあとのフリッカ評価値Fがフリッカ閾値Fth以下となるように、調整後の駆動周波数を決定する。 That is, in step S205, for example, when it is determined that the flicker evaluation value F is higher than the flicker threshold value Fth , the adjustment unit 103 generates adjustment data for increasing the drive frequency. When the drive frequency is increased, the light emission interval is shortened, and the degree of flicker perception can be reduced. When the driving frequency is increased, the adjustment unit 103 determines the adjusted driving frequency so that the flicker evaluation value F after the driving frequency is increased is equal to or less than the flicker threshold Fth .

ただし、フリッカ評価値Fがフリッカ閾値Fthよりも高いと判定された場合に生成される調整データは、駆動周波数を上げるための調整データに限らず、例えば、入力動画像信号に応じた画像の輝度を下げるための調整データであっても良い。調整部103は、入力動画像信号に応じた画像の輝度を低くする場合、輝度を下げたあとの画像に応じたフリッカ評価値Fがフリッカ閾値Fth以下となるように、調整後の輝度を決定する。 However, the adjustment data generated when it is determined that the flicker evaluation value F is higher than the flicker threshold F th is not limited to the adjustment data for increasing the drive frequency, but for example, the image data corresponding to the input moving image signal. It may be adjustment data for reducing the luminance. When the luminance of the image corresponding to the input moving image signal is lowered, the adjustment unit 103 adjusts the luminance after adjustment so that the flicker evaluation value F corresponding to the image after the luminance is lowered is equal to or less than the flicker threshold Fth. decide.

また、調整部103によって生成される調整データは、上記の例のうちの1つでも、複数であってもよい。調整部103は、生成した調整データを、その内容に応じて、画像処理部104、又は表示部105に出力する。つまり、例えば、調整部103は、入力動画像信号に応じた画像の輝度を下げるために行う画像処理のパラメータを含む調整データを画像処理部104に出力し、駆動周波数を上げるための調整データを表示部105に出力する。調整部103は、表示画面の輝度を下げるための調整データを表示部105に出力するようにしても良い。   Further, the adjustment data generated by the adjustment unit 103 may be one or more of the above examples. The adjustment unit 103 outputs the generated adjustment data to the image processing unit 104 or the display unit 105 according to the content. That is, for example, the adjustment unit 103 outputs adjustment data including parameters for image processing performed to lower the luminance of the image according to the input moving image signal to the image processing unit 104, and the adjustment data for increasing the drive frequency is output. The data is output to the display unit 105. The adjustment unit 103 may output adjustment data for reducing the luminance of the display screen to the display unit 105.

また、図2のステップS205において、調整部103は、例えば、ジャーキネス評価値Jがジャーキネス閾値Jthより高いと判定した場合、駆動周波数を下げるための調整データを生成する。駆動周波数を下げると、ジャーキネスが知覚される度合いを低減することができる。調整部103は、駆動周波数を下げる場合、駆動周波数を下げたあとの表示画像に応じたジャーキネス評価値Jがジャーキネス閾値Jth以下となるように、調整後の駆動周波数を決定する。 Further, in step S205 of FIG. 2, the adjustment unit 103 is, for example, if the jerkiness evaluation value J is determined to be higher than the jerkiness threshold J th, and generates the adjustment data for lowering the driving frequency. Decreasing the driving frequency can reduce the degree to which jerkiness is perceived. Adjustment unit 103, when lowering the driving frequency, jerkiness evaluation value J depending on the display image after lowering the driving frequency to be equal to or less than jerkiness threshold J th, determines the driving frequency after adjustment.

ただし、ジャーキネス評価値Jがジャーキネス閾値Jthよりも高いと判定された場合に生成される調整データは、駆動周波数を下げるための調整データに限らず、例えば、表示画像のコントラスト比を低くするための調整データであっても良い。調整部103は、コントラスト比を低くする場合、コントラスト比を下げたあとの表示画像に応じたジャーキネス評価値Jがジャーキネス閾値Jth以下となるように、調整後のコントラスト比を決定する。 However, adjustment data jerkiness evaluation value J is generated when it is determined to be higher than the jerkiness threshold J th is not limited to the adjustment data for lowering the driving frequency, for example, to lower the contrast ratio of the display image The adjustment data may be used. Adjustment unit 103, to lower the contrast ratio, as jerkiness evaluation value J depending on the display image after lowering the contrast ratio becomes less jerkiness threshold J th, to determine the contrast ratio after adjustment.

尚、駆動周波数、及びコントラスト比以外の調整データの例として、例えば、入力動画像信号に応じた1つの画像(入力フレーム)データから複数生成される画像(サブフレーム)の輝度が異なるようにするための調整データであっても良い。この例を、毎秒60フレームの入力動画像信号を毎秒120フレームで表示させる場合を例に挙げて説明する。この場合、1つの画像(入力フレーム)から2つの画像(サブフレーム)を生成するが、この2つのサブフレームのうち、一方のサブフレームの輝度を、他方のサブフレームの輝度よりも低くすれば、ジャーキネスを目立たなくすることができる。従って、サブフレームの輝度が異なるように、例えば、1つの入力フレームから生成される複数のサブフレームの分配比率を変更するための調整データを生成するようにしても良い。   As an example of the adjustment data other than the drive frequency and the contrast ratio, for example, the brightness of images (subframes) generated from one image (input frame) data corresponding to the input moving image signal is made different. Adjustment data may be used. This example will be described using an example in which an input moving image signal of 60 frames per second is displayed at 120 frames per second. In this case, two images (subframes) are generated from one image (input frame). If the luminance of one of the two subframes is lower than the luminance of the other subframe, Jerkness can be made inconspicuous. Therefore, for example, adjustment data for changing the distribution ratio of a plurality of subframes generated from one input frame may be generated so that the luminance of the subframes is different.

また、ほかの調整データの例として、例えば、入力動画像信号に応じた画像のエッジを強調するための指示や、生成される複数のサブフレームのうちの一部に対して、例えばローパスフィルタをかけるための指示やパラメータを含むものであっても良い。   Other examples of adjustment data include, for example, a low-pass filter for an instruction for emphasizing an edge of an image according to an input moving image signal or a part of a plurality of generated subframes. It may include instructions and parameters for making calls.

尚、詳しくは後述するが、図6に示した移動領域観察スペクトルのうち、メイン成分が、移動領域の自然な移動を示すスペクトル成分であり、それ以外の成分(サブ成分)が、ジャーキネスが知覚される原因となる成分である。つまり、メイン成分に対してサブ成分が大きいほど、ジャーキネス評価値Jは高く算出される。また、調整部103は、ジャーキネス評価値Jがジャーキネス閾値Jthよりも高いと判定された場合、メイン成分を残し、サブ成分が低減するように、調整データを生成する。
また、生成される調整データは、上記の例のうちの1つでも、複数であってもよい。調整部103は、生成した調整データを、その内容に応じて、画像処理部104、又は表示部105に出力する。例えば、調整部103は、入力動画像信号に応じた画像のコントラスト比を下げるための調整データを、画像処理部104に出力する。また、調整部103は、例えば、駆動周波数を下げるための調整データを表示部105に出力する。
As will be described in detail later, in the moving region observation spectrum shown in FIG. 6, the main component is a spectral component indicating the natural movement of the moving region, and the other components (sub-components) are perceived by jerkiness. It is a component that causes That is, the jerkiness evaluation value J is calculated higher as the sub component is larger than the main component. The adjustment unit 103, if the jerkiness evaluation value J is determined to be higher than the jerkiness threshold J th, leaving the main component, as the sub-component is reduced to generate an adjusted data.
Further, the adjustment data to be generated may be one or more of the above examples. The adjustment unit 103 outputs the generated adjustment data to the image processing unit 104 or the display unit 105 according to the content. For example, the adjustment unit 103 outputs adjustment data for reducing the contrast ratio of the image corresponding to the input moving image signal to the image processing unit 104. For example, the adjustment unit 103 outputs adjustment data for lowering the drive frequency to the display unit 105.

尚、調整部103が、入力動画像信号に応じた画像をそのまま出力してもフリッカ、ジャーキネスが知覚されないと判定された場合は、調整の必要がないことを示す調整データを画像処理部104、及び表示部105に出力する。調整部103が調整データを出力すると、ステップS207に進む。   If the adjustment unit 103 determines that flicker and jerkiness are not perceived even if the image corresponding to the input moving image signal is output as it is, adjustment data indicating that adjustment is not necessary is sent to the image processing unit 104, And output to the display unit 105. When the adjustment unit 103 outputs the adjustment data, the process proceeds to step S207.

ステップS207において、画像処理部104は、調整部103から受け取った調整データに応じて、入力動画像信号の変換を行う。すなわち、画像処理部104は、例えば、入力動画像信号に応じた画像の輝度、又はコントラスト比の変更、或いは、エッジ強調や、ローパスフィルタによるフィルタリング処理等を行う。そして、画像処理部104は、変換後の入力動画像信号を表示部105に出力し、ステップS208に進む。   In step S <b> 207, the image processing unit 104 converts the input moving image signal in accordance with the adjustment data received from the adjustment unit 103. That is, the image processing unit 104 performs, for example, a change in the luminance or contrast ratio of an image according to an input moving image signal, edge enhancement, filtering processing using a low-pass filter, or the like. Then, the image processing unit 104 outputs the converted input moving image signal to the display unit 105, and proceeds to step S208.

ステップS208において、表示部105は、調整部103から受け取った調整データに応じて、表示部105の設定を変更する。すなわち、表示部105は、調整データに応じて、例えば、駆動周波数を変更する。また、表示部105は、調整データに応じて、例えば、表示部105で設定される輝度やコントラスト比の設定値を変更する。表示部105が設定を変更すると、処理を終了する。   In step S <b> 208, the display unit 105 changes the setting of the display unit 105 according to the adjustment data received from the adjustment unit 103. That is, the display unit 105 changes the driving frequency, for example, according to the adjustment data. In addition, the display unit 105 changes, for example, the set values of brightness and contrast ratio set in the display unit 105 according to the adjustment data. When the display unit 105 changes the setting, the process ends.

<ジャーキネス評価値Jの算出>
次に、調整部103が行う、ジャーキネス評価値Jの算出について説明する。ここで、ジャーキネス評価値Jは、ユーザが実際に視聴する画像において、ユーザがジャーキネス(動きぼけ)を知覚する度合いを示した評価値である。つまり、ジャーキネス評価値Jが高いほど、ユーザがジャーキネスをより強く感じることになる。調整部103は、ジャーキネス評価値Jを、入力動画像信号とユーザの視覚特性から算出することができる。ジャーキネス評価値Jの算出方法は以下のようになる。
<Calculation of jerkiness evaluation value J>
Next, calculation of the jerkiness evaluation value J performed by the adjustment unit 103 will be described. Here, the jerkiness evaluation value J is an evaluation value indicating the degree to which the user perceives jerkiness (motion blur) in an image actually viewed by the user. That is, the higher the jerkiness evaluation value J, the stronger the user feels jerkiness. The adjustment unit 103 can calculate the jerkiness evaluation value J from the input moving image signal and the visual characteristics of the user. The calculation method of the jerkiness evaluation value J is as follows.

まず、調整部103は、決定部102から視覚特性を取得する。これは、図2のステップS201の処理に対応する。   First, the adjustment unit 103 acquires visual characteristics from the determination unit 102. This corresponds to the process of step S201 in FIG.

また、調整部103は、画像処理部104から入力動画像信号を取得する。ここで、調整部103が取得する入力動画像信号は、ユーザが現在視聴している番組の、これから表示部105にて表示させる画像(フレーム)に対応する画像信号である。取得される画像の例を図3に示す。調整部103は、入力動画像信号に応じた画像から、移動物体のエッジ部を含む領域(移動領域)を抽出する。つまり、本形態の調整部103は、入力動画像信号に応じた画像内における移動物体の領域と、移動していない領域の境界(エッジ部)を含む移動領域(ブロック301)を抽出する。尚、移動物体のエッジ部を検出する方法として、例えば、前に入力された画像との差分や、動きベクトルの情報などを用いて行う方法がある。また、図3の例に示されるように、抽出される移動領域に、移動物体のすべての領域が含まれている必要はない。また、移動物体が複数検出された場合、本形態の調整部103は、より移動速度が速い移動物体の移動領域を抽出する。ただし、例えば、フレーム全体を抽出しても良い。   The adjustment unit 103 acquires an input moving image signal from the image processing unit 104. Here, the input moving image signal acquired by the adjustment unit 103 is an image signal corresponding to an image (frame) to be displayed on the display unit 105 from the program that the user is currently viewing. An example of the acquired image is shown in FIG. The adjustment unit 103 extracts a region (moving region) including the edge portion of the moving object from the image corresponding to the input moving image signal. That is, the adjustment unit 103 according to the present embodiment extracts a moving area (block 301) including a moving object area in the image corresponding to the input moving image signal and a boundary (edge part) between the non-moving area. As a method for detecting the edge portion of a moving object, for example, there is a method using a difference from a previously input image, information on a motion vector, or the like. Further, as illustrated in the example of FIG. 3, it is not necessary that the extracted moving area includes all areas of the moving object. When a plurality of moving objects are detected, the adjustment unit 103 according to this embodiment extracts a moving area of the moving object having a higher moving speed. However, for example, the entire frame may be extracted.

さらに、調整部103は、移動領域として決定されたブロック301の輝度値をある一定時間計測する。つまり、調整部103は、移動物体のエッジ部を含むブロック301内の輝度値を複数フレーム分、計測する。調整部103によって、移動領域の輝度値を4フレーム分、計測した結果を図4に示す。ただし、計測するフレーム数は4フレームに限らない。この例では、移動物体が、1フレーム時間当たりΔx1ずつ移動している。また、調整部103は、計測されたブロック301内の輝度値の変化を、時間と空間の2次元座標に変換する。この変換の結果は、図5のようになる。以降、この時間と空間の2次元座標における表示を時空間表示と呼び、時空間表示された信号を時空間信号と呼ぶ。   Further, the adjustment unit 103 measures the luminance value of the block 301 determined as the moving region for a certain period of time. That is, the adjustment unit 103 measures the luminance value in the block 301 including the edge portion of the moving object for a plurality of frames. FIG. 4 shows the result of measuring the luminance value of the moving area for four frames by the adjustment unit 103. However, the number of frames to be measured is not limited to 4 frames. In this example, the moving object moves by Δx1 per frame time. In addition, the adjustment unit 103 converts the measured change in the luminance value in the block 301 into two-dimensional coordinates of time and space. The result of this conversion is as shown in FIG. Hereinafter, the display in the two-dimensional coordinates of time and space is referred to as spatiotemporal display, and the signal displayed in spatiotemporal space is referred to as a spatiotemporal signal.

尚、本形態では、ブロック301内の輝度値を計測する例について説明したが、例えば、輝度値の代わりに、入力動画像信号のRGB値などを計測するようにしても良い。   In this embodiment, the example of measuring the luminance value in the block 301 has been described. However, for example, the RGB value of the input moving image signal may be measured instead of the luminance value.

図5に示した時空間表示において、入力動画像信号1、2、3、4は、それぞれ、表示部105で表示される順序に対応している。また、図5の出力信号間隔は、表示部105の駆動周波数に対応している。例えば、駆動周波数が60[Hz]である場合、出力信号間隔は1/60[sec]である。また、図5の発光時間は表示部105の発光時間である。このとき、出力信号間隔や発光時間は表示部105のプロファイルから取得することができる。または、表示部105のあるアドレスに駆動電圧の計測器や発光計測器を用意して、そこから取得することも可能である。   In the spatio-temporal display shown in FIG. 5, the input moving image signals 1, 2, 3, and 4 correspond to the order displayed on the display unit 105. Further, the output signal interval in FIG. 5 corresponds to the drive frequency of the display unit 105. For example, when the drive frequency is 60 [Hz], the output signal interval is 1/60 [sec]. The light emission time in FIG. 5 is the light emission time of the display unit 105. At this time, the output signal interval and the light emission time can be acquired from the profile of the display unit 105. Alternatively, it is also possible to prepare a drive voltage measuring device or a light emission measuring device at an address on the display unit 105 and obtain it from there.

調整部103は、時空間信号を2次元フーリエ変換することで時間周波数と空間周波数のスペクトルを取得する。以降、2次元フーリエ変換によって得られたスペクトルを時空間スペクトルと呼ぶ。本形態における、移動領域における時空間スペクトルの例を図17に示す。尚、本実施形態で取得される時空間スペクトルは、直流成分が除かれている。   The adjustment unit 103 obtains a spectrum of a time frequency and a space frequency by performing a two-dimensional Fourier transform on the space-time signal. Hereinafter, the spectrum obtained by the two-dimensional Fourier transform is referred to as a spatiotemporal spectrum. An example of the spatio-temporal spectrum in the moving region in this embodiment is shown in FIG. The spatiotemporal spectrum acquired in this embodiment has a direct current component removed.

調整部103が入力動画像信号を取得してから移動領域の時空間スペクトルを取得するまでの処理は、図2のステップS202上で行われる。   The process from when the adjustment unit 103 acquires the input moving image signal until it acquires the spatiotemporal spectrum of the moving region is performed on step S202 in FIG.

調整部103は、移動領域の時空間スペクトルに対して、ユーザの視覚特性でフィルタ処理することにより、移動領域観察スペクトルを取得する。つまり、調整部103は、ステップS202で取得された時空間スペクトルと、ステップS201で決定されたユーザの視覚特性を積算することで、ユーザによって実際に視聴される画像の移動領域における時空間スペクトル(移動領域観察スペクトル)を得る。つまり、この処理によって、ユーザが入力動画像信号に応じた画像を見たときに、移動領域がどのように見えるかがわかる。   The adjustment unit 103 acquires the moving region observation spectrum by filtering the spatiotemporal spectrum of the moving region with the visual characteristics of the user. In other words, the adjustment unit 103 integrates the spatiotemporal spectrum acquired in step S202 and the visual characteristics of the user determined in step S201, so that the spatiotemporal spectrum in the moving region of the image actually viewed by the user ( A moving region observation spectrum) is obtained. That is, by this process, it can be seen how the moving area looks when the user views the image corresponding to the input moving image signal.

例えば、入力動画像信号のブロック301における時空間スペクトル(図17)に対して、ある移動速度におけるユーザの視覚特性(図14)を積算すると、そのユーザが実際に視聴する移動領域の時空間スペクトル(移動領域観察スペクトル)は図6のようになる。すなわち、調整部103は、ユーザの視覚特性と、入力動画像信号に応じた画像の移動物体のエッジ部分を含む領域(移動領域)における時空間スペクトルを掛け合わせることにより、移動領域観察スペクトルが求められる。   For example, when the user's visual characteristics (FIG. 14) at a certain moving speed are added to the spatiotemporal spectrum (FIG. 17) in the block 301 of the input moving image signal, the spatiotemporal spectrum of the moving region actually viewed by the user The (moving region observation spectrum) is as shown in FIG. That is, the adjustment unit 103 obtains the moving region observation spectrum by multiplying the user's visual characteristics and the spatio-temporal spectrum in the region (moving region) including the edge portion of the moving object of the image according to the input moving image signal. It is done.

図6において、白枠で囲まれたスペクトルが、移動物体が滑らかに移動して見える成分(メイン成分)である。一方、それ以外のスペクトル(サブ成分)は、ジャーキネスが知覚される原因になるノイズの成分である。つまり、移動領域観察スペクトルにおいて、メイン成分の振幅に対して、サブ成分の振幅が小さいほど、移動物体が滑らかに移動している画像がよりはっきりと知覚される。従って、本形態の調整部103は、サブ成分のスペクトルの総和を算出し、その値をジャーキネス評価値Jとする。   In FIG. 6, a spectrum surrounded by a white frame is a component (main component) in which a moving object appears to move smoothly. On the other hand, other spectra (sub-components) are noise components that cause jerkiness to be perceived. That is, in the moving region observation spectrum, as the amplitude of the sub component is smaller than the amplitude of the main component, an image in which the moving object is smoothly moving is perceived more clearly. Therefore, the adjustment unit 103 according to the present embodiment calculates the sum of the sub component spectra, and sets the value as the jerkiness evaluation value J.

調整部103が移動領域観察スペクトルを算出する処理は、図2のステップS203に対応する。   The process in which the adjustment unit 103 calculates the moving region observation spectrum corresponds to step S203 in FIG.

<フリッカ評価値算出の処理>
次に、調整部103が行う、フリッカ評価値Fの算出について説明する。フリッカ評価値Fは、ユーザが入力動画像信号に応じた画像を視聴したときにフリッカを知覚する度合いを示した評価値である。つまり、フリッカ評価値Fが高いほど、ユーザがフリッカをより強く感じることになる。フリッカ評価値Fは、入力動画像信号とユーザの視覚特性から算出することができる。フリッカ評価値Fの算出方法は以下のようになる。
<Flicker evaluation value calculation process>
Next, calculation of the flicker evaluation value F performed by the adjustment unit 103 will be described. The flicker evaluation value F is an evaluation value indicating the degree to which flicker is perceived when the user views an image corresponding to the input moving image signal. That is, the higher the flicker evaluation value F, the stronger the user feels flicker. The flicker evaluation value F can be calculated from the input moving image signal and the visual characteristics of the user. The method for calculating the flicker evaluation value F is as follows.

まず、調整部103は、決定部102から視覚特性を取得する。これは、図2のステップS201の処理に対応する。   First, the adjustment unit 103 acquires visual characteristics from the determination unit 102. This corresponds to the process of step S201 in FIG.

また、調整部103は、画像処理部104から入力動画像信号を取得する。ここで、調整部103が取得する入力動画像信号は、ユーザが現在視聴している番組の、これから表示部105にて表示させる画像(フレーム)に対応する画像信号である。取得される画像の例を図19に示す。調整部103は、入力動画像信号に応じた画像から、フリッカ候補領域を抽出する。フリッカ候補領域の抽出手順は、以下のようになる。   The adjustment unit 103 acquires an input moving image signal from the image processing unit 104. Here, the input moving image signal acquired by the adjustment unit 103 is an image signal corresponding to an image (frame) to be displayed on the display unit 105 from the program that the user is currently viewing. An example of the acquired image is shown in FIG. The adjustment unit 103 extracts a flicker candidate region from an image corresponding to the input moving image signal. The procedure for extracting the flicker candidate area is as follows.

まず、調整部103は、入力動画像信号のRGB値を、光刺激値を示すXYZ値に変換する。入力動画像信号のRGB値をRGB、表示部105のガンマをγ、RGB値からXYZ値への変換マトリクスをMとすると、RGB値とXYZ値の関係は、式(4)のようになる。   First, the adjustment unit 103 converts the RGB value of the input moving image signal into an XYZ value indicating a light stimulus value. When the RGB value of the input moving image signal is RGB, the gamma of the display unit 105 is γ, and the conversion matrix from the RGB value to the XYZ value is M, the relationship between the RGB value and the XYZ value is expressed by Equation (4).

このとき、表示部105のガンマや変換マトリクスは、表示部105があらかじめ保持しているものとする。   At this time, it is assumed that the display unit 105 holds the gamma and the conversion matrix of the display unit 105 in advance.

次に、XYZ刺激値に変換された信号のうち、輝度を表すY値を、閾値Ythを用いて2値化する。つまり、入力動画像信号に応じた画像の画素ごとに、その輝度が閾値Ythよりも高いか否かを判定する。この閾値Ythは、例えば、実験によって取得される、一般的に人間がフリッカを感じるとされる輝度値の半分に設定することができる。このように、閾値Ythを用いてY値を2値化することで、入力動画像信号に応じた画像のうちのフリッカを感じうる領域とそれ以外の領域とに分けることができる。 Next, among the converted signals to the XYZ stimulus values, the Y values representing the brightness, binarized using a threshold Y th. That is, it is determined whether or not the luminance of each pixel of the image corresponding to the input moving image signal is higher than the threshold value Yth . This threshold value Yth can be set to, for example, half of the luminance value obtained by experiments and generally considered to cause human flicker. In this way, by binarizing the Y value using the threshold value Y th , it is possible to divide into an area where flicker can be felt in an image corresponding to the input moving image signal and an area other than that.

例えば、図19(a)のような画像がディスプレイに表示されているとき、入力動画像信号のRGB値をXYZ値に変換し、さらに、Y値を閾値Ythで2値化すると、表示画像は図19(b)のようになる。このとき、閾値Ythより高いY値の領域の面積をSとする。この面積Sが閾値Sthより大きい場合、その領域内からフリッカ候補領域を抽出する。即ち、本実施形態の調整部103は、輝度が閾値Ythよりも高い画素の領域の面積が、閾値Sthよりも大きい場合、その領域の中からフリッカ候補領域を抽出する。 For example, when an image as shown in FIG. 19A is displayed on the display, if the RGB value of the input moving image signal is converted into an XYZ value and the Y value is binarized with a threshold value Yth , the display image is displayed. Is as shown in FIG. At this time, the area of a region having a Y value higher than the threshold value Yth is S. When the area S is larger than the threshold value Sth , a flicker candidate region is extracted from the region. That is, the adjustment unit 103 of the present embodiment, luminance is the area of the region of higher pixel than the threshold Y th, it is larger than the threshold value S th, and extracts the flicker candidate region from among the regions.

尚、本形態において、閾値Sthは、視野角10°に相当する直径の円の面積とする。これは、輝度の高い領域が視野角10〜20°以上に渡っているときに、フリッカが気になりやすいためである。逆に、輝度の高い領域があっても、その領域が視野角10°以下であれば、ユーザがフリッカとして知覚しにくいため、本形態では、フリッカ評価値Fの算出には用いない。尚、視野角10°の面積は、視聴距離(ユーザと表示画面との距離)で変化する。従って、本実施形態の表示制御装置106は、ユーザに視聴距離を入力させ、入力された視聴距離に基づいて、閾値Sthを設定する。 In this embodiment, the threshold value S th is the area of a circle having a diameter corresponding to a viewing angle of 10 °. This is because flicker tends to be a concern when a high-luminance region extends over a viewing angle of 10 to 20 ° or more. On the contrary, even if there is a region with high luminance, if the region is less than 10 ° viewing angle, it is difficult for the user to perceive it as flicker. Therefore, in this embodiment, it is not used for calculating the flicker evaluation value F. The area with a viewing angle of 10 ° varies depending on the viewing distance (the distance between the user and the display screen). Therefore, the display control apparatus 106 according to the present embodiment causes the user to input the viewing distance, and sets the threshold value S th based on the input viewing distance.

このようにすることで、より表示装置の利用環境に応じた閾値Sthを設定することができ、より精度良く、フリッカ評価値Fを算出することができる。ただし、視聴距離を一定値として取得するようにしても良い。ここでは、テレビの一般的な視聴距離とされる3H(ディスプレイの高さの3倍の距離)の場合の閾値Sthの算出方法を説明する。ディスプレイがフルハイビジョン(1920×1080pixel)であるとすると、閾値Sthは例えば、式(5)を用いて求めることができる。 In this way, it is possible to set the threshold value S th according to the usage environment of the display device, and to calculate the flicker evaluation value F with higher accuracy. However, the viewing distance may be acquired as a constant value. Here, a calculation method of the threshold value S th in the case of 3H (distance that is three times the height of the display) that is a general viewing distance of a television will be described. Assuming that the display is full high-definition (1920 × 1080 pixels), the threshold value S th can be obtained using, for example, Expression (5).

式(5)により、Sthは約25万pixelとなる。従って、入力動画像信号に応じた画像のY値が、閾値Ythより高い領域が25万pixel以上あるとき、その領域内からフリッカ候補領域を抽出する。フリッカ候補領域として抽出される領域の例を図19(c)に示す。図19(c)では、フリッカ候補領域が長方形である場合の例を示しているが、これに限らず、例えば、円、楕円など、任意の形とすることができる。また、本形態の調整部103は、フリッカ候補領域が、ユーザの視野角10°以上の領域を含むように、フリッカ候補領域を決定する。 According to equation (5), S th is approximately 250,000 pixels. Thus, Y values of the image corresponding to the input moving image signal, when high region than the threshold Y th is above 250,000 pixel, and extracts the flicker candidate region from the region. An example of a region extracted as a flicker candidate region is shown in FIG. FIG. 19C shows an example in which the flicker candidate area is a rectangle, but the present invention is not limited to this. Further, the adjustment unit 103 according to the present embodiment determines the flicker candidate area so that the flicker candidate area includes an area having a viewing angle of 10 ° or more of the user.

調整部103は、フリッカ候補領域として決定した領域の輝度値をある一定時間計測する。つまり、調整部103は、フリッカ候補領域として決定された領域の輝度値を複数フレーム分、抽出する。尚、フリッカ候補領域として複数フレーム分抽出される輝度値は、RGB値から変換されたXYZ値から得られる輝度値(Y値)であり、2値化は行われない。   The adjustment unit 103 measures the luminance value of the area determined as the flicker candidate area for a certain period of time. That is, the adjustment unit 103 extracts the luminance value of the area determined as the flicker candidate area for a plurality of frames. Note that the luminance values extracted for a plurality of frames as flicker candidate areas are luminance values (Y values) obtained from XYZ values converted from RGB values, and are not binarized.

そして、複数フレームのフリッカ候補領域の輝度値から時空間スペクトルを取得する。調整部103によってフリッカ候補領域の輝度値を4フレーム分、計測し、フリッカ候補領域内の輝度値の変化を時間と空間の2次元座標に変換した結果(時空間表示)を図20に示す。図20には、抽出されたフリッカ候補領域内の輝度値が4フレームに渡って、すべて同じ輝度値であった場合の時空間信号を示している。尚、フリッカ候補領域が複数とりうる場合、本形態の調整部103は、より表示画面の中心に近い領域をフリッカ候補領域として抽出する。ただし、例えば、フレーム全体を抽出しても良い。また、計測する輝度値は4フレーム分に限らない。   Then, a spatio-temporal spectrum is acquired from the luminance values of the flicker candidate areas of a plurality of frames. FIG. 20 shows a result (time-space display) of measuring the luminance value of the flicker candidate area for four frames by the adjustment unit 103 and converting the change of the luminance value in the flicker candidate area into two-dimensional coordinates in time and space. FIG. 20 shows a spatio-temporal signal when the luminance values in the extracted flicker candidate region are all the same luminance values over four frames. When a plurality of flicker candidate areas can be taken, the adjustment unit 103 according to this embodiment extracts an area closer to the center of the display screen as a flicker candidate area. However, for example, the entire frame may be extracted. Further, the luminance value to be measured is not limited to 4 frames.

調整部103は、時空間信号を2次元フーリエ変換し、さらにフリッカと関係のない直流成分を除去して、時間周波数と空間周波数のスペクトル(時空間スペクトル)を取得する。本形態におけるフリッカ候補領域の時空間スペクトルの例を図21に示す。ここで得られた時空間スペクトルに対して、ユーザの視覚特性を積算することで、フリッカ評価値Fを求めることができる。   The adjustment unit 103 performs a two-dimensional Fourier transform on the spatiotemporal signal, further removes a direct current component unrelated to flicker, and acquires a temporal frequency and a spatial frequency spectrum (spatiotemporal spectrum). An example of the spatio-temporal spectrum of the flicker candidate region in this embodiment is shown in FIG. The flicker evaluation value F can be obtained by integrating the user's visual characteristics to the spatio-temporal spectrum obtained here.

図21で示した時空間スペクトルを、説明のために時間周波数軸と振幅軸で示したものが、図22(a)である。調整部103が、図22(a)のスペクトルに対して、ユーザの視覚特性を積算すると図22(b)のようになる。本形態の調整部103は、時空間スペクトルとユーザの視覚領域を積算して得られたスペクトルの総和をフリッカ評価値Fとする。   FIG. 22A shows the spatio-temporal spectrum shown in FIG. 21 with a time frequency axis and an amplitude axis for explanation. When the adjustment unit 103 adds the user's visual characteristics to the spectrum of FIG. 22A, the result is as shown in FIG. The adjustment unit 103 according to the present embodiment sets the total sum of the spectrum obtained by integrating the spatiotemporal spectrum and the user's visual region as the flicker evaluation value F.

本実施形態の表示制御装置106は、以上のような構成により、次のような動作をする。つまり、表示制御装置106は、ユーザの応答特性を取得する段階において、例えば、ちらつきが知覚されると判断されたときのLmaxとLminを記憶する。そして、入力動画像信号に応じた動画像を表示させたときに、記憶されているLmaxとLminが出現する場合に、入力動画像信号の変換、及び/又は表示画面の設定の変更を行う。   The display control apparatus 106 of the present embodiment operates as follows with the above configuration. That is, the display control apparatus 106 stores, for example, Lmax and Lmin when it is determined that flicker is perceived in the stage of acquiring the response characteristics of the user. Then, when the stored Lmax and Lmin appear when the moving image corresponding to the input moving image signal is displayed, the input moving image signal is converted and / or the setting of the display screen is changed.

すなわち、図7のステップ701において、入力部101は、テスト画像の画像信号(第1の画像信号)に基づいて、テスト画像1(第1の画像)、及び、テスト画像2(第2の画像)を第1の駆動周波数(第1の発光間隔)で表示させる。   That is, in step 701 in FIG. 7, the input unit 101 determines that the test image 1 (first image) and the test image 2 (second image) are based on the image signal (first image signal) of the test image. ) At the first drive frequency (first light emission interval).

そして、ステップS702において、入力部101は、テスト画像1、2の表示結果に対する評価値(評価情報)を入力する。そして、入力部101は、所定の評価情報(フリッカを知覚したことを示す評価値)が入力されたテスト画像1の画素値(Lmax)、及び、テスト画像2の画素値(Lmin)を記憶する。尚、上述のように、ステップS702で記憶される画素値(LmaxとLmin)は、ユーザがちらつきを知覚するコントラスト比と、ちらつきを知覚しないコントラスト比の境界に基づく画素値である。   In step S <b> 702, the input unit 101 inputs an evaluation value (evaluation information) for the display result of the test images 1 and 2. Then, the input unit 101 stores the pixel value (Lmax) of the test image 1 and the pixel value (Lmin) of the test image 2 to which predetermined evaluation information (an evaluation value indicating flicker is perceived) is input. . As described above, the pixel values (Lmax and Lmin) stored in step S702 are pixel values based on the boundary between the contrast ratio at which the user perceives flicker and the contrast ratio at which the flicker is not perceived.

そして、調整部103は、入力動画像信号(第2の画像信号)に基づく画像が第1の発光間隔で表示されると、フリッカ候補領域が、記憶されたテスト画像1の画素値(Lmax)、及び、テスト画像2の画素値(Lmin)で順次表示される場合、次の制御をする。すなわち、調整部103は、フリッカ候補領域の発光間隔を第1の発光間隔よりも短くする(駆動周波数を上げる)制御、及び/又は、フリッカ候補領域の輝度を下げる制御を行う。ただし、フリッカ候補領域だけでなく、例えば表示画面全体の発光間隔や輝度を制御するようにしても良い。   Then, when the image based on the input moving image signal (second image signal) is displayed at the first light emission interval, the adjustment unit 103 displays the flicker candidate area as the pixel value (Lmax) of the stored test image 1. When the pixel values (Lmin) of the test image 2 are sequentially displayed, the following control is performed. In other words, the adjustment unit 103 performs control to shorten the light emission interval of the flicker candidate region to be shorter than the first light emission interval (increase the driving frequency) and / or control to decrease the luminance of the flicker candidate region. However, not only the flicker candidate area but also the light emission interval and brightness of the entire display screen may be controlled, for example.

このような構成により、ユーザにとって表示画像の劣化が知覚されにくいパラメータ(例えば、発光間隔、輝度)で画像を表示させることができる。   With such a configuration, it is possible to display an image with parameters (for example, a light emission interval and luminance) that are difficult for the user to perceive deterioration of the display image.

尚、本形態の入力部101は、ステップS702で、複数の異なる発光間隔(駆動周波数)のそれぞれにおける評価値を入力している。そして、決定部102は、複数の異なる発光間隔のそれぞれにおける評価値に基づいて視覚特性を決定している。従って、例えば、入力部101は、第1の発光間隔で、第1の画像(テスト画像1)と第2の画像(テスト画像2)を順次表示させ、第3の発光間隔でテスト画像1とテスト画像2を表示させる。   Note that the input unit 101 of the present embodiment inputs evaluation values at each of a plurality of different light emission intervals (drive frequencies) in step S702. And the determination part 102 determines the visual characteristic based on the evaluation value in each of several different light emission intervals. Therefore, for example, the input unit 101 sequentially displays the first image (test image 1) and the second image (test image 2) at the first light emission interval, and the test image 1 at the third light emission interval. Test image 2 is displayed.

そして、入力部101は、第1の発光間隔と第3の発光間隔のうち、所定の評価情報(画面のちらつきを知覚したことを示す評価値)が入力された発光間隔を、第1の画像の画素値、第2の画像の画素値と共に記憶する。そして、調整部103は、入力部101に記憶された発光間隔で入力動画像信号に基づく画像を表示させると、表示させる画像内の所定の領域(フリッカ候補領域)の画素値が、第1の画像の画素値、第2の画像の画素値に対応する場合、以下の制御をする。すなわち、調整部103は、フリッカ候補領域の発光間隔を短くする制御とフリッカ候補領域の輝度を下げる制御のうち少なくとも一方を行う。   Then, the input unit 101 sets the light emission interval in which predetermined evaluation information (evaluation value indicating that the screen flicker is perceived) out of the first light emission interval and the third light emission interval as the first image. And the pixel value of the second image. Then, when the adjustment unit 103 displays an image based on the input moving image signal at the light emission interval stored in the input unit 101, the pixel value of a predetermined region (flicker candidate region) in the image to be displayed is the first value. When the pixel value of the image corresponds to the pixel value of the second image, the following control is performed. That is, the adjustment unit 103 performs at least one of control for shortening the light emission interval of the flicker candidate area and control for reducing the luminance of the flicker candidate area.

このようにすることで、ユーザにとって表示画像の劣化が知覚されにくいパラメータ(例えば、発光間隔、輝度)で画像を表示させることができる。   By doing so, it is possible to display an image with parameters (for example, a light emission interval and luminance) that are difficult for the user to perceive deterioration of the display image.

また、本実施形態の表示制御装置106は、以上のような構成により、次のような動作をする。   In addition, the display control apparatus 106 of the present embodiment operates as follows with the above configuration.

すなわち、図7のステップ706において、表示部105は、第1の画素値の領域と第2の画素値の領域を含む動画像を第1の画素値の領域を移動させながら第1の駆動周波数(第1の発光間隔)で表示させる。そして、ステップS707において、入力部101は、動画像の表示結果に対する評価値(評価情報)を入力する。そして入力部101は、所定の評価情報(コントラストを知覚したことを示す評価値)が入力された第1の画素値と第2の画素値を記憶する。   That is, in step 706 of FIG. 7, the display unit 105 moves the moving image including the first pixel value region and the second pixel value region in the first pixel value region while moving the first pixel value region. Displayed at (first emission interval). In step S707, the input unit 101 inputs an evaluation value (evaluation information) for the moving image display result. The input unit 101 stores the first pixel value and the second pixel value to which predetermined evaluation information (an evaluation value indicating that a contrast is perceived) is input.

そして、調整部103は、入力動画像信号に応じて第3の画素値の領域と第4の画素値の領域を含む第1の画像と第2の画像を第3の画素値の領域を移動させながら第1の発光間隔で順次、表示させる場合、以下の制御をする。すなわち、調整部103は、第3、第4の画素値、及び、記憶された第1、第2の画素値に基づいて、発光間隔を第1の発光間隔よりも長くする制御と入力動画像信号に応じて表示される動画像のコントラスト比を下げる制御の少なくとも一方を行う。尚、発光間隔を長くすることは、駆動周波数を下げることに対応している。   Then, the adjusting unit 103 moves the first pixel value area including the third pixel value area and the fourth pixel value area in the third pixel value area in accordance with the input moving image signal. In the case where the images are sequentially displayed at the first light emission interval, the following control is performed. That is, the adjustment unit 103 performs control and input moving image to make the light emission interval longer than the first light emission interval based on the third and fourth pixel values and the stored first and second pixel values. At least one of control for reducing the contrast ratio of the moving image displayed in accordance with the signal is performed. Note that increasing the light emission interval corresponds to lowering the drive frequency.

つまり、調整部103は、入力動画像信号に応じた動画像を表示させた場合に、表示画像内の移動領域に応じて発生するジャーキネスがユーザによって知覚されるか否かを、第1、第2の画素値に基づいて判定する。そして、調整部103は、ユーザがジャーキネスを知覚すると判定された場合、発光間隔の制御と入力動画像信号の変換をするための処理の少なくとも一方を行う。   That is, the adjustment unit 103 determines whether or not jerkiness generated according to the moving area in the display image is perceived by the user when the moving image corresponding to the input moving image signal is displayed. The determination is based on the pixel value of 2. Then, when it is determined that the user perceives jerkiness, the adjustment unit 103 performs at least one of processing for controlling the light emission interval and converting the input moving image signal.

尚、本形態の入力部101は、画素値が異なる複数のテスト画像に対する評価値を入力する。つまり、入力部101は、第1の画素値を含む領域と第2の画素値の領域を含む動画像を第1の画素値の領域を移動させながら第1の発光間隔で表示させた場合の評価情報を入力する。また、入力部101は、第5の画素値の領域と第6の画素値の領域を含む動画像を第5の画素値の領域を移動させながら第1の発光間隔で表示させた場合の評価情報を入力する。ここで入力される評価情報は、例えば、表示画面内でコントラストが知覚できるか否かを示す評価情報である。そして、調整部103は、第3の画素値の領域、及び、第4の画素値の領域を含む画像を、第3の領域を移動させながら順次、表示させる場合、以下の制御を行う。すなわち、調整部103は、第1、第2の画素値、及び、第5、第6の画素値のうち、所定の評価情報が入力された画素値、及び、第3、第4の画素値に基づいて、発光間隔を長くする制御と動画像のコントラスト比を下げる制御の少なくとも一方を行う。   Note that the input unit 101 of this embodiment inputs evaluation values for a plurality of test images having different pixel values. That is, the input unit 101 displays a moving image including a region including the first pixel value and a region including the second pixel value at the first light emission interval while moving the region including the first pixel value. Enter evaluation information. In addition, the input unit 101 evaluates a moving image including a fifth pixel value region and a sixth pixel value region displayed at a first light emission interval while moving the fifth pixel value region. Enter information. The evaluation information input here is, for example, evaluation information indicating whether or not contrast can be perceived in the display screen. Then, the adjustment unit 103 performs the following control when sequentially displaying the image including the third pixel value region and the fourth pixel value region while moving the third region. That is, the adjustment unit 103 receives the pixel value to which predetermined evaluation information is input, and the third and fourth pixel values out of the first and second pixel values and the fifth and sixth pixel values. Based on the above, at least one of control for increasing the light emission interval and control for reducing the contrast ratio of the moving image is performed.

また、本形態の入力部101は、移動領域の移動速度が異なる複数のテスト画像に対する評価値を入力する。つまり、入力部101は、第1の画素値の領域と第2の画素値の領域を含む動画像を、第1の画素値の領域が第1の速度で移動するように表示させた場合の評価情報を入力する。また、入力部101は、第1の画素値の領域と第2の画素値の領域を含む動画像を、第1の画素値の領域が第2の速度で移動するように表示させた場合の評価情報を入力する。ここで、入力される評価情報は、例えば、表示画面内でコントラストが知覚できるか否かを示す評価情報である。そして、調整部103は、入力動画像信号に応じて第3の画素値の領域と第4の画素値の領域を含む第1の画像と第2の画像を第3の画素値の領域を所定の速度で移動させながら第1の発光間隔で順次、表示される場合、以下のような制御を行う。すなわち、調整部103は、第1、第2、第3、第4の画素値に基づいて、発光間隔を長くする制御と動画像のコントラスト比を下げる制御の少なくとも一方を行う。尚、所定の速度とは、第1の速度と第2の速度のうちジャーキネスが知覚されることを示す評価が入力された速度である。また、第3、第4の画素値は、これから表示する画像の移動領域と非移動領域の境界における画素値である。   In addition, the input unit 101 according to the present embodiment inputs evaluation values for a plurality of test images having different moving speeds in the moving area. In other words, the input unit 101 displays a moving image including the first pixel value region and the second pixel value region so that the first pixel value region moves at the first speed. Enter evaluation information. In addition, the input unit 101 displays a moving image including the first pixel value region and the second pixel value region so that the first pixel value region moves at the second speed. Enter evaluation information. Here, the input evaluation information is, for example, evaluation information indicating whether or not contrast can be perceived in the display screen. Then, the adjustment unit 103 determines the third pixel value region as the first image and the second image including the third pixel value region and the fourth pixel value region according to the input moving image signal. In the case where the images are sequentially displayed at the first light emission interval while moving at the speed, the following control is performed. That is, the adjustment unit 103 performs at least one of control for increasing the light emission interval and control for reducing the contrast ratio of the moving image based on the first, second, third, and fourth pixel values. The predetermined speed is a speed at which an evaluation indicating that jerkiness is perceived is input from the first speed and the second speed. The third and fourth pixel values are pixel values at the boundary between the moving area and the non-moving area of the image to be displayed.

尚、表示制御装置106は、次のようにしてジャーキネスが知覚されるかを判断するようにしても良い。すなわち、入力部101は、テスト画像を表示させ、ユーザがジャーキネスを知覚するか否かの評価値を入力させる。そして、ジャーキネスを知覚する評価が行われたときに表示されたテスト画像内の移動領域と非移動領域の画素値を記憶する。そして、調整部103は、入力動画像信号に応じた画像内の移動領域と非移動領域の画素値が、記憶された画素値に対応する場合、ユーザがジャーキネスを知覚すると判断する。そして、調整部103は、ユーザがジャーキネスを知覚すると判断すると、入力動画像信号の変換と表示画面の設定の変更の少なくとも一方を行う。このようにしても、ユーザにとって表示画像の劣化が知覚されにくいパラメータ(例えば、発光間隔やコントラスト比)で画像を表示させることができる。   Note that the display control device 106 may determine whether jerkiness is perceived as follows. That is, the input unit 101 displays a test image and inputs an evaluation value as to whether or not the user perceives jerkiness. Then, the pixel values of the moving area and the non-moving area in the test image displayed when the evaluation for perceiving jerkiness is performed are stored. Then, the adjustment unit 103 determines that the user perceives jerkiness when the pixel values of the moving area and the non-moving area in the image corresponding to the input moving image signal correspond to the stored pixel values. When the adjustment unit 103 determines that the user perceives jerkiness, the adjustment unit 103 performs at least one of conversion of the input moving image signal and change of the display screen setting. Even in this case, it is possible to display an image with parameters (for example, a light emission interval and a contrast ratio) that are difficult for the user to perceive deterioration of the display image.

以上説明したように、本実施形態の決定部102は、テスト画像を表示させた場合に、フリッカや空間的なコントラストが知覚されるか否かに関する評価に基づいて、ユーザの視覚特性を決定する。   As described above, the determination unit 102 of the present embodiment determines the visual characteristics of the user based on the evaluation regarding whether flicker or spatial contrast is perceived when a test image is displayed. .

そして、調整部103は、これから表示させる画像内の移動領域の時空間スペクトルとユーザの視覚特性を積算することで、ユーザによって視聴される移動領域の時空間スペクトル(移動領域観察スペクトル)を得る。   Then, the adjusting unit 103 obtains a spatiotemporal spectrum (moving region observation spectrum) of the moving region viewed by the user by integrating the spatiotemporal spectrum of the moving region in the image to be displayed and the visual characteristics of the user.

そして、調整部103は、移動領域観察スペクトルのメイン成分、及び、サブ成分の大きさに基づいて、入力動画像信号に応じた画像を表示させたときにジャーキネスが知覚されるかを示すジャーキネス評価値Jを算出する。そして、ジャーキネス評価値Jが所定の値よりも高い場合、ジャーキネスが知覚される度合いが下がるように、表示部のパラメータ(例えば駆動周波数)の変更と入力動画像信号の変換の少なくとも一方を行うための調整データを決定する。これにより、ジャーキネスを知覚されにくくすることができる。   Then, the adjustment unit 103 determines whether jerkiness is perceived when displaying an image corresponding to the input moving image signal based on the size of the main component and the sub component of the moving region observation spectrum. The value J is calculated. Then, when the jerkiness evaluation value J is higher than a predetermined value, at least one of changing the parameter (for example, driving frequency) of the display unit and converting the input moving image signal is performed so that the degree of jerkiness perception is lowered. Determine the adjustment data. Thereby, jerkiness can be made difficult to perceive.

一方、調整部103は、これから表示させる画像内の所定の領域(フリッカ候補領域)の時空間スペクトルとユーザの視覚特性を積算することで、ユーザによって視聴されるフリッカ候補領域の時空間スペクトル(フリッカ観察スペクトル)を得る。   On the other hand, the adjustment unit 103 integrates the spatio-temporal spectrum of a predetermined area (flicker candidate area) in the image to be displayed and the visual characteristics of the user to thereby calculate the spatio-temporal spectrum (flicker of the flicker candidate area viewed by the user). (Observation spectrum) is obtained.

そして、調整部103は、フリッカ観察スペクトルのメイン成分、及び、サブ成分の大きさに基づいて、入力動画像信号に応じた画像を表示させたときにフリッカが知覚されるかを示すフリッカ評価値Fを算出する。そして、フリッカ評価値Fが所定の値よりも高い場合、フリッカが知覚される度合いが下がるように、表示部のパラメータ(例えば駆動周波数)の変更と入力動画像信号を変換の少なくとも一方を行うための調整データを決定する。このようにすることにより、フリッカを知覚されにくくすることができる。   Then, the adjustment unit 103 indicates a flicker evaluation value indicating whether flicker is perceived when an image corresponding to the input moving image signal is displayed based on the size of the main component and the sub component of the flicker observation spectrum. F is calculated. When the flicker evaluation value F is higher than a predetermined value, at least one of changing the parameter (for example, driving frequency) of the display unit and converting the input moving image signal is performed so that the degree of flicker perception is reduced. Determine the adjustment data. By doing so, flicker can be made difficult to perceive.

尚、本実施形態の調整部103は、フリッカ評価値Fが閾値Fthよりも高く、かつ、ジャーキネス評価値Jが閾値Jthよりも高い場合、表示画像の輝度値及びコントラスト比を下げるための調整データを生成する。なぜなら、例えば、発光間隔を長く(駆動周波数を低く)すれば、ジャーキネスの知覚の度合いを下げることができるが、フリッカが知覚されやすくなってしまうからである。このようにすることで、フリッカとジャーキネスのいずれも知覚されにくくすることができる。 The adjustment unit 103 of the present embodiment, flicker evaluation value F is higher than the threshold F th, and, if jerkiness evaluation value J is higher than the threshold J th, for reducing the luminance value and the contrast ratio of the display image Generate adjustment data. This is because, for example, if the light emission interval is increased (the drive frequency is lowered), the degree of jerkiness perception can be reduced, but flicker is easily perceived. By doing so, both flicker and jerkiness can be made difficult to perceive.

また、本実施形態の決定部102は、テスト画像に対する評価値に基づいて決定された視覚特性を、ユーザによって入力された表示画面のパラメータの変更指示に応じて補正する。つまり、決定部102は、入力動画像信号に応じた動画像が表示されているときに、例えば、表示画面の発光間隔を短くする(駆動周波数を上げる)入力が行われた場合、次のように視覚特性を補正する。すなわち、決定部102は、テスト画像に基づいて決定されたコントラスト感度よりも高いコントラスト感度となるように、視覚特性を補正する。
これは、表示画面の発光間隔を短くする入力が行われたのは、フリッカが知覚された可能性が高いと判断できるためである。同様に、決定部102は、表示画面の輝度やコントラスト比の変更指示に応じて、視覚特性を補正する。このようにすることで、より精度良くユーザの視覚特性を決定することができる。ただし、テスト画像で用いて決定した視覚特性を補正しないようにしても良い。
In addition, the determination unit 102 according to the present embodiment corrects the visual characteristics determined based on the evaluation value for the test image in accordance with a display screen parameter change instruction input by the user. That is, when the moving image corresponding to the input moving image signal is displayed, for example, when the input for shortening the light emission interval of the display screen (increasing the driving frequency) is performed, the determination unit 102 is as follows. Correct the visual characteristics. That is, the determination unit 102 corrects the visual characteristic so that the contrast sensitivity is higher than the contrast sensitivity determined based on the test image.
This is because the input for shortening the light emission interval of the display screen is performed because it can be determined that there is a high possibility that flicker has been perceived. Similarly, the determination unit 102 corrects the visual characteristics according to an instruction to change the brightness or contrast ratio of the display screen. By doing in this way, a user's visual characteristic can be determined more accurately. However, the visual characteristics determined by using the test image may not be corrected.

また、本実施形態では、入力動画像信号に応じた動画像を表示させる場合について説明したが、静止画像を表示させる場合にも本発明は適用可能である。即ち、例えば、決定されたユーザの視覚特性と表示画像に応じてフリッカが知覚されるか判定し、その結果に応じて発光間隔(駆動周波数)等の表示パラメータを制御するようにすることができる。   In the present embodiment, the case where a moving image corresponding to an input moving image signal is displayed has been described. However, the present invention can also be applied to a case where a still image is displayed. That is, for example, it is determined whether flicker is perceived according to the determined visual characteristics of the user and the display image, and display parameters such as the light emission interval (drive frequency) can be controlled according to the result. .

また、本実施形態では、テスト画像の表示結果に対する評価値の入力に基づいて視覚特性を決定したが、例えば、入力動画像信号に応じた動画像を表示させているときに入力されたパラメータに基づいて、ユーザの視覚特性を決定することもできる。   In this embodiment, the visual characteristics are determined based on the input of the evaluation value for the display result of the test image. For example, the parameters input when the moving image corresponding to the input moving image signal is displayed are used. Based on this, the visual characteristics of the user can also be determined.

<実施形態2>
次に、第2の実施形態について、実施形態1との差異を中心に説明する。実施形態1では、表示されたテスト画像において、画素値の時間的・空間的な変化が知覚されたか否かに基づいた評価値に応じて視覚特性を決定していた。それに対し、本実施形態では、テスト画像に対する見え具合の評価値に基づいて視覚特性を決定する場合について説明する。
<Embodiment 2>
Next, the second embodiment will be described focusing on differences from the first embodiment. In the first embodiment, the visual characteristics are determined according to the evaluation value based on whether or not the temporal and spatial changes of the pixel value are perceived in the displayed test image. On the other hand, in the present embodiment, a case will be described in which the visual characteristics are determined based on the evaluation value of the appearance of the test image.

図10は第2実施形態の表示制御装置が行う動作を示すフローチャートである。以下、図1のブロック図と図10のフローチャートを用いて、本実施形態について説明する。   FIG. 10 is a flowchart showing an operation performed by the display control apparatus of the second embodiment. Hereinafter, this embodiment will be described with reference to the block diagram of FIG. 1 and the flowchart of FIG.

ステップS1001において、決定部102は、入力部101から取得された応答特性に基づいてユーザの視覚特性を決定する。入力部101による応答特性の取得、及び、ユーザの視覚特性の決定は、以下のように行う。   In step S <b> 1001, the determination unit 102 determines the user's visual characteristics based on the response characteristics acquired from the input unit 101. Acquisition of response characteristics by the input unit 101 and determination of the visual characteristics of the user are performed as follows.

まず、入力部101は、図9のような、複数の空間周波数のコントラストを含むテスト画像を、ある時間周波数、ある移動速度で移動させながら、表示部105に表示させる。尚、図9には、12種類の空間周波数の領域で構成されるコントラスト集合が3つ、表示されている。本実施形態では、3つのコントラスト集合が、一定の移動速度で右側に移動するように表示される。そして、1番右のコントラスト集合が表示画面の右端から消えると、新たに表示画面の左端からコントラスト集合を表示させる。したがって、表示画面上には常に3つのコントラスト集合が表示される。ただし、表示画面上のコントラスト集合の数は3つに限らず、また、1つのコントラスト集合に含まれる空間周波数の種類は、12に限らない。   First, the input unit 101 displays a test image including a plurality of spatial frequency contrasts as shown in FIG. 9 on the display unit 105 while moving at a certain time frequency and a certain moving speed. In FIG. 9, three contrast sets each including 12 types of spatial frequency regions are displayed. In the present embodiment, the three contrast sets are displayed so as to move to the right side at a constant moving speed. When the rightmost contrast set disappears from the right end of the display screen, the contrast set is newly displayed from the left end of the display screen. Therefore, three contrast sets are always displayed on the display screen. However, the number of contrast sets on the display screen is not limited to three, and the types of spatial frequencies included in one contrast set are not limited to twelve.

つまり、図9に示すように、コントラスト集合には、例えば、白色の部分と黒色の部分の間隔が異なる複数(12個)の領域が含まれる。そして、入力部101は、それぞれの領域に対して、ユーザによる見え具合を示す評価値を入力させる。   In other words, as illustrated in FIG. 9, the contrast set includes, for example, a plurality (12) of regions having different intervals between the white portion and the black portion. Then, the input unit 101 inputs an evaluation value indicating how the user looks in each area.

ユーザは、コントラスト集合に含まれる空間周波数ごとに、コントラストの見え具合に関する評価値を入力する。評価値は、例えば100点満点で評価できるように設定する。つまり、例えば、5[pixel/frame]で移動し、時間周波数60[cycle/sec]で表示されているコントラスト集合のうち、1番上に表示されているコントラストの見え具合を入力する。ここで、コントラスト(画素値の違い)がはっきりと知覚できれば100点、まったく知覚できなければ0点となる。図9の例では、空間周波数に応じて横に並んだ4つの黒色の領域がはっきりと知覚できれば100点、それらがまったく知覚できない場合は0点が入力される。例えば、黒色の領域が3つに見えたり、5つに見えた場合は、4つに見えた場合よりも低い評価値が入力される。尚、例えば、4つに知覚されるはずの黒色の領域が5つに知覚されるということは、ジャーキネスが知覚されていると判断することができる。   The user inputs an evaluation value related to the appearance of contrast for each spatial frequency included in the contrast set. The evaluation value is set so that it can be evaluated, for example, on a 100-point scale. That is, for example, it moves at 5 [pixel / frame], and the appearance of the contrast displayed at the top of the contrast set displayed at a time frequency of 60 [cycle / sec] is input. Here, if the contrast (difference in pixel value) can be clearly perceived, it becomes 100 points, and if it cannot be perceived at all, it becomes 0 points. In the example of FIG. 9, 100 points are input if the four black regions arranged side by side according to the spatial frequency can be clearly perceived, and 0 points are input if they cannot be perceived at all. For example, when the black region appears to be three or five, a lower evaluation value is input than when the black region appears to be four. For example, if black areas that should be perceived as four are perceived as five, it can be determined that jerkiness is perceived.

1番上に表示されているコントラストの見え具合の評価値を入力すると、順次、下に表示されているコントラストの見え具合の評価値を入力していく。そして、コントラスト集合のすべての評価値の入力を終えると、入力部101は、テスト画像におけるコントラスト集合の移動速度、又は時間周波数を変えて表示し、再びユーザにコントラストの見え具合を評価させる。   When the evaluation value of the contrast appearance displayed at the top is input, the evaluation value of the contrast appearance displayed below is sequentially input. When the input of all evaluation values of the contrast set is completed, the input unit 101 displays the contrast set moving speed or time frequency in the test image, and allows the user to evaluate the appearance of the contrast again.

つまり、例えば、移動速度を1[pixel/frame]から50[pixel/frame]まで、5[pixel/frame]刻みで設定し、それぞれの移動速度において、時間周波数が、60[cycle/sec]、120[cycle/sec]、180[cycle/sec]の場合のコントラスト集合の各コントラストの見え具合を評価させる。また、図9の例では、1つのコントラスト集合につき12個の評価値が入力される。ただし、例えば、評価値として0点が入力されると、それよりもコントラストが知覚されにくい部分の評価値を自動的に0点にする。入力部101は、取得された各コントラストの見え具合の評価値を決定部102に出力する。   That is, for example, the moving speed is set from 1 [pixel / frame] to 50 [pixel / frame] in increments of 5 [pixel / frame], and at each moving speed, the time frequency is 60 [cycle / sec], The degree of appearance of each contrast in the contrast set in the case of 120 [cycle / sec] and 180 [cycle / sec] is evaluated. In the example of FIG. 9, 12 evaluation values are input for each contrast set. However, for example, when 0 point is input as the evaluation value, the evaluation value of the portion where contrast is less perceivable is automatically set to 0 point. The input unit 101 outputs the acquired evaluation value of the appearance of each contrast to the determination unit 102.

そして、決定部102は、入力部101から出力された評価値を、縦軸に時間周波数、横軸に空間周波数とした3次元座標上にプロットすることでユーザの視覚特性を決定する。プロット結果の例を図18に示す。図18は、ある移動速度のときのユーザの視覚特性の例である。つまり、上述のように、11種類の移動速度のそれぞれにおけるコントラストの見え具合を評価させた場合、図18のような図が11個、作成される。尚、図18では、見やすくするために、空間周波数が1、5、10、15、20、25Hzの6種類の場合の評価値をプロットしている。   Then, the determination unit 102 determines the user's visual characteristics by plotting the evaluation value output from the input unit 101 on three-dimensional coordinates with the vertical axis representing the time frequency and the horizontal axis representing the spatial frequency. An example of the plot result is shown in FIG. FIG. 18 is an example of the visual characteristics of the user at a certain moving speed. That is, as described above, when the appearance of contrast at each of the 11 types of movement speeds is evaluated, 11 diagrams as shown in FIG. 18 are created. In FIG. 18, evaluation values are plotted for six types of spatial frequencies of 1, 5, 10, 15, 20, and 25 Hz for easy viewing.

決定部102は、ステップS1001において、決定されたユーザの視覚特性を、調整部103に出力する。尚、評価値は移動速度ごと、時間周波数ごとのほかにコントラストごとなどを行ってもよい。このようにすれば、入力動画像信号に応じた画像のコントラスト情報に応じて、よりユーザの視覚特性に適した画像の表示を行うことができる。調整部103がユーザの視覚特性を取得すると、ステップS1002に進む。   In step S <b> 1001, the determination unit 102 outputs the determined visual characteristics of the user to the adjustment unit 103. The evaluation value may be determined for each moving speed and for each contrast in addition to each time frequency. In this way, it is possible to display an image more suitable for the visual characteristics of the user according to the contrast information of the image corresponding to the input moving image signal. When the adjustment unit 103 acquires the visual characteristics of the user, the process proceeds to step S1002.

ステップS1002において、調整部103は、ステップS1001で取得されたユーザの視覚特性と、入力動画像信号に基づいて、最適な調整データを決定する。つまり、調整部103は、ステップS1002において、入力動画像信号を画像処理部104経由で取得する。この入力動画像信号は、ユーザによって視聴されている番組の、これから表示させる画像の画像信号である。そして、調整部103は、入力動画像信号に応じた画像内におけるの移動物体を検出し、その移動速度を取得する。   In step S1002, the adjustment unit 103 determines optimal adjustment data based on the visual characteristics of the user acquired in step S1001 and the input moving image signal. That is, the adjustment unit 103 acquires the input moving image signal via the image processing unit 104 in step S1002. This input moving image signal is an image signal of an image to be displayed in the future of the program being viewed by the user. Then, the adjustment unit 103 detects a moving object in the image corresponding to the input moving image signal, and acquires the moving speed.

さらに、調整部103は、表示画像内の、移動物体とその周辺の領域をフーリエ変換することで、該領域の空間周波数を算出する。
次に、算出された移動速度に最も近い速度のユーザの視覚特性を選択する。上述の例では、11種類の移動速度に対応するユーザの視覚特性のうち、1つの視覚特性が選択される。そして、調整部103は、選択されたユーザの視覚特性のデータを参照し、算出された空間周波数において、最も評価値が高い時間周波数の値に基づいて、駆動周波数を決定する。このようにして決定された駆動周波数は、ユーザにとって移動物体を最も知覚しやすい駆動周波数となる。
Furthermore, the adjustment unit 103 performs a Fourier transform on the moving object and the surrounding area in the display image, thereby calculating the spatial frequency of the area.
Next, the visual characteristic of the user whose speed is closest to the calculated moving speed is selected. In the above-described example, one visual characteristic is selected from the visual characteristics of the user corresponding to the eleven types of movement speeds. Then, the adjustment unit 103 refers to the visual characteristic data of the selected user, and determines the drive frequency based on the time frequency value having the highest evaluation value in the calculated spatial frequency. The drive frequency determined in this manner is the drive frequency at which the moving object is most easily perceived by the user.

例えば、入力動画像信号に応じた画像において、移動物体の移動速度が10[pixel/frame]であり、移動物体とその周辺の領域の空間周波数が15Hzであった場合、駆動周波数は、以下のように決定される。すなわち、図18に示すユーザの視覚特性が、移動物体の移動速度が10[pixel/frame]の場合の視覚特性であった場合、入力動画像信号に応じた画像を表示させるときの駆動周波数は120Hzに決定される。これは、以下の理由による。すなわち、図18によると、駆動周波数が120Hzのときの評点(評価値)が、ほかの駆動周波数(60、240Hz)の場合よりも高い。これは、図9のようなテスト画像を10[pixel/frame]で移動して表示させた場合に、駆動周波数が60Hzの場合や、240Hzの場合よりも、駆動周波数が120Hzの場合のほうが、空間周波数15Hzに対応する領域ではっきりと4つの黒色の領域を知覚できたことを示している。   For example, in the image according to the input moving image signal, when the moving speed of the moving object is 10 [pixel / frame] and the spatial frequency of the moving object and the surrounding area is 15 Hz, the driving frequency is To be determined. That is, when the visual characteristic of the user shown in FIG. 18 is the visual characteristic when the moving speed of the moving object is 10 [pixel / frame], the driving frequency for displaying an image according to the input moving image signal is 120 Hz is determined. This is due to the following reason. That is, according to FIG. 18, the score (evaluation value) when the drive frequency is 120 Hz is higher than the case of other drive frequencies (60, 240 Hz). This is because when the test image as shown in FIG. 9 is moved and displayed at 10 [pixel / frame], the drive frequency is 120 Hz rather than the drive frequency is 60 Hz or 240 Hz. It shows that four black areas can be clearly perceived in the area corresponding to the spatial frequency of 15 Hz.

このように、調整部103は、入力動画像信号に応じた画像の移動の速さと、画像内の空間周波数に基づいて、入力動画像信号に応じた画像のコントラストが最もはっきりと知覚される駆動周波数を決定する。   As described above, the adjusting unit 103 is a drive in which the contrast of the image according to the input moving image signal is most clearly perceived based on the moving speed of the image according to the input moving image signal and the spatial frequency in the image. Determine the frequency.

ステップS1004において、表示部105は、調整データに基づいて駆動周波数を調整し、画像を表示させる。   In step S1004, the display unit 105 adjusts the drive frequency based on the adjustment data, and displays an image.

以上説明したように、本実施形態の表示制御装置は、テスト画像を評価させることによって、ユーザの視覚特性を決定する。そして、表示画像内の移動物体の動きの速さ、及び、表示画像の空間周波数、ユーザの視覚特性に応じて、最適な駆動周波数を決定する。このようにすることにより、表示画像の劣化を知覚されにくくすることができる。   As described above, the display control apparatus according to the present embodiment determines the visual characteristics of the user by evaluating the test image. Then, an optimum drive frequency is determined according to the speed of movement of the moving object in the display image, the spatial frequency of the display image, and the visual characteristics of the user. By doing so, it is possible to make it difficult to perceive deterioration of the display image.

<実施形態3>
次に、第3の実施形態について、実施形態1との差異を中心に説明する。
<Embodiment 3>
Next, a third embodiment will be described focusing on differences from the first embodiment.

実施形態1では、入力動画像信号とユーザの視覚特性に応じて、画像処理部104における入力動画像信号の変換と表示部105の設定変更の少なくとも一方を行っていた。これに対し、本実施形態では、入力動画像信号を入力する画像入力装置において入力動画像信号の変換を行う。   In the first embodiment, at least one of the conversion of the input moving image signal in the image processing unit 104 and the setting change of the display unit 105 is performed according to the input moving image signal and the visual characteristics of the user. On the other hand, in the present embodiment, the input moving image signal is converted in the image input device that inputs the input moving image signal.

図11は、本発明の第3実施形態に関わる表示制御装置のシステム構成例を示すブロック図である。画像入力装置107が、調整部103と画像処理部104に接続される。画像入力装置107は、画像を入力する装置であり、例えば、デジタルビデオカメラである。これは、例えば、バーチャルリアリティ内でユーザの視界に映る映像を入手するバーチャルリアリティカメラとして用いることも可能である。   FIG. 11 is a block diagram showing a system configuration example of a display control apparatus according to the third embodiment of the present invention. An image input device 107 is connected to the adjustment unit 103 and the image processing unit 104. The image input device 107 is a device for inputting an image, and is, for example, a digital video camera. This can also be used, for example, as a virtual reality camera that obtains an image that appears in the user's field of view within the virtual reality.

図12は本発明の第3実施形態の表示制御装置の処理を示すフローチャートである。   FIG. 12 is a flowchart showing the processing of the display control apparatus according to the third embodiment of the present invention.

ステップS1201において、決定部102は、入力部101によって取得された応答特性に基づいてユーザの視覚特性を決定する。ユーザの視覚特性の決定処理は実施形態1と同様である。   In step S <b> 1201, the determination unit 102 determines the visual characteristic of the user based on the response characteristic acquired by the input unit 101. The process of determining the visual characteristics of the user is the same as in the first embodiment.

ステップS1202において、調整部103は、調整データを生成する。調整部103による調整データの生成手順は、実施形態1と同様である。つまり、調整部103は、入力動画像信号に応じた動画像の移動物体のエッジを含む領域(移動領域)の輝度値を複数フレーム分、取得する。そして、得られた移動領域の時空間スペクトルとユーザの視覚特性を積算することによって得られた移動領域観察スペクトルのメイン成分とサブ成分とに基づいて、ジャーキネス評価値Jを算出する。そして、ジャーキネス評価値Jが所定値以上であった場合は、ジャーキネスを低減するために、駆動周波数、及び/又は表示画像の輝度やコントラスト比の設定を変更するための調整データを生成する。   In step S1202, the adjustment unit 103 generates adjustment data. The adjustment data generation procedure by the adjustment unit 103 is the same as that of the first embodiment. That is, the adjustment unit 103 acquires the luminance values of a region (moving region) including a moving object edge of the moving image corresponding to the input moving image signal for a plurality of frames. Then, a jerkiness evaluation value J is calculated based on the main component and the sub component of the moving region observation spectrum obtained by integrating the obtained spatiotemporal spectrum of the moving region and the visual characteristics of the user. If the jerkiness evaluation value J is equal to or greater than a predetermined value, adjustment data for changing the drive frequency and / or the brightness and contrast ratio settings of the display image is generated to reduce jerkiness.

また、調整部103は、ステップS1202において、入力動画像信号に応じた動画像において輝度値が所定値以上の領域を検出する。そして、その領域が所定の面積よりも広かった場合、その領域内から、フリッカ候補領域を決定し、その領域の輝度値を複数フレーム分、取得する。そして、得られたフリッカ候補領域の時空間スペクトルとユーザの視覚特性を積算することによって得られた時空間スペクトルの総和をフリッカ評価値Fとして算出する。そして、フリッカ評価値Fが所定値以上であった場合は、フリッカを低減するために、駆動周波数、及び/又は表示画像の輝度やコントラスト比の設定を変更するための調整データを生成する。   In step S1202, the adjustment unit 103 detects a region having a luminance value equal to or greater than a predetermined value in the moving image corresponding to the input moving image signal. If the area is larger than the predetermined area, a flicker candidate area is determined from the area, and the luminance values of the area are acquired for a plurality of frames. Then, the total of the spatio-temporal spectrum obtained by integrating the obtained spatio-temporal spectrum of the candidate flicker area and the visual characteristics of the user is calculated as the flicker evaluation value F. If the flicker evaluation value F is equal to or greater than a predetermined value, adjustment data for changing the drive frequency and / or the brightness and contrast ratio setting of the display image is generated to reduce flicker.

調整部103は、生成した調整データを、その内容に応じて、適宜、画像入力装置107、画像処理部104、表示部105に出力する。   The adjustment unit 103 outputs the generated adjustment data to the image input device 107, the image processing unit 104, and the display unit 105 as appropriate according to the content.

ステップS1203において、画像処理部104は、調整データに基づいて、入力動画像信号を変換し、表示部105に出力する。   In step S <b> 1203, the image processing unit 104 converts the input moving image signal based on the adjustment data and outputs the converted signal to the display unit 105.

ステップS1204において、表示部105は、調整データに基づいて表示部105のパラメータを調整し、画像を表示する。   In step S1204, the display unit 105 adjusts the parameters of the display unit 105 based on the adjustment data, and displays an image.

ステップS1205において、画像入力装置107は、調整データに基づいて撮像された画像信号を変換し、入力動画像信号を画像処理部104に送出する。   In step S <b> 1205, the image input device 107 converts the captured image signal based on the adjustment data, and sends the input moving image signal to the image processing unit 104.

以上説明したように、本形態の調整部103は、表示制御装置106に入力される入力動画像信号そのものを変換するためのパラメータ(調整データ)を画像入力装置107へ出力すると共に、適宜、画像処理部104や表示部105に対して調整データを出力する。このようにすることで、表示画像の劣化を知覚されにくくすることができる。   As described above, the adjustment unit 103 according to the present embodiment outputs the parameters (adjustment data) for converting the input moving image signal itself input to the display control device 106 to the image input device 107, and appropriately adjusts the image. Adjustment data is output to the processing unit 104 and the display unit 105. In this way, it is possible to make it difficult to perceive deterioration of the display image.

<その他の実施形態>
本発明の目的は、次の形態によっても達成される。即ち、前述した実施形態の機能を実現するソフトウエアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUまたはMPU)が記録媒体に格納されたプログラムコードを読み出し実行する形態である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
<Other embodiments>
The object of the present invention can also be achieved by the following embodiments. That is, a recording medium in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, a DVD, or the like is used. it can.

また、本発明は、コンピュータが読み出したプログラムコードを実行することにより、前述した実施例の機能が実現される形態には限られない。すなわち、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOperating System(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれる。   The present invention is not limited to the form in which the functions of the above-described embodiments are realized by executing the program code read by the computer. That is, an operating system (OS) running on a computer performs part or all of actual processing based on an instruction of the program code, and the functions of the above-described embodiments may be realized by the processing. included.

さらに、本発明には、以下の形態も含まれる。すなわち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される形態である。   Further, the present invention includes the following forms. That is, the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. .

101 応答特性入力部
102 視覚特性決定部
103 調整部
104 画像処理部
105 表示部
DESCRIPTION OF SYMBOLS 101 Response characteristic input part 102 Visual characteristic determination part 103 Adjustment part 104 Image processing part 105 Display part

Claims (14)

表示画面の発光間隔を制御可能な表示制御装置であって、
画像信号の入力に応じて画像を表示させる表示制御手段と、
前記表示された画像からユーザがちらつきを知覚したか否かを示す評価情報を入力する入力手段と、
第1の画像信号の入力に応じて第1の画素値の第1の画像及び第2の画素値の第2の画像を第1の発光間隔で表示した場合にユーザがちらつきを知覚したことを示す評価情報が入力された場合の前記第1の画像の前記第1の画素値、及び前記第2の画像の前記第2の画素値を記憶する記憶手段と、
第2の画像信号の入力に応じて順次、表示される第3の画像と第4の画像のうち、前記第3の画像内の領域の画素値が、前記記憶手段に記憶された前記第1の画素値に対応し、前記第4の画像内の前記領域の画素値が、前記記憶手段に記憶された前記第2の画素値に対応する場合、
前記領域の発光間隔を前記第1の発光間隔よりも短い第2の発光間隔にする制御と前記領域の輝度を下げる制御の少なくとも一方を行う制御手段と
を有することを特徴とする表示制御装置。
A display control device capable of controlling a light emission interval of a display screen,
Display control means for displaying an image in response to an input of an image signal;
Input means for inputting evaluation information indicating whether or not the user perceives flicker from the displayed image;
The user perceives the flicker when the first image of the first pixel value in response to an input of the first image signal, and a second image of the second pixel value displayed in the first light emission interval Storage means for storing the first pixel value of the first image and the second pixel value of the second image when the evaluation information indicating is input,
Of the third image and the fourth image that are sequentially displayed in response to the input of the second image signal, the pixel value of the region in the third image is stored in the storage means. If the response to the pixel value, the pixel value of the region in said fourth image corresponds to the stored previous SL second image pixel value in the storage means,
A display control apparatus comprising: a control unit that performs at least one of control for setting a light emission interval of the region to a second light emission interval shorter than the first light emission interval and control for reducing luminance of the region.
前記制御手段は、前記第3の画像から、輝度が閾値以上の領域であって、面積が所定面積以上の領域を特定すると共に、前記第3の画像と前記第4の画像のうち、前記第3の画像内の前記特定された前記領域の画素値が前記第1の画素値で、且つ、前記第4の画像内の前記特定された前記領域の画素値が前記第2の画素値である場合、前記領域の発光間隔を前記第1の発光間隔よりも短い前記第2の発光間隔にする制御と前記領域の輝度を下げる制御の少なくとも一方を行う
ことを特徴とする請求項1記載の表示制御装置。
The control means specifies a region having a luminance of a threshold value or more and an area of a predetermined area or more from the third image, and among the third image and the fourth image, in the said pixel values of the specified the region in the 3 images the first image pixel value, and, the fourth of the pixel values of the specified the region before Symbol second field element in the image claims, characterized in that to carry out the value if at least one of the control to lower the brightness of the control which the emission interval of the region in a short second light-emitting interval than the first light emission interval the region The display control apparatus according to 1.
前記第1の画像信号に応じて前記第1の画像及び前記第2の画像を前記第1の発光間隔で表示した場合にユーザがちらつきを知覚しなかったことを示す評価情報が入力された場合、前記表示制御手段は、前記第1の画像と前記第2の画像よりも輝度の差が大きい第5の画素値の第5の画像と第6の画素値の第6の画像を前記第1の発光間隔で表示させ、
前記記憶手段は、前記第5の画像及び前記第6の画像を前記第1の発光間隔で表示した場合にユーザがちらつきを知覚したことを示す評価情報が入力された場合の前記第5の画像の前記第5の画素値、及び前記第6の画像の前記第6の画素値を記憶し、
前記第2の画像信号の入力に応じて順次、表示される前記第3の画像と前記第4の画像のうち、前記第3の画像内の領域の画素値が、前記記憶手段に記憶された前記第5の画素値に対応し、前記第4の画像内の前記領域の画素値が、前記記憶手段に記憶された前記第6の画素値に対応する場合、前記域の発光間隔を前記第1の発光間隔よりも短い前記第2の発光間隔にする制御と前記領域の輝度を下げる制御の少なくとも一方を行うことを特徴とする請求項1記載の表示制御装置。
When evaluation information indicating that the user has not perceived flicker when the first image and the second image are displayed at the first light emission interval according to the first image signal is input. The display control means outputs the fifth image having the fifth pixel value and the sixth image having the sixth pixel value, which have a larger luminance difference than the first image and the second image, to the first image. Display with the flash interval,
The storage means includes the fifth image when evaluation information indicating that the user perceives flickering when the fifth image and the sixth image are displayed at the first light emission interval is input. Storing the fifth pixel value of and the sixth pixel value of the sixth image;
Of the third image and the fourth image that are sequentially displayed according to the input of the second image signal, the pixel value of the region in the third image is stored in the storage means corresponding to the pixel value of the fifth, when the pixel value of the region in said fourth image corresponds to the pixel value of the 6 stored in the storage means, wherein the light emitting interval of the area first display control device according to claim 1, wherein the performing at least one of control to lower the brightness of the control and pre-Symbol area of the short has the second emission interval than the light emitting interval.
前記表示制御手段は、前記第1の画像信号に応じて前記第1の画像及び前記第2の画像を前記第1の発光間隔で表示した場合に前記ユーザがちらつきを知覚しなかったことを示す評価情報の入力に応じて、前記第1の画像に輝度が一致する前記第5の画像と、前記第2の画像とは輝度が異なる前記第6の画像とを表示させることを特徴とする請求項3に記載の表示制御装置。The display control means indicates that the user has not perceived flicker when the first image and the second image are displayed at the first light emission interval according to the first image signal. The fifth image having a luminance that matches the first image and the sixth image having a luminance different from that of the second image are displayed in response to input of evaluation information. Item 4. The display control device according to Item 3. 表示画面の発光間隔を制御可能な表示制御装置であって、
画像信号の入力に応じて画像を表示させる表示制御手段と、
前記表示された画像内で画素値が異なる領域をユーザが知覚したか否かを示す評価情報を入力するための入力手段と、
第1の画像信号に応じて第1の画素値から第2の画素値までの画像を前記第1の画素値の領域を移動させながら表示させた場合にユーザが前記画像内で画素値が異なる領域を知覚したことを示す評価情報が入力された場合の前記第1の画素値、及び前記第2の画素値を記憶する記憶手段と、
第2の画像信号に応じて第1の領域と第2の領域とを含む画像を前記第1の領域を移動させながら第1の発光間隔で表示した場合の前記第1の領域と前記第2の領域との画素値が、前記記憶手段に記憶された前記第1の画素値と前記第2の画素値に対応する場合、前記発光間隔を前記第1の発光間隔よりも長い第2の発光間隔にする制御と前記第2の画像信号に応じて表示される画像のコントラスト比を下げる制御の少なくとも一方を行う制御手段とを有することを特徴とする表示制御装置。
A display control device capable of controlling a light emission interval of a display screen,
Display control means for displaying an image in response to an input of an image signal;
Input means for inputting evaluation information indicating whether or not a user perceived an area having a different pixel value in the displayed image ;
When an image from the first pixel value to the second pixel value is displayed while moving the area of the first pixel value according to the first image signal, the user has a different pixel value in the image storage means for storing the first pixel value, and the second pixel value when the evaluation information indicating that the perception region is input,
The first area and the second area when an image including the first area and the second area is displayed at a first light emission interval while moving the first area in accordance with a second image signal. When the pixel value with respect to the region corresponds to the first pixel value and the second pixel value stored in the storage means, the second light emission is longer than the first light emission interval. display control apparatus characterized by a control means for performing at least one of a control of lowering the contrast ratio of images that will be displayed according to the control and the second image signal to the interval.
前記第2の画像信号に基づく画像から前記移動領域を抽出する抽出手段を有し、
前記制御手段は、前記抽出手段により抽出された第1の移動領域と第2の移動領域とのうち、移動速度がより高い前記第1の移動領域と前記第2の領域との画素値が前記第1の画素値と前記第2の画素値に対応する場合、前記発光間隔を前記第1の発光間隔よりも長い前記第2の発光間隔にする制御と前記第2の画像信号に応じて表示される画像のコントラスト比を下げる制御の少なくとも一方を行なう一方、前記移動速度が前記第1の移動領域より低い前記第2の移動領域と前記第2の領域との画素値が前記第1の画素値と前記第2の画素値に対応し前記第1の移動領域と前記第2の領域の画素値が前記第1の画素値と前記第2の画素値に対応しない場合、前記制御を行わないことを特徴とする請求項記載の表示制御装置。
Extracting means for extracting the moving region from an image based on the second image signal;
The control means has a pixel value of the first movement area and the second area having a higher movement speed among the first movement area and the second movement area extracted by the extraction means. When corresponding to the first pixel value and the second pixel value, the light emission interval is set to the second light emission interval longer than the first light emission interval, and display is performed according to the second image signal. The pixel value of the second moving area and the second area whose moving speed is lower than that of the first moving area is set to be the first pixel If the pixel values of the first moving area and the second area corresponding to the value and the second pixel value do not correspond to the first pixel value and the second pixel value, the control is not performed. The display control apparatus according to claim 5 .
前記第1の画像信号の入力に応じて前記第1の画素値の領域と前記第2の画素値の領域を含む画像を前記第1の画素値の領域を移動させながら前記第1の発光間隔で表示させた場合にユーザが前記画像内の前記第1の画素値と前記第2の画素値の違いを知覚しなかったことを示す評価情報が入力された場合、前記表示制御手段は、前記第1の画素値と前記第2の画素値よりも画素値の差が大きい第3の画素値の領域と第4の画素値の領域を含む画像を前記第3の画素値の領域を移動させながら前記第1の発光間隔で表示させ、
前記第3の画素値の領域と前記第4の画素値の領域を含む画像を前記第3の画素値の領域を移動させながら前記第1の発光間隔で表示させた場合に前記ユーザが前記画像内の前記第3の画素値と前記第4の画素値の違いを知覚したことを示す評価情報が入力されると前記第3の画素値と前記第4の画素値を記憶し、
前記制御手段は、
前記第2の画像信号の入力に応じて前記第1の領域と前記第2の領域とを含む画像を前記第1の領域を移動させながら前記第1の発光間隔で画像を表示した場合の前記画像内の前記第1の領域と前記第2の領域の画素値が、前記記憶手段に記憶された前記第3の画素値と前記第4の画素値に対応する場合、
前記発光間隔を前記第1の発光間隔よりも長い前記第2の発光間隔にする制御と前記第2の画像信号に応じて表示される動画像のコントラスト比を下げる制御の少なくとも一方を行う
ことを特徴とする請求項記載の表示制御装置。
The first light emission interval while moving the first pixel value area in an image including the first pixel value area and the second pixel value area in response to the input of the first image signal. When the evaluation information indicating that the user did not perceive the difference between the first pixel value and the second pixel value in the image when being displayed, the display control means, An image including a region of a third pixel value and a region of a fourth pixel value having a larger pixel value difference than the first pixel value and the second pixel value is moved in the region of the third pixel value. While displaying at the first light emission interval,
When the user displays the image including the third pixel value area and the fourth pixel value area at the first light emission interval while moving the third pixel value area, the user performs the image display. When the evaluation information indicating that the difference between the third pixel value and the fourth pixel value is perceived is input, the third pixel value and the fourth pixel value are stored.
The control means includes
The image when the image including the first area and the second area is displayed at the first light emission interval while moving the first area in response to the input of the second image signal. When pixel values of the first region and the second region in the image correspond to the third pixel value and the fourth pixel value stored in the storage unit,
To perform at least one of control to lower the contrast ratio of a moving image to be displayed in response to a long said second control and the second image signal to the light emitting interval than the light emission interval of the first light emission interval 6. The display control apparatus according to claim 5, wherein
前記第1の画素値と前記第2の画素値の違いを知覚しなかったことを示す評価情報が入力された場合に表示される前記画像の前記第3の画素値は前記第1の画素値に一致し、前記第4の画素値は前記第2の画素値と異なることを特徴とする請求項7に記載の表示制御装置。The third pixel value of the image displayed when the evaluation information indicating that the difference between the first pixel value and the second pixel value is not perceived is input is the first pixel value. The display control apparatus according to claim 7, wherein the fourth pixel value is different from the second pixel value. 前記第1の画素値は前記画像内における最大輝度に対応する画素値であり、前記第2の画素値は前記画像内における最小輝度に対応する画素値であることを特徴とする請求項5に記載の表示制御装置。6. The first pixel value is a pixel value corresponding to a maximum luminance in the image, and the second pixel value is a pixel value corresponding to a minimum luminance in the image. The display control apparatus described. 前記第1の画素値と前記第2の画素値の輝度は同一である一方、色度が異なることを特徴とする請求項5に記載の表示制御装置。The display control apparatus according to claim 5, wherein the first pixel value and the second pixel value have the same luminance, but have different chromaticities. 表示画面の発光間隔を制御可能な表示制御装置が行う表示制御方法であって、
画像信号の入力に応じて画像を表示させる表示制御工程と、
前記表示された画像からユーザがちらつきを知覚したか否かを示す評価情報を入力する入力工程と、
第1の画像信号の入力に応じて第1の画素値の第1の画像、及び第2の画素値の第2の画像を第1の発光間隔で表示した場合にユーザがちらつきを知覚したことを示す評価情報が入力された場合の前記第1の画像の前記第1の画素値、及び前記第2の画像の前記第2の画素値を記憶する記憶工程と、
第2の画像信号の入力に応じて順次、表示される第3の画像と第4の画像のうち、前記第3の画像内の領域の画素値が、前記記憶工程で記憶された前記第1の画素値に対応し、前記第4の画像内の前記領域の画素値が、前記記憶工程で記憶された前記第2の画素値に対応する場合、
前記領域の発光間隔を前記第1の発光間隔よりも短い第2の発光間隔にする制御と前記領域の輝度を下げる制御の少なくとも一方を行う制御工程とを有することを特徴とする表示制御方法。
A display control method performed by a display control device capable of controlling a light emission interval of a display screen,
A display control step for displaying an image in response to an input of an image signal;
An input step for inputting evaluation information indicating whether or not the user perceives flicker from the displayed image;
The user perceives flicker when the first image having the first pixel value and the second image having the second pixel value are displayed at the first light emission interval in response to the input of the first image signal. A storage step of storing the first pixel value of the first image and the second pixel value of the second image when the evaluation information indicating
Of the third image and the fourth image that are sequentially displayed in response to the input of the second image signal, the pixel value of the region in the third image is stored in the storage step. If the response to the pixel value, the pixel value of the region in said fourth image corresponds to a pre-stored Symbol second image pixel value in the storing step,
A display control method comprising: a control step of performing at least one of a control for setting the light emission interval of the region to a second light emission interval shorter than the first light emission interval and a control for reducing the luminance of the region.
表示画面の発光間隔を制御可能なコンピュータに、
画像信号の入力に応じて画像を表示させる表示制御手順と、
前記表示された画像からユーザがちらつきを知覚したか否かを示す評価情報を入力する入力手順と、
第1の画像信号の入力に応じて第1の画素値の第1の画像、及び第2の画素値の第2の画像を第1の発光間隔で表示した場合にユーザがちらつきを知覚したことを示す評価情報が入力された場合の前記第1の画像の前記第1の画素値、及び前記第2の画像の前記第2の画素値を記憶する記憶手順と、
第2の画像信号の入力に応じて順次、表示される第3の画像と第4の画像のうち、前記第3の画像内の領域の画素値が、前記記憶手順で記憶された前記第1の画素値に対応し、前記第4の画像内の前記領域の画素値が、前記記憶手順で記憶された前記第2の画素値に対応する場合、
前記領域の発光間隔を前記第1の発光間隔よりも短い第2の発光間隔にする制御と前記領域の輝度を下げる制御の少なくとも一方を行う制御手順とを実行させることを特徴とするプログラム。
To a computer that can control the light emission interval of the display screen,
A display control procedure for displaying an image in response to an input of an image signal;
An input procedure for inputting evaluation information indicating whether or not the user perceives flicker from the displayed image;
The user perceives flicker when the first image having the first pixel value and the second image having the second pixel value are displayed at the first light emission interval in response to the input of the first image signal. A storage procedure for storing the first pixel value of the first image and the second pixel value of the second image when the evaluation information indicating
Of the third image and the fourth image that are sequentially displayed in response to the input of the second image signal, the pixel value of the region in the third image is stored in the storage procedure. If the response to the pixel value, the pixel value of the region in said fourth image corresponds to a pre-stored Symbol second image pixel value in the storage procedure,
A program for executing a control procedure for performing at least one of control for setting the light emission interval of the region to a second light emission interval shorter than the first light emission interval and control for reducing the luminance of the region.
表示画面の発光間隔を制御可能な表示制御装置が行う表示制御方法であって、
画像信号の入力に応じて画像を表示させる表示制御工程と、
前記表示された画像内で画素値が異なる領域をユーザが知覚したか否かを示す評価情報を入力するための入力工程と、
第1の画像信号に応じて第1の画素値から第2の画素値までの画像を前記第1の画素値の領域を移動させながら表示させた場合にユーザが前記画像内で画素値が異なる領域を知覚したことを示す評価情報が入力された場合の前記第1の画素値、及び前記第2の画素値を記憶する記憶工程と、
第2の画像信号に応じて第1の領域と第2の領域とを含む画像を前記第1の領域を移動させながら第1の発光間隔で表示した場合の前記第1の領域と前記第2の領域との画素値が、前記記憶工程で記憶された前記第1の画素値と前記第2の画素値に対応する場合、前記発光間隔を前記第1の発光間隔よりも長い第2の発光間隔にする制御と前記第2の画像信号に応じて表示される画像のコントラスト比を下げる制御の少なくとも一方を行う制御工程とを有することを特徴とする表示制御方法。
A display control method performed by a display control device capable of controlling a light emission interval of a display screen,
A display control step for displaying an image in response to an input of an image signal;
An input step for inputting evaluation information indicating whether or not the user perceived an area having a different pixel value in the displayed image ;
When an image from the first pixel value to the second pixel value is displayed while moving the area of the first pixel value according to the first image signal, the user has a different pixel value in the image a storage step of storing the first pixel value, and the second pixel value when the evaluation information indicating that the perception region is input,
The first area and the second area when an image including the first area and the second area is displayed at a first light emission interval while moving the first area in accordance with a second image signal. When the pixel value with respect to the region corresponds to the first pixel value and the second pixel value stored in the storing step, the second light emission is longer than the first light emission interval. display control method characterized by a control step of performing at least one of control to lower the contrast ratio of images that will be displayed according to the control and the second image signal to the interval.
表示画面の発光間隔を制御可能なコンピュータに、
画像信号の入力に応じて画像を表示させる表示制御手順と、
前記表示された画像内で画素値が異なる領域をユーザが知覚したか否かを示す評価情報を入力するための入力手順と、
第1の画像信号に応じて第1の画素値から第2の画素値までの画像を前記第1の画素値の領域を移動させながら表示させた場合にユーザが前記画像内で画素値が異なる領域を知覚したことを示す評価情報が入力された場合の前記第1の画素値、及び第2の画素値を記憶する記憶手順と、
第2の画像信号に応じて第1の領域と第2の領域とを含む画像を前記第1の領域を移動させながら第1の発光間隔で表示した場合の前記第1の領域と前記第2の領域との画素値が、前記記憶手順で記憶された前記第1の画素値と前記第2の画素値に対応する場合、前記発光間隔を前記第1の発光間隔よりも長い第2の発光間隔にする制御と前記第2の画像信号に応じて表示される画像のコントラスト比を下げる制御の少なくとも一方を行う制御手順とを実行させることを特徴とするプログラム。
To a computer that can control the light emission interval of the display screen,
A display control procedure for displaying an image in response to an input of an image signal;
An input procedure for inputting evaluation information indicating whether or not the user perceived an area having a different pixel value in the displayed image ;
When an image from the first pixel value to the second pixel value is displayed while moving the area of the first pixel value according to the first image signal, the user has a different pixel value in the image A storage procedure for storing the first pixel value and the second pixel value when evaluation information indicating that a region is perceived is input;
The first area and the second area when an image including the first area and the second area is displayed at a first light emission interval while moving the first area in accordance with a second image signal. When the pixel value with respect to the region corresponds to the first pixel value and the second pixel value stored in the storage procedure, the second light emission is longer than the first light emission interval. a program characterized by executing a control procedure for performing at least one of control to lower the contrast ratio of images that will be displayed according to the control and the second image signal to the interval.
JP2009041001A 2009-02-24 2009-02-24 Display control apparatus and display control method Expired - Fee Related JP5586858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009041001A JP5586858B2 (en) 2009-02-24 2009-02-24 Display control apparatus and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009041001A JP5586858B2 (en) 2009-02-24 2009-02-24 Display control apparatus and display control method

Publications (2)

Publication Number Publication Date
JP2010197597A JP2010197597A (en) 2010-09-09
JP5586858B2 true JP5586858B2 (en) 2014-09-10

Family

ID=42822392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009041001A Expired - Fee Related JP5586858B2 (en) 2009-02-24 2009-02-24 Display control apparatus and display control method

Country Status (1)

Country Link
JP (1) JP5586858B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012204852A (en) * 2011-03-23 2012-10-22 Sony Corp Image processing apparatus and method, and program
KR102008912B1 (en) * 2013-04-22 2019-08-09 삼성디스플레이 주식회사 Display device and driving method thereof
CN104301617B (en) * 2013-07-19 2017-09-22 富士通株式会社 Flicker detection method and flicker detection equipment
WO2016031659A1 (en) 2014-08-26 2016-03-03 シャープ株式会社 Display device and method for driving same
JP6681774B2 (en) * 2016-04-12 2020-04-15 日本放送協会 Contrast correction device and program
DE112017004983T5 (en) * 2016-09-30 2019-06-19 Semiconductor Energy Laboratory Co., Ltd. Display system and electronic device
WO2020149068A1 (en) * 2019-01-15 2020-07-23 コニカミノルタ株式会社 Flicker measurement device, flicker measurement method, and flicker measurement program
WO2023189479A1 (en) * 2022-03-30 2023-10-05 コニカミノルタ株式会社 Display light measurement device and light measurement method, data processing device, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6329973B1 (en) * 1995-09-20 2001-12-11 Hitachi, Ltd. Image display device
KR100552969B1 (en) * 2003-09-29 2006-02-15 삼성에스디아이 주식회사 Fs-lcd
JP2006003425A (en) * 2004-06-15 2006-01-05 Canon Inc Image display device and system
CN101313351B (en) * 2005-11-25 2011-07-06 夏普株式会社 Image display method, image display device, image display monitor, and television receiver
JP4923635B2 (en) * 2006-03-07 2012-04-25 セイコーエプソン株式会社 Moving image display device and moving image display method
JP2008039890A (en) * 2006-08-02 2008-02-21 Seiko Epson Corp Image data generating device, image reproducing device, image data generating method, image reproducing method, recording medium, and computer program
JP2008058483A (en) * 2006-08-30 2008-03-13 Seiko Epson Corp Animation image display device and method
JP5003063B2 (en) * 2006-08-30 2012-08-15 セイコーエプソン株式会社 Moving image display apparatus and moving image display method.
JP2008102220A (en) * 2006-10-17 2008-05-01 Sharp Corp Video display device

Also Published As

Publication number Publication date
JP2010197597A (en) 2010-09-09

Similar Documents

Publication Publication Date Title
JP5586858B2 (en) Display control apparatus and display control method
US8624913B2 (en) Display control apparatus and display control method that determines a plurality of regions in a frame to be displayed at different frame rates than one another
JP6381215B2 (en) Image processing apparatus, image processing method, display apparatus, display apparatus control method, and program
EP2750101B1 (en) Endoscopic video system with dynamic contrast and detail enhancement
CN107295248B (en) Image display apparatus and image display method for displaying image, and storage medium
KR102109933B1 (en) Image Processing Method and Apparatus for Curved Display device
EP3111635B1 (en) Systems and methods to control judder visibility
JP2015084101A (en) System and methods for applying adaptive gamma in image processing for high brightness and high dynamic range display
JP2007292804A (en) Image processor and image processing method
JP2009180583A (en) Method and device for evaluating luminance nonuniformity of display
TWI567707B (en) Image adjusting method and related display
JPWO2008004439A1 (en) Gradation correction characteristic evaluation apparatus, image processing apparatus, gradation correction characteristic evaluation method, image processing method, gradation correction characteristic evaluation program, and image processing program
JP6739257B2 (en) Image processing apparatus, control method thereof, and program
JP2008017321A (en) Image processing apparatus and image processing method
JP2018073248A (en) Image processing apparatus, display apparatus, and image processing method
JP2010283690A (en) Image processing device, image processing method, program, and storage medium
JP2021033122A (en) Projection system, control device, projection method, program and storage medium
JP5527990B2 (en) Display control apparatus and display control method
JPWO2018159288A1 (en) Image processing apparatus, image processing method, and program
WO2021210334A1 (en) Information processing device, information processing method, and computer program
JP2018077488A (en) Display device, and method for controlling display device
JP5582920B2 (en) Image processing device
JP4795314B2 (en) Flicker correction apparatus and flicker correction method
JP2010004319A (en) Imaging apparatus
JP2016170637A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140723

LAPS Cancellation because of no payment of annual fees