JP2008060790A - Moving image display device and moving image display method - Google Patents

Moving image display device and moving image display method Download PDF

Info

Publication number
JP2008060790A
JP2008060790A JP2006233762A JP2006233762A JP2008060790A JP 2008060790 A JP2008060790 A JP 2008060790A JP 2006233762 A JP2006233762 A JP 2006233762A JP 2006233762 A JP2006233762 A JP 2006233762A JP 2008060790 A JP2008060790 A JP 2008060790A
Authority
JP
Japan
Prior art keywords
moving image
image data
data
evaluation
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006233762A
Other languages
Japanese (ja)
Other versions
JP5003063B2 (en
Inventor
Katsumi Komagamine
克己 駒ケ嶺
Kesatoshi Takeuchi
啓佐敏 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006233762A priority Critical patent/JP5003063B2/en
Publication of JP2008060790A publication Critical patent/JP2008060790A/en
Application granted granted Critical
Publication of JP5003063B2 publication Critical patent/JP5003063B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To make a user properly set characteristics of moving image processing. <P>SOLUTION: This moving image display device has an image data acquisition means, a moving image data for evaluation generation means, a characteristic specification input means, a moving image processing means and a moving image display means. The image data acquisition means acquires image data from an external source. The moving image data for the evaluation generation means generates image data for evaluation indicating a moving image for evaluation using all or a part of the acquired image data. The characteristic specification input means inputs characteristic specification for specifying characteristics of the moving image processing for suppressing the deterioration of image quality accompanied by the movement of a subject. The moving image processing means performs the moving image processing according to the input characteristic specification to the moving image data for evaluation. The moving image display means displays the moving image based on the moving image data for evaluation after the moving image processing. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、動画像表示装置および動画像表示方法に関し、特に、動画像に対する調整処理の設定に関する。   The present invention relates to a moving image display apparatus and a moving image display method, and more particularly to setting of adjustment processing for a moving image.

従来、CRTやテレビ等の動画像表示装置において動画像を表示する場合、動画像中の移動する被写体のちらつき(以下「動画フリッカ」と呼ぶ)や、移動する被写体の残像(以下「動画ボケ」と呼ぶ)が生じる場合があった。このような動画フリッカや動画ボケは、液晶パネルを用いた液晶表示装置のように、各画素が蓄積型の表示素子で構成される動画像表示装置(以下「蓄積型表示装置」と呼ぶ)において発生しやすい。   Conventionally, when a moving image is displayed on a moving image display device such as a CRT or a television, flickering of a moving subject in a moving image (hereinafter referred to as “moving image flicker”) or an afterimage of a moving subject (hereinafter referred to as “moving image blur”). May occur). Such moving image flicker or moving image blur is a moving image display device (hereinafter referred to as “storage type display device”) in which each pixel is configured by a storage type display element, like a liquid crystal display device using a liquid crystal panel. Likely to happen.

動画像表示の際の動画フリッカや動画ボケを軽減するために、動画像に対して種々の調整処理を行う技術が開示されている(例えば特許文献1〜3)。   In order to reduce moving image flicker and moving image blur during moving image display, techniques for performing various adjustment processes on moving images are disclosed (for example, Patent Documents 1 to 3).

特開平2005−122201号公報JP-A-2005-122201 特開2003−280617号公報JP 2003-280617 A 特開2001−306022号公報JP 2001-306222 A

動画フリッカや動画ボケを軽減するための処理をはじめとする動画像処理は、その感じ方に個人差があり、また、動画像の内容によっても動画フリッカや動画ボケの発生の程度に差異がある。このため、これらの動画像処理の特性は、ユーザ自身が自分の視覚の感じ方に合わせて適切に調整できることが望まれる。   Moving image processing, including processing for reducing moving image flicker and moving image blur, has individual differences in the way it feels, and there is also a difference in the degree of occurrence of moving image flicker and moving image blur depending on the content of moving images. . For this reason, it is desired that the characteristics of these moving image processes can be appropriately adjusted by the user himself / herself according to his / her own visual perception.

本発明は、上述した従来の課題を解決するためになされたものであり、動画像処理の特性をユーザに適切に設定させる技術を提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and an object of the present invention is to provide a technique for allowing a user to appropriately set the characteristics of moving image processing.

上記課題の少なくとも一部を解決するために、本発明の第1の態様は、動画像表示装置を提供する。第1の態様に係る動画像表示装置は、画像データ取得手段と、評価用動画像データ生成手段と、特性指定入力手段と、動画像処理手段と、動画像表示手段とを備える。前記画像データ取得手段は、外部ソースから画像データを取得する。前記評価用動画像データ生成手段は、前記取得された画像データの全部または一部を用いて、評価用の動画像を表す評価用動画像データを生成する。前記特性指定入力手段は、被写体の動きに伴う画質劣化を軽減する動画像処理の特性を指定する特性指定を入力する。前記動画像処理手段は、前記評価用動画像データに対して、前記入力された特性指定に応じた前記動画像処理を行う。前記動画像表示手段は、前記動画像処理後の前記評価用動画像データに基づき動画像を表示する。   In order to solve at least a part of the above problems, a first aspect of the present invention provides a moving image display apparatus. The moving image display apparatus according to the first aspect includes image data acquisition means, evaluation moving image data generation means, characteristic designation input means, moving image processing means, and moving image display means. The image data acquisition unit acquires image data from an external source. The evaluation moving image data generating means generates evaluation moving image data representing an evaluation moving image by using all or part of the acquired image data. The characteristic designation input means inputs a characteristic designation that designates characteristics of moving image processing that reduces image quality deterioration caused by movement of a subject. The moving image processing means performs the moving image processing corresponding to the input characteristic designation on the evaluation moving image data. The moving image display means displays a moving image based on the evaluation moving image data after the moving image processing.

第1の態様に係る動画像表示装置によれば、外部ソースから取得された画像データから評価用動画像データを生成する。そして、入力された特性指定に応じた動画像処理が評価用動画像データに対して行われ、動画像処理後の評価用動画像データに基づき動画像が表示される。この結果、ユーザは、入力した特性指定に応じた動画像処理の効果を、評価用動画像データに基づく動画像を見て確認することができる。従って、この動画像表示装置では、動画像処理の特性をユーザに適切に設定させることができる。   According to the moving image display apparatus according to the first aspect, the evaluation moving image data is generated from the image data acquired from the external source. Then, moving image processing according to the input characteristic designation is performed on the evaluation moving image data, and a moving image is displayed based on the evaluation moving image data after moving image processing. As a result, the user can confirm the effect of the moving image processing according to the input characteristic designation by viewing the moving image based on the evaluation moving image data. Therefore, in this moving image display apparatus, the characteristics of moving image processing can be appropriately set by the user.

第1の態様に係る動画像表示装置は、さらに、前記外部ソースを指定するソース指定を入力するためのソース指定入力手段を備え、前記画像データ取得手段は、前記入力されたソース指定により指定された前記外部ソースから画像データを取得しても良い。こうすれば、評価用動画像データを生成するための画像データを取得するソースを指定できるので、ユーザは、好みの外部ソースから取得された画像データを用いて生成された評価用動画像データに基づく動画像を見て、動画像処理の効果を確認することができる。   The moving image display apparatus according to the first aspect further includes source designation input means for inputting a source designation for designating the external source, and the image data acquisition means is designated by the input source designation. Image data may be acquired from the external source. In this way, it is possible to specify a source from which image data for generating evaluation moving image data is acquired, so that the user can specify the evaluation moving image data generated using the image data acquired from a favorite external source. The effect of the moving image processing can be confirmed by looking at the moving image based thereon.

第1の態様に係る動画像表示装置は、さらに、前記動画像処理を行うか否かを指定する可否指定を入力するための可否入力手段を備え、前記動画像表示手段は、前記可否指定が前記動画像処理を行うことを指定する場合に、前記動画像処理後の前記評価用動画像データに基づき動画像を表示し、前記可否指定が前記動画像処理を行わないことを指定する場合に、前記動画像処理前の前記評価用動画像データに基づき動画像を表示しても良い。こうすれば、ユーザは、可否指定を入力することで、動画像処理前と動画像処理後の動画像を見ることができるので、容易に動画像処理の効果を確認することができる。   The moving image display apparatus according to the first aspect further includes availability input means for inputting availability specification for designating whether or not to perform the moving image processing, and the moving image display means has the availability designation. When specifying that the moving image processing is to be performed, displaying a moving image based on the evaluation moving image data after the moving image processing, and when the availability specification specifies not to perform the moving image processing A moving image may be displayed based on the evaluation moving image data before the moving image processing. In this way, the user can see the moving images before and after the moving image processing by inputting the permission specification, so that the effect of the moving image processing can be easily confirmed.

第1の態様に係る動画像表示装置において、前記評価用動画像データ生成手段は、前記外部ソースから入力された画像データの解像度を変換して前記評価用動画像データを生成しても良い。こうすれば、任意の大きさの評価用動画像データを生成することができる。   In the moving image display device according to the first aspect, the evaluation moving image data generation means may generate the evaluation moving image data by converting the resolution of the image data input from the external source. In this way, it is possible to generate evaluation moving image data having an arbitrary size.

第1の態様に係る動画像表示装置において、前記外部ソースから入力された画像データは、複数のフレームデータを含む動画像データを含み、前記動画像表示装置は、さらに、前記複数のフレームデータのいずれかを指定するフレーム指定を入力するためのフレーム指定入力手段を備え、前記評価用動画像データ生成手段は、前記複数のフレームデータのうち、前記フレーム指定により指定された指定フレームデータを少なくとも含む指定フレームデータ群を用いて、前記評価用動画像データを生成しても良い。こうすれば、ユーザの指定に応じたシーンを表す評価用動画像データを生成することができるので、ユーザは、好みのシーンを表す動画像を見て、動画像処理の効果を確認することができる。   In the moving image display device according to the first aspect, the image data input from the external source includes moving image data including a plurality of frame data, and the moving image display device further includes the plurality of frame data. Frame designation input means for inputting a frame designation for designating any one of them is provided, and the evaluation moving image data generation means includes at least designated frame data designated by the frame designation among the plurality of frame data. The evaluation moving image data may be generated using a designated frame data group. In this way, evaluation moving image data representing a scene according to the user's specification can be generated, so that the user can confirm the effect of the moving image processing by viewing the moving image representing the favorite scene. it can.

第1の態様に係る動画像表示装置において、前記指定フレームデータ群は、前記指定フレームデータを最初のフレームデータとして時系列に連続する複数のフレームデータであっても良いし、前記指定フレームデータ群は、前記指定フレームデータを最後のフレームデータとして時系列に連続する複数のフレームデータであっても良い。こうすれば、ユーザは、好みのシーンを精度良く指定して、動画表示装置に評価用動画像データを生成させることができる。   In the moving image display device according to the first aspect, the designated frame data group may be a plurality of frame data that is continuous in time series with the designated frame data as first frame data, or the designated frame data group. May be a plurality of frame data continuous in time series with the designated frame data as the last frame data. In this way, the user can specify a favorite scene with high accuracy and cause the moving image display apparatus to generate evaluation moving image data.

第1の態様に係る動画像表示装置において、前記外部ソースから入力された画像データは、静止画像データを含み、前記評価用動画像データ生成手段は、前記静止画像データを用いて、前記評価用動画像データを生成しても良い。こうすれば、静止画像データからでも評価用動画像データが生成されるので、外部ソースから入力された画像データが静止画像データである場合でも、評価用動画像データに基づく動画像を見て、動画像処理の効果を確認することができる。   In the moving image display device according to the first aspect, the image data input from the external source includes still image data, and the evaluation moving image data generation means uses the still image data to perform the evaluation Moving image data may be generated. In this way, since the evaluation moving image data is generated even from still image data, even when the image data input from the external source is still image data, the moving image based on the evaluation moving image data is viewed, The effect of moving image processing can be confirmed.

第1の態様に係る動画像表示装置において、前記動画像処理は、動画ボケを軽減するための処理を含み、前記動画像処理の特性は、動画ボケの軽減の程度を含んでも良い。かかる場合において、前記動画ボケを軽減するための処理は、動画像を構成するフレーム画像に基づき、画像を構成する画素の内の少なくとも一部の画素の輝度が低減された少なくとも1つのマスク画像を生成する処理であっても良い。こうすれば、動画ボケを軽減するための処理における動画ボケの軽減の程度をユーザに適切に設定させることができる。   In the moving image display device according to the first aspect, the moving image processing may include processing for reducing moving image blur, and the characteristics of the moving image processing may include a degree of reduction of moving image blur. In such a case, the processing for reducing the moving image blur is based on a frame image constituting the moving image, and at least one mask image in which the luminance of at least some of the pixels constituting the image is reduced. The process to generate may be sufficient. In this way, it is possible to allow the user to appropriately set the degree of reduction of moving image blur in the processing for reducing moving image blur.

第1の態様に係る動画像表示装置において、前記動画像処理は、動画フリッカを軽減するための処理を含み、前記動画像処理の特性は、動画フリッカの軽減の程度を含んでも良い。かかる場合において、前記動画フリッカを軽減するための処理は、動画像を構成するフレーム画像中の連続した第1のフレーム画像と第2のフレーム画像との少なくとも一方に対して輝度を低減すると共に輝度低減処理後の前記第1のフレーム画像と前記第2のフレーム画像とを合成することによって、第1のフレーム画像と第2のフレーム画像との間に表示するための中間フレーム画像を生成する処理であっても良い。こうすれば、動画フリッカを軽減するための処理における動画フリッカの軽減の程度をユーザに適切に設定させることができる。   In the moving image display device according to the first aspect, the moving image processing may include processing for reducing moving image flicker, and the characteristics of the moving image processing may include a degree of reduction of moving image flicker. In such a case, the processing for reducing the moving image flicker reduces the luminance of at least one of the continuous first frame image and the second frame image in the frame image constituting the moving image and the luminance. Processing for generating an intermediate frame image to be displayed between the first frame image and the second frame image by combining the first frame image and the second frame image after the reduction processing It may be. In this way, the user can appropriately set the degree of reduction of moving image flicker in the process for reducing moving image flicker.

なお、本発明は、種々の態様で実現することが可能であり、例えば、動画像表示方法および装置、動画像調整方法および装置、動画像補正方法および装置、動画像出力方法および装置、これらの方法、システムまたは装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。   The present invention can be realized in various modes. For example, a moving image display method and apparatus, a moving image adjustment method and apparatus, a moving image correction method and apparatus, a moving image output method and apparatus, and these The present invention can be realized in the form of a computer program for realizing the functions of the method, system or apparatus, a recording medium storing the computer program, a data signal including the computer program and embodied in a carrier wave, and the like.

次に、本発明の実施の形態を実施例に基づいて説明する。   Next, embodiments of the present invention will be described based on examples.

A.実施例:
・動画像表示装置の構成:
図1は、本発明の実施例としての動画像表示装置DP1の構成を示す概略図である。実施例の動画像表示装置DP1は、プロジェクタとして構成されている。
A. Example:
・ Configuration of video display device:
FIG. 1 is a schematic diagram showing a configuration of a moving image display device DP1 as an embodiment of the present invention. The moving image display device DP1 of the embodiment is configured as a projector.

動画像表示装置DP1は、映像信号を取得するためのインタフェースとして、ネットワークインタフェースカード(NIC)141と、映像端子142と、外部メモリインタフェース143を備えている。NIC141は、インターネットなどの外部ネットワークと接続するために用いられる。映像端子142は、例えば、コンポジット端子、S端子、D1端子であり、DVDプレーヤやビデオデッキなどの外部機器と接続するために用いられる。外部メモリインタフェース143は、メモリカードなどの外部メモリと接続するために用いられる。NIC141および外部メモリインタフェース143を介して、例えば、MPEG形式で圧縮された動画像データが、映像信号として、動画像表示装置DP1に入力される。映像端子142を介して、コンポジット信号やSビデオ信号、コンポーネント信号などが、映像信号として、動画像表示装置DP1に入力される。   The moving image display device DP1 includes a network interface card (NIC) 141, a video terminal 142, and an external memory interface 143 as interfaces for acquiring a video signal. The NIC 141 is used for connecting to an external network such as the Internet. The video terminal 142 is, for example, a composite terminal, an S terminal, or a D1 terminal, and is used for connecting to an external device such as a DVD player or a video deck. The external memory interface 143 is used for connecting to an external memory such as a memory card. Through the NIC 141 and the external memory interface 143, for example, moving image data compressed in the MPEG format is input to the moving image display device DP1 as a video signal. A composite signal, an S video signal, a component signal, or the like is input to the moving image display device DP1 as a video signal via the video terminal 142.

動画像表示装置DP1は、信号変換部10と、メモリ書込制御部30と、フレームメモリ20と、メモリ読出制御部40と、駆動画像データ生成部50と、O.S.D(On-Screen Display)部55と、解像度変換部60と、液晶パネル駆動部70と、CPU80と、メモリ90と、液晶パネル100と、光源ユニット110と、投写光学系120と、操作パネル130とを備えている。   The moving image display device DP1 includes a signal conversion unit 10, a memory write control unit 30, a frame memory 20, a memory read control unit 40, a drive image data generation unit 50, an O.D. S. D (On-Screen Display) section 55, resolution conversion section 60, liquid crystal panel drive section 70, CPU 80, memory 90, liquid crystal panel 100, light source unit 110, projection optical system 120, and operation panel 130 And.

信号変換部10は、上述したインタフェース141〜143を介して入力される映像信号を、メモリ書込制御部30で処理可能な信号に変換するための処理回路である。例えば、入力される映像信号がアナログの映像信号(例えば、コンポジット信号)である場合には、入力される映像信号に含まれている同期信号に同期して、ディジタルの映像信号に変換する。また、入力される映像信号が圧縮符号化されたディジタルデータ(例えば、MPEG形式で圧縮された動画像データ及びJPEG形式で圧縮された静止画データ)である場合には、圧縮されたディジタルデータを複号化して、ディジタルの映像信号を生成する。信号変換部10は、ディジタルの映像信号を書込用同期信号と共に、メモリ書込制御部30に出力する。   The signal conversion unit 10 is a processing circuit for converting video signals input via the above-described interfaces 141 to 143 into signals that can be processed by the memory write control unit 30. For example, when the input video signal is an analog video signal (for example, a composite signal), it is converted into a digital video signal in synchronization with a synchronization signal included in the input video signal. If the input video signal is compression-coded digital data (for example, moving image data compressed in MPEG format and still image data compressed in JPEG format), the compressed digital data is Decoding is performed to generate a digital video signal. The signal conversion unit 10 outputs the digital video signal to the memory write control unit 30 together with the write synchronization signal.

メモリ書込制御部30は、信号変換部10から出力されたディジタルの映像信号に含まれている各フレームの画像データ(フレームデータ)を、その映像信号に対応する書込用同期信号に同期して、順にフレームメモリ20に書き込む。なお、書込用同期信号には、書込垂直同期信号や書込水平同期信号、書込クロック信号が含まれている。   The memory write control unit 30 synchronizes the image data (frame data) of each frame included in the digital video signal output from the signal conversion unit 10 with a write synchronization signal corresponding to the video signal. Are sequentially written in the frame memory 20. Note that the write synchronization signal includes a write vertical synchronization signal, a write horizontal synchronization signal, and a write clock signal.

メモリ読出制御部40は、CPU80から与えられる読出制御条件に基づいて読出用同期信号を生成するとともに、この読出用同期信号に同期して、フレームメモリ20に記憶されたフレームデータを読み出す。そして、メモリ読出制御部40は、読み出された画像データ(読出画像データ)信号および読出用同期信号をO.S.D部55や解像度変換部60に出力する。なお、読出用同期信号には、読出垂直同期信号や読出水平同期信号、読出クロック信号が含まれている。また、読出垂直同期信号の周期は、フレームメモリ20に書き込まれる映像信号の書込垂直同期信号の周期(フレーム周期)の2倍速に設定されており、メモリ読出制御部40は、フレームメモリ20に記憶された画像データを、1フレーム周期の間に2回読み出して、O.S.D部55に出力する。   The memory read control unit 40 generates a read synchronization signal based on a read control condition given from the CPU 80, and reads frame data stored in the frame memory 20 in synchronization with the read synchronization signal. Then, the memory read control unit 40 outputs the read image data (read image data) signal and the read synchronization signal as O.D. S. The data is output to the D unit 55 and the resolution conversion unit 60. Note that the readout synchronization signal includes a readout vertical synchronization signal, a readout horizontal synchronization signal, and a readout clock signal. The cycle of the read vertical synchronization signal is set to twice the cycle of the write vertical synchronization signal of the video signal written to the frame memory 20 (frame cycle). The stored image data is read out twice during one frame period. S. Output to D section 55.

O.S.D部55は、必要に応じて、メモリ読出制御部40から供給される読出画像データ信号や、後述する評価用動画像データ格納部92から供給される評価用動画像データに、メニュー表示画面を表すデータをミキシングするメニュー画面生成処理を行う。メニュー画面生成処理については、後述する。   O. S. The D unit 55 displays a menu display screen on a read image data signal supplied from the memory read control unit 40 or an evaluation moving image data supplied from an evaluation moving image data storage unit 92, which will be described later, as necessary. A menu screen generation process for mixing data to be represented is performed. The menu screen generation process will be described later.

駆動画像データ生成部50は、メモリ読出制御部40からO.S.D部55を介して供給される読出画像データ信号および読出同期信号とに基づいて、後述する液晶パネル100を駆動するための駆動画像データ信号を生成し、生成した駆動画像データ信号を後述する液晶パネル駆動部70に出力する。   The drive image data generation unit 50 receives the O.D. S. Based on the read image data signal and the read synchronization signal supplied via the D unit 55, a drive image data signal for driving the liquid crystal panel 100 described later is generated, and the generated drive image data signal is displayed on the liquid crystal described later. It outputs to the panel drive part 70.

解像度変換部60は、メモリ読出制御部40から供給される画像データ信号の解像度を、より低い解像度に変換する。解像度変換部60は、解像度変換後の画像データ信号をCPU80に出力する。   The resolution converter 60 converts the resolution of the image data signal supplied from the memory read controller 40 to a lower resolution. The resolution conversion unit 60 outputs the image data signal after the resolution conversion to the CPU 80.

液晶パネル駆動部70は、駆動画像データ生成部50から供給された駆動画像データ信号を液晶パネル100に供給可能な信号に変換して液晶パネル100に供給する。   The liquid crystal panel drive unit 70 converts the drive image data signal supplied from the drive image data generation unit 50 into a signal that can be supplied to the liquid crystal panel 100 and supplies the converted signal to the liquid crystal panel 100.

光源ユニット110は、液晶パネル100に向けて照明光を発する。液晶パネル100は、液晶パネル駆動部70から供給される駆動画像データに従って駆動される蓄積型表示装置であり、光源ユニット110から発せられた照明光を駆動画像データが表す画像を表す光(画像光)に変換する。投写光学系120は、画像光を投写スクリーンSC上で結像させることにより、投写スクリーンSC上に画像を投写する。   The light source unit 110 emits illumination light toward the liquid crystal panel 100. The liquid crystal panel 100 is a storage-type display device that is driven in accordance with the drive image data supplied from the liquid crystal panel drive unit 70, and is a light (image light) that represents the image represented by the drive image data with the illumination light emitted from the light source unit 110. ). The projection optical system 120 projects an image on the projection screen SC by forming image light on the projection screen SC.

操作パネル130は、ユーザが種々の操作を入力するための入力装置であり、例えば、後述する動画ボケ軽減処理の特性を指定する特性指定を入力することができる。   The operation panel 130 is an input device for a user to input various operations. For example, the operation panel 130 can input characteristic designation for designating characteristics of a moving image blur reduction process described later.

CPU80は、メモリ90に記憶されている制御プログラム(図示省略)を実行することにより、上述した各構成要素の動作を制御する。CPU80は、制御プログラムを実行することにより様々な機能を実現するが、図1においては、本実施例の説明に必要な機能部を選択的に図示している。以下では、図示した機能部について説明する。CPU80が実現する機能部は、パラメータ値設定部82と、評価用動画像データ生成部84とを含む。パラメータ値設定部82は、操作パネル130を介して入力された特性指定に応じて、動画ボケ軽減処理のためのパラメータをはじめとする画質調整のためのパラメータを設定する。評価用動画像データ生成部84は、上述した各構成要素を制御して、上述したインタフェース141〜143を介して入力される映像信号の全部または一部を用いて評価用動画像データを生成する。具体的には、評価用動画像データ生成部84は、解像度変換部60に変換解像度を指示して、評価用動画像として用いるフレームデータの解像度を変換させ、解像度変換後のフレームデータを用いて評価用動画像データを生成して、後述する評価用動画像データ格納部92に格納する。パラメータ値設定部82および評価用動画像データ生成部84については、さらに、後述する。   The CPU 80 controls the operation of each component described above by executing a control program (not shown) stored in the memory 90. The CPU 80 implements various functions by executing a control program. In FIG. 1, functional units necessary for explaining the present embodiment are selectively illustrated. Below, the function part shown in figure is demonstrated. The functional units realized by the CPU 80 include a parameter value setting unit 82 and an evaluation moving image data generation unit 84. The parameter value setting unit 82 sets parameters for image quality adjustment, including parameters for moving image blur reduction processing, in accordance with the characteristic designation input via the operation panel 130. The evaluation moving image data generation unit 84 controls the above-described constituent elements to generate evaluation moving image data using all or part of the video signals input via the interfaces 141 to 143 described above. . Specifically, the evaluation moving image data generation unit 84 instructs the resolution conversion unit 60 to specify the conversion resolution, converts the resolution of the frame data used as the evaluation moving image, and uses the frame data after the resolution conversion. Evaluation moving image data is generated and stored in an evaluation moving image data storage unit 92 described later. The parameter value setting unit 82 and the evaluation moving image data generation unit 84 will be described later.

メモリ90は、評価用動画像データ格納部92と、バッファ94とを含んでいる。評価用動画像データ格納部92は、評価用動画像データ生成部84により生成された評価用動画像データが格納される領域である。評価用動画像データ格納部92に格納された評価用動画像データは、O.S.D部55に供給され、後述するようにメニュー画面にミキシングされ、メニュー画面上に表示される。バッファ94は、CPU80が演算結果や画像データなどを一時的に格納するための作業領域であり、例えば、後述するように評価用動画像データを生成するためにキャプチャされたフレームデータが一時的に格納される。   The memory 90 includes an evaluation moving image data storage unit 92 and a buffer 94. The evaluation moving image data storage unit 92 is an area in which the evaluation moving image data generated by the evaluation moving image data generation unit 84 is stored. The evaluation moving image data stored in the evaluation moving image data storage unit 92 includes O.D. S. The data is supplied to the D unit 55, mixed on the menu screen as described later, and displayed on the menu screen. The buffer 94 is a work area for the CPU 80 to temporarily store calculation results, image data, and the like. For example, as described later, frame data captured for generating evaluation moving image data is temporarily stored. Stored.

・駆動画像データ生成部の構成および動作:
図2は、駆動画像データ生成部50の構成の一例を示す概略図である。駆動画像データ生成部50は、マスク制御部510と、第1のラッチ部520と、画像データ調整部560と、マスクデータ生成部530と、第2のラッチ部540と、マルチプレクサ(MPX)550と、を備えている。
-Configuration and operation of the drive image data generator:
FIG. 2 is a schematic diagram illustrating an example of the configuration of the drive image data generation unit 50. The drive image data generation unit 50 includes a mask control unit 510, a first latch unit 520, an image data adjustment unit 560, a mask data generation unit 530, a second latch unit 540, and a multiplexer (MPX) 550. It is equipped with.

マスク制御部510は、メモリ読出制御部40から供給された読出用同期信号RSNKに含まれている読出垂直同期信号VS、読出水平同期信号HS、読出クロックDCK、および、フィールド選択信号FIELDに基づいて、第1のラッチ部520および第2のラッチ部540の動作を制御するラッチ信号LTSと、マルチプレクサ550の動作を制御する選択制御信号MXSを出力し、駆動画像データ信号DVDSの生成を制御する。なお、フィールド選択信号FIELDは、フレームメモリ20から2倍速で読出された読出画像データ信号RVDSが、第1フィールドの読出画像データ信号であるか第2フィールドの読出画像データ信号であるか区別するための信号である。   Mask control unit 510 is based on read vertical synchronization signal VS, read horizontal synchronization signal HS, read clock DCK, and field selection signal FIELD included in read synchronization signal RSNK supplied from memory read control unit 40. The latch signal LTS for controlling the operation of the first latch unit 520 and the second latch unit 540 and the selection control signal MXS for controlling the operation of the multiplexer 550 are output to control the generation of the drive image data signal DVDS. The field selection signal FIELD is used to distinguish whether the read image data signal RVDS read from the frame memory 20 at double speed is the read image data signal of the first field or the read image data signal of the second field. Signal.

画像データ調整部560は、メモリ読出制御部40から供給された読出画像データ信号RVDSに対して画像調整処理を行い、画像調整処理後の読出画像データ信号RVDS1を第1のラッチ部520に出力する。画像データ調整部560が行う画像調整処理は、読出画像データに対する輝度補正処理が含まれる。輝度補正処理については、後述する。   The image data adjustment unit 560 performs image adjustment processing on the read image data signal RVDS supplied from the memory read control unit 40, and outputs the read image data signal RVDS1 after the image adjustment processing to the first latch unit 520. . Image adjustment processing performed by the image data adjustment unit 560 includes luminance correction processing for read image data. The brightness correction process will be described later.

第1のラッチ部520は、画像データ調整部560から供給された読出画像データ信号RVDS1を、マスク制御部510から供給されたラッチ信号LTSに従って順次ラッチし、ラッチ後の読出画像データ信号RVDS1をマスクデータ生成部530および第2のラッチ部540に出力する。   The first latch unit 520 sequentially latches the read image data signal RVDS1 supplied from the image data adjustment unit 560 in accordance with the latch signal LTS supplied from the mask control unit 510, and masks the read image data signal RVDS1 after latch. The data is output to the data generation unit 530 and the second latch unit 540.

マスクデータ生成部530は、CPU80から受け付けた動画ボケ軽減処理のためのパラメータである輝度係数MPと、第1のラッチ部520から供給された読出画像データ信号RVDS1とに基づいて、マスクデータを生成し、生成したマスクデータをマスクデータ信号MDS1として第2のラッチ部540に出力する。ここで、マスクデータは、読出画像データ信号RVDS1が表す画像の輝度に上述した輝度係数MPを掛けて、輝度を減衰させた画像を表す画像データである。例えば、読出画像データ信号RVDS1が表す画像の画素値が、YCbCr色空間を用いて(Y、Cb、Cr)と表されるとする(Y:輝度信号、Cb、Cr:色差信号)。かかる場合には、マスクデータ信号MDS1が表す画像の画素の画素値は、YCbCr色空間を用いて(MP×Y、Cb、Cr)と表される。輝度係数MPは、0〜1の範囲の数値を取る。   The mask data generation unit 530 generates mask data based on the luminance coefficient MP, which is a parameter for moving image blur reduction processing received from the CPU 80, and the read image data signal RVDS1 supplied from the first latch unit 520. Then, the generated mask data is output to the second latch unit 540 as the mask data signal MDS1. Here, the mask data is image data representing an image whose luminance is attenuated by multiplying the luminance of the image represented by the read image data signal RVDS1 by the luminance coefficient MP described above. For example, assume that the pixel value of the image represented by the read image data signal RVDS1 is represented as (Y, Cb, Cr) using the YCbCr color space (Y: luminance signal, Cb, Cr: color difference signal). In such a case, the pixel value of the pixel of the image represented by the mask data signal MDS1 is expressed as (MP × Y, Cb, Cr) using the YCbCr color space. The luminance coefficient MP takes a numerical value in the range of 0-1.

第2のラッチ部540は、第1のラッチ部520から出力された読出画像データ信号RVDS1およびマスクデータ生成部530から出力されたマスクデータ信号MDS1を、ラッチ信号LTSに従って順次ラッチし、ラッチ後の読出画像データを読出画像データ信号RVDS2として、また、ラッチ後のマスクデータをマスクデータ信号MDS2としてマルチプレクサ550に出力する。   The second latch unit 540 sequentially latches the read image data signal RVDS1 output from the first latch unit 520 and the mask data signal MDS1 output from the mask data generation unit 530 in accordance with the latch signal LTS. The read image data is output to the multiplexer 550 as the read image data signal RVDS2, and the latched mask data is output as the mask data signal MDS2.

マルチプレクサ550は、読出画像データ信号RVDS2とマスクデータ信号MDS2の一方を、マスク制御部510から出力される選択制御信号MXSに従って選択することによって、駆動画像データ信号DVDSを生成し、液晶パネル駆動部70に出力する。具体的には、マルチプレクサ550は、選択制御信号MXSがハイレベルである場合には、読出画像データ信号RVDS2を駆動画像データ信号DVDSとして出力し、選択制御信号MXSがローレベルである場合には、マスクデータ信号MDS2を駆動画像データ信号DVDSとして出力する。これにより、駆動画像データ信号DVDSに含まれるデータ(駆動画像データ)が表す画像は、読出画像データが表す画像の画素と、マスクデータが表す画像の画素とが混在した画像となる。駆動画像データについては、さらに、後述する。   The multiplexer 550 generates a drive image data signal DVDS by selecting one of the read image data signal RVDS2 and the mask data signal MDS2 according to the selection control signal MXS output from the mask control unit 510, and generates the drive image data signal DVDS. Output to. Specifically, the multiplexer 550 outputs the read image data signal RVDS2 as the drive image data signal DVDS when the selection control signal MXS is at a high level, and when the selection control signal MXS is at a low level, Mask data signal MDS2 is output as drive image data signal DVDS. Thus, the image represented by the data (driving image data) included in the driving image data signal DVDS is an image in which the pixel of the image represented by the read image data and the pixel of the image represented by the mask data are mixed. The drive image data will be described later.

選択制御信号MXSは、読出画像データに挿入されるマスクデータのパターンが所定のマスクパターンとなるように、フィールド選択信号FIELDと、読出垂直同期信号VSと、読出水平同期信号HSと、読出クロックDCKとに基づいて生成される。   The selection control signal MXS includes a field selection signal FIELD, a readout vertical synchronization signal VS, a readout horizontal synchronization signal HS, and a readout clock DCK so that a pattern of mask data inserted into the readout image data becomes a predetermined mask pattern. And is generated based on

図3を参照して、生成される駆動画像データについて説明する。図3は、駆動画像データが表す画像を説明するための概念図である。図3(a)は、フレームメモリ20に書き込まれているフレームデータが表す画像を示している。各フレームデータは、一定の周期(フレーム周期)Tfrの間にメモリ書込制御部30(図1)によって、フレームメモリ20に格納される。図3(a)は、Nフレーム(Nは1以上の整数)のフレームデータFR(N)と、(N+1)フレームのフレームデータFR(N+1)が順にフレームメモリ20に格納される場合を例に示している。   The generated drive image data will be described with reference to FIG. FIG. 3 is a conceptual diagram for explaining an image represented by drive image data. FIG. 3A shows an image represented by the frame data written in the frame memory 20. Each frame data is stored in the frame memory 20 by the memory write control unit 30 (FIG. 1) during a certain period (frame period) Tfr. FIG. 3A shows an example in which frame data FR (N) of N frames (N is an integer of 1 or more) and frame data FR (N + 1) of (N + 1) frames are sequentially stored in the frame memory 20. Show.

図3(b)は、フレームメモリ20から読み出される読出画像データが表す画像を示している。メモリ読出制御部40(図1)によって、フレームメモリ20に格納されているフレーム画像データが、フレーム周期Tfrの2倍速の周期(フィールド周期)Tfiで2回読み出されて、第1フィールドに対応する読出画像データFI1および第2フィールドに対応する読出画像データFI2として順に出力される。図3(b)は、Nフレームにおける第1フィールドの読出画像データFI1(N)および第2フィールドの読出画像データFI2(N)と、(N+1)フレームにおける第1フィールドの読出画像データFI1(N+1)および第2フィールドの読出画像データFI2(N+1)が順に出力される場合を例に示している。   FIG. 3B shows an image represented by read image data read from the frame memory 20. The frame image data stored in the frame memory 20 is read twice by the memory reading control unit 40 (FIG. 1) at a period (field period) Tfi that is twice the frame period Tfr, and corresponds to the first field. The read image data FI1 and the read image data FI2 corresponding to the second field are sequentially output. FIG. 3B shows read image data FI1 (N) and read image data FI2 (N) in the first field in N frame, and read image data FI1 (N + 1) in the first field in (N + 1) frame. ) And the read image data FI2 (N + 1) in the second field are output as an example.

図3(c)は、駆動画像データが表す画像を示している。駆動画像データ生成部50では、第1フィールドの読出画像データFI1の偶数番目の水平ライン(2,4,6,8,...)をマスクデータ(クロスハッチで示される領域)に置き換えた第1の駆動画像データが生成される(図3(c))。具体的には、第1フィールドの読出画像データ信号が入力されている期間(第1フィールド期間)において、駆動画像データ生成部50のマスク制御部510が、奇数番目の水平ラインに対応する水平走査期間(読出水平同期信号HSの奇数番目の周期)においてHレベルとなり、偶数番目の水平ラインに対応する水平走査期間(読出水平同期信号HSの偶数番目の周期)においてLレベルとなる選択制御信号MXSを生成することにより、駆動画像データ生成部50は、第1の駆動画像データを生成することができる。   FIG. 3C shows an image represented by the drive image data. In the drive image data generation unit 50, the even-numbered horizontal lines (2, 4, 6, 8,...) Of the read image data FI1 in the first field are replaced with mask data (regions indicated by cross hatching). 1 driving image data is generated (FIG. 3C). Specifically, in the period (first field period) in which the read image data signal of the first field is input, the mask control unit 510 of the drive image data generation unit 50 performs horizontal scanning corresponding to the odd-numbered horizontal lines. The selection control signal MXS that becomes H level in the period (odd-numbered cycle of the readout horizontal synchronization signal HS) and becomes L level in the horizontal scanning period (even-numbered cycle of the readout horizontal synchronization signal HS) corresponding to the even-numbered horizontal line. By generating the drive image data generation unit 50, the first drive image data can be generated.

また、駆動画像データ生成部50では、第2フィールドの読出画像データFI2の奇数番目の水平ライン(1,3,5,7,...)をマスクデータに置き換えた第2の駆動画像データが生成される(図3(c))。具体的には、第2フィールドの読出画像データ信号が入力されている期間(第2フィールド期間)において、駆動画像データ生成部50のマスク制御部510が、奇数番目の水平ラインに対応する水平走査期間においてLレベルとなり、偶数番目の水平ラインに対応する水平走査期間においてHレベルとなる選択制御信号MXSを生成することにより、駆動画像データ生成部50は、第2の駆動画像データを生成することができる。   Further, in the drive image data generation unit 50, the second drive image data obtained by replacing the odd-numbered horizontal lines (1, 3, 5, 7,...) Of the read image data FI2 of the second field with mask data is obtained. Is generated (FIG. 3C). Specifically, in the period (second field period) in which the read image data signal of the second field is input, the mask control unit 510 of the drive image data generation unit 50 performs horizontal scanning corresponding to the odd-numbered horizontal lines. The drive image data generation unit 50 generates the second drive image data by generating the selection control signal MXS that becomes L level during the period and becomes H level during the horizontal scanning period corresponding to the even-numbered horizontal line. Can do.

なお、第1フィールドの読出画像データFI1の奇数番目の水平ラインをマスクデータに置き換え、第2フィールドの読出画像データFI2の偶数番目の水平ラインをマスクデータに置き換えるようにしても良い。   The odd-numbered horizontal lines in the read image data FI1 in the first field may be replaced with mask data, and the even-numbered horizontal lines in the read image data FI2 in the second field may be replaced with mask data.

また、図3に示した駆動画像データの表す画像は、説明を容易にするために1フレームの画像を水平8ラインで垂直10ラインの画像としているため、離散した画像に見えるが、実際の画像は、数百本以上の水平および垂直ラインを有しているので、人間の視覚の性質上ほとんど目立たない。   In addition, the image represented by the drive image data shown in FIG. 3 appears to be a discrete image because the image of one frame is an image of 8 horizontal lines and 10 vertical lines for ease of explanation. Since it has hundreds of horizontal and vertical lines, it is hardly noticeable due to the nature of human vision.

以上説明したように、駆動画像データ生成部50は、1つのフレームデータを第1フィールドと第2フィールドの画像データとして読み出し、第1フィールドの読出画像データに対しては、偶数番目の水平ラインに対応する読出画像データをマスクデータに置き換えて第1の駆動画像データを生成し、第2フィールドの読出画像データに対しては、奇数番目の水平ラインに対応する読出画像データをマスクデータに置き換えて第2の駆動画像データを生成する。このような動画像処理により、1つの水平ラインについて着目すると、液晶パネルの各画素に対してマスクデータと画像データとがフィールド周期Tfiで交互に入力されることになるため、各画素では、読出画像データに対応する画像を表示する前に、一旦マスクデータの表す画像を表示することによって、その前に表示された画像の影響を抑制して、新たな画像データの表す画像を表示する。これにより、いわゆる動画ボケを軽減することができる。このような動画像処理における動画ボケの軽減の程度は、動画像処理のパラメータである輝度係数MPの値を変更することのより、調整することができる。   As described above, the drive image data generation unit 50 reads one frame data as the image data of the first field and the second field, and the read image data of the first field is displayed on the even-numbered horizontal line. The corresponding read image data is replaced with mask data to generate first drive image data. For the read image data in the second field, the read image data corresponding to the odd-numbered horizontal lines is replaced with mask data. Second drive image data is generated. When attention is paid to one horizontal line by such moving image processing, mask data and image data are alternately input to each pixel of the liquid crystal panel at the field period Tfi. Before displaying the image corresponding to the image data, the image represented by the mask data is displayed once, thereby suppressing the influence of the image displayed before that and displaying the image represented by the new image data. Thereby, so-called moving image blur can be reduced. The degree of reduction of moving image blur in such moving image processing can be adjusted by changing the value of the luminance coefficient MP that is a parameter of moving image processing.

例えば、輝度係数MPを0とすると、マスクデータは、輝度が0の画像データ、すわなわち、黒の画像を表す画像データとなる。この結果、表示される動画像において、動画ボケの軽減の程度は最大になる一方で、実質的な輝度はフレームデータが表す画像の輝度に対して約半分に減衰してしまう。一方、輝度係数MPを1とすると、マスクデータは、フレームデータを表す画像と同一になる。この結果、動画ボケの軽減の程度は0になり、表示される動画像はフレームデータが表す画像そのものになる。以上から解るように、0〜1の範囲で変化する輝度係数MPが小さいほど、表示される動画像における動画ボケの軽減の程度は大きくなり、輝度は小さくなる。   For example, when the luminance coefficient MP is 0, the mask data is image data having a luminance of 0, that is, image data representing a black image. As a result, in the displayed moving image, the degree of reduction of moving image blur is maximized, but the substantial luminance is attenuated to about half of the luminance of the image represented by the frame data. On the other hand, if the luminance coefficient MP is 1, the mask data is the same as the image representing the frame data. As a result, the degree of reduction of moving image blur becomes 0, and the displayed moving image is the image itself represented by the frame data. As can be seen from the above, the smaller the luminance coefficient MP that changes in the range of 0 to 1, the greater the degree of reduction of moving image blur in the displayed moving image, and the lower the luminance.

・動画像処理のパラメータの設定:
図4〜図9を参照して、上述した動画像処理のパラメータである輝度係数MPを含む動画調整のためのパラメータの設定(動画調整設定)について、説明する。図4は、動画調整設定の第1のメニュー画面を示す図である。図5は、動画調整設定の第2のメニュー画面を示す図である。図6は、動画調整設定の第3のメニュー画面を示す図である。図7は、評価用動画像データ生成処理の処理ルーチンを示すフローチャートである。図8は、評価用動画像データの生成について説明する概念図である。図9は、輝度補正について説明する概略図である。
・ Parameter settings for video processing:
With reference to FIGS. 4 to 9, description will be given of parameter setting (moving image adjustment setting) for moving image adjustment including the luminance coefficient MP that is the parameter of the moving image processing described above. FIG. 4 is a diagram showing a first menu screen for moving image adjustment setting. FIG. 5 is a diagram showing a second menu screen for moving image adjustment setting. FIG. 6 is a diagram showing a third menu screen for moving image adjustment setting. FIG. 7 is a flowchart showing a processing routine of evaluation moving image data generation processing. FIG. 8 is a conceptual diagram illustrating generation of evaluation moving image data. FIG. 9 is a schematic diagram for explaining the luminance correction.

輝度係数MPの設定は、ユーザの操作に基づいて、CPU80が、各構成要素を制御することにより実行される。ユーザが操作パネル130を介して、動画調整設定の処理の開始指示を入力すると、図4に示す動画調整設定の第1のメニュー画面200が表示される。第1のメニュー画面200は、CPU80がO.S.D部55を制御して、O.S.D部55に第1のメニュー画面200を表す画像データを読出画像データ信号RVDSとして出力させることにより、最終的に投写スクリーンSC上に表示される。後述する他のメニュー画面(例えば、第2のメニュー画面300、第3のメニュー画面400)についても同様である。第1のメニュー画面200は、評価用動画像表示部201と、動画ボケ軽減レベル入力用ユーザインターフェース(UI)202と、輝度補正レベル入力用UI203と、動画像処理可否入力用UI204と、評価用動画像操作用UI205と、ソース指定画面移行用UI206と、設定処理終了入力用UI208とを含んでいる。   The setting of the luminance coefficient MP is executed by the CPU 80 controlling each component based on a user operation. When the user inputs a moving image adjustment setting process start instruction via the operation panel 130, the first menu screen 200 for moving image adjustment setting shown in FIG. 4 is displayed. In the first menu screen 200, the CPU 80 displays the O.D. S. D. 55 is controlled and O.D. S. By causing the D unit 55 to output the image data representing the first menu screen 200 as the read image data signal RVDS, it is finally displayed on the projection screen SC. The same applies to other menu screens described later (for example, the second menu screen 300 and the third menu screen 400). The first menu screen 200 includes an evaluation moving image display unit 201, a moving image blur reduction level input user interface (UI) 202, a luminance correction level input UI 203, a moving image processing availability input UI 204, and an evaluation image. It includes a moving image operation UI 205, a source designation screen transition UI 206, and a setting processing end input UI 208.

評価用動画像表示部201は、後述する評価用動画像データが表す動画像を表示するための領域である。動画ボケ軽減レベル入力用UI202は、ユーザが動画ボケ軽減レベルを指定する軽減レベル指定を入力するためのUIである。輝度補正レベル入力用UI203は、ユーザが輝度補正のレベルを指定する輝度補正レベル指定を入力するためのUIである。動画像処理可否入力用UI204は、ユーザが評価用動画像データに対して動画像処理を行うか否かを指定する可否指定を入力するためのUIである。評価用動画像操作用UI205は、ユーザが評価用動画像表示部201に表示される評価用動画像データが表す動画像の表示状況を操作するためのUIである。ソース指定画面移行用UI206は、ユーザが後述するソース指定のための第2のメニュー画面に移行する移行指示を入力するためのUIである。設定処理終了入力用UI208は、ユーザが動画調整設定の処理を終了する指示を入力するためのUIである。   The evaluation moving image display unit 201 is an area for displaying a moving image represented by evaluation moving image data described later. The moving image blur reduction level input UI 202 is a UI for the user to input a reduction level specification for specifying a moving image blur reduction level. The luminance correction level input UI 203 is a UI for the user to input a luminance correction level designation for designating a luminance correction level. The moving image processing availability input UI 204 is a UI for the user to input permission / inhibition designation for designating whether to perform moving image processing on the evaluation moving image data. The evaluation moving image operation UI 205 is a UI for the user to operate the display state of the moving image represented by the evaluation moving image data displayed on the evaluation moving image display unit 201. The source designation screen migration UI 206 is a UI for the user to input a migration instruction for migrating to a second menu screen for source designation described later. The setting process end input UI 208 is a UI for the user to input an instruction to end the moving image adjustment setting process.

ユーザは、まず、評価用動画像データを生成するために用いる動画像データ(元画像データ)を取得する取得先となる外部ソースを指定するために、ソース指定画面移行用UI206をクリックする。そうすると、動画像表示装置DP1は、第1のメニュー画面200に代えて、図5に示す第2のメニュー画面300を表示する。第2のメニュー画面300には、ユーザが外部ソースを指定するためのソース指定用UI301〜303が含まれる。本実施例では、図5に示すように、外部ソースとして、「映像端子」と「ネットワーク」と「外部メモリ」を指定することができる。   The user first clicks the source designation screen transition UI 206 in order to designate an external source from which to obtain moving image data (original image data) used to generate evaluation moving image data. Then, the moving image display device DP1 displays the second menu screen 300 shown in FIG. 5 instead of the first menu screen 200. The second menu screen 300 includes source designation UIs 301 to 303 for the user to designate an external source. In this embodiment, as shown in FIG. 5, “video terminal”, “network”, and “external memory” can be designated as external sources.

ユーザが「映像端子」を指定するUI301をクリックすると、映像端子142から入力されている映像信号に含まれる動画像データが、元画像データとして指定される。ユーザが「ネットワーク」を指定するUI302をクリックすると、NIC141を介して接続されているネットワーク上に存在する動画像データ、例えば、ネットワーク上のファイルサーバに格納されている動画像データを、選択する選択メニュー(図示省略)が表示される。選択メニューにおいて、ユーザが、ネットワーク上に存在する映像信号を特定すると、特定された動画像データが、元画像データとして指定される。ユーザが「外部メモリ」を指定するUI303をクリックすると、外部メモリインタフェース143を介して接続されている外部メモリ上に存在する動画像データ、例えば、メモリカードに格納されている動画像データを選択する選択メニュー(図示省略)が表示される。選択メニューにおいて、ユーザが、外部メモリ上に存在する動画像データを特定すると、特定された動画像データが、元画像データとして指定される。   When the user clicks the UI 301 for designating “video terminal”, moving image data included in the video signal input from the video terminal 142 is designated as original image data. When the user clicks on the UI 302 that designates “network”, a selection is made to select moving image data existing on the network connected via the NIC 141, for example, moving image data stored in a file server on the network. A menu (not shown) is displayed. When the user specifies a video signal existing on the network in the selection menu, the specified moving image data is designated as original image data. When the user clicks the UI 303 for designating “external memory”, moving image data existing on the external memory connected via the external memory interface 143, for example, moving image data stored in a memory card is selected. A selection menu (not shown) is displayed. When the user specifies moving image data existing on the external memory in the selection menu, the specified moving image data is designated as original image data.

元画像データが指定されると、動画像表示装置DP1は、図6に示す第3のメニュー画面400を表示する。第3のメニュー画面400は、UI表示部410を含んでいる。第3のメニュー画面400におけるUI表示部410を除く領域は、指定された元画像データが表す動画像が表示される表示領域である。UI表示部410は、開始指定用UI411と、終了指定用UI412と、フレーム数指定用UI413と、解像度指定用UI414と、リターン入力用UI415、を含んでいる。   When the original image data is designated, the moving image display device DP1 displays a third menu screen 400 shown in FIG. The third menu screen 400 includes a UI display unit 410. The area excluding the UI display unit 410 in the third menu screen 400 is a display area in which a moving image represented by designated original image data is displayed. The UI display unit 410 includes a start designation UI 411, an end designation UI 412, a frame number designation UI 413, a resolution designation UI 414, and a return input UI 415.

ユーザは、表示領域に表示される元画像データが表す動画像を見ながら、UI表示部410に含まれる各UI411〜414を操作することにより、動画像表示装置DP1に、評価用動画像データを作成させる。生成される評価用動画像データのフレーム数は、フレーム数指定用UI413により指定された数となる。生成される評価用動画像データの解像度は、解像度指定用UI414により指定した解像度となる。ユーザは、フレーム数指定用UI413および解像度指定用UI414を操作して、指定フレーム数および指定解像度を変更することができる。   The user operates the UIs 411 to 414 included in the UI display unit 410 while viewing the moving image represented by the original image data displayed in the display area, so that the evaluation moving image data is input to the moving image display device DP1. Let it be created. The number of frames of the evaluation moving image data to be generated is the number designated by the frame number designation UI 413. The resolution of the generated evaluation moving image data is the resolution designated by the resolution designation UI 414. The user can change the designated number of frames and the designated resolution by operating the UI 413 for specifying the number of frames and the UI 414 for specifying the resolution.

動画像表示装置DP1により評価用動画像データが作成される処理(評価用動画像データ生成処理)について、図7および図8を参照して、説明する。上述したように、評価用動画像データ生成処理は、元画像データが指定されたときに、第3のメニュー画面400(図6)を表示し、ユーザに必要な入力を促すことによって開始される(ステップS110)。   A process (evaluation moving image data generation process) in which the moving image display apparatus DP1 creates evaluation moving image data will be described with reference to FIGS. As described above, the evaluation moving image data generation processing is started by displaying the third menu screen 400 (FIG. 6) and prompting the user for necessary input when the original image data is designated. (Step S110).

第3のメニュー画面400が表示されると、CPU80の評価用動画像データ生成部84は、第2のメニュー画面300において終了指定用UI412が押されたか否かを判断する(ステップS120)。評価用動画像データ生成部84は、終了指定用UI412が押されたと判断すると(ステップS120:YES)、終了指定用UI412が押されたタイミングで、表示領域に表示されているフレーム画像を表すフレームデータをキャプチャし(ステップS130)、キャプチャされたフレームデータの解像度を、解像度指定用UI414により指定された解像度に変換し(ステップS140)、解像度変換後のフレームデータをメモリ90のバッファ94に記憶する(ステップS150)。具体的には、評価用動画像データ生成部84は、終了指定用UI412が押されたタイミングで、フレームメモリ20に格納されているフレームデータを、メモリ読出制御部40に読み出させ、解像度変換部60に対して出力させる。評価用動画像データ生成部84は、解像度変換部60に、読み出されたフレームデータの解像度を指定された解像度に変換させ、解像度変換後のフレームデータを取得する。評価用動画像データ生成部84は、取得したフレームデータをバッファ94に格納する。   When the third menu screen 400 is displayed, the evaluation moving image data generation unit 84 of the CPU 80 determines whether or not the end designation UI 412 has been pressed on the second menu screen 300 (step S120). If the evaluation moving image data generation unit 84 determines that the end designation UI 412 is pressed (step S120: YES), the frame representing the frame image displayed in the display area at the timing when the end designation UI 412 is pressed. Data is captured (step S130), the resolution of the captured frame data is converted to the resolution specified by the resolution specifying UI 414 (step S140), and the frame data after the resolution conversion is stored in the buffer 94 of the memory 90. (Step S150). Specifically, the evaluation moving image data generation unit 84 causes the memory read control unit 40 to read the frame data stored in the frame memory 20 at the timing when the end designation UI 412 is pressed, and performs resolution conversion. Output to the unit 60. The evaluation moving image data generation unit 84 causes the resolution conversion unit 60 to convert the resolution of the read frame data to the designated resolution, and acquires the frame data after the resolution conversion. The evaluation moving image data generation unit 84 stores the acquired frame data in the buffer 94.

評価用動画像データ生成部84は、フレームデータをバッファに記憶すると、押された終了指定用UI412が離されたか否かを判断する(ステップS160)。評価用動画像データ生成部84は、終了指定用UI412が離されていない(押されたままである)と判断すると(ステップS160:NO)、ステップS130に戻って、時系列順に次のフレームデータについて上述した処理(ステップS130〜S150)を繰り返す。こうすることによって、図8(b)に示すように、終了指定用UI412が押された時点から、時系列順に、表示領域に表示されているフレームデータがバッファリングされる。   After storing the frame data in the buffer, the evaluation moving image data generation unit 84 determines whether or not the pressed end designation UI 412 has been released (step S160). If the evaluation moving image data generation unit 84 determines that the end designating UI 412 is not released (it is still pressed) (step S160: NO), the evaluation moving image data generation unit 84 returns to step S130 and continues to the next frame data in chronological order. The above-described processing (steps S130 to S150) is repeated. By doing so, as shown in FIG. 8B, the frame data displayed in the display area is buffered in chronological order from the time when the end designation UI 412 is pressed.

評価用動画像データ生成部84は、終了指定用UI412が離されたと判断すると(ステップS160:YES)、終了指定用UI412が離された時点において表示領域に表示されているフレームデータ、すなわち、最後にバッファリングされたフレームデータを、評価用動画像データとしてメモリ90の評価用動画像データ格納部92に記憶する(ステップS170)。そして、評価用動画像データ生成部84は、フレーム数指定用UI413により指定されたフレーム数分のフレームデータを、評価用動画像データ格納部92に記憶したか否かを判断する(ステップS180)。評価用動画像データ生成部84は、指定されたフレーム数分のフレームデータが評価用動画像データ格納部92に記憶されていないと判断すると(ステップS180:NO)、ステップS170に戻って、時系列順に1つ前にバッファリングされたフレームデータを評価用動画像データ格納部92に記憶する。こうすることによって、図8(b)に示すように、終了指定用UI412が離された時点から、時系列に遡って、指定されたフレーム数分のフレームデータが評価用動画像データとして評価用動画像データ格納部92に記憶される。評価用動画像データ生成部84は、指定されたフレーム数分のフレームデータが評価用動画像データ格納部92に記憶されたと判断すると(ステップS180:YES)、ステップS120に処理をリターンする。   When the evaluation moving image data generation unit 84 determines that the end designating UI 412 has been released (step S160: YES), the frame data displayed in the display area at the time when the end designating UI 412 is released, that is, the last The buffered frame data is stored in the evaluation moving image data storage unit 92 of the memory 90 as evaluation moving image data (step S170). Then, the evaluation moving image data generation unit 84 determines whether or not frame data for the number of frames designated by the frame number designation UI 413 has been stored in the evaluation moving image data storage unit 92 (step S180). . If the evaluation moving image data generation unit 84 determines that the frame data for the designated number of frames is not stored in the evaluation moving image data storage unit 92 (step S180: NO), the evaluation moving image data generation unit 84 returns to step S170, The frame data previously buffered in the sequence order is stored in the evaluation moving image data storage unit 92. By doing so, as shown in FIG. 8B, the frame data for the designated number of frames is used as the evaluation moving image data retroactively from the time when the end designating UI 412 is released. It is stored in the moving image data storage unit 92. If the evaluation moving image data generation unit 84 determines that frame data for the designated number of frames has been stored in the evaluation moving image data storage unit 92 (step S180: YES), the process returns to step S120.

ステップS120において、終了指定用UI412が押されていないと判断すると(ステップS120:NO)、評価用動画像データ生成部84は、開始指定用UI411が押されたか否かを判断する(ステップS190)。評価用動画像データ生成部84は、開始指定用UI411が押されたと判断すると(ステップS190:YES)、開始指定用UI411が押されたタイミングで、表示領域に表示されているフレーム画像を表すフレームデータをキャプチャし(ステップS200)、キャプチャされたフレームデータの解像度を、解像度指定用UI414により指定された解像度に変換し(ステップS210)、解像度変換後のフレームデータをメモリ90の評価用動画像データ格納部92に評価用動画像データとして記憶する(ステップS220)。そして、評価用動画像データ生成部84は、フレーム数指定用UI413により指定されたフレーム数分のフレームデータを、評価用動画像データ格納部92に記憶したか否かを判断する(ステップS230)。評価用動画像データ生成部84は、指定されたフレーム数分のフレームデータが評価用動画像データ格納部92に記憶されていないと判断すると(ステップS230:NO)、ステップS200に戻って、時系列順に次のフレームデータについて上述した処理(ステップS200〜S220)を繰り返す。こうすることによって、図8(a)に示すように、開始指定用UI411が押された時点から、時系列順に、指定されたフレーム数分のフレームデータが評価用動画像データとして評価用動画像データ格納部92に記憶される。評価用動画像データ生成部84は、指定されたフレーム数分のフレームデータが評価用動画像データ格納部92に記憶されたと判断すると(ステップS180:YES)、ステップS120に処理をリターンする。   If it is determined in step S120 that the end designation UI 412 is not pressed (step S120: NO), the evaluation moving image data generation unit 84 determines whether the start designation UI 411 is pressed (step S190). . If the evaluation moving image data generation unit 84 determines that the start designation UI 411 has been pressed (step S190: YES), the frame representing the frame image displayed in the display area at the timing at which the start designation UI 411 is pressed. The data is captured (step S200), the resolution of the captured frame data is converted to the resolution specified by the resolution specifying UI 414 (step S210), and the frame data after the resolution conversion is converted to the moving image data for evaluation in the memory 90. The moving image data for evaluation is stored in the storage unit 92 (step S220). Then, the evaluation moving image data generation unit 84 determines whether or not frame data for the number of frames designated by the frame number designation UI 413 has been stored in the evaluation moving image data storage unit 92 (step S230). . If the evaluation moving image data generation unit 84 determines that the frame data for the designated number of frames is not stored in the evaluation moving image data storage unit 92 (step S230: NO), the evaluation moving image data generation unit 84 returns to step S200, The above-described processing (steps S200 to S220) is repeated for the next frame data in the sequence order. As a result, as shown in FIG. 8A, frame data for the specified number of frames is evaluated as moving image data for evaluation in time-series order from the time when the start specifying UI 411 is pressed. It is stored in the data storage unit 92. If the evaluation moving image data generation unit 84 determines that frame data for the designated number of frames has been stored in the evaluation moving image data storage unit 92 (step S180: YES), the process returns to step S120.

ステップS190において、開始指定用UI411が押されていないと判断すると(ステップS190:NO)、評価用動画像データ生成部84は、リターン入力用UI415(「戻る」のボタン)が押されたか否かを判断する(ステップS240)。評価用動画像データ生成部84は、リターン入力用UI415が押されていないと判断すると(ステップS415:NO)、ステップS120に処理をリターンし、リターン入力用UI415が押されたと判断すると(ステップS415:YES)、評価用動画像データ生成処理を終了する。   If it is determined in step S190 that the start designation UI 411 has not been pressed (step S190: NO), the evaluation moving image data generation unit 84 determines whether or not the return input UI 415 (the “return” button) has been pressed. Is determined (step S240). If the evaluation moving image data generation unit 84 determines that the return input UI 415 has not been pressed (step S415: NO), it returns the process to step S120 and determines that the return input UI 415 has been pressed (step S415). : YES), the evaluation moving image data generation process is terminated.

図4に戻って説明を続ける。評価用動画像データ生成処理が終了されると、再び、図4に示す第1のメニュー画面200が表示される。このとき、評価用動画像データ生成処理において生成された評価用動画像データが表す画像(評価用動画像)が、評価用動画像表示部201に表示される。具体的には、CPU80の制御に従い、評価用動画像データ格納部92に格納されている評価用動画像データがフレーム単位で読み出され、O.S.D部55に供給される。そして、CPU80の制御に従い、O.S.D部55は、供給された評価用動画像データを用いて、評価用動画像表示部201に評価用動画像が表示された第1のメニュー画面200を表す読出画像データ信号RVDSを生成する。これによって、最終的に、評価用動画像表示部201に評価用動画像が表示された第1のメニュー画面200が投写スクリーンSCに表示される。ユーザは、評価用動画像操作用UI205を介して、評価用動画像表示部201に表示される評価用動画像の表示状況、例えば、「再生」「停止」「リピート」を操作することができる。   Returning to FIG. 4, the description will be continued. When the evaluation moving image data generation process is completed, the first menu screen 200 shown in FIG. 4 is displayed again. At this time, an image (evaluation moving image) represented by the evaluation moving image data generated in the evaluation moving image data generation process is displayed on the evaluation moving image display unit 201. Specifically, in accordance with the control of the CPU 80, the evaluation moving image data stored in the evaluation moving image data storage unit 92 is read out in units of frames. S. Supplied to D section 55. Then, according to the control of the CPU 80, the O.D. S. The D unit 55 uses the supplied evaluation moving image data to generate a read image data signal RVDS representing the first menu screen 200 on which the evaluation moving image is displayed on the evaluation moving image display unit 201. Thus, finally, the first menu screen 200 on which the evaluation moving image is displayed on the evaluation moving image display unit 201 is displayed on the projection screen SC. The user can operate the display state of the evaluation moving image displayed on the evaluation moving image display unit 201, for example, “play”, “stop”, and “repeat” via the evaluation moving image operation UI 205. .

評価用動画像表示部201に評価用動画像が表示されているときに、動画像処理可否入力用UI204において、評価用動画像データに対して動画像処理を行う指定が入力されていると、評価用動画像表示部201には、動画像処理後の評価用動画像データに基づいて、評価用動画像が表示される。一方、動画像処理可否入力用UI204において、評価用動画像データに対して動画像処理を行わない指定が入力されていると、評価用動画像表示部201には、動画像処理前の評価用動画像データに基づいて、評価用動画像が表示される。本実施例では、図4に示すようなチェックボックス型の動画像処理可否入力用UI204にチェックがなされている場合には、動画像処理を行う指定が入力されていることを表し、チェックがなされていない場合には、動画像処理を行わない指定が入力されていることを表す。   When an evaluation moving image is displayed on the evaluation moving image display unit 201, if designation for performing moving image processing on the evaluation moving image data is input in the moving image processing availability input UI 204, The evaluation moving image display unit 201 displays an evaluation moving image based on the evaluation moving image data after moving image processing. On the other hand, when a designation not to perform moving image processing is input to the evaluation moving image data in the moving image processing availability input UI 204, the evaluation moving image display unit 201 displays the evaluation image before moving image processing. An evaluation moving image is displayed based on the moving image data. In the present embodiment, when the check box type moving image processing availability input UI 204 as shown in FIG. 4 is checked, it indicates that a designation for performing moving image processing has been input, and is checked. If not, it indicates that a designation not to perform moving image processing has been input.

評価用動画像表示部201に動画像処理後の評価用動画像が表示される場合には、動画像処理における動画ボケ軽減レベルおよび輝度補正レベルは、動画ボケ軽減レベル入力用UI202および輝度補正レベル入力用UI203により指定されたレベルにそれぞれ設定される。   When the evaluation moving image after moving image processing is displayed on the evaluation moving image display unit 201, the moving image blur reduction level and the luminance correction level in the moving image processing are the moving image blur reduction level input UI 202 and the luminance correction level. Each level is set by the input UI 203.

動画ボケ軽減レベルは、上述したようにマスクデータの生成時に用いられる輝度係数MPの大きさに対応しており、動画ボケ軽減レベルが大きいほど輝度係数MPは小さくされ、動画ボケ軽減レベルが小さいほど輝度係数MPは大きくされる。   The moving image blur reduction level corresponds to the magnitude of the luminance coefficient MP used when generating mask data as described above. The larger the moving image blur reduction level, the smaller the luminance coefficient MP, and the lower the moving image blur reduction level. The luminance coefficient MP is increased.

本実施例における輝度補正は、図9に示すようなトーンカーブを用いて行われる。本実施例に用いられる輝度補正に用いられるトーンカーブの形状は、入力値を基準輝度値Yrefとした場合の出力値がYref+AP×ΔYとなる一次特性線とされている。図9には、補正係数APと、輝度補正に用いられるトーンカーブの曲線形状との対応関係が示されている。図9から解るように、本実施例では、輝度補正レベルは、輝度補正に用いられるトーンカーブの曲線形状を決定する補正係数APに対応しており、輝度補正レベルが大きいほど補正係数APは大きくされ、輝度補正レベルが小さいほど補正係数APは小さくされる。補正係数APの値は、例えば、0〜1の範囲で定められる。   The brightness correction in this embodiment is performed using a tone curve as shown in FIG. The shape of the tone curve used for luminance correction used in the present embodiment is a primary characteristic line where the output value is Yref + AP × ΔY when the input value is the reference luminance value Yref. FIG. 9 shows the correspondence between the correction coefficient AP and the curve shape of the tone curve used for luminance correction. As can be seen from FIG. 9, in this embodiment, the luminance correction level corresponds to the correction coefficient AP that determines the curve shape of the tone curve used for luminance correction, and the correction coefficient AP increases as the luminance correction level increases. As the luminance correction level is smaller, the correction coefficient AP is smaller. The value of the correction coefficient AP is determined in the range of 0 to 1, for example.

ここで、ユーザが動画ボケ軽減レベル入力用UI202および輝度補正レベル入力用UI203を操作することにより、動画像処理における動画ボケ軽減レベルおよび輝度補正レベルを変更すると、かかるレベル変更は、評価用動画像表示部201に表示される評価用動画像にリアルタイムに反映される。また、ユーザが動画像処理可否入力用UI204を操作して、動画像処理を行う指定と、動画像処理を行わない指定とを切り替えると、かかる切り替えは、評価用動画像表示部201に表示される評価用動画像にリアルタイムに反映される。具体的には、ユーザから、動画ボケ軽減レベルおよび輝度補正レベルを変更や、動画像処理を行う指定と動画像処理を行わない指定との切り替えが入力されると、かかる入力を受け付けたCPU80のパラメータ値設定部82は、かかる入力に応じて、上述した補正係数APおよび輝度係数MPを設定する。例えば、動画像処理を行う指定が入力されているときに、輝度補正レベルを減少させる入力がなされると、パラメータ値設定部82は補正係数APの値を入力に応じて減少させ、動画ボケ軽減レベルを減少させる入力がなされると、パラメータ値設定部82は輝度係数MPの値を入力に応じて増大させる。また、動画像処理を行う指定から動画像処理を行わない指定に切り替えられると、パラメータ値設定部82は補正係数APの値を0に、輝度係数MPの値を1に変更し、動画像処理を行わない指定から動画像処理を行う指定に切り替えられると、パラメータ値設定部82は補正係数APおよび輝度係数MPの値を指定されている輝度補正レベルおよび動画ボケ軽減レベルに応じた値に変更する。パラメータ値設定部82は、補正係数APの値を変更すると、駆動画像データ生成部50の画像データ調整部560に変更後の補正係数APの値を供給する。画像データ調整部560は、供給された補正係数APに応じて輝度補正がなされた読出画像データ信号RVDS1を生成する。また、パラメータ値設定部82は、輝度係数MPの値を変更すると、駆動画像データ生成部50のマスクデータ生成部530に変更後の輝度係数MPの値を供給する。マスクデータ生成部530は、供給された輝度係数MPの値に基づいて、マスクデータ信号MDS1を生成する。これにより、ユーザからの入力(例えば、動画ボケ軽減レベルの変更の入力)が、評価用動画像表示部201に表示される評価用動画像にリアルタイムに反映される。   Here, when the user operates the moving image blur reduction level input UI 202 and the luminance correction level input UI 203 to change the moving image blur reduction level and the luminance correction level in the moving image processing, the level change is performed as an evaluation moving image. This is reflected in real time on the evaluation moving image displayed on the display unit 201. Further, when the user operates the moving image processing availability input UI 204 to switch between designation for performing moving image processing and designation for not performing moving image processing, the switching is displayed on the evaluation moving image display unit 201. This is reflected in real time on the evaluation video. Specifically, when the user inputs a change in the moving image blur reduction level and a luminance correction level, or switching between a designation for performing moving image processing and a designation for not performing moving image processing, the CPU 80 that has received the input The parameter value setting unit 82 sets the correction coefficient AP and the luminance coefficient MP described above in response to the input. For example, when an instruction for moving image processing is input, and an input for decreasing the luminance correction level is input, the parameter value setting unit 82 decreases the value of the correction coefficient AP in accordance with the input, thereby reducing motion blur. When an input for decreasing the level is made, the parameter value setting unit 82 increases the value of the luminance coefficient MP according to the input. When switching from the designation for performing the moving image processing to the designation for not performing the moving image processing, the parameter value setting unit 82 changes the value of the correction coefficient AP to 0 and the value of the luminance coefficient MP to 1, thereby moving the moving image processing. When it is switched from the designation not performing moving image processing to the designation performing moving image processing, the parameter value setting unit 82 changes the values of the correction coefficient AP and the luminance coefficient MP to values according to the designated luminance correction level and moving image blur reduction level. To do. When the value of the correction coefficient AP is changed, the parameter value setting unit 82 supplies the changed value of the correction coefficient AP to the image data adjustment unit 560 of the drive image data generation unit 50. The image data adjustment unit 560 generates a read image data signal RVDS1 that has been subjected to luminance correction in accordance with the supplied correction coefficient AP. Further, when the value of the luminance coefficient MP is changed, the parameter value setting unit 82 supplies the changed value of the luminance coefficient MP to the mask data generation unit 530 of the drive image data generation unit 50. The mask data generation unit 530 generates a mask data signal MDS1 based on the supplied value of the luminance coefficient MP. As a result, an input from the user (for example, an input for changing the moving image blur reduction level) is reflected in real time on the evaluation moving image displayed on the evaluation moving image display unit 201.

ユーザの操作により設定処理終了入力用UI208の「適用」ボタンが押されると、「適用」ボタンが押された時点において指定されている輝度補正レベルおよび動画ボケ軽減レベルに応じた補正係数APおよび輝度係数MPの値が確定される。この結果、新たに設定された補正係数APおよび輝度係数MPを用いた動画像処理が、これ以降に投写スクリーンSCに表示される動画像に用いられる。一方、ユーザの操作により設定処理終了入力用UI208の「キャンセル」ボタンが押されると、補正係数APおよび輝度係数MPの値の変更は行われず、以前に設定された補正係数APおよび輝度係数MPの値が確定される。この結果、以前に設定された補正係数APおよび輝度係数MPの値を用いた動画像処理が、これ以降に投写スクリーンSCに表示される動画像に用いられる。   When the “apply” button of the setting process end input UI 208 is pressed by the user's operation, the correction coefficient AP and the brightness corresponding to the luminance correction level and the moving image blur reduction level specified at the time when the “apply” button is pressed. The value of the coefficient MP is determined. As a result, the moving image processing using the newly set correction coefficient AP and luminance coefficient MP is used for moving images displayed on the projection screen SC thereafter. On the other hand, when the “cancel” button of the setting process end input UI 208 is pressed by a user operation, the values of the correction coefficient AP and the luminance coefficient MP are not changed, and the previously set correction coefficient AP and luminance coefficient MP are not changed. The value is confirmed. As a result, the moving image processing using the previously set values of the correction coefficient AP and the luminance coefficient MP is used for moving images displayed on the projection screen SC thereafter.

以上説明したように、実施例に係る動画像表示装置DP1によれば、動画調整設定において、外部ソースから取得された動画像データを用いて、評価用動画像データが生成される。ユーザは、このように生成された評価用動画像データに基づく動画像を見て、動画ボケを軽減する動画像処理の効果を確認しながら、動画ボケ軽減レベルや輝度補正レベルを調整することができる。これによって、ユーザは適切に動画ボケ軽減レベルや輝度補正レベルを調整することができる。   As described above, according to the moving image display device DP1 according to the embodiment, evaluation moving image data is generated using moving image data acquired from an external source in the moving image adjustment setting. The user can adjust the moving image blur reduction level and the luminance correction level while checking the effect of the moving image processing for reducing moving image blur by looking at the moving image based on the evaluation moving image data generated in this way. it can. Accordingly, the user can appropriately adjust the moving image blur reduction level and the luminance correction level.

さらに、動画像表示装置DP1では、評価用動画像データの生成のために用いる動画像データの取得先の外部ソースを任意に選択することができる。この結果、ユーザは、好みの外部ソースから取得された動画像データを用いて生成された評価用動画像データに基づく動画像を見て、動画像処理の効果を確認することができる。   Furthermore, in the moving image display device DP1, it is possible to arbitrarily select an external source from which moving image data is used for generating evaluation moving image data. As a result, the user can confirm the effect of the moving image processing by viewing the moving image based on the moving image data for evaluation generated using the moving image data acquired from the favorite external source.

さらに、動画像表示装置DP1では、動画像処理可否入力用UI204を介した入力に応じて、動画像処理後の動画像と、動画像処理前の動画像を、リアルタイムに切り替えることができる。この結果、ユーザは、動画像処理後の動画像と動画像処理前の動画像を比較しながら、動画像処理の効果を確認することができる。   Furthermore, in the moving image display device DP1, it is possible to switch between a moving image after moving image processing and a moving image before moving image processing in real time in accordance with an input via the moving image processing availability input UI 204. As a result, the user can confirm the effect of the moving image processing while comparing the moving image after moving image processing with the moving image before moving image processing.

さらに、動画像表示装置DP1では、開始指定用UI411や終了指定用UI412を介した入力に応じて、評価用動画像データに用いるフレームデータを特定するので、ユーザは容易に好みのシーンを精度良く指定して、評価用動画像データを生成させることができる。   Furthermore, in the moving image display device DP1, frame data used for evaluation moving image data is specified in response to an input via the start specifying UI 411 or the end specifying UI 412, so that the user can easily select a desired scene with high accuracy. The moving image data for evaluation can be generated by designating.

また、動画像表示装置DP1では、指定された解像度の評価用動画像データを生成するので、ユーザは任意の大きさの評価用動画像データを生成させることができる。   In addition, since the moving image display device DP1 generates evaluation moving image data having a designated resolution, the user can generate evaluation moving image data having an arbitrary size.

動画ボケを軽減する動画像処理の効果は、動画像を見る人が、その人の脳の働きを含めた視覚により感じ取るものであり、見る人により効果の感じ方に個人差がある。さらには、動きの激しさなど動画像の種類によっても、動画像処理の効果は、異なってくる。また、動画像処理による動画ボケ軽減レベルを大きくすると、画像全体の輝度が低くなってしまう弊害があるため、動画ボケを軽減する処理と共に輝度補正を行うことが、見る人にとって好ましい場合もある。この点、本実施例では、ユーザが評価用動画像データに用いられる画像データを任意に選択できるようにすることで、ユーザが好みの評価用動画を見ながら動画像処理の特性を設定することができる。このため、本実施例では、動画像処理の特性を、ユーザの視覚や見ようとする動画像の種類に応じて、適切に設定してもらうことができる。   The effect of moving image processing to reduce moving image blur is perceived by the person who sees the moving image through vision including the work of the person's brain, and there are individual differences in how the effect is felt by the viewer. Furthermore, the effect of moving image processing varies depending on the type of moving image such as the intensity of movement. Further, if the moving image blur reduction level by moving image processing is increased, the luminance of the entire image is lowered. Therefore, it may be preferable for a viewer to perform luminance correction together with the processing for reducing moving image blur. In this respect, in this embodiment, the user can arbitrarily select the image data used for the evaluation moving image data, so that the user can set the characteristics of the moving image processing while viewing the favorite evaluation moving image. Can do. Therefore, in this embodiment, the characteristics of the moving image processing can be appropriately set according to the user's vision and the type of moving image to be viewed.

B.変形例:
・第1変形例:
上記実施例では、評価用動画像データは、外部ソースから取得された動画像データを用いて生成されているが、外部ソースから取得された静止画像データを用いて生成されても良い。静止画像データを用いて評価用動画像データを生成する例を、図10を参照して第1変形例として説明する。図10は、第1変形例に係る評価用動画像データの生成について説明する図である。
B. Variation:
・ First modification:
In the above embodiment, the evaluation moving image data is generated using moving image data acquired from an external source, but may be generated using still image data acquired from an external source. An example of generating evaluation moving image data using still image data will be described as a first modification with reference to FIG. FIG. 10 is a diagram for explaining generation of evaluation moving image data according to the first modification.

第1変形例に係る動画像表示装置では、評価用動画像データを生成するための元画像データとして、動画像データに代えて、静止画像データを指定することができる。静止画像データが元画像データとして指定された場合、評価用動画像データ生成部84は、指定された静止画像データをメモリ90のバッファ94に展開する。図10の上側には、バッファ94上に展開された静止画像データSDが概念的に示されている。   In the moving image display device according to the first modified example, still image data can be designated as original image data for generating evaluation moving image data instead of moving image data. When still image data is specified as original image data, the evaluation moving image data generation unit 84 expands the specified still image data in the buffer 94 of the memory 90. On the upper side of FIG. 10, still image data SD developed on the buffer 94 is conceptually shown.

評価用動画像データ生成部84は、バッファ94上に展開された静止画像データSDを、読み出し開始アドレスを順次に変更しながら、指定されたフレーム数回に亘って読み出し、順次に評価用動画像データ格納部92に格納することにより、指定されたフレーム数のフレームデータを評価用動画像データとして生成する。図10の下側には静止画像データSDから生成された4枚のフレームデータP1〜P4が概念的に示されている。図10の上側において静止画像データSDの上部に示された矢印は、各フレームデータを生成する際の読み出し開始アドレスの位置を概念的に示している。   The evaluation moving image data generation unit 84 reads the still image data SD developed on the buffer 94 for the designated number of frames while sequentially changing the reading start address, and sequentially evaluates the moving image data for evaluation. By storing the data in the data storage unit 92, frame data of the designated number of frames is generated as evaluation moving image data. 10 conceptually shows four pieces of frame data P1 to P4 generated from the still image data SD. An arrow shown above the still image data SD on the upper side of FIG. 10 conceptually shows the position of the read start address when generating each frame data.

以上説明した第1変形例に係る動画像表示装置によれば、評価用動画像データを生成するための元画像データとして、静止画像データ、例えば、JPEG形式で保存された画像データを指定することもできる。こうすれば、ユーザが元画像データとして選択できる範囲が広がるので、ユーザにとってより便利である。   According to the moving image display apparatus according to the first modification described above, still image data, for example, image data stored in the JPEG format is designated as original image data for generating evaluation moving image data. You can also. By doing so, the range that the user can select as the original image data is expanded, which is more convenient for the user.

・第2変形例:
上記実施例に係る動画像表示装置DP1では、動画ボケを軽減する動画像処理の特性として、動画ボケ軽減レベルを指定することができるが、他の特性を指定できるように構成しても良い。動画像処理の特性として動画ボケを軽減する処理のタイプを指定可能な動画像表示装置を、図11〜図13を参照しながら、第2変形例として説明する。図11は、第2変形例に係る第1のメニュー画面を示す図である。図12および図13は、第2変形例における駆動画像データが表す画像を説明するための概念図である。第2変形例に係る動画像表示装置の概略構成は、図1を参照して説明した実施例に係る動画像表示装置DP1の概略構成と同様であるのでその説明を省略する。
・ Second modification:
In the moving image display device DP1 according to the above-described embodiment, the moving image blur reduction level can be specified as a moving image processing characteristic for reducing moving image blur, but other characteristics may be specified. A moving image display apparatus capable of designating a type of processing for reducing moving image blur as a characteristic of moving image processing will be described as a second modification example with reference to FIGS. FIG. 11 is a diagram showing a first menu screen according to the second modification. 12 and 13 are conceptual diagrams for explaining an image represented by drive image data in the second modification. The schematic configuration of the moving image display apparatus according to the second modification is the same as the schematic configuration of the moving image display apparatus DP1 according to the embodiment described with reference to FIG.

図11に示すように、第2変形例における第1のメニュー画面200bは、実施例における第1のメニュー画面200(図4)の構成に加えて、動画ボケ軽減タイプ入力用UI207a〜207cを含んでいる。本変形例における動画ボケ軽減タイプ入力用UI207a〜207cは、ラジオボタン型のUIであり、UI207a〜207cのうちのいずれか1つがオンになるように構成されている。これにより、ユーザは、3つのタイプA〜Cの中から、1つのタイプを択一的に選択することができる。   As shown in FIG. 11, the first menu screen 200b in the second modified example includes moving image blur reduction type input UIs 207a to 207c in addition to the configuration of the first menu screen 200 (FIG. 4) in the embodiment. It is out. The moving image blur reduction type input UIs 207a to 207c in the present modification are radio button type UIs, and any one of the UIs 207a to 207c is configured to be turned on. Thereby, the user can alternatively select one type from the three types A to C.

タイプAの動画像処理は、実施例において、図3を参照して説明したものと同じであるので、その説明を省略する。   Since the type A moving image processing is the same as that described with reference to FIG. 3 in the embodiment, the description thereof is omitted.

タイプBの動画像処理について、図12を参照して説明する。図12(a)は、図3(a)と同様に、フレームメモリ20に書き込まれているフレームデータが表す画像を示している。各フレームデータは、一定の周期(フレーム周期)Tfrの間にメモリ書込制御部30(図1)によって、フレームメモリ20に格納される。   The type B moving image processing will be described with reference to FIG. FIG. 12A shows an image represented by the frame data written in the frame memory 20, as in FIG. Each frame data is stored in the frame memory 20 by the memory write control unit 30 (FIG. 1) during a certain period (frame period) Tfr.

図12(b)は、図3(b)と同様に、フレームメモリ20から読み出される読出画像データが表す画像を示している。メモリ読出制御部40(図1)によって、フレームメモリ20に格納されているフレーム画像データが、フレーム周期Tfrの2倍速の周期(フィールド周期)Tfiで2回読み出されて、第1フィールドに対応する読出画像データFI1および第2フィールドに対応する読出画像データFI2として順に出力される。   FIG. 12B shows an image represented by the read image data read from the frame memory 20 as in FIG. The frame image data stored in the frame memory 20 is read twice by the memory reading control unit 40 (FIG. 1) at a period (field period) Tfi that is twice the frame period Tfr, and corresponds to the first field. The read image data FI1 and the read image data FI2 corresponding to the second field are sequentially output.

図12(c)は、タイプBの動画処理における駆動画像データが表す画像を示している。タイプBの動画像処理において、駆動画像データ生成部50では、第1フィールドの読出画像データFI1の偶数番目の垂直ラインを形成する画素(2,4,6,8,...)をマスクデータ(クロスハッチで示される領域)に置き換えた第1の駆動画像データが生成される(図12(c))。具体的には、第1フィールド期間において、駆動画像データ生成部50のマスク制御部510が、各水平ラインに対応する水平走査期間(読出水平同期信号HSの各周期)において、各画素の読み出しに対応する読出クロックDCKの周期ごとにHレベルとLレベルとに交互に変化する選択制御信号MXSを生成することにより、駆動画像データ生成部50は、第1の駆動画像データを生成することができる。選択制御信号MXSは、水平方向に奇数番目の画素に対応するクロック周期ではHレベルとなり、偶数番目の画素に対応するクロック周期ではLレベルとされる。   FIG. 12C shows an image represented by drive image data in type B moving image processing. In the type B moving image processing, the drive image data generation unit 50 masks pixels (2, 4, 6, 8,...) Forming even-numbered vertical lines of the read image data FI1 of the first field. First drive image data replaced with (region indicated by cross hatch) is generated (FIG. 12C). Specifically, in the first field period, the mask control unit 510 of the drive image data generation unit 50 reads each pixel in the horizontal scanning period (each period of the read horizontal synchronization signal HS) corresponding to each horizontal line. By generating the selection control signal MXS that alternately changes between the H level and the L level for each cycle of the corresponding read clock DCK, the drive image data generation unit 50 can generate the first drive image data. . The selection control signal MXS is at the H level in the clock cycle corresponding to the odd-numbered pixels in the horizontal direction, and is set to the L level in the clock cycle corresponding to the even-numbered pixels.

また、駆動画像データ生成部50では、第2フィールドの読出画像データFI2の奇数番目の垂直ラインを形成する画素(1,3,5,7,...)をマスクデータに置き換えた第2の駆動画像データが生成される(図12(c))。具体的には、第2フィールド期間において、駆動画像データ生成部50のマスク制御部510が、各水平ラインに対応する水平走査期間(読出水平同期信号HSの各周期)において、各画素の読み出しに対応する読出クロックDCKの周期ごとにHレベルとLレベルとに交互に変化する選択制御信号MXSを生成することにより、駆動画像データ生成部50は、第2の駆動画像データを生成することができる。選択制御信号MXSは、第1フィールド期間とは逆に、水平方向に奇数番目の画素に対応するクロック周期ではLレベルとなり、偶数番目の画素に対応するクロック周期ではHレベルとされる。   Further, in the drive image data generation unit 50, the second field is obtained by replacing the pixels (1, 3, 5, 7,...) Forming the odd-numbered vertical lines of the read image data FI2 of the second field with mask data. Drive image data is generated (FIG. 12C). Specifically, in the second field period, the mask control unit 510 of the drive image data generation unit 50 reads each pixel in the horizontal scanning period (each period of the read horizontal synchronization signal HS) corresponding to each horizontal line. By generating the selection control signal MXS that alternately changes between the H level and the L level for each cycle of the corresponding read clock DCK, the drive image data generation unit 50 can generate the second drive image data. . Contrary to the first field period, the selection control signal MXS is at the L level in the clock cycle corresponding to the odd-numbered pixels in the horizontal direction, and is at the H level in the clock cycle corresponding to the even-numbered pixels.

なお、第1フィールドの読出画像データFI1の奇数番目の垂直ラインをマスクデータに置き換え、第2フィールドの読出画像データFI2の偶数番目の垂直ラインをマスクデータに置き換えるようにしてもよい。   The odd-numbered vertical lines of the read image data FI1 in the first field may be replaced with mask data, and the even-numbered vertical lines of the read image data FI2 in the second field may be replaced with mask data.

なお、図12に示した画像データの表す画像も、図3と同様に、説明を容易にするために1フレームの画像を水平8ラインで垂直10ラインの画像としているため、離散した画像に見えるが、実際の画像は、数百本以上の水平および垂直ラインを有しているので、人間の視覚の性質上ほとんど目立たない。   Note that the image represented by the image data shown in FIG. 12 also appears to be a discrete image, as in FIG. 3, since one frame image is a horizontal 8 line image and a vertical 10 line image for ease of explanation. However, since an actual image has several hundred horizontal and vertical lines, it is hardly noticeable due to the nature of human vision.

以上説明したように、タイプBの動画像処理では、駆動画像データ生成部では、第1フィールドの各水平ラインの画像データのうち偶数番目の画素に対応する読出画像データがマスクデータに置き換えられ、第2フィールドの各水平ラインの画像データのうち奇数番目の画素に対応する読出画像データがマスクデータに置き換えられる。この結果、第1フィールドの読出画像データに対しては、奇数番目の垂直ラインに対応する読出画像データがマスクデータに置き換えられて第1の駆動画像データが生成され、第2フィールドの読出画像データに対しては、偶数番目の垂直ラインに対応する読出画像データがマスクデータに置き換えられて第2の駆動画像データが生成される。このような動画像処理により、1つの垂直ラインについて着目すると、液晶パネルに対してマスクデータと画像データとがフィールド周期で交互に入力されることになるため、各画素では、読出画像データに対応する画像を表示する前に、一旦マスクデータの表す画像を表示することによって、その前に表示された画像の影響を抑制して、新たな画像データの表す画像を表示する。これによりタイプAの動画像処理(図3)と同様に動画ボケを改善することができる。タイプBの動画像処理における動画ボケの軽減の程度は、タイプAの動画像処理と同様に、パラメータである輝度係数MPの値を変更することのより、調整することができる。   As described above, in the type B moving image processing, the drive image data generation unit replaces the read image data corresponding to the even-numbered pixels among the image data of each horizontal line of the first field with the mask data, Of the image data of each horizontal line in the second field, read image data corresponding to odd-numbered pixels is replaced with mask data. As a result, for the read image data in the first field, the read image data corresponding to the odd-numbered vertical lines is replaced with the mask data to generate the first drive image data, and the read image data in the second field. On the other hand, the read image data corresponding to the even-numbered vertical lines is replaced with the mask data to generate the second drive image data. If attention is paid to one vertical line by such moving image processing, mask data and image data are alternately input to the liquid crystal panel in a field cycle, so that each pixel corresponds to read image data. Before displaying the image to be displayed, the image represented by the mask data is once displayed, thereby suppressing the influence of the image displayed before that and displaying the image represented by the new image data. As a result, the moving image blur can be improved in the same manner as the type A moving image processing (FIG. 3). The degree of reduction of moving image blur in type B moving image processing can be adjusted by changing the value of the luminance coefficient MP, which is a parameter, as in type A moving image processing.

タイプBの動画像処理では、垂直ラインを形成する画素に対する読出が画像データがマスクデータに置き換えられるので、タイプAの動画像処理のように水平ラインに対する読出画像データがマスクデータに置き換えられる場合に比べて、水平方向の移動を含む動画像に対する動画ボケの改善をより効果的に実現することができる。ただし、垂直方向の移動を含む動画像に対する動画ボケの改善はタイプAの動画像処理の方がタイプBの動画像処理よりも効果的である。   In the type B moving image processing, the image data is replaced with mask data for reading out pixels forming a vertical line. Therefore, when the read image data for the horizontal line is replaced with mask data as in type A moving image processing. In comparison, it is possible to more effectively realize the improvement of moving image blurring for moving images including horizontal movement. However, type A moving image processing is more effective than type B moving image processing for improving moving image blur for moving images including vertical movement.

タイプCの動画像処理について、図13を参照して説明する。図13(a)は、図3(a)および図12(a)と同様に、フレームメモリ20に書き込まれているフレームデータが表す画像を示している。各フレームデータは、一定の周期(フレーム周期)Tfrの間にメモリ書込制御部30(図1)によって、フレームメモリ20に格納される。   Type C moving image processing will be described with reference to FIG. FIG. 13A shows an image represented by the frame data written in the frame memory 20, as in FIGS. 3A and 12A. Each frame data is stored in the frame memory 20 by the memory write control unit 30 (FIG. 1) during a certain period (frame period) Tfr.

図13(b)は、図3(b)および図12(b)と同様に、フレームメモリ20から読み出される読出画像データが表す画像を示している。メモリ読出制御部40(図1)によって、フレームメモリ20に格納されているフレーム画像データが、フレーム周期Tfrの2倍速の周期(フィールド周期)Tfiで2回読み出されて、第1フィールドに対応する読出画像データFI1および第2フィールドに対応する読出画像データFI2として順に出力される。   FIG. 13B shows an image represented by the read image data read from the frame memory 20, as in FIGS. 3B and 12B. The frame image data stored in the frame memory 20 is read twice by the memory reading control unit 40 (FIG. 1) at a period (field period) Tfi that is twice the frame period Tfr, and corresponds to the first field. The read image data FI1 and the read image data FI2 corresponding to the second field are sequentially output.

図13(c)は、タイプCの動画処理における駆動画像データが表す画像を示している。タイプCの動画像処理において、駆動画像データ生成部50では、第1フィールドの読出画像データFI1の奇数番目の水平ライン(1,3,5,7,...)における偶数番目の垂直ラインを形成する画素(2,4,6,8,...)をマスクデータ(クロスハッチで示される領域)に置き換えるとともに、偶数番目の水平ライン(2,4,6,8,...)における奇数番目の垂直ラインを形成する画素(1,3,5,7,...)をマスクデータに置き換えた第1の駆動画像データが生成される。すなわち、チェッカフラグ状にマスクデータを有する駆動画像データが生成される。具体的には、第1フィールド期間において、駆動画像データ生成部50のマスク制御部510が、各水平ラインに対応する水平走査期間(読出水平同期信号HSの各周期)において、各画素の読み出しに対応する読出クロックDCKの周期ごとにHレベルとLレベルとに交互に変化する選択制御信号MXSを生成することにより、駆動画像データ生成部50は、第1の駆動画像データを生成することができる。選択制御信号MXSは、奇数番目の水平ラインに対応する水平走査期間において、水平方向に奇数番目の画素に対応するクロック周期ではHレベルとなり、偶数番目の画素に対応するクロック周期ではLレベルとされると共に、偶数番目の水平ラインに対応する水平走査期間において、水平方向に奇数番目の画素に対応するクロック周期ではLレベルとなり、偶数番目の画素に対応するクロック周期ではHレベルとされる。   FIG. 13C shows an image represented by drive image data in type C moving image processing. In the type C moving image processing, the drive image data generation unit 50 calculates even-numbered vertical lines in the odd-numbered horizontal lines (1, 3, 5, 7,...) Of the read image data FI1 in the first field. Replace the pixels (2, 4, 6, 8,...) To be formed with mask data (regions indicated by cross-hatching) and at even-numbered horizontal lines (2, 4, 6, 8,...) First drive image data is generated by replacing the pixels (1, 3, 5, 7,...) Forming the odd-numbered vertical lines with mask data. That is, drive image data having mask data in a checker flag shape is generated. Specifically, in the first field period, the mask control unit 510 of the drive image data generation unit 50 reads each pixel in the horizontal scanning period (each period of the read horizontal synchronization signal HS) corresponding to each horizontal line. By generating the selection control signal MXS that alternately changes between the H level and the L level for each cycle of the corresponding read clock DCK, the drive image data generation unit 50 can generate the first drive image data. . In the horizontal scanning period corresponding to the odd-numbered horizontal line, the selection control signal MXS is set to the H level in the clock cycle corresponding to the odd-numbered pixel in the horizontal direction, and is set to the L level in the clock cycle corresponding to the even-numbered pixel. At the same time, in the horizontal scanning period corresponding to the even-numbered horizontal lines, the clock period corresponding to the odd-numbered pixels in the horizontal direction is set to L level, and the clock period corresponding to the even-numbered pixels is set to H level.

また、駆動画像データ生成部50では、第2フィールドの読出画像データFI2の奇数番目の水平ライン(1,3,5,7,...)における奇数番目の垂直ラインを形成する画素(1,3,5,7,...)をマスクデータに置き換えるとともに、偶数番目の水平ライン(2,4,6,8,...)における偶数番目の垂直ラインを形成する画素(2,4,6,8,...)をマスクデータに置き換えた第2の駆動画像データが生成される。すなわち、第1フィールドにおけるマスクデータの位置とは異なった画素で、チェッカフラグ状にマスクデータを有する駆動画像データが生成される。具体的には、第2フィールド期間において、駆動画像データ生成部50のマスク制御部510が、各水平ラインに対応する水平走査期間(読出水平同期信号HSの各周期)において、各画素の読み出しに対応する読出クロックDCKの周期ごとにHレベルとLレベルとに交互に変化する選択制御信号MXSを生成することにより、駆動画像データ生成部50は、第2の駆動画像データを生成することができる。その際に、選択制御信号MXSは、奇数番目の水平ラインに対応する水平走査期間において、水平方向に奇数番目の画素に対応するクロック周期ではLレベルとなり、偶数番目の画素に対応するクロック周期ではHレベルとされると共に、偶数番目の水平ラインに対応する水平走査期間において、水平方向に奇数番目の画素に対応するクロック周期ではHレベルとなり、偶数番目の画素に対応するクロック周期ではLレベルとされる。   Further, in the drive image data generation unit 50, the pixels (1, 1, 2) forming the odd-numbered vertical lines in the odd-numbered horizontal lines (1, 3, 5, 7,...) Of the read image data FI2 of the second field. 3, 5, 7,... Are replaced with mask data, and the pixels (2, 4, 4) forming the even-numbered vertical lines in the even-numbered horizontal lines (2, 4, 6, 8,. 6, 8,...) Is replaced with mask data to generate second drive image data. That is, drive image data having mask data in the form of a checker flag is generated at a pixel different from the position of the mask data in the first field. Specifically, in the second field period, the mask control unit 510 of the drive image data generation unit 50 reads each pixel in the horizontal scanning period (each period of the read horizontal synchronization signal HS) corresponding to each horizontal line. By generating the selection control signal MXS that alternately changes between the H level and the L level for each cycle of the corresponding read clock DCK, the drive image data generation unit 50 can generate the second drive image data. . At this time, the selection control signal MXS is at the L level in the clock cycle corresponding to the odd-numbered pixels in the horizontal direction in the horizontal scanning period corresponding to the odd-numbered horizontal lines, and in the clock cycle corresponding to the even-numbered pixels. In the horizontal scanning period corresponding to the even-numbered horizontal lines, the clock level corresponding to the odd-numbered pixels in the horizontal direction is set to the H level and the clock period corresponding to the even-numbered pixels is set to the L level. Is done.

なお、第1フィールドの読出画像データFI1の奇数番目の水平ラインの奇数番目の画素および偶数番目の水平ラインの偶数番目の画素をマスクデータに置き換え、第2フィールドの読出画像データFI2の奇数番目の水平ラインの偶数番目の画素および偶数番目の水平ラインの奇数番目の水平ラインをマスクデータに置き換えるようにしてもよい。   Note that the odd-numbered pixels of the odd-numbered horizontal lines and the even-numbered pixels of the even-numbered horizontal lines of the read-out image data FI1 in the first field are replaced with mask data, and the odd-numbered pixels of the read-out image data FI2 in the second field. The even-numbered pixels of the horizontal lines and the odd-numbered horizontal lines of the even-numbered horizontal lines may be replaced with mask data.

また、図13に示した画像データの表す画像も、図3および図12と同様に、説明を容易にするために1フレームの画像を水平8ラインで垂直10ラインの画像としているため、離散した画像に見えるが、実際の画像は、数百本以上の水平および垂直ラインを有しているので、人間の視覚の性質上ほとんど目立たない。   Also, the image represented by the image data shown in FIG. 13 is also discrete because the image of one frame is an image of 8 horizontal lines and 10 vertical lines for ease of explanation as in FIGS. Although it looks like an image, the actual image has hundreds of horizontal and vertical lines, so it is hardly noticeable due to the nature of human vision.

以上説明したように、タイプCの動画像処理では、第1フィールドの画像データに対しては奇数番目の水平ラインにおける偶数番目の垂直ラインを形成する画素および偶数番目の水平ラインにおける奇数番目の垂直ラインを形成する画素に対応する読出画像データがマスクデータに置き換えられ、第2フィールドの画像データに対しては奇数番目の水平ラインにおける奇数番目の垂直ラインを形成する画素および偶数番目の水平ラインにおける偶数番目の垂直ラインを形成する画素に対応する読出画像データがマスクデータに置き換えられる。このような画像処理により、ある画素について着目すると、液晶パネルに対してマスクデータと画像データとがフィールド周期で交互に入力されることになるため、各画素では、新たな画像データに対応する画像を表示する前に、一旦マスクデータの表す画像を表示することによって、その前に表示された画像の影響を抑制して、新たな画像データの表す画像を表示する。これによりタイプAおよびタイプBの動画像処理(図3、図12)と同様に動画ボケを改善することができる。タイプCの動画像処理における動画ボケの軽減の程度は、タイプAおよびタイプBの動画像処理と同様に、パラメータである輝度係数MPの値を変更することのより、調整することができる。   As described above, in the type C moving image processing, the pixels forming the even-numbered vertical lines in the odd-numbered horizontal lines and the odd-numbered vertical lines in the even-numbered horizontal lines for the image data of the first field. The read image data corresponding to the pixels forming the line is replaced with mask data, and for the image data in the second field, the pixels forming the odd-numbered vertical lines in the odd-numbered horizontal lines and the even-numbered horizontal lines are used. Read image data corresponding to pixels forming even-numbered vertical lines is replaced with mask data. When attention is paid to a certain pixel by such image processing, mask data and image data are alternately input to the liquid crystal panel in a field cycle, so that each pixel has an image corresponding to new image data. Before displaying the image, the image represented by the mask data is displayed once, thereby suppressing the influence of the image displayed before that and displaying the image represented by the new image data. As a result, the moving image blur can be improved in the same manner as the type A and type B moving image processing (FIGS. 3 and 12). The degree of reduction of moving image blur in type C moving image processing can be adjusted by changing the value of the luminance coefficient MP, which is a parameter, as in the case of type A and type B moving image processing.

タイプCの動画像処理では、チェッカフラグ状にマスクデータを有するので、タイプAの動画像処理のように垂直方向の移動を含む動画像に対する動画ボケの改善効果と、タイプBの動画像処理のように水平方向の移動を含む動画像に対する動画ボケの改善効果のバランス良く得ることが可能である。また、タイプCの動画像処理のようにチェッカフラグ状にマスクデータを有する場合には、タイプAおよびタイプBの動画像処理と比較して、マスクデータが表示されるパターンが細かくなるため、網膜上に起こる残像現象を低減させることができ、動画ボケをより改善することができる。   In type C moving image processing, since mask data is included in the form of a checker flag, the effect of improving motion blur on moving images including vertical movement as in type A moving image processing, and type B moving image processing Thus, it is possible to obtain a well-balanced effect of improving the motion blur for moving images including horizontal movement. In addition, when the mask data is in the form of a checker flag as in the type C moving image processing, the pattern in which the mask data is displayed becomes finer than the type A and type B moving image processing. The afterimage phenomenon that occurs above can be reduced, and moving image blur can be further improved.

どのタイプの動画像処理が最も効果的であるかについても、見る人により個人差があるし、被写体の動きの方向の違いなど動画像の種類によっても異なってくる。本変形例に係る動画像表示装置DP1によれば、動画像処理の特性として、動画ボケ軽減レベルや輝度補正レベルに加えて、動画像処理のタイプも指定することができる。この結果、動画像処理の特性を、見る人の視覚や見ようとする動画像の種類に応じて、より細やかに設定してもらうことができる。   Which type of moving image processing is most effective varies depending on the viewer, and also varies depending on the type of moving image such as the direction of movement of the subject. According to the moving image display device DP1 according to the present modification, in addition to the moving image blur reduction level and the luminance correction level, the type of moving image processing can be specified as the moving image processing characteristics. As a result, the characteristics of the moving image processing can be set more finely according to the viewer's vision and the type of moving image to be viewed.

・第3変形例:
上記実施例に係る動画像表示装置DP1では、動画像処理として動画ボケを軽減する処理が用いられているが、他の処理であっても良い。動画ボケを軽減する処理と同様に、見る人や動画像の種類によって、効果が異なる動画像処理としては、フリッカ軽減処理がある。フリッカ軽減処理は、被写体の動きに伴う画質劣化の1つであるいわゆる動画フリッカを軽減する処理である。フリッカ軽減処理におけるフリッカ軽減レベルを調整可能な動画像表示装置を図14〜図16を参照しながら、第3変形例として説明する。図14は、第3変形例に係る第1のメニュー画面を示す図である。図15および図16は、フリッカ軽減処理について説明する図である。第3変形例に係る動画像表示装置の概略構成は、図1を参照して説明した実施例に係る動画像表示装置DP1の概略構成と同様であるのでその説明を省略する。
・ Third modification:
In the moving image display device DP1 according to the above-described embodiment, the processing for reducing moving image blur is used as the moving image processing, but other processing may be used. Similar to the process of reducing the motion blur, the moving picture process having different effects depending on the viewer and the type of the moving picture includes a flicker reduction process. The flicker reduction process is a process for reducing so-called moving image flicker, which is one of the image quality deteriorations caused by the movement of the subject. A moving image display apparatus capable of adjusting the flicker reduction level in the flicker reduction processing will be described as a third modification with reference to FIGS. FIG. 14 is a diagram showing a first menu screen according to the third modification. 15 and 16 are diagrams for explaining the flicker reduction processing. The schematic configuration of the moving image display apparatus according to the third modification is the same as the schematic configuration of the moving image display apparatus DP1 according to the embodiment described with reference to FIG.

図14に示すように、第3変形例における第1のメニュー画面200cは、実施例における第1のメニュー画面200(図4)における動画ボケ軽減レベル入力用UI202および輝度補正レベル入力用UI203に代えて、フリッカ軽減レベル入力用UI209を備えている。フリッカ軽減レベル入力用UI209を操作して、ユーザは、フリッカ軽減レベルを指定することができる。フリッカ軽減処理におけるフリッカ軽減レベル(動画フリッカの軽減の程度)は、後述する動画像処理のパラメータである中間フレーム数Mの値に対応しており、フリッカ軽減レベルが大きいほど中間フレーム数Mは大きくされ、フリッカ軽減レベルが小さいほど中間フレーム数Mは小さくされる。   As shown in FIG. 14, the first menu screen 200c in the third modified example is replaced with the moving image blur reduction level input UI 202 and the luminance correction level input UI 203 in the first menu screen 200 (FIG. 4) in the embodiment. A flicker mitigation level input UI 209 is provided. By operating the flicker mitigation level input UI 209, the user can designate the flicker mitigation level. The flicker reduction level (the degree of reduction of moving image flicker) in the flicker reduction processing corresponds to the value of the number of intermediate frames M, which is a parameter of moving image processing to be described later, and the intermediate frame number M increases as the flicker reduction level increases. The smaller the flicker mitigation level is, the smaller the number M of intermediate frames is.

図15および図16を参照して、フリッカ軽減処理について説明する。図15(a)および図16(a)は、フレームメモリ20に書き込まれているフレームデータが表す画像を示している。第3変形例における動画像表示装置においては、フレームメモリ20に、時系列に連続する2枚のフレームデータが保存される。例えば、ある時点t1では、(N−1)フレームのフレームデータFR(N−1)とNフレームのフレームデータFR(N)が、フレームメモリ20に格納されており、時点t1から1フレーム周期後の時点t2では、NフレームのフレームデータFR(N)と(N+1)フレームのフレームデータFR(N+1)が、フレームメモリ20に格納されている。   The flicker reduction process will be described with reference to FIGS. 15 and 16. FIG. 15A and FIG. 16A show images represented by frame data written in the frame memory 20. In the moving image display apparatus according to the third modified example, two frames of data that are continuous in time series are stored in the frame memory 20. For example, at a certain time point t1, frame data FR (N-1) of (N-1) frames and frame data FR (N) of N frames are stored in the frame memory 20, and one frame period after time t1. At time t2, frame data FR (N) of N frames and frame data FR (N + 1) of (N + 1) frames are stored in the frame memory 20.

図15(b)および図16(b)は、フレームメモリ20から読み出される読出画像データが表す画像を示している。メモリ読出制御部40は、フレームメモリ20から、先に表示すべき画像のフレームデータ(以下、「先フレームデータ」と呼ぶ)と、後に表示すべき画像のフレームデータ(以下、「後フレームデータ」と呼ぶ)とを、それぞれ、フレームデータのフレームレートの(M+1)倍の周期で、(2M+1)回連続して読出画像データとして読み出す(Mは、中間フレーム数を示す。)。例えば、中間フレーム数Mが1の場合には、先フレームデータと後フレームデータとが、それぞれ、フレームレートの2倍の周期で3回連続して読み出され(図15(b))、中間フレーム数Mが2の場合には、先フレームデータと後フレームデータとが、それぞれ、フレームレートの3倍の周期で5回連続して読み出される(図16(b))。このとき、(M+1)回目に読み出される読出画像データは独立して読み出される。一方、(M+1)回目以外の順番に読み出された読出画像データは、先フレームデータと後フレームデータを画素毎に交互に読み出すことで、先フレームデータと後フレームデータが合成された合成画像データとなる。例えば、中間フレーム数Mが1の場合には2回目、中間フレーム数Mが2の場合には3回目に読み出される読出画像データは独立して読み出される(図15(b)、図16(b))。一方、例えば、先フレームデータの3回目の読み出しと後フレームデータの3回目の読み出しに対応する読出画像データは、1つの合成画像データとなる。   FIG. 15B and FIG. 16B show images represented by read image data read from the frame memory 20. The memory read control unit 40 receives from the frame memory 20 frame data of an image to be displayed first (hereinafter referred to as “front frame data”) and frame data of an image to be displayed later (hereinafter referred to as “back frame data”). Are read as read image data continuously (2M + 1) times at a cycle of (M + 1) times the frame rate of the frame data (M represents the number of intermediate frames). For example, when the number of intermediate frames M is 1, the previous frame data and the subsequent frame data are each read out three times in a cycle twice the frame rate (FIG. 15B). When the number of frames M is 2, the previous frame data and the subsequent frame data are each read out five times continuously at a period of 3 times the frame rate (FIG. 16B). At this time, the read image data read for the (M + 1) th time is read independently. On the other hand, the read image data read in the order other than the (M + 1) th time is the combined image data obtained by combining the previous frame data and the subsequent frame data by alternately reading the previous frame data and the subsequent frame data for each pixel. It becomes. For example, when the number of intermediate frames M is 1, the read image data read out the second time and when the number of intermediate frames M is 2 are read out independently (FIGS. 15B and 16B). )). On the other hand, for example, read image data corresponding to the third read of the previous frame data and the third read of the subsequent frame data becomes one composite image data.

図15(c)および図16(c)は、フリッカ軽減処理における駆動画像データが表す画像を示している。駆動画像データ生成部50は、各フレームデータから(M+1)回目に読み出された読出画像データに対応する駆動画像データD3として、読出画像データをそのまま出力する。従って、各フレームデータから(M+1)回目に読み出された読出画像データに対応する駆動画像データD3は、フレームデータそのものの画像を表す。   FIG. 15C and FIG. 16C show images represented by the drive image data in the flicker reduction process. The drive image data generation unit 50 outputs the read image data as it is as the drive image data D3 corresponding to the read image data read (M + 1) th from each frame data. Accordingly, the drive image data D3 corresponding to the read image data read out from each frame data (M + 1) times represents an image of the frame data itself.

一方、駆動画像データ生成部50は、(M+1)回目以外の順番に読み出された読出画像データに対応する駆動画像データD2として、読出画像データに輝度補正を行ったデータを出力する。上述したように(M+1)回目以外の順番に読み出された読出画像データは、先フレームデータと後フレームデータとの合成画像データである。駆動画像データ生成部50は、合成画像データのうち、先フレームデータに対応する画素の輝度値Yaに第1の輝度係数K1を積算し、後フレームデータに対応する画素の輝度値Ybに第2の輝度係数K2を積算することにより、輝度補正を行う。駆動画像データD2は、動画フリッカの軽減のために追加される中間フレームに相当し、フレームレートの1周期につき、中間フレーム数Mの値の数だけ追加される。図15に示す例では、中間フレーム数M=1であるので、フレームレートの1周期につき1枚分、図16に示す例では、中間フレーム数M=2であるので、フレームレートの1周期につき2枚分の駆動画像データD2が生成される。   On the other hand, the drive image data generation unit 50 outputs data obtained by performing luminance correction on the read image data as drive image data D2 corresponding to the read image data read in an order other than the (M + 1) th time. As described above, the read image data read in the order other than the (M + 1) th time is the composite image data of the previous frame data and the subsequent frame data. The drive image data generation unit 50 integrates the first luminance coefficient K1 to the luminance value Ya of the pixel corresponding to the previous frame data in the composite image data, and the second luminance value Yb of the pixel corresponding to the subsequent frame data. The luminance correction is performed by integrating the luminance coefficient K2. The drive image data D2 corresponds to an intermediate frame added for reducing moving image flicker, and is added by the number of intermediate frames M per frame rate period. In the example shown in FIG. 15, the number of intermediate frames M = 1, so that one frame per cycle, and in the example shown in FIG. 16, the number of intermediate frames M = 2, so per frame rate. Two pieces of drive image data D2 are generated.

輝度補正に用いられる第1の輝度係数K1および輝度係数K2は、CPU80のパラメータ値設定部82により設定され、駆動画像データ生成部50に供給される。パラメータ値設定部82は、中間フレーム数Mに応じて、輝度係数K2および輝度係数K3の値を決定する。具体的には、パラメータ値設定部82は、以下に表1として示すテーブルに基づき、輝度係数K1およびK2を求めるための角度θ(rd)(0≦θ≦π)を駆動画像データD2ごと(中間フレームごと)に決定する。   The first luminance coefficient K1 and the luminance coefficient K2 used for the luminance correction are set by the parameter value setting unit 82 of the CPU 80 and supplied to the drive image data generation unit 50. The parameter value setting unit 82 determines the values of the luminance coefficient K2 and the luminance coefficient K3 according to the number of intermediate frames M. Specifically, the parameter value setting unit 82 determines the angle θ (rd) (0 ≦ θ ≦ π) for obtaining the luminance coefficients K1 and K2 based on the table shown in Table 1 below for each drive image data D2 ( For each intermediate frame).

Figure 2008060790
Figure 2008060790

表1に示したテーブルには、0からπまでの区間を中間フレーム数Mによって分割することによって得られる値が定義されている。このテーブルによれば、例えば、中間フレーム数M=3の場合には、1枚目の中間フレームに対応する駆動画像データD2を生成するためのθは(1/4)πとなり、2枚目は、(1/2)π、3枚目は(3/4)πとなる。そして、このθの値と、下記式(1)および(2)に示す正弦関数を用いて、各駆動画像データD2(中間フレーム画像データ)の生成に用いる輝度係数K1およびK2をそれぞれ決定する。   In the table shown in Table 1, values obtained by dividing the interval from 0 to π by the number of intermediate frames M are defined. According to this table, for example, when the number of intermediate frames M = 3, θ for generating drive image data D2 corresponding to the first intermediate frame is (1/4) π, and the second frame Is (1/2) π, and the third is (3/4) π. Then, using the value of θ and a sine function shown in the following formulas (1) and (2), luminance coefficients K1 and K2 used to generate each drive image data D2 (intermediate frame image data) are determined.

K1=(COSθ)/2+0.5 ・・・(1)
K2=0.5−(COSθ)/2 ・・・(2)
K1 = (COSθ) /2+0.5 (1)
K2 = 0.5− (COSθ) / 2 (2)

例えば、中間フレーム数M=1の場合は(K1、K2)=(0.50、0.50)となり、中間フレーム数M=2の場合は1枚目:(K1、K2)=(0.75、0.25)、2枚目:(K1、K2)=(0.25、0.75)となり、中間フレーム数M=3の場合は1枚目:(K1、K2)=(0.85、0.15)、2枚目:(K1、K2)=(0.50、0.50)、3枚目:(K1、K2)=(0.15、0.85)となる。   For example, when the number of intermediate frames M = 1, (K1, K2) = (0.50, 0.50), and when the number of intermediate frames M = 2, the first frame: (K1, K2) = (0. 75, 0.25) Second sheet: (K1, K2) = (0.25, 0.75). When the number of intermediate frames M = 3, the first sheet: (K1, K2) = (0. 85, 0.15) Second sheet: (K1, K2) = (0.50, 0.50), Third sheet: (K1, K2) = (0.15, 0.85).

このようなフリッカ軽減処理によれば、元の動画像を構成する各フレームの間に、前後フレームの輝度を調整して合成した中間フレームが挿入されるため、滑らかに黒丸が移動していくように観察される。そのため、動画フリッカが軽減され、ユーザの視聴上の負荷を軽減することができる。このようなフリッカ軽減処理の効果は、中間フレーム数Mに応じて変動する。具体的には、中間フレーム数Mが多いほど、動画フリッカの軽減効果は大きいと考えられる。例えば、中間フレーム数M=1の場合(図15)、前後のフレームの輝度をそれぞれ半分にして合成した一枚の中間フレームが生成されるのに対し、中間フレーム数M=2の場合(図16)、先のフレームの輝度が徐々に低下し、後のフレームの輝度が徐々に増加するように合成された2枚のフレームが生成される。この結果、中間フレーム数M=2の場合には、中間フレーム数M=1の場合より被写体が徐々に移動しているかのような効果を得ることができ、中間フレーム数Mを2に設定した場合には、中間フレーム数Mを1に設定した場合と比較して、動画フリッカをより軽減することが可能になる。   According to such flicker mitigation processing, an intermediate frame that is synthesized by adjusting the luminance of the previous and subsequent frames is inserted between the frames constituting the original moving image, so that the black circle moves smoothly. Observed. Therefore, moving image flicker is reduced, and the user's viewing load can be reduced. The effect of such flicker reduction processing varies depending on the number M of intermediate frames. Specifically, it is considered that the greater the number of intermediate frames M, the greater the effect of reducing moving image flicker. For example, when the number of intermediate frames M = 1 (FIG. 15), one intermediate frame is generated by combining the luminance of the preceding and subsequent frames in half, whereas the number of intermediate frames M = 2 (FIG. 15). 16) Two frames are generated so that the luminance of the previous frame gradually decreases and the luminance of the subsequent frame gradually increases. As a result, in the case where the number of intermediate frames M = 2, it is possible to obtain an effect as if the subject is gradually moving compared to the case where the number of intermediate frames M = 1, and the number of intermediate frames M is set to 2. In this case, moving image flicker can be further reduced as compared with the case where the number M of intermediate frames is set to 1.

フリッカ軽減処理の効果についても、見る人により個人差があるし、被写体の動きの程度など動画像の種類によっても異なってくる。第3変形例に係る動画像表示装置によれば、ユーザが評価用動画像データに用いられる画像データを任意に選択できるようにすることで、ユーザが好みの評価用動画を見ながらフリッカ軽減レベルを設定することができる。このため、本変形例では、動画像処理の特性としてのフリッカ軽減レベルを、ユーザの視覚や見ようとする動画像の種類に応じて、適切に設定してもらうことができる。   The effect of flicker reduction processing varies depending on the viewer, and varies depending on the type of moving image such as the degree of movement of the subject. According to the moving image display apparatus according to the third modification, the user can arbitrarily select the image data used for the evaluation moving image data, so that the user can view the flicker mitigation level while watching the favorite evaluation moving image. Can be set. For this reason, in this modified example, the flicker reduction level as the characteristics of the moving image processing can be appropriately set according to the visual perception of the user and the type of moving image to be viewed.

・第4変形例:
実施例に係る動画像表示装置DP1では、動画ボケを軽減する処理を動画像処理として行い、第3変形例に係る動画像表示装置では、動画フリッカを軽減する処理を動画像処理として行っているが、動画ボケを軽減する処理と動画フリッカを軽減する処理を組み合わせた動画像処理を行うこととしても良い。このような、動画像処理を行う動画像表示装置を、図17および図18を参照して第4変形例として説明する。図17は、第4変形例における第1のメニュー画面を示す図である。図18は、第4変形例における動画像処理について説明する図である。第4変形例に係る動画像表示装置の概略構成は、図1を参照して説明した実施例に係る動画像表示装置DP1の概略構成と同様であるのでその説明を省略する。
-Fourth modification:
In the moving image display apparatus DP1 according to the embodiment, the process for reducing moving image blur is performed as moving image processing, and in the moving image display apparatus according to the third modified example, the process for reducing moving image flicker is performed as moving image processing. However, it is also possible to perform moving image processing combining processing for reducing moving image blur and processing for reducing moving image flicker. A moving image display apparatus that performs such moving image processing will be described as a fourth modification with reference to FIGS. 17 and 18. FIG. 17 is a diagram showing a first menu screen in the fourth modified example. FIG. 18 is a diagram for describing moving image processing in the fourth modification. The schematic configuration of the moving image display apparatus according to the fourth modification is the same as the schematic configuration of the moving image display apparatus DP1 according to the embodiment described with reference to FIG.

図17に示すように、第4変形例における第1のメニュー画面200dは、実施例における第1のメニュー画面200(図4)の構成に加えて、第3変形例におけるフリッカ軽減レベル入力用UI209を備えている。動画ボケ軽減レベルは、実施例と同様に、後述する輝度係数MPの大きさに対応しており、動画ボケ軽減レベルが大きいほど輝度係数MPは小さくされ、動画ボケ軽減レベルが小さいほど輝度係数MPは大きくされる。フリッカ軽減レベルは、第3変形例と同様に、後述する中間フレーム数Mの値に対応しており、フリッカ軽減レベルが大きいほど中間フレーム数Mは大きくされ、フリッカ軽減レベルが小さいほど中間フレーム数Mは小さくされる。   As shown in FIG. 17, the first menu screen 200d in the fourth modified example includes a flicker mitigation level input UI 209 in the third modified example in addition to the configuration of the first menu screen 200 (FIG. 4) in the embodiment. It has. Similar to the embodiment, the moving image blur reduction level corresponds to the magnitude of the luminance coefficient MP described later. The larger the moving image blur reduction level, the smaller the luminance coefficient MP, and the lower the moving image blur reduction level, the luminance coefficient MP. Is enlarged. The flicker mitigation level corresponds to the value of the number of intermediate frames M described later, as in the third modification. The larger the flicker mitigation level, the larger the intermediate frame number M, and the smaller the flicker mitigation level, the number of intermediate frames. M is made smaller.

図18を参照して、第4変形例における動画像処理について説明する。第4変形例における動画像処理は、基本的に第3変形例におけるフリッカ軽減処理(図15、図16)と同様であるが、第4変形例における動画像処理では、生成される中間フレームを表す駆動画像データD2のうちの1枚分において、第3変形例におけるフリッカ軽減処理の場合より輝度を低くする輝度補正がなされる点で、第3変形例におけるフリッカ軽減処理と異なっている。具体的には、第3変形例におけるフリッカ軽減処理により生成された中間フレームを表す駆動画像データD2のうちの1枚分について、各画素の輝度値に第1実施例と同様の輝度係数MPを積算することにより、輝度補正がなされる。   With reference to FIG. 18, the moving image processing in the fourth modification will be described. The moving image processing in the fourth modified example is basically the same as the flicker reduction processing (FIGS. 15 and 16) in the third modified example, but in the moving image processing in the fourth modified example, the generated intermediate frames are processed. This is different from the flicker reduction processing in the third modification in that the luminance correction for making the luminance lower than that in the flicker reduction processing in the third modification is performed for one piece of the drive image data D2 to be represented. Specifically, for one of the drive image data D2 representing the intermediate frame generated by the flicker reduction process in the third modification, the luminance coefficient MP similar to that in the first embodiment is used for the luminance value of each pixel. Luminance correction is performed by integration.

例えば、図18に示すように、中間フレーム数Mが3である場合には、生成される3枚の中間フレームのうち、中間の1枚について、輝度補正がなされる。このように輝度補正がなされた中間フレームをマスクフレームと呼ぶ。このように、中間フレームのうちの一枚をマスクフレームとすれば、輝度の低いマスクフレームが合成元の2つのフレームが表示される間の所定のタイミングで表示されることになる。このようなタイミングで輝度の低いマスクフレームを表示するものとすれば、実施例と同様に動画ボケを軽減することが可能になる。   For example, as shown in FIG. 18, when the number M of intermediate frames is 3, luminance correction is performed on one intermediate frame among the three generated intermediate frames. The intermediate frame subjected to luminance correction in this way is called a mask frame. As described above, if one of the intermediate frames is used as a mask frame, a mask frame with low luminance is displayed at a predetermined timing while the two frames of the composition source are displayed. If a mask frame with low luminance is displayed at such timing, it is possible to reduce moving image blur as in the embodiment.

以上説明した第4変形例における動画像処理によれば、中間フレーム数Mおよび輝度係数MPの値を、指定されたフリッカ軽減レベルおよび動画ボケ軽減レベルに応じて設定することにより、動画フリッカの軽減の程度と動画ボケの軽減の程度を互いに独立して調整可能な動画像処理を行うことができる。   According to the moving image processing in the fourth modification described above, the number of intermediate frames M and the value of the luminance coefficient MP are set according to the designated flicker reduction level and moving image reduction level, thereby reducing moving image flicker. And moving image processing in which the degree of reduction of moving image blur can be adjusted independently of each other.

さらに、第4変形例に係る動画像表示装置によれば、ユーザが評価用動画像データに用いられる画像データを任意に選択できるようにすることで、ユーザが好みの評価用動画を見ながらフリッカ軽減レベルおよび動画ボケ軽減レベルを設定することができる。このため、本変形例では、動画像処理の特性としてのフリッカ軽減レベルおよび動画ボケ軽減レベルを、ユーザの視覚や見ようとする動画像の種類に応じて、適切に設定してもらうことができる。   Furthermore, according to the moving image display apparatus according to the fourth modification, the user can arbitrarily select image data used for the evaluation moving image data, so that the user can flicker while watching the favorite evaluation moving image. A reduction level and a moving image reduction level can be set. Therefore, in this modification, the flicker reduction level and the moving image blur reduction level as the characteristics of the moving image processing can be appropriately set according to the user's vision and the type of moving image to be viewed.

・第5変形例:
上記実施例における動画像表示装置DP1は、投写スクリーンSC上に第1のメニュー画面200を表示し、ユーザは操作パネル130を介して、第1のメニュー画面200に含まれる各種UI202〜206を操作するように構成されているが、ユーザは独立した操作デバイスを介して、動画像表示装置を遠隔操作することとしても良い。パーソナルコンピュータを接続可能であり、接続されたパーソナルコンピュータを介して操作される動画像表示装置を、図19および図20を参照しながら、第5変形例として説明する。図19は、第5変形例における動画像表示システムの概略構成を示す図である。図20は、2つの表示部に分割表示された第1のメニュー画面を示す図である。
-5th modification:
The moving image display device DP1 in the above embodiment displays the first menu screen 200 on the projection screen SC, and the user operates various UIs 202 to 206 included in the first menu screen 200 via the operation panel 130. However, the user may remotely operate the moving image display apparatus via an independent operation device. A moving image display apparatus that can be connected to a personal computer and is operated via the connected personal computer will be described as a fifth modified example with reference to FIGS. 19 and 20. FIG. 19 is a diagram showing a schematic configuration of a moving image display system in the fifth modification. FIG. 20 is a diagram showing a first menu screen divided and displayed on two display units.

第5変形例における動画像表示システム1000は、動画表示装置DP2と、パーソナルコンピュータPCと、投写スクリーンSC1を備えている。第5変形例に係る動画表示装置DP2は、基本的に実施例における動画像表示装置DP1と同一の構成であるが、さらに、パーソナルコンピュータPCを接続するためのコネクタ(例えば、USBコネクタ)を備えている。パーソナルコンピュータPCは、周知の計算機、例えば、市販のノートパソコンであり、動画表示装置DP2を遠隔操作するためのソフトウエアがインストールされている。パーソナルコンピュータPCには、液晶パネルSC2を備えている。   The moving image display system 1000 according to the fifth modification includes a moving image display device DP2, a personal computer PC, and a projection screen SC1. The moving image display device DP2 according to the fifth modification has basically the same configuration as the moving image display device DP1 in the embodiment, but further includes a connector (for example, a USB connector) for connecting a personal computer PC. ing. The personal computer PC is a well-known computer, for example, a commercially available notebook personal computer, and is installed with software for remotely operating the moving picture display device DP2. The personal computer PC includes a liquid crystal panel SC2.

第5変形例における動画像表示システム1000では、実施例において表示されるメニュー画面が、投写スクリーンSC1と、液晶パネルSC2に分割表示される。例えば、図20に示すように、上記実施例および上記変形例における第1のメニュー画面に対応するメニュー画面では、上記実施例および上記変形例における第1のメニュー画面が含む構成のうち、評価用動画像表示部は、投写スクリーンSC1に表示され、各種UI部分は、液晶パネルSC2に表示される。図20に示す例では、液晶パネルSC2には、各種UIとして動画ボケ軽減レベル入力用UI202、フリッカ軽減レベル入力用UI209、動画像処理可否入力用UI204、設定処理終了入力用UI208を備えている。これらのUIは、上記実施例および変形例における同名のUIと同一であるのでその説明を省略する。さらに、図20に示す例では、投写スクリーンSCには、ブライトネス設定UI210およびコントラスト設定UI211が表示されている。ブライトネス設定UI210は、図3における輝度補正レベル入力用UI203と同様に、投写スクリーンSC1に表示される動画像の輝度を調整するためのUIである。コントラスト設定UI211は、投写スクリーンSC1に表示される動画像のコントラストを調整するためのUIである。コントラストを調整する補正は、周知の種々の方法が用いられるが、その説明は省略する。   In the moving image display system 1000 according to the fifth modification, the menu screen displayed in the embodiment is divided and displayed on the projection screen SC1 and the liquid crystal panel SC2. For example, as shown in FIG. 20, in the menu screen corresponding to the first menu screen in the embodiment and the modified example, among the configurations included in the first menu screen in the embodiment and the modified example, for evaluation The moving image display unit is displayed on the projection screen SC1, and various UI parts are displayed on the liquid crystal panel SC2. In the example illustrated in FIG. 20, the liquid crystal panel SC2 includes a moving image blur reduction level input UI 202, a flicker reduction level input UI 209, a moving image processing availability input UI 204, and a setting processing end input UI 208 as various UIs. Since these UIs are the same as the UIs having the same names in the above-described embodiments and modifications, description thereof will be omitted. Further, in the example shown in FIG. 20, a brightness setting UI 210 and a contrast setting UI 211 are displayed on the projection screen SC. The brightness setting UI 210 is a UI for adjusting the luminance of the moving image displayed on the projection screen SC1, similarly to the luminance correction level input UI 203 in FIG. The contrast setting UI 211 is a UI for adjusting the contrast of the moving image displayed on the projection screen SC1. Various well-known methods are used for the correction for adjusting the contrast, but the description thereof is omitted.

第5変形例に係る動画表示装置DP2においても、上記実施例および変形例と同様の作用・効果を奏することができる。以上の説明から解るように、請求項における特性指定入力手段に対応する構成要素は、実施例においては操作パネル130であり、変形例においてはパーソナルコンピュータPCと接続するためのコネクタである。   Also in the moving image display device DP2 according to the fifth modification, it is possible to achieve the same operations and effects as in the above-described embodiments and modifications. As can be understood from the above description, the component corresponding to the characteristic designation input means in the claims is the operation panel 130 in the embodiment, and a connector for connecting to the personal computer PC in the modification.

・その他の変形例:
上記各実施例および変形例における動画像処理の内容は、あくまで一例であり、動画像処理の内容を他の内容とすることも可能である。また、動画像表示装置の構成は、動画像処理の内容に応じて変形可能である。
・ Other variations:
The contents of the moving image processing in the above embodiments and modifications are merely examples, and the contents of the moving image processing can be changed to other contents. The configuration of the moving image display device can be modified according to the content of the moving image processing.

例えば、第3変形例におけるフリッカ軽減処理についても、他の処理を採用可能である。例えば、上記各実施例では、中間フレーム数Mの生成に用いる輝度係数K1およびK2は、中間フレーム数Mに応じて予め定められた値に設定されるが、輝度係数K1およびK2が先フレーム画像と後フレーム画像との間の動ベクトル量に応じて算出されるとしてもよい。この場合に、動ベクトル量が大きくなるほど、輝度係数K1の値が小さく、かつ、輝度係数K2の値が大きくなるように、輝度係数K1およびK2が算出されるとしてもよい。また、上記実施例では輝度係数K1およびK2の値は合計が1となる値の組み合わせに設定されるが、必ずしもそのように設定される必要はない。   For example, other processing can be adopted for the flicker reduction processing in the third modification. For example, in each of the above-described embodiments, the luminance coefficients K1 and K2 used for generating the intermediate frame number M are set to values predetermined according to the intermediate frame number M, but the luminance coefficients K1 and K2 are set to the previous frame image. It may be calculated according to the amount of motion vector between the frame and the rear frame image. In this case, the luminance coefficients K1 and K2 may be calculated so that the value of the luminance coefficient K1 is smaller and the value of the luminance coefficient K2 is larger as the motion vector amount is larger. In the above embodiment, the values of the luminance coefficients K1 and K2 are set to a combination of values that add up to 1, but it is not always necessary to set them as such.

また、上記各実施例および変形例では、フレームデータの輝度値を調整することで、中間フレームを表すデータやマスクデータを生成したりしているが、例えば、色相や色彩、あるいは、R,G,B値のうちいずれかの値を調整することで生成するものとしてもよい。   In each of the above embodiments and modifications, the data representing the intermediate frame and the mask data are generated by adjusting the luminance value of the frame data. However, for example, the hue and color, or R, G , B may be generated by adjusting one of the values.

上記実施例および変形例では、動画像処理に用いるパラメータとして輝度係数MPや中間フレーム数Mを用いているが、これらに代えて、あるいは、これらと共に、他の値を用いるとしても良い。他の値としては、例えば、フリッカ軽減処理において、中間フレームの生成に用いる輝度係数K1およびK2をパラメータとしてユーザが調整可能としても良い。   In the above-described embodiments and modifications, the luminance coefficient MP and the number of intermediate frames M are used as parameters used for moving image processing, but other values may be used instead of or together with these. As other values, for example, the user may be able to adjust the luminance coefficients K1 and K2 used for generating the intermediate frame as parameters in the flicker reduction processing.

上記各実施例における各種メニュー画面(図4、5、6、11、14、17、20)の内容は、あくまで一例であり、他の構成としてもよい。例えば、第1のメニュー画面200において、2つの評価用動画像表示部201を含んでいてもよい。一の評価用動画像表示部201に動画像処理前の評価用動画像を表示し、他の評価用動画像表示部201に動画像処理後後の評価用動画像を表示してもよい。   The contents of the various menu screens (FIGS. 4, 5, 6, 11, 14, 17, and 20) in the above embodiments are merely examples, and other configurations may be used. For example, the first menu screen 200 may include two evaluation moving image display units 201. An evaluation moving image before moving image processing may be displayed on one evaluation moving image display unit 201, and an evaluation moving image after moving image processing may be displayed on another evaluation moving image display unit 201.

上記各実施例および変形例では、動画像表示装置をプロジェクタとして構成した例を示したが、動画像表示装置は、液晶ディスプレイや、ブラウン管ディスプレイ、プラズマディスプレイ等として構成することも可能である。この場合には、図1に示した液晶パネル駆動部70や液晶パネル100等は、各表示装置に適合した駆動回路や表示デバイスに置き換えられる。   In each of the above embodiments and modifications, an example in which the moving image display device is configured as a projector has been described. However, the moving image display device can also be configured as a liquid crystal display, a cathode ray tube display, a plasma display, or the like. In this case, the liquid crystal panel driving unit 70, the liquid crystal panel 100, and the like shown in FIG. 1 are replaced with driving circuits and display devices suitable for each display device.

また、上記各実施例および変形例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。   In each of the above embodiments and modifications, a part of the configuration realized by hardware may be replaced with software. Conversely, a part of the configuration realized by software is replaced with hardware. You may do it.

以上、実施例、変形例に基づき本発明について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。   As mentioned above, although this invention was demonstrated based on the Example and the modification, Embodiment mentioned above is for making an understanding of this invention easy, and does not limit this invention. The present invention can be changed and improved without departing from the spirit and scope of the claims, and equivalents thereof are included in the present invention.

本発明の実施例としての動画像表示装置の構成を示す概略図。Schematic which shows the structure of the moving image display apparatus as an Example of this invention. 駆動画像データ生成部の構成の一例を示す概略図。Schematic which shows an example of a structure of a drive image data generation part. 駆動画像データが表す画像を説明するための概念図。The conceptual diagram for demonstrating the image which drive image data represents. 動画調整設定の第1のメニュー画面を示す図。The figure which shows the 1st menu screen of animation adjustment setting. 動画調整設定の第2のメニュー画面を示す図。The figure which shows the 2nd menu screen of animation adjustment setting. 動画調整設定の第3のメニュー画面を示す図。The figure which shows the 3rd menu screen of animation adjustment setting. 評価用動画像データ生成処理の処理ルーチンを示すフローチャート。The flowchart which shows the process routine of the moving image data generation process for evaluation. 評価用動画像データの生成について説明する概念図。The conceptual diagram explaining the production | generation of the moving image data for evaluation. 輝度補正について説明する概略図。Schematic explaining brightness correction. 第1変形例に係る評価用動画像データの生成について説明する図。The figure explaining the production | generation of the moving image data for evaluation which concerns on a 1st modification. 第2変形例に係る第1のメニュー画面を示す図。The figure which shows the 1st menu screen which concerns on a 2nd modification. 第2変形例における駆動画像データが表す画像を説明するための第1の概念図。The 1st conceptual diagram for demonstrating the image which the drive image data in a 2nd modification represents. 第2変形例における駆動画像データが表す画像を説明するための第2の概念図。The 2nd conceptual diagram for demonstrating the image which the drive image data in a 2nd modification represents. 第3変形例に係る第1のメニュー画面を示す図。The figure which shows the 1st menu screen which concerns on a 3rd modification. フリッカ軽減処理について説明する第1の図。The 1st figure explaining a flicker reduction process. フリッカ軽減処理について説明する第2の図。The 2nd figure explaining a flicker reduction process. 第4変形例における第1のメニュー画面を示す図である。It is a figure which shows the 1st menu screen in a 4th modification. 第4変形例における動画像処理について説明する図。The figure explaining the moving image process in a 4th modification. 第5変形例における動画像表示システムの概略構成を示す図。The figure which shows schematic structure of the moving image display system in a 5th modification. 2つの表示部に分割表示された第1のメニュー画面を示す図。The figure which shows the 1st menu screen divided and displayed on two display parts.

符号の説明Explanation of symbols

20…フレームメモリ
30…メモリ書込制御部
40…メモリ読出制御部
50…駆動画像データ生成部
60…解像度変換部
70…液晶パネル駆動部
80…CPU
82…パラメータ値設定部
84…評価用動画像データ生成部
90…メモリ
92…評価用動画像データ格納部
94…バッファ
100…液晶パネル
110…光源ユニット
120…投写光学系
130…操作パネル
141〜143…映像信号取得インタフェース
510…マスク制御部
520…第1のラッチ部
530…マスクデータ生成部
540…第2のラッチ部
550…マルチプレクサ
560…画像データ調整部
1000…動画像表示システム
SC、SC1…投写スクリーン
PC…パーソナルコンピュータ
DESCRIPTION OF SYMBOLS 20 ... Frame memory 30 ... Memory write control part 40 ... Memory read-out control part 50 ... Drive image data generation part 60 ... Resolution conversion part 70 ... Liquid crystal panel drive part 80 ... CPU
82 ... Parameter value setting unit 84 ... Evaluation moving image data generation unit 90 ... Memory 92 ... Evaluation moving image data storage unit 94 ... Buffer 100 ... Liquid crystal panel 110 ... Light source unit 120 ... Projection optical system 130 ... Operation panels 141-143 ... Video signal acquisition interface 510 ... Mask controller 520 ... First latch 530 ... Mask data generator 540 ... Second latch 550 ... Multiplexer 560 ... Image data adjuster 1000 ... Moving image display system SC, SC1 ... Projection Screen PC ... Personal computer

Claims (13)

動画像表示装置であって、
外部ソースから画像データを取得する画像データ取得手段と、
前記取得された画像データの全部または一部を用いて、評価用の動画像を表す評価用動画像データを生成する評価用動画像データ生成手段と、
被写体の動きに伴う画質劣化を軽減する動画像処理の特性を指定する特性指定を入力するための特性指定入力手段と、
前記評価用動画像データに対して、前記入力された特性指定に応じた前記動画像処理を行う動画像処理手段と、
前記動画像処理後の前記評価用動画像データに基づき動画像を表示する動画像表示手段と、
を備える動画像表示装置。
A moving image display device,
Image data acquisition means for acquiring image data from an external source;
Evaluation moving image data generating means for generating evaluation moving image data representing an evaluation moving image using all or part of the acquired image data;
Characteristic designation input means for inputting characteristic designation for designating characteristics of moving image processing that reduces image quality degradation caused by subject movement;
A moving image processing means for performing the moving image processing in accordance with the input characteristic designation for the evaluation moving image data;
Moving image display means for displaying a moving image based on the moving image data for evaluation after the moving image processing;
A moving image display apparatus comprising:
請求項1に記載の動画像表示装置は、さらに、
前記外部ソースを指定するソース指定を入力するためのソース指定入力手段を備え、
前記画像データ取得手段は、前記入力されたソース指定により指定された前記外部ソースから画像データを取得する、動画像表示装置。
The moving image display device according to claim 1 further includes:
Source designation input means for inputting a source designation for designating the external source,
The moving image display device, wherein the image data acquisition means acquires image data from the external source specified by the input source specification.
請求項1または請求項2に記載の動画像表示装置は、さらに、
前記動画像処理を行うか否かを指定する可否指定を入力するための可否入力手段を備え、
前記動画像表示手段は、前記可否指定が前記動画像処理を行うことを指定する場合に、前記動画像処理後の前記評価用動画像データに基づき動画像を表示し、前記可否指定が前記動画像処理を行わないことを指定する場合に、前記動画像処理前の前記評価用動画像データに基づき動画像を表示する、動画像表示装置。
The moving image display device according to claim 1 or 2, further comprising:
The availability input means for inputting the availability designation designating whether to perform the moving image processing,
The moving image display means displays a moving image based on the moving image data for evaluation after the moving image processing when the availability designation designates performing the moving image processing, and the availability designation is the moving image. A moving image display device that displays a moving image based on the evaluation moving image data before the moving image processing when designating that image processing is not performed.
請求項1ないし請求項3のいずれかに記載の動画像表示装置において、
前記評価用動画像データ生成手段は、前記外部ソースから入力された画像データの解像度を変換して前記評価用動画像データを生成する、動画像表示装置。
In the moving image display device according to any one of claims 1 to 3,
The evaluation moving image data generating means converts the resolution of image data input from the external source to generate the evaluation moving image data.
請求項1ないし請求項4のいずれかに記載の動画像表示装置において、
前記外部ソースから入力された画像データは、複数のフレームデータを含む動画像データを含み、
前記動画像表示装置は、さらに、
前記複数のフレームデータのいずれかを指定するフレーム指定を入力するためのフレーム指定入力手段を備え、
前記評価用動画像データ生成手段は、前記複数のフレームデータのうち、前記フレーム指定により指定された指定フレームデータを少なくとも含む指定フレームデータ群を用いて、前記評価用動画像データを生成する、動画像表示装置。
The moving image display device according to any one of claims 1 to 4,
The image data input from the external source includes moving image data including a plurality of frame data,
The moving image display device further includes:
Frame designation input means for inputting a frame designation for designating any of the plurality of frame data;
The evaluation moving image data generating means generates the evaluation moving image data using a designated frame data group including at least designated frame data designated by the frame designation among the plurality of frame data. Image display device.
請求項5に記載の動画像表示装置において、
前記指定フレームデータ群は、前記指定フレームデータを最初のフレームデータとして時系列に連続する複数のフレームデータである、動画像表示装置。
The moving image display device according to claim 5,
The specified frame data group is a moving image display device which is a plurality of frame data continuous in time series with the specified frame data as first frame data.
請求項5に記載の動画像表示装置において、
前記指定フレームデータ群は、前記指定フレームデータを最後のフレームデータとして時系列に連続する複数のフレームデータである、動画像表示装置。
The moving image display device according to claim 5,
The moving image display device, wherein the designated frame data group is a plurality of frame data continuous in time series with the designated frame data as last frame data.
請求項1ないし請求項7のいずれかに記載の動画像表示装置において、
前記外部ソースから入力された画像データは、静止画像データを含み、
前記評価用動画像データ生成手段は、前記静止画像データを用いて、前記評価用動画像データを生成する、動画像表示装置。
The moving image display device according to any one of claims 1 to 7,
The image data input from the external source includes still image data,
The evaluation moving image data generation means generates the evaluation moving image data using the still image data.
請求項1ないし請求項8のいずれかに記載の動画像表示装置において、
前記動画像処理は、動画ボケを軽減するための処理を含み、
前記動画像処理の特性は、動画ボケの軽減の程度を含む、動画像表示装置。
The moving image display device according to any one of claims 1 to 8,
The moving image processing includes processing for reducing moving image blur,
The moving image display device, wherein the moving image processing characteristics include a degree of reduction of motion blur.
請求項9に記載の動画像表示装置において、
前記動画ボケを軽減するための処理は、動画像を構成するフレーム画像に基づき、画像を構成する画素の内の少なくとも一部の画素の輝度が低減された少なくとも1つのマスク画像を生成する処理である、動画像表示装置。
The moving image display device according to claim 9,
The process for reducing the moving image blur is a process of generating at least one mask image in which the luminance of at least some of the pixels constituting the image is reduced based on the frame image constituting the moving image. A moving image display device.
請求項1ないし請求項10のいずれかに記載の動画像表示装置において、
前記動画像処理は、動画フリッカを軽減するための処理を含み、
前記動画像処理の特性は、動画フリッカの軽減の程度を含む、動画像表示装置。
The moving image display device according to any one of claims 1 to 10,
The moving image processing includes processing for reducing moving image flicker,
The moving image display device, wherein the moving image processing characteristics include a degree of reduction of moving image flicker.
請求項11記載の動画像表示装置において、
前記動画フリッカを軽減するための処理は、動画像を構成するフレーム画像中の連続した第1のフレーム画像と第2のフレーム画像との少なくとも一方に対して輝度を低減すると共に輝度低減処理後の前記第1のフレーム画像と前記第2のフレーム画像とを合成することによって、第1のフレーム画像と第2のフレーム画像との間に表示するための中間フレーム画像を生成する処理である、動画像表示装置。
The moving image display device according to claim 11,
The processing for reducing the moving image flicker is performed by reducing the luminance with respect to at least one of the continuous first frame image and the second frame image in the frame image constituting the moving image and after performing the luminance reduction processing. A moving image that is a process of generating an intermediate frame image to be displayed between the first frame image and the second frame image by combining the first frame image and the second frame image. Image display device.
動画像表示方法であって、
外部ソースから画像データを取得し、
前記取得された画像データの全部または一部を用いて、評価用の動画像を表す評価用動画像データを生成し、
被写体の動きに伴う画質劣化を軽減する動画像処理の特性を指定する特性指定を受け付け、
前記評価用動画像データに対して、前記入力された特性指定に応じた前記動画像処理を行い、
前記動画像処理後の前記評価用動画像データに基づき動画像を表示する動画像表示方法。
A moving image display method,
Obtain image data from an external source,
Using all or part of the acquired image data, generating evaluation moving image data representing an evaluation moving image,
Accepts a specification that specifies the characteristics of video processing that reduces image quality degradation caused by subject movement,
For the evaluation moving image data, the moving image processing according to the input characteristic designation,
A moving image display method for displaying a moving image based on the evaluation moving image data after the moving image processing.
JP2006233762A 2006-08-30 2006-08-30 Moving image display apparatus and moving image display method. Expired - Fee Related JP5003063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006233762A JP5003063B2 (en) 2006-08-30 2006-08-30 Moving image display apparatus and moving image display method.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006233762A JP5003063B2 (en) 2006-08-30 2006-08-30 Moving image display apparatus and moving image display method.

Publications (2)

Publication Number Publication Date
JP2008060790A true JP2008060790A (en) 2008-03-13
JP5003063B2 JP5003063B2 (en) 2012-08-15

Family

ID=39243060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006233762A Expired - Fee Related JP5003063B2 (en) 2006-08-30 2006-08-30 Moving image display apparatus and moving image display method.

Country Status (1)

Country Link
JP (1) JP5003063B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271382A (en) * 2008-05-08 2009-11-19 Canon Inc Image processor and method for controlling image processor
JP2010197597A (en) * 2009-02-24 2010-09-09 Canon Inc Display control device and display control method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187478A (en) * 1998-12-24 2000-07-04 Casio Comput Co Ltd Picture processor and picture processing method
JP2000221920A (en) * 1999-02-01 2000-08-11 Masaomi Yamamoto Continuous action image display device
JP2000250456A (en) * 1999-02-26 2000-09-14 Sony Corp Device and method for video display
JP2002152780A (en) * 2000-11-13 2002-05-24 Yokogawa Electric Corp Transport stream generator
JP2003122316A (en) * 2001-10-17 2003-04-25 Matsushita Electric Ind Co Ltd Alternating-current drive type matrix display device and flicker adjusting method
JP2004207882A (en) * 2002-12-24 2004-07-22 Shibasoku:Kk Test signal generating apparatus
JP2005033267A (en) * 2003-07-07 2005-02-03 Sharp Corp Method for converting still picture into moving picture
JP2005241787A (en) * 2004-02-25 2005-09-08 Victor Co Of Japan Ltd Picture display apparatus
WO2006030653A1 (en) * 2004-09-17 2006-03-23 Sharp Kabushiki Kaisha Control circuit of display, display device, and program and recording medium
JP2006145799A (en) * 2004-11-19 2006-06-08 Seiko Epson Corp Movement compensation

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187478A (en) * 1998-12-24 2000-07-04 Casio Comput Co Ltd Picture processor and picture processing method
JP2000221920A (en) * 1999-02-01 2000-08-11 Masaomi Yamamoto Continuous action image display device
JP2000250456A (en) * 1999-02-26 2000-09-14 Sony Corp Device and method for video display
JP2002152780A (en) * 2000-11-13 2002-05-24 Yokogawa Electric Corp Transport stream generator
JP2003122316A (en) * 2001-10-17 2003-04-25 Matsushita Electric Ind Co Ltd Alternating-current drive type matrix display device and flicker adjusting method
JP2004207882A (en) * 2002-12-24 2004-07-22 Shibasoku:Kk Test signal generating apparatus
JP2005033267A (en) * 2003-07-07 2005-02-03 Sharp Corp Method for converting still picture into moving picture
JP2005241787A (en) * 2004-02-25 2005-09-08 Victor Co Of Japan Ltd Picture display apparatus
WO2006030653A1 (en) * 2004-09-17 2006-03-23 Sharp Kabushiki Kaisha Control circuit of display, display device, and program and recording medium
JP2006145799A (en) * 2004-11-19 2006-06-08 Seiko Epson Corp Movement compensation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271382A (en) * 2008-05-08 2009-11-19 Canon Inc Image processor and method for controlling image processor
JP2010197597A (en) * 2009-02-24 2010-09-09 Canon Inc Display control device and display control method

Also Published As

Publication number Publication date
JP5003063B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
KR100834568B1 (en) Video display device and method for video display
US7903173B2 (en) Moving image display device and method for moving image display
KR100843087B1 (en) A image generation apparatus and method for the same
EP1959425B1 (en) Image converting apparatus and image converting method
US20070263121A1 (en) Image display apparatus, signal processing apparatus, image processing method, and computer program product
US20090322774A1 (en) Image display control device, image processing device, image display control method, its program, and recording medium with the program recorded therein
JP2003195852A (en) Image processor
JP2003069961A (en) Frame rate conversion
JP2007271842A (en) Display device
JP5089783B2 (en) Image processing apparatus and control method thereof
JP3841104B2 (en) Signal processing to improve motion blur
JP4079163B2 (en) Projection-type image display device
WO2005006772A1 (en) Image display device and image display method
JP5003063B2 (en) Moving image display apparatus and moving image display method.
JP2014174191A (en) Image process device, projector and image process method
JP2015125346A (en) Display device, control device, and control method
JP2008058483A (en) Animation image display device and method
JP2003069859A (en) Moving image processing adapting to motion
JP2006053523A (en) Image processing apparatus, display device, image processing method, and program
JP4923635B2 (en) Moving image display device and moving image display method
JP2008139828A (en) Image processing apparatus, image processing method, electro-optical device and electronic device
JP2007264465A (en) Video signal processing circuit
JP2009053221A (en) Image display device and image display method
JP4165590B2 (en) Image data processing device, image display device, driving image data generation method, and computer program
JP2005045769A (en) Image display device and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5003063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees