JP2010146015A - Animation processing device, animation processing method and animation processing program - Google Patents

Animation processing device, animation processing method and animation processing program Download PDF

Info

Publication number
JP2010146015A
JP2010146015A JP2010004210A JP2010004210A JP2010146015A JP 2010146015 A JP2010146015 A JP 2010146015A JP 2010004210 A JP2010004210 A JP 2010004210A JP 2010004210 A JP2010004210 A JP 2010004210A JP 2010146015 A JP2010146015 A JP 2010146015A
Authority
JP
Japan
Prior art keywords
value
frame
output value
moving image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2010004210A
Other languages
Japanese (ja)
Inventor
Masahiro Baba
雅裕 馬場
Takeshi Ito
伊藤  剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010004210A priority Critical patent/JP2010146015A/en
Publication of JP2010146015A publication Critical patent/JP2010146015A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an animation processing method improving the subjective image quality of animation displayed on a liquid crystal display. <P>SOLUTION: This animation processing method for processing animation displayed on the liquid crystal display includes: an output value deciding step of deciding an output value in outputting an image of a predetermined position of a second frame according to a pixel value in a predetermined position in a first frame contained in animation, a pixel value at a position corresponding to the predetermined position in the second frame and the degree of response delay caused when the liquid crystal display displays animation; an edge area detecting step of detecting an edge area from the second frame; and an output value correction step of correcting the output value to the edge area so that an absolute value of an output differential value between an output value decided in the output value deciding step to the edge area and an output value output now becomes larger by a first predetermined correction amount. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、液晶表示装置に表示する動画を処理する動画処理装置、動画処理方法および動画処理プログラムに関する。   The present invention relates to a moving image processing apparatus, a moving image processing method, and a moving image processing program for processing a moving image to be displayed on a liquid crystal display device.

近年、液晶ディスプレイは、PC(パーソナルコンピュータ)用モニタ、ノートPC、テレビといった広い分野にわたって普及してきている。これに伴い、液晶ディスプレイで動画を見る機会が非常に増えてきている。   In recent years, liquid crystal displays have become widespread over a wide range of fields such as PC (personal computer) monitors, notebook PCs, and televisions. Along with this, the chances of watching moving images on a liquid crystal display have increased greatly.

しかし、液晶ディスプレイは、液晶の応答速度が十分に速くはないために、動画を表示した際にボケや残像のような画質劣化が生じる。一般に、液晶ディスプレイのリフレッシュレートは、60Hzである。したがって、動画表示に対応するために16.7ms以下の応答速度が目標とされている。   However, since the response speed of the liquid crystal display is not sufficiently high, image quality degradation such as blurring and afterimages occurs when a moving image is displayed. Generally, the refresh rate of a liquid crystal display is 60 Hz. Therefore, a response speed of 16.7 ms or less is targeted in order to support moving image display.

最近の液晶ディスプレイにおいては、2値(256階調表示の液晶ディスプレイで0階調から255階調もしくは、255階調から0階調)の応答速度は16.7ms以下となっている。しかし、中間調間の応答速度は、16.7ms以上である。   In recent liquid crystal displays, the response speed of binary (0 to 255 gradations or 255 to 0 gradations in a 256 gradation display liquid crystal display) is 16.7 ms or less. However, the response speed between halftones is 16.7 ms or more.

一般の動画は、中間調間の応答が非常に多く含まれているため、中間調間の応答速度が十分ではないという問題は、動画の画質劣化を招くことになる。すなわち、さらなる応答速度の改善が必要である。   Since a general moving image includes a large number of responses between halftones, the problem that the response speed between halftones is not sufficient causes deterioration in the image quality of the moving images. That is, further improvement in response speed is necessary.

液晶ディスプレイの応答速度を速くするために、応答速度の速い新規の液晶材料の開発、従来の液晶材料を用いた液晶ディスプレイの駆動方法の改良等が行われている。新規の液晶材料としては、スメクチック系の強誘電性液晶、反強誘電性液晶等が挙げられる。   In order to increase the response speed of a liquid crystal display, development of a new liquid crystal material having a high response speed, improvement of a driving method of a liquid crystal display using a conventional liquid crystal material, and the like have been performed. Examples of new liquid crystal materials include smectic ferroelectric liquid crystals and antiferroelectric liquid crystals.

しかし、液晶材料の自発分極の影響による焼き付きの問題、圧力等により液晶の配向状態が破壊されやすい等、解決すべき課題は多い。   However, there are many problems to be solved, such as a problem of image sticking due to the influence of spontaneous polarization of the liquid crystal material and a tendency for the alignment state of the liquid crystal to be broken by pressure or the like.

一方、従来の液晶材料を用いた液晶ディスプレイの駆動方法を改良することにより、液晶ディスプレイの応答速度を改善する手法の開発もなされている。例えば、液晶ディスプレイに表示されている階調が変化する際の書き込み階調に必要に応じて所定の階調を加算した階調を液晶ディスプレイに書き込む方法(例えば、「非特許文献1」を参照)がある。   On the other hand, a technique for improving the response speed of a liquid crystal display has been developed by improving a driving method of a liquid crystal display using a conventional liquid crystal material. For example, a method of writing in a liquid crystal display a gradation obtained by adding a predetermined gradation to the writing gradation when the gradation displayed on the liquid crystal display changes (see, for example, “Non-Patent Document 1”). )

一方、画像の空間方向の先鋭度を向上させる方法としてエッジ強調がある。エッジ強調とは、画像の空間方向の微分(一般には、画像は不連続データであるために、隣接画素間の画素値の差分)を強調することにより、画像の先鋭度を向上させる技術である。   On the other hand, there is edge enhancement as a method for improving the sharpness in the spatial direction of an image. Edge enhancement is a technique for improving the sharpness of an image by enhancing the differentiation in the spatial direction of the image (generally, since the image is discontinuous data, the difference in pixel values between adjacent pixels). .

2001 SID International Symposium Digest of Technical Papers/Volume XXXII/ISSN−0001−966X P.4882001 SID International Symposium Digest of Technical Papers / Volume XXXII / ISSN-0001-966X 488

しかしながら、エッジ強調は、一般に、画像の空間方向のみの情報から画像の先鋭度を向上させる。したがって、動画においては、エッジ強調効果が不十分となる。すなわち、動画の動体領域を観察者が注視する場合、静止画と異なり、注視点が移動することとなり、観察者にとって、見かけのコントラストが低下する。   However, edge enhancement generally improves the sharpness of an image from information only in the spatial direction of the image. Therefore, the edge enhancement effect is insufficient for moving images. That is, when the observer gazes at the moving object region of the moving image, the gazing point moves unlike the still image, and the apparent contrast for the observer decreases.

また、一般の撮像系では、一定期間入力された光を積分することにより撮像を行っている。このため、動体では、空間的にずれた位置を積分することとなる。これにより、いわゆる撮像ボケが入り、動体のコントラストは静止画に比べ低下する。   In a general imaging system, imaging is performed by integrating light input for a certain period. For this reason, in a moving body, the position shifted spatially will be integrated. Thereby, so-called imaging blur occurs, and the contrast of the moving object is lower than that of the still image.

さらに液晶表示装置においては、動画が1フレーム期間は静止画として表示され続けるためにいわゆるホールドボケと呼ばれる現象が現れ、動体のコントラストは低下する。   Further, in a liquid crystal display device, since a moving image is continuously displayed as a still image for one frame period, a phenomenon called so-called hold blur appears, and the contrast of a moving object is lowered.

以上のように、一般的なエッジ強調においては、動画に静止領域と動体領域が存在した場合、静止領域と動体領域の見かけ上の先鋭度が異なる。これにより、主観画質の向上効果が小さいという問題があった。   As described above, in general edge enhancement, when a still region and a moving object region exist in a moving image, the apparent sharpness of the still region and the moving object region is different. As a result, there is a problem that the effect of improving the subjective image quality is small.

本発明は、上記課題に鑑みてなされたものであり、液晶表示装置に表示される動画の主観画質を向上させる動画処理方法を提供する。   The present invention has been made in view of the above problems, and provides a moving image processing method for improving the subjective image quality of a moving image displayed on a liquid crystal display device.

上述した課題を解決するために、本発明の一態様に係る、動画処理装置は、液晶表示装置に表示する動画を処理する動画処理装置であって、前記動画に含まれる第1のフレーム中の所定の位置における画素値と、前記第1のフレームと時間軸方向に連続して配置された第2のフレーム中の前記所定の位置に対応する位置の画素値とを参照して、前記液晶表示装置が動画を表示するときに生じる応答遅延の程度に基づいて、前記第2のフレームの前記所定の位置の画素の出力値を決定する出力値決定手段と、前記第2のフレームからエッジ領域を検出するエッジ領域検出手段と、検出された前記エッジ領域に対し前記出力値と、前記第2のフレーム中の前記所定の位置における画素値との差分の絶対値がより大きくなるように、前記出力値を補正する出力値補正手段とを有する。   In order to solve the above-described problem, a moving image processing device according to an aspect of the present invention is a moving image processing device that processes a moving image to be displayed on a liquid crystal display device, and includes a first frame included in the moving image. The liquid crystal display with reference to a pixel value at a predetermined position and a pixel value at a position corresponding to the predetermined position in a second frame continuously arranged in the time axis direction with the first frame Output value determining means for determining an output value of a pixel at the predetermined position in the second frame based on a degree of response delay caused when the apparatus displays a moving image; and an edge region from the second frame. The edge region detection means for detecting, and the output so that the absolute value of the difference between the output value for the detected edge region and the pixel value at the predetermined position in the second frame is larger. Complement value And an output value correcting means for.

本発明によれば、液晶表示装置に表示される動画像の画質を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the image quality of the moving image displayed on a liquid crystal display device can be improved.

動画処理装置10の機能構成を示すブロック図。2 is a block diagram showing a functional configuration of the moving image processing apparatus 10. FIG. 第1フレームにおける階調L0と、第2フレームにおける階調L1と、初期強調階調Leの関係を模式的に示す図。The figure which shows typically the relationship between the gradation L0 in a 1st frame, the gradation L1 in a 2nd frame, and the initial emphasis gradation Le. 配列データ保持部106のLUTのデータ構成を模式的に示す図。The figure which shows typically the data structure of LUT of the array data holding | maintenance part 106. FIG. エッジ検出部102によって検出されたエッジ領域のエッジ強度Iと強調補正係数βの関係を示す図。The figure which shows the relationship between the edge intensity | strength I of the edge area | region detected by the edge detection part 102, and emphasis correction coefficient (beta). エッジ検出部102によって検出されたエッジ領域のエッジ強度Iと強調補正係数βの関係の他の例を示す図。The figure which shows the other example of the relationship between edge intensity | strength I of the edge area | region detected by the edge detection part 102, and emphasis correction coefficient (beta). エッジ検出部102によって検出されたエッジ領域のエッジ強度Iと強調補正係数βの関係の他の例を示す図。The figure which shows the other example of the relationship between edge intensity | strength I of the edge area | region detected by the edge detection part 102, and emphasis correction coefficient (beta). エッジ検出部102によって検出されたエッジ領域のエッジ強度Iと強調補正係数βの関係の他の例を示す図。The figure which shows the other example of the relationship between edge intensity | strength I of the edge area | region detected by the edge detection part 102, and emphasis correction coefficient (beta). Nフレーム210を示す図。The figure which shows the N flame | frame 210. FIG. N+1フレーム220を示す図。The figure which shows the N + 1 flame | frame 220. エッジ検出部102がN+1フレームからエッジ領域を検出して得られたエッジ検出画像230を示す図。The figure which shows the edge detection image 230 obtained when the edge detection part 102 detected the edge area | region from the N + 1 frame. Nフレーム220とN+1フレーム230の絶対値差分を表わす図。The figure showing the absolute value difference of N frame 220 and N + 1 frame 230. 図9に示すN+1フレームのエッジ検出画像230を2値化した値と、Nフレーム220とN+1フレーム230の絶対値差分を2値化した値との論理積演算により得られた動きを伴うエッジ領域251,252を示す図。Edge region with motion obtained by AND operation of a value obtained by binarizing the edge detection image 230 of the N + 1 frame shown in FIG. 9 and a value obtained by binarizing the absolute value difference between the N frame 220 and the N + 1 frame 230 FIG. 実施の形態1にかかる動画処理装置10における動画処理を示すフローチャート。3 is a flowchart showing moving image processing in the moving image processing apparatus 10 according to the first embodiment; 実施の形態1にかかる動画処理装置10のハードウェア構成を示す図。1 is a diagram illustrating a hardware configuration of a moving image processing apparatus 10 according to a first embodiment. 実施の形態2にかかる動画処理装置10の機能構成を示すブロック図。FIG. 3 is a block diagram showing a functional configuration of a moving image processing apparatus 10 according to the second embodiment. 横軸をL1−L0、縦軸をLe−L0として各値をプロットすることにより最小二乗誤差法から求めた近似直線を示す図。The figure which shows the approximate straight line calculated | required from the least square error method by plotting each value by setting a horizontal axis as L1-L0 and a vertical axis | shaft as Le-L0. 入力映像情報が赤、緑、青の三原色が図情報場合の動画像処理装置10の機能構成を示すブロック図。The block diagram which shows the function structure of the moving image processing apparatus 10 when the input video information is red, green, and blue three primary colors are figure information. 入力画像のフレームレートと液晶表示装置20のリフレッシュレートとの関係を示す図。The figure which shows the relationship between the frame rate of an input image, and the refresh rate of the liquid crystal display device 20. FIG. 実施の形態5にかかる動画像処理装置10による動画像処理を示すフローチャート。10 is a flowchart showing moving image processing by the moving image processing apparatus 10 according to the fifth embodiment;

以下に、本発明にかかる動画処理方法、動画処理装置および動画処理プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of a moving image processing method, a moving image processing apparatus, and a moving image processing program according to the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

(実施の形態1)
図1は、本発明にかかる動画処理方法を行う動画処理装置10の機能構成を示すブロック図である。動画処理装置10は、フレームメモリ100と、エッジ検出部102と、ゲートアレイ104と、配列データ保持部106とを備えている。液晶表示装置20に映像情報を表示する場合、応答遅延により映像が劣化してしまう。これを向上させるためには、階調の変化を強調する必要がある。動画処理装置10は、液晶表示装置20に出力する強調された階調値である強調階調を決定する。
(Embodiment 1)
FIG. 1 is a block diagram showing a functional configuration of a moving image processing apparatus 10 that performs a moving image processing method according to the present invention. The moving image processing apparatus 10 includes a frame memory 100, an edge detection unit 102, a gate array 104, and an array data holding unit 106. When video information is displayed on the liquid crystal display device 20, the video is degraded due to a response delay. In order to improve this, it is necessary to emphasize the change in gradation. The moving image processing apparatus 10 determines an enhanced gradation that is an enhanced gradation value to be output to the liquid crystal display device 20.

入力された映像情報は、フレームメモリ100と、エッジ検出部102と、ゲートアレイ104とに送られる。フレームメモリ100は、入力された映像情報を1フレーム期間保持し、1フレーム期間遅延された映像情報を出力する。液晶表示装置20に映像情報を表示させる際の映像情報の強調階調を決定するために、入力されたフレームと当該フレームの直前のフレームの階調を参照する必要がある。以下、説明の便宜上フレームメモリ100に第1フレームが保持され、外部から第1フレームに続く第2フレームが入力される場合について説明する。   The input video information is sent to the frame memory 100, the edge detector 102, and the gate array 104. The frame memory 100 holds the input video information for one frame period, and outputs the video information delayed by one frame period. In order to determine the emphasis gradation of the video information when displaying the video information on the liquid crystal display device 20, it is necessary to refer to the gradation of the input frame and the frame immediately before the frame. Hereinafter, the case where the first frame is held in the frame memory 100 and the second frame following the first frame is input from the outside will be described for convenience of description.

エッジ検出部102は、第2フレームからエッジを検出する。そして、エッジ検出画像としてゲートアレイ104に送る。エッジ検出方法としては様々な方法が考えられるが、本実施形態では、Sobelの微分オペレータを用いる方法とした。   The edge detection unit 102 detects an edge from the second frame. Then, it is sent to the gate array 104 as an edge detection image. Various methods can be considered as the edge detection method. In the present embodiment, the Sobel differential operator is used.

Sobel微分オペレータを用いたエッジ検出方法を(式1)から(式3)に示す。

Figure 2010146015
ここで、I(x,y)は座標(x,y)位置におけるエッジ強度を示している。Ex(x,y)は座標(x,y)位置の画素Px(x,y)の水平方向の濃度勾配を示している。Ey(x,y)は座標(x,y)位置の画素Py(x,y)の垂直方向の濃度勾配を示している。Hx、Hyはそれぞれ、水平方向、垂直方向の微分オペレータである。記号*は、畳み込み演算を表している。I(x,y)は、255(8ビット)以上の値を持つことがあるが、飽和演算により255以下に丸め込んでいる。 Edge detection methods using the Sobel differential operator are shown in (Expression 1) to (Expression 3).
Figure 2010146015
Here, I (x, y) indicates the edge strength at the coordinate (x, y) position. E x (x, y) indicates the density gradient in the horizontal direction of the pixel P x (x, y) at the coordinate (x, y) position. E y (x, y) indicates the density gradient in the vertical direction of the pixel P y (x, y) at the coordinate (x, y) position. H x and H y are differential operators in the horizontal and vertical directions, respectively. The symbol * represents a convolution operation. I (x, y) may have a value of 255 (8 bits) or more, but is rounded to 255 or less by a saturation operation.

また、本実施形態では、Sobel微分オペレータを用いたエッジ検出を行っているが、処理負担をより軽減するためには、例えば水平方向の微分のみを求める方法を利用してもよい。一般的な撮像された動画であれば、動画は水平方向の移動が多く、水平方法のエッジ検出のみでも、十分に効果を得ることができる。   In this embodiment, edge detection using the Sobel differential operator is performed. However, in order to further reduce the processing load, for example, a method of obtaining only the horizontal differential may be used. In the case of a general captured moving image, the moving image has a lot of movement in the horizontal direction, and a sufficient effect can be obtained only by edge detection of the horizontal method.

また、本実施の形態においては、エッジ検出画像は、赤、緑、青それぞれの入力階調について求める。他の例としては、赤、緑、青それぞれの輝度成分を求め、輝度成分についてのみのエッジ検出画像を求めても良い。また、入力映像情報がMPEG2(Moving Picture Experts Group2)の動画のデコード結果のように輝度情報と色差情報(Y,U,V等)からなる映像情報である場合には、輝度情報(Y)のエッジ検出画像を求めてもよい。   In the present embodiment, the edge detection image is obtained for each of the input gradations of red, green, and blue. As another example, the luminance components of red, green, and blue may be obtained, and the edge detection image for only the luminance component may be obtained. In addition, when the input video information is video information including luminance information and color difference information (Y, U, V, etc.) as in the decoding result of a moving picture experts group (MPEG2) video, the luminance information (Y) An edge detection image may be obtained.

配列データ保持部106は、初期強調階調データをLook−Up Table(LUT)として保持している。ここで、図2を参照しつつ初期強調階調データについて説明する。   The array data holding unit 106 holds initial emphasized gradation data as a Look-Up Table (LUT). Here, the initial enhancement gradation data will be described with reference to FIG.

第1フレームから第2フレームにおいて、階調がL0からL1に変換したとする。この場合、液晶表示装置20に第2フレームを表示すべく階調L1を書き込んでも、液晶表示装置20の応答遅延により、1フレーム期間後(一般に1/60秒後)に目的とする到達階調L1に到達することができない。 It is assumed that the gradation is converted from L 0 to L 1 in the first frame to the second frame. In this case, even if the gradation L 1 is written to display the second frame on the liquid crystal display device 20, the target arrival floor is reached after one frame period (generally 1/60 seconds) due to the response delay of the liquid crystal display device 20. Key L 1 cannot be reached.

そこで、L1の代わりに強調されたLeを書き込むこととする。これにより、1フレーム期間後にL1に到達することができる。このLeが初期強調階調である。図2は、第1フレームにおける階調L0と、第2フレームにおける階調L1と、初期強調階調Leの関係を模式的に示している。階調L1よりも大きい階調を書き込むことにより、1フレーム期間後に階調L1に到達することができる。このときの階調をLeとする。 Therefore, the writing the highlighted L e instead of L 1. As a result, L 1 can be reached after one frame period. This Le is the initial emphasis gradation. 2, a gradation L 0 in the first frame, the gray level L 1 in the second frame, shows the relationship between the initial emphasis gradation L e schematically. By writing a gradation larger than the gradation L 1 , the gradation L 1 can be reached after one frame period. The tone at this time is L e.

なお、実施の形態にかかる初期強調階調Leは、特許請求の範囲に記載の出力値決定ステップにおいて決定される出力値に相当する。また、実施の形態にかかるL1−L0、Le−L1およびLe−L0は、それぞれ特許請求の範囲に記載の第1差分値、第2差分値、第3差分値に相当する。 The initial emphasis gradation L e according to the embodiment corresponds to the output value determined in the output value determining step described in the claims. Further, L 1 -L 0, L e -L 1 and L e -L 0 according to the embodiment, the first difference value according to the range of each claims, the second difference value, corresponding to the third difference value To do.

このように、1フレーム期間後にL1に到達できるような初期強調階調Leを液晶表示装置20に書き込むことにより、1フレーム期間後に目的とするL1に到達することができる。すなわち、液晶表示装置20の応答速度を見かけ上向上させることができる。 In this manner, by writing the initial emphasis gradation Le that can reach L 1 after one frame period into the liquid crystal display device 20, the target L 1 can be reached after one frame period. That is, the response speed of the liquid crystal display device 20 can be apparently improved.

配列データ保持部106では、予め求められた全階調間、もしくは一部の階調間の応答における初期強調階調Leを保持している。図3は、配列データ保持部106のLUTのデータ構成を模式的に示している。LUTは、横軸をL0、縦軸をL1として、LUTを2次元のマトリックス状に設けられている。L0列、L1行が交差する位置に対応するセルには、対応するLeが配置されている。 In sequence data holding unit 106 holds the initial emphasis gradation L e in previously obtained entire gradation between, or responses between some gradations. FIG. 3 schematically shows the data structure of the LUT of the array data holding unit 106. The LUT is provided in a two-dimensional matrix with the horizontal axis L 0 and the vertical axis L 1 . In the cell corresponding to the position where the L 0 column and the L 1 row intersect, the corresponding Le is arranged.

なお、階調Leを保持する方法は、本実施の形態に限定されるものではなく、階調L0と階調L1とを入力として、階調Leを特定できる方法であればよい。例えば、1次元的に保持されていてもよい。 The method for holding gradation L e is not limited to this embodiment, as an input gradation L 0 and gradation L 1, may be any method capable of specifying a gradation L e . For example, it may be held one-dimensionally.

また、LUTは、全階調間の階調Leを保持している必要はなく、例えば4階調毎の階調L0、階調L1に対する階調Leのみを保持していてもよい。この場合、LUTに保持されていない階調L0、階調L1に対する階調Leは、線形補間等により求めればよい。これにより、LUTを小さくすることができる。したがって、メモリ容量を小さくすることができる。 Further, LUT does not need to hold a grayscale L e between all gradations, for example 4 gradation L 0 for each tone, even holds only gradation L e for gradation L 1 Good. In this case, the gradation L e for gradation L 0, gradation L 1 is not held in the LUT may be determined by linear interpolation or the like. Thereby, the LUT can be reduced. Therefore, the memory capacity can be reduced.

また、図3に示すLUTは、初期強調階調Leを保持するが、階調Leと階調L1の差分、すなわち強調量のみを保持してもよい。この場合には、後述のゲートアレイ104などにおいて、LUTに保持されている強調量と階調L1とを加算して階調Leを求める構成となる。 Further, LUT shown in FIG. 3, but retains the initial emphasis gradation L e, the gradation L e and gradation L 1 of the difference, i.e., it may hold only enhancement amount. In this case, in a gate array 104 to be described later, a configuration for obtaining the gradation L e by adding the gradation L 1 enhancement amount held in the LUT.

配列データ保持部106は、ROM(Read Only Memory)、RAM(Random Access Memory)等、データを保持できるものであればどのようなものでも構わない。   The array data holding unit 106 may be anything such as a ROM (Read Only Memory) and a RAM (Random Access Memory) as long as it can hold data.

ゲートアレイ104は、外部から第2フレームを取得し、かつフレームメモリ100から第1フレームを取得する。ゲートアレイ104は、取得した第1フレームの階調L0と、第2フレームの階調L1とをアドレス情報として、配列データ保持部106から対応する初期強調階調Leを取得する。 The gate array 104 acquires the second frame from the outside and acquires the first frame from the frame memory 100. The gate array 104, a gradation L 0 of the first frame acquired, as the address information and gradation L 1 of the second frame, to obtain the initial enhancement gradation L e corresponding the sequence data holding section 106.

このように、ゲートアレイ104は、第1フレーム中の所定の位置における画素値、大2フレーム中の対応する位置における画素値および応答遅延の程度に基づいて作成された配列データ保持部106のLUTに基づいて、初期強調階調Leを決定することができる。 As described above, the gate array 104 includes the LUT of the array data holding unit 106 created based on the pixel value at a predetermined position in the first frame, the pixel value at the corresponding position in the large two frames, and the degree of response delay. based on, it is possible to determine the initial emphasis gradation L e.

ゲートアレイ104は、さらにエッジ検出部102から第2フレームのエッジ検出画像を取得する。このエッジ検出画像のエッジ強度に基づいて、初期強調階調Leに対して、さらに所定量の強調処理を行うことにより、実際に液晶表示装置20に書き込む強調階調を生成する。具体的には、フレーム間に変化があるエッジ領域、すなわち動体のエッジ領域の階調をさらに強調するエッジ強調処理を行う。そして、液晶表示装置20のタイミング信号(クロック、水平同期信号、垂直同期信号等)とともに強調映像情報として出力する。 The gate array 104 further acquires an edge detection image of the second frame from the edge detection unit 102. Based on the edge intensity of the edge detection image, the initial emphasis gradation L e, by further performing a predetermined amount of enhancement processing, to produce an enhanced gradation actually written to the liquid crystal display device 20. Specifically, an edge emphasis process for further emphasizing the gradation of an edge region that changes between frames, that is, an edge region of a moving object is performed. Then, it is output as emphasized video information together with a timing signal (clock, horizontal synchronizing signal, vertical synchronizing signal, etc.) of the liquid crystal display device 20.

次に、ゲートアレイ104がエッジ検出画像に対して施すエッジ強調処理について説明する。エッジ検出画像のエッジ強度に基づく強調補正係数をβ、最終的に液晶表示装置20に書き込むべき強調階調をLcとすると、Lcは、以下の(式4)により求められる。

Figure 2010146015
なお、実施の形態にかかる強調補正係数βは、特許請求の範囲に記載の第1強調補正係数に相当する。 Next, edge enhancement processing performed by the gate array 104 on the edge detection image will be described. Assuming that the enhancement correction coefficient based on the edge intensity of the edge detection image is β and the enhancement gradation to be finally written to the liquid crystal display device 20 is L c , L c is obtained by the following (Equation 4).
Figure 2010146015
The enhancement correction coefficient β according to the embodiment corresponds to the first enhancement correction coefficient described in the claims.

次に強調補正係数βの求め方を説明する。図4は、エッジ検出部102によって検出されたエッジ領域のエッジ強度Iと強調補正係数βの関係を示している。本実施の形態においては、図4に示すように、エッジ強度Iに正比例して強調補正係数βが増加する関係とした。したがって、エッジ強度Iに対し補正係数βは、以下の(式5)により求めることができる。

Figure 2010146015
ここで、βmaxは、エッジ強度が最大の時の最大強調補正係数である。βmaxは、利用者が任意に決定することができる。図4においては、エッジ強度の最大値を255とする。エッジ強度Iは、入力映像の画像のエッジ強度を8ビットの情報として(式1)から(式3)により求めた値である。このように、強調補正係数βは、エッジ強度に比例する値である。 Next, how to obtain the enhancement correction coefficient β will be described. FIG. 4 shows the relationship between the edge intensity I of the edge region detected by the edge detection unit 102 and the enhancement correction coefficient β. In the present embodiment, as shown in FIG. 4, the relationship is such that the enhancement correction coefficient β increases in direct proportion to the edge intensity I. Therefore, the correction coefficient β for the edge intensity I can be obtained by the following (Equation 5).
Figure 2010146015
Here, β max is a maximum enhancement correction coefficient when the edge strength is maximum. β max can be arbitrarily determined by the user. In FIG. 4, the maximum edge strength is 255. The edge strength I is a value obtained from (Equation 1) to (Equation 3) as the 8-bit information of the edge strength of the input video image. Thus, the enhancement correction coefficient β is a value proportional to the edge strength.

なお、本実施の形態においては、強調補正係数βを図4に示す関係から定めたが他の関係から定めてもよい。図5は、そうした他の例にかかる強調補正係数βとエッジ強度Iとの関係を示している。図5に示すようにエッジ強度Iが小さい場合には、強調補正係数を1とする。すなわち過強調を行わない。この場合、強調補正係数βは、(式6)により求めることができる。

Figure 2010146015
ここで、ILthは、強調補正係数を増加させるエッジ強度の閾値である。なお、実施の形態にかかるILthは、特許請求の範囲に記載の第1エッジ強度閾値に相当する。 In the present embodiment, the enhancement correction coefficient β is determined from the relationship shown in FIG. 4, but may be determined from another relationship. FIG. 5 shows the relationship between the enhancement correction coefficient β and the edge strength I according to such another example. As shown in FIG. 5, when the edge intensity I is small, the enhancement correction coefficient is set to 1. That is, it does not overemphasize. In this case, the enhancement correction coefficient β can be obtained by (Equation 6).
Figure 2010146015
Here, I Lth is a threshold value of edge strength for increasing the enhancement correction coefficient. Note that I Lth according to the embodiment corresponds to the first edge intensity threshold value described in the claims.

図5に示すエッジ強度Iと強調補正係数βの関係から強調補正係数βを決定することにより、ノイズのように変化の小さいものを、過強調するのを防止することができる。これより、ノイズを強調し画質が劣化するのを防止することができる。   By determining the emphasis correction coefficient β from the relationship between the edge intensity I and the emphasis correction coefficient β shown in FIG. 5, it is possible to prevent overemphasis of a small change such as noise. As a result, noise can be emphasized and image quality can be prevented from deteriorating.

また、図6は、他の例にかかる強調補正係数βとエッジ強度Iとの関係を示している。図6に示すようにエッジ強度が大きい場合には、強調補正係数を一定値すなわち、βmaxとする。この場合、強調補正係数βは、(式7)により求めることができる。

Figure 2010146015
ここで、IHthは、強調補正係数を一定とするエッジ強度の閾値である。なお、実施の形態にかかるIHthは、特許請求の範囲に記載の第2エッジ強調閾値に相当する。 FIG. 6 shows the relationship between the enhancement correction coefficient β and the edge strength I according to another example. As shown in FIG. 6, when the edge strength is large, the enhancement correction coefficient is set to a constant value, that is, β max . In this case, the enhancement correction coefficient β can be obtained by (Equation 7).
Figure 2010146015
Here, I Hth is a threshold value of edge strength that makes the enhancement correction coefficient constant. Note that I Hth according to the embodiment corresponds to the second edge enhancement threshold value described in the claims.

図6に示すエッジ強度Iと強調補正係数βの関係から強調補正係数βを決定することにより、エッジ強度Iが大きい場合に過度の過強調を行うのを防止することができる。   By determining the enhancement correction coefficient β from the relationship between the edge intensity I and the enhancement correction coefficient β shown in FIG. 6, it is possible to prevent excessive overemphasis when the edge intensity I is large.

さらに他の例としては、(式6)と(式7)との関係を併せてもよい。図7は、この場合の強調補正係数βとエッジ強度Iとの関係を示している。この場合、強調補正係数βは、(式8)により求めることができる。

Figure 2010146015
As yet another example, the relationship between (Expression 6) and (Expression 7) may be combined. FIG. 7 shows the relationship between the enhancement correction coefficient β and the edge strength I in this case. In this case, the enhancement correction coefficient β can be obtained by (Equation 8).
Figure 2010146015

次に動画処理装置10が図8−1に示すNフレーム210と図8−2に示すN+1フレーム220に対して処理を施す場合について具体的に説明する。Nフレーム210は、図8−1に示すように四角形オブジェクト211と丸形オブジェクト212、213、214、215とを含んでいる。N+1フレーム220は、図8−2に示すように、Nフレーム210と同様、四角形オブジェクト221と丸形オブジェクト222、223、224、225とを含んでいる。四角形オブジェクト211、221は動体であり、Nフレーム210からN+1フレーム220において、フレームの水平方向に移動している。丸形オブジェクト212〜215,222〜225は、静止している。   Next, the case where the moving image processing apparatus 10 performs processing on the N frame 210 shown in FIG. 8A and the N + 1 frame 220 shown in FIG. 8B will be specifically described. The N frame 210 includes a quadrangular object 211 and round objects 212, 213, 214, and 215 as shown in FIG. As illustrated in FIG. 8B, the N + 1 frame 220 includes a rectangular object 221 and round objects 222, 223, 224, and 225, as with the N frame 210. The square objects 211 and 221 are moving objects, and move from the N frame 210 to the N + 1 frame 220 in the horizontal direction of the frame. The round objects 212 to 215 and 222 to 225 are stationary.

図9は、エッジ検出部102がN+1フレームからエッジ領域を検出して得られたエッジ検出画像230を示している。エッジ検出部102は、入力フレーム全体のエッジを検出する。したがって、エッジ検出画像230には、静止している丸形オブジェクト222〜224に対するエッジ領域232,233,234,235および四角形オブジェクト221に対するエッジ領域231が含まれている。   FIG. 9 shows an edge detection image 230 obtained by the edge detection unit 102 detecting an edge region from N + 1 frames. The edge detection unit 102 detects the edge of the entire input frame. Therefore, the edge detection image 230 includes edge regions 232, 233, 234, and 235 for the stationary circular objects 222 to 224 and an edge region 231 for the quadrilateral object 221.

また、図10は、Nフレーム220とN+1フレーム230の絶対値差分を表している。四角形オブジェクト211,221は、Nフレーム220からN+1フレーム230においてフレームの水平方向に左から右に移動している。したがって、四角形オブジェクト211,221の左右に背景と動体の差分241,242が発生している。   FIG. 10 shows an absolute value difference between the N frame 220 and the N + 1 frame 230. The rectangular objects 211 and 221 move from the left to the right in the horizontal direction of the frame from the N frame 220 to the N + 1 frame 230. Therefore, differences 241 and 242 between the background and the moving object are generated on the left and right sides of the rectangular objects 211 and 221.

本実施の形態においては、ゲートアレイ104は、エッジ検出部102によって検出されたエッジ領域に対して(式4)で示される強調処理を施す。ただし、(式4)においては、Le−L1=0となるような、LeとL1に対しては、強調補正係数βによらずに、Lc=L1となる。すなわち、強調処理は施されない。 In the present embodiment, the gate array 104 performs an enhancement process represented by (Expression 4) on the edge region detected by the edge detection unit 102. However, in (Equation 4), for L e and L 1 such that L e −L 1 = 0, L c = L 1 regardless of the enhancement correction coefficient β. That is, the enhancement process is not performed.

図10に示すように、N+1フレーム220における丸形オブジェクト222〜225は静止しているのでフレーム間差分が発生しない。すなわち、丸形オブジェクト222〜225においては、Le=L1となる。すなわち、Le−L1=0となる。よって、丸形オブジェクト222〜225に対しては、強調処理は施されない。 As shown in FIG. 10, since the round objects 222 to 225 in the N + 1 frame 220 are stationary, no inter-frame difference occurs. That is, in the round object 222 to 225, the L e = L 1. That is, L e −L 1 = 0. Therefore, the enhancement processing is not performed on the round objects 222 to 225.

すなわち、ゲートアレイ104は、エッジ検出部102が検出したエッジ領域のうち、動きを伴うエッジ領域に対してのみ強調処理を施す。ゲートアレイ104が強調処理を施す領域、すなわち動きを伴うエッジ領域は、図9に示すN+1フレームのエッジ検出画像230を2値化した値と、Nフレーム220とN+1フレーム230の絶対値差分を2値化した値との論理積で表される。図11は、図9に示すN+1フレームのエッジ検出画像230を2値化した値と、Nフレーム220とN+1フレーム230の絶対値差分を2値化した値との論理積演算により得られた動きを伴うエッジ領域251,252を示している。エッジ領域251,252は、N+1フレームにおいて動体である四角いオブジェクトのフレーム間で変化のあるエッジ領域である。   In other words, the gate array 104 performs enhancement processing only on the edge region with motion among the edge regions detected by the edge detection unit 102. An area to which the gate array 104 performs enhancement processing, that is, an edge area with motion, is obtained by binarizing the edge detection image 230 of the N + 1 frame shown in FIG. 9 and the absolute value difference between the N frame 220 and the N + 1 frame 230 by 2. It is expressed as a logical product with the digitized value. FIG. 11 shows the motion obtained by the logical product operation of the value obtained by binarizing the edge detection image 230 of the N + 1 frame shown in FIG. 9 and the value obtained by binarizing the absolute value difference between the N frame 220 and the N + 1 frame 230. Edge regions 251 and 252 accompanied by are shown. The edge regions 251 and 252 are edge regions that change between frames of a square object that is a moving object in N + 1 frames.

このように、本実施の形態においては、動きを伴うエッジ領域のみをさらに強調することができるので、液晶表示装置20に表示される動画の先鋭度を向上させることができる。これにより、観察者に高品質な動画を提示することができる。   As described above, in the present embodiment, only the edge region with movement can be further emphasized, so that the sharpness of the moving image displayed on the liquid crystal display device 20 can be improved. Thereby, a high-quality moving image can be presented to the observer.

なお、本実施の形態にかかるゲートアレイ104は、特許請求の範囲に記載の出力値決定ステップ、補正量決定ステップ、および出力値補正ステップを実行する。ここで、出力値決定ステップにおいて決定される出力値は初期強調階調Le、出力値補正ステップにおいて補正された後の出力値は、強調階調Lcに相当する。また、本実施の形態におけるゲートアレイ104は、演算式により3つのステップを実行している。 The gate array 104 according to the present embodiment executes the output value determination step, the correction amount determination step, and the output value correction step described in the claims. Here, the output value determined in the output value determination step corresponds to the initial enhancement gradation L e , and the output value corrected in the output value correction step corresponds to the enhancement gradation L c . In addition, the gate array 104 in this embodiment executes three steps according to an arithmetic expression.

図12は、実施の形態1にかかる動画処理装置10における動画処理を示すフローチャートである。まず、ゲートアレイ104は、初期強調階調Leを決定する(ステップS100)。次に、エッジ検出部102は、エッジ領域を検出する(ステップS102)。エッジ領域が検出された場合には(ステップS104,Yes)、ゲートアレイ104は、エッジ領域におけるエッジ強度を検出する(ステップS106)。次に検出したエッジ強度に基づいて強調補正係数βを決定し、(式4)により強調階調Lcを決定する(ステップS108)。そして、決定した強調階調Lcにより画像を出力する(ステップS110)。 FIG. 12 is a flowchart of the moving image processing in the moving image processing apparatus 10 according to the first embodiment. First, the gate array 104 determines the initial emphasis gradation L e (step S100). Next, the edge detection unit 102 detects an edge region (step S102). When the edge region is detected (step S104, Yes), the gate array 104 detects the edge strength in the edge region (step S106). Next, the enhancement correction coefficient β is determined based on the detected edge intensity, and the enhancement gradation L c is determined by (Equation 4) (step S108). Then, an image is output with the determined enhancement gradation L c (step S110).

一方、ステップS104において、エッジ領域が検出されない場合には(ステップS104,No)、初期強調階調Leにより画像を出力する(ステップS110)。 On the other hand, in step S104, if the edge area is not detected (step S104, No), and outputs the image by initial enhancement gradation L e (step S110).

図13は、実施の形態1にかかる動画処理装置10のハードウェア構成を示す図である。動画処理装置10は、ハードウェア構成として、動画処理装置10における動画処理を実行する動画処理プログラムなどが格納されているROM52と、ROM52内のプログラムに従って動画処理装置10の各部を制御するCPU51と、動画処理装置10の制御に必要な種々のデータを記憶するRAM53と、ネットワークに接続して通信を行う通信I/F57と、各部を接続するバス62とを備えている。   FIG. 13 is a diagram illustrating a hardware configuration of the moving image processing apparatus 10 according to the first embodiment. The moving image processing apparatus 10 has, as a hardware configuration, a ROM 52 that stores a moving image processing program for executing moving image processing in the moving image processing apparatus 10, a CPU 51 that controls each unit of the moving image processing apparatus 10 according to a program in the ROM 52, A RAM 53 that stores various data necessary for controlling the moving image processing apparatus 10, a communication I / F 57 that communicates by connecting to a network, and a bus 62 that connects each unit are provided.

先に述べた動画処理装置10における動画処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フロッピー(登録商標)ディスク(FD)、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供されてもよい。   The moving image processing program in the moving image processing apparatus 10 described above is a file in an installable or executable format and is a computer-readable recording medium such as a CD-ROM, a floppy (registered trademark) disk (FD), or a DVD. May be recorded and provided.

この場合には、動画処理プログラムは、動画処理装置10において上記記録媒体から読み出して実行することにより主記憶装置上にロードされ、上記ソフトウェア構成で説明した各部が主記憶装置上に生成されるようになっている。   In this case, the moving image processing program is loaded onto the main storage device by being read from the recording medium and executed by the moving image processing device 10 so that each unit described in the software configuration is generated on the main storage device. It has become.

また、本実施の形態の動画処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。   Further, the moving image processing program of the present embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network.

(実施の形態2)
次に実施の形態2にかかる動画処理装置10について説明する。実施の形態2にかかる動画処理装置10は、特開2003−264846号公報に開示されている表示方法を利用して液晶表示装置20に映像情報を表示させる。
(Embodiment 2)
Next, the moving image processing apparatus 10 according to the second embodiment will be described. The moving image processing apparatus 10 according to the second embodiment displays video information on the liquid crystal display device 20 using a display method disclosed in Japanese Patent Laid-Open No. 2003-264846.

図14は、実施の形態2にかかる動画処理装置10の機能構成を示すブロック図である。実施の形態2にかかる動画処理装置10は、フレームメモリ100と、エッジ検出部102と、強調係数乗算部110と、階調情報変換部112とを備えている。   FIG. 14 is a block diagram of a functional configuration of the moving image processing apparatus 10 according to the second embodiment. The moving image processing apparatus 10 according to the second embodiment includes a frame memory 100, an edge detection unit 102, an enhancement coefficient multiplication unit 110, and a gradation information conversion unit 112.

動画処理装置10に入力された入力映像情報は、フレームメモリ100、エッジ検出部102、強調係数乗算部110に入力される。ここで、入力映像情報は、輝度情報(Y)及び色差情報(U、V)を含んでいる。   The input video information input to the moving image processing apparatus 10 is input to the frame memory 100, the edge detection unit 102, and the enhancement coefficient multiplication unit 110. Here, the input video information includes luminance information (Y) and color difference information (U, V).

強調係数乗算部110は、液晶表示装置20の応答遅延に基づき予め設定された強調係数と、エッジ検出部102で検出されたエッジ検出画像のエッジ強度に基づいて決定された強調補正係数と、輝度情報及び色差情報のフレーム間差分値から液晶表示装置20に表示させるべき強調映像情報を算出する。具体的には、強調補正係数を輝度情報及び色差情報のフレーム間差分値に乗じる。さらに、これにより得られた値に、フレームメモリ100により1フレーム期間遅延されたフレームすなわち第1フレームの輝度情報及び色差情報を加算する。これにより得られた映像情報を強調映像情報として階調情報変換部112に出力する。   The enhancement coefficient multiplication unit 110 includes an enhancement coefficient that is set in advance based on the response delay of the liquid crystal display device 20, an enhancement correction coefficient that is determined based on the edge intensity of the edge detection image detected by the edge detection unit 102, and luminance. The emphasized video information to be displayed on the liquid crystal display device 20 is calculated from the inter-frame difference value of the information and the color difference information. Specifically, the enhancement correction coefficient is multiplied by the difference value between frames of the luminance information and the color difference information. Further, the luminance information and the color difference information of the frame delayed by one frame period by the frame memory 100, that is, the first frame, are added to the obtained value. The video information thus obtained is output to the gradation information conversion unit 112 as emphasized video information.

強調係数乗算部110は、(式9)により強調映像情報を求める。

Figure 2010146015
The enhancement coefficient multiplication unit 110 obtains enhanced video information using (Equation 9).
Figure 2010146015

ここで、(Y0,U0,V0)は、入力映像情報すなわち第1フレームの輝度情報及び色差情報を示している。(Y1,U1,V1)は、1フレーム遅延された映像情報すなわち第2フレームの輝度情報及び色差情報を示している。(Yc,Uc,Vc)は、第2フレームの強調された輝度情報及び色差情報を示している。αは強調係数である。βは強調補正係数である。βは1以上の実数である。 Here, (Y 0 , U 0 , V 0 ) indicates input video information, that is, luminance information and color difference information of the first frame. (Y 1 , U 1 , V 1 ) indicates video information delayed by one frame, that is, luminance information and color difference information of the second frame. (Y c , U c , V c ) indicates enhanced luminance information and color difference information of the second frame. α is an enhancement coefficient. β is an enhancement correction coefficient. β is a real number of 1 or more.

強調係数αは、第1の実施形態において図2を参照しつつ説明した第1フレームの階調L0、第2フレームの階調L1および初期強調階調Leの関係により決定される。具体的には、最小二乗誤差法により決定する。図15に示すように、横軸をL1−L0、縦軸をLe−L0としてプロットする。図15に示す実線300は、プロットより最小二乗誤差法から求めた近似直線である。この近似直線の傾きを強調係数αとして決定する。 Emphasis coefficient α, the first frame gradation L 0 as described with reference to FIG. 2 in the first embodiment, is determined by the relationship between the gradation L 1 and the initial emphasis gradation L e of the second frame. Specifically, it is determined by the least square error method. As shown in FIG. 15, plotted on the horizontal axis L 1 -L 0, the vertical axis L e -L 0. A solid line 300 shown in FIG. 15 is an approximate straight line obtained from the plot by the least square error method. The inclination of this approximate line is determined as the enhancement coefficient α.

このように、強調係数αは、L1−L0の値に基づいて決定される。すなわち、初期強調階調Leは、L1−L0の値に基づいて決定される。なお、当該強調係数αは、ゲートアレイ104において決定される。また、実施の形態にかかる当該強調係数αを算出する処理は、特許請求の範囲に記載の算出式決定ステップにおける処理に相当する。また、最小二乗誤差法により決定された実線300は、特許請求の範囲に記載の出力値算出式に相当する。 In this way, the enhancement coefficient α is determined based on the value of L 1 −L 0 . That is, the initial enhancement gradation Le is determined based on the value of L 1 −L 0 . The enhancement coefficient α is determined in the gate array 104. Further, the process of calculating the enhancement coefficient α according to the embodiment corresponds to the process in the calculation formula determination step described in the claims. The solid line 300 determined by the least square error method corresponds to the output value calculation formula described in the claims.

強調補正係数βは、第1の実施形態と同様に、エッジ検出画像のエッジ強度を用いて、(式5)により算出する。なお、強調補正係数βは、(式5)にかえて、(式6)〜(式8)のいずれかにより算出してもよい。   The enhancement correction coefficient β is calculated by (Equation 5) using the edge strength of the edge detection image, as in the first embodiment. The enhancement correction coefficient β may be calculated by any one of (Expression 6) to (Expression 8) instead of (Expression 5).

他の例としては、強調係数乗算部110は、(式9)にかえて(式10)により強調映像情報を求めてもよい。

Figure 2010146015
ここで、βは0以上の実数である。よって、βは、例えば下の(式11)から(式12)のいずれかを用いて求める。
Figure 2010146015
As another example, the enhancement coefficient multiplication unit 110 may obtain the enhanced video information by (Expression 10) instead of (Expression 9).
Figure 2010146015
Here, β is a real number of 0 or more. Therefore, β is obtained, for example, using any one of (Equation 11) to (Equation 12) below.
Figure 2010146015

階調情報変換部112では、輝度情報及び色差情報を三原色の強調階調情報に変換し、液晶表示装置20で、強調階調情報を表示する。階調情報変換部112は、輝度情報及び色差情報を含む強調映像情報を三原色の強調階調情報に変換する。   The gradation information conversion unit 112 converts the luminance information and the color difference information into the enhanced gradation information of the three primary colors, and the enhanced gradation information is displayed on the liquid crystal display device 20. The gradation information conversion unit 112 converts enhanced video information including luminance information and color difference information into enhanced primary color information of three primary colors.

液晶表示装置20は、赤、緑、青の三原色のサブ画素に階調を書き込むことにより表示を行っている。そこで、液晶表示装置20の表示形式に適応させるべく変換処理を行う。階調情報変換部112による変換は、(式15)に示されるマトリックス変換により求めることができる。

Figure 2010146015
ここで、(Rc,Gc,Bc)はそれぞれ、赤、緑、青の強調階調である。なお、上記3×3のマトリックスは、一例であり、その他の係数でも構わない。 The liquid crystal display device 20 performs display by writing gradation in the sub-pixels of the three primary colors of red, green, and blue. Therefore, conversion processing is performed to adapt to the display format of the liquid crystal display device 20. The conversion by the gradation information conversion unit 112 can be obtained by matrix conversion shown in (Equation 15).
Figure 2010146015
Here, (R c , G c , B c ) are red, green, and blue enhancement gradations, respectively. The 3 × 3 matrix is an example, and other coefficients may be used.

また、上記では、入力映像情報が輝度情報(Y)及び色差情報(U、V)により構成されている場合について示したが、入力映像情報が赤、緑、青の三原色画像情報であっても構わない。この場合、動画処理装置の構成は、図16に示すように、図14に示す構成に対し、階調情報変換部を省略した構成となる。また、(式9)は、(式16)のように書き換えられる。

Figure 2010146015
ここで、(R1,G1,B1)は、第2フレームの赤、緑、青の三原色画像情報を示しており、(R0,G0,B0)は、第1フレームの赤、緑、青の三原色画像情報を示している。また、(Rc,Gc,Bc)は、強調された赤、緑、青の三原色画像情報を示している。同様に、(式10)は、(式17)のように書き換えられる。
Figure 2010146015
In the above description, the input video information is composed of luminance information (Y) and color difference information (U, V). However, even if the input video information is red, green, and blue primary color image information. I do not care. In this case, as shown in FIG. 16, the configuration of the moving image processing apparatus is a configuration in which the gradation information conversion unit is omitted from the configuration shown in FIG. Further, (Equation 9) can be rewritten as (Equation 16).
Figure 2010146015
Here, (R 1 , G 1 , B 1 ) indicates red, green, and blue primary color image information of the second frame, and (R 0 , G 0 , B 0 ) indicates red of the first frame. , Green and blue three primary color image information. In addition, (R c , G c , B c ) indicates emphasized three primary color image information of red, green, and blue. Similarly, (Expression 10) can be rewritten as (Expression 17).
Figure 2010146015

なお、実施の形態2にかかる動画処理装置10のこれ以外の構成および処理は実施の形態1にかかる動画処理装置10の構成および処理と同様である。   The other configuration and processing of the moving image processing apparatus 10 according to the second embodiment are the same as the configuration and processing of the moving image processing apparatus 10 according to the first embodiment.

以上説明したように、実施の形態2にかかる動画処理装置10においても、液晶表示装置20に表示される動画の先鋭度を向上させるべく映像情報を処理することができる。これにより、観察者に高品質な動画を提示することができる。   As described above, the moving image processing apparatus 10 according to the second embodiment can also process video information to improve the sharpness of the moving image displayed on the liquid crystal display device 20. Thereby, a high-quality moving image can be presented to the observer.

(実施の形態3)
次に、実施の形態3にかかる動画処理装置10について説明する。実施の形態3にかかる動画処理装置10の基本的な構成は、実施の形態1にかかる動画処理装置10の構成と同様である。
(Embodiment 3)
Next, the moving image processing apparatus 10 according to the third embodiment will be described. The basic configuration of the moving image processing apparatus 10 according to the third embodiment is the same as the configuration of the moving image processing apparatus 10 according to the first embodiment.

実施の形態3にかかる動画処理装置10においては、第1フレームと第2フレームの間のフレーム間差分値の絶対値が所定の値以下である場合、ゲートアレイ104は、当該領域に対してエッジ強調処理を行わない。この点で、実施の形態3にかかる動画処理装置10は、他の実施の形態にかかる動画処理装置10と異なっている。   In the moving image processing apparatus 10 according to the third embodiment, when the absolute value of the inter-frame difference value between the first frame and the second frame is equal to or less than a predetermined value, the gate array 104 has an edge with respect to the region. Do not perform emphasis processing. In this respect, the moving image processing apparatus 10 according to the third embodiment is different from the moving image processing apparatus 10 according to the other embodiments.

実施の形態1においては、ゲートアレイ104が利用する(式4)中の強調補正係数βは、実施の形態1において説明した(式5)により求めた。   In the first embodiment, the enhancement correction coefficient β in (Expression 4) used by the gate array 104 is obtained by (Expression 5) described in the first embodiment.

実施の形態3にかかるゲートアレイ104は、(式5)により求めた強調補正係数βに対して(式18)および(式19)を施すことにより、強調補正係数β’を求める。

Figure 2010146015
ここで、Lthは、所定の閾値を表している。Abs(x)は、xの絶対値を表している。また、実施の形態3においては、(式20)により、強調階調Lcを求める。
Figure 2010146015
The gate array 104 according to the third embodiment obtains the enhancement correction coefficient β ′ by applying (Equation 18) and (Equation 19) to the enhancement correction coefficient β obtained by (Equation 5).
Figure 2010146015
Here, L th represents a predetermined threshold value. Abs (x) represents the absolute value of x. In the third embodiment, the enhancement gradation L c is obtained from (Equation 20).
Figure 2010146015

すなわち、フレーム間差分L1−L0が閾値Lth以下の場合は、強調補正係数β’を1として、過強調を行わない。このように、フレーム間差分L1−L0が閾値Lth以下の場合に強調補正係数β’を1とすることにより、ノイズ成分の過強調を防止することができる。 That is, when the interframe difference L 1 −L 0 is equal to or less than the threshold value L th , the enhancement correction coefficient β ′ is set to 1 and over-emphasis is not performed. As described above, when the interframe difference L 1 −L 0 is equal to or smaller than the threshold L th , the enhancement correction coefficient β ′ is set to 1 to prevent over-enhancement of noise components.

画像中のノイズ成分は、エッジ検出部102によりエッジと検出される可能性がある。また、ノイズは時間的に変化している。したがって、実施の形態1にかかる動画処理装置10においては、ノイズは、動体のエッジ部として過強調処理される可能性がある。   The noise component in the image may be detected as an edge by the edge detection unit 102. Further, the noise changes with time. Therefore, in the moving image processing apparatus 10 according to the first embodiment, noise may be overemphasized as an edge portion of a moving object.

そこで、実施の形態3にかかる動画処理装置10においては、フレーム間差分L1−L0が閾値Lth以下の場合に強調補正係数β’を1とすることにより、ノイズのように変化の小さい領域に関しては、過強調を行わないこととした。これにより、画像のノイズ成分の過強調を防止することができる。 Therefore, in the moving image processing apparatus 10 according to the third embodiment, when the interframe difference L 1 −L 0 is equal to or less than the threshold L th , the enhancement correction coefficient β ′ is set to 1 so that the change is small like noise. Regarding the area, it was decided not to overemphasize. Thereby, it is possible to prevent over-emphasis of the noise component of the image.

閾値Lthは、入力映像情報のS/Nより求められることが望ましいが、通常は10程度の値とすればよい。 The threshold value L th is desirably obtained from the S / N of the input video information, but it may be normally a value of about 10.

なお、実施の形態3にかかる動画処理装置10のこれ以外の構成および処理は、実施の形態1にかかる動画処理装置10の構成および処理と同様である。   The remaining configuration and processing of the moving image processing apparatus 10 according to the third embodiment are the same as the configuration and processing of the moving image processing apparatus 10 according to the first embodiment.

(実施の形態4)
次に、実施の形態4にかかる動画処理装置10について説明する。実施の形態4にかかる動画処理装置10の基本的な構成は、実施の形態2にかかる動画処理装置10の構成と同様である。
(Embodiment 4)
Next, the moving image processing apparatus 10 according to the fourth embodiment will be described. The basic configuration of the moving image processing apparatus 10 according to the fourth embodiment is the same as the configuration of the moving image processing apparatus 10 according to the second embodiment.

実施の形態4にかかる動画処理装置10においては、実施の形態3にかかる動画処理装置10と同様に、第1フレームと第2フレームの間の輝度情報Yのフレーム間差分値の絶対値が所定の値以下である場合、ゲートアレイ104は、当該領域に対してエッジ強調処理を行わない。   In the moving image processing apparatus 10 according to the fourth embodiment, as in the moving image processing apparatus 10 according to the third embodiment, the absolute value of the inter-frame difference value of the luminance information Y between the first frame and the second frame is predetermined. When the value is equal to or smaller than the value, the gate array 104 does not perform edge enhancement processing on the region.

実施の形態4にかかる動画処理装置10のゲートアレイ104は、(式5)により求めた強調補正係数βに対して(式21)および(式22)を施すことにより強調補正係数β’’を求める。

Figure 2010146015
The gate array 104 of the moving image processing apparatus 10 according to the fourth embodiment applies the (Equation 21) and (Equation 22) to the enhancement correction coefficient β obtained by (Equation 5) to obtain the enhancement correction coefficient β ″. Ask.
Figure 2010146015

また、(式10)により強調映像情報を求める場合には、(式21)にかえて、(式23)により強調補正係数β’’を求める。

Figure 2010146015
すなわち、過強調を行わない場合、(式10)に示す強調補正係数は0である。したがって、ΔYが閾値Yth以下の場合にβを0とする。 Further, when the emphasized video information is obtained by (Equation 10), the enhancement correction coefficient β ″ is obtained by (Equation 23) instead of (Equation 21).
Figure 2010146015
That is, when overemphasis is not performed, the enhancement correction coefficient shown in (Expression 10) is 0. Therefore, β is set to 0 when ΔY is equal to or less than the threshold value Y th .

なお、実施の形態4にかかる動画処理装置10のこれ以外の構成および処理は、実施の形態2にかかる動画処理装置10の構成および処理と同様である。   The other configuration and processing of the moving image processing apparatus 10 according to the fourth embodiment are the same as the configuration and processing of the moving image processing apparatus 10 according to the second embodiment.

以上説明したように、実施の形態4にかかる動画処理装置10においても、液晶表示装置20に表示させる動画の先鋭度を向上させることができる。これにより、観察者に高品質な動画を提示することができる。   As described above, also in the moving image processing apparatus 10 according to the fourth embodiment, the sharpness of the moving image displayed on the liquid crystal display device 20 can be improved. Thereby, a high-quality moving image can be presented to the observer.

(実施の形態5)
次に、実施の形態5にかかる動画処理装置10について説明する。実施の形態5にかかる動画処理装置10の基本的な構成は、実施の形態1から実施の形態4にかかる動画処理装置10の構成と同様である。
(Embodiment 5)
Next, the moving image processing apparatus 10 according to the fifth embodiment will be described. The basic configuration of the moving image processing apparatus 10 according to the fifth embodiment is the same as the configuration of the moving image processing apparatus 10 according to the first to fourth embodiments.

実施の形態5にかかる動画処理装置は、入力映像情報のフレームレートと液晶表示装置のリフレッシュレートとが異なる場合に、他の実施の形態にかかる処理と異なる処理により強調階調を決定する。この点で、実施の形態5にかかる動画処理装置10は、他の実施の形態にかかる動画処理装置10と異なっている。   The moving image processing apparatus according to the fifth embodiment determines the enhancement gradation by a process different from the process according to the other embodiment when the frame rate of the input video information is different from the refresh rate of the liquid crystal display device. In this respect, the moving image processing apparatus 10 according to the fifth embodiment is different from the moving image processing apparatus 10 according to the other embodiments.

図17は、入力画像のフレームレートと液晶表示装置20のリフレッシュレートとの関係を示す図である。図17は、30fpsの入力映像情報を示している。具体的には、連続したフレーム「A」「B」「C」を示している。横軸は時間を示している。また、本実施の形態にかかる液晶表示装置のリフレッシュレートが60Hzとする。この場合、図17に示すように30fpsの入力映像情報が「A」→「B」→「C」と続く場合、液晶表示装置20では、1/60秒毎に「A」→「A」→「B」→「B」→「C」→「C」と、同じフレームを2回ずつ表示する。   FIG. 17 is a diagram illustrating the relationship between the frame rate of the input image and the refresh rate of the liquid crystal display device 20. FIG. 17 shows 30 fps input video information. Specifically, continuous frames “A”, “B”, and “C” are shown. The horizontal axis indicates time. The refresh rate of the liquid crystal display device according to this embodiment is 60 Hz. In this case, as shown in FIG. 17, when the input video information of 30 fps continues from “A” → “B” → “C”, the liquid crystal display device 20 “A” → “A” → The same frame is displayed twice, “B” → “B” → “C” → “C”.

このため、液晶表示装置20のリフレッシュのタイミングにおいて、異なるフレームに変更して表示する場合(例えば「A」→「B」)と、同一のフレームを繰り返し表示する場合(例えば「B」→「B」)とが交互に繰り返される。   Therefore, at the refresh timing of the liquid crystal display device 20, when changing to a different frame (for example, “A” → “B”) and when displaying the same frame repeatedly (for example, “B” → “B”) ]) Are repeated alternately.

他の実施の形態において説明したのと同様の処理により、液晶表示装置20に同一のフレームを繰り返して表示させた場合、フリッカが発生してしまう。   When the same frame is repeatedly displayed on the liquid crystal display device 20 by the same process as described in other embodiments, flicker occurs.

例えば、1番目の「A」が強調階調で液晶表示装置20に書き込まれ、続いて2番目の「A」が初期強調階調で書き込まれた場合、液晶表示装置20には、強調階調で書き込まれたフレームと初期強調階調で書き込まれたフレーム1/60秒毎に交互に示される。したがって、1/30秒周期のフリッカが発生する。   For example, when the first “A” is written to the liquid crystal display device 20 with the emphasized gradation, and then the second “A” is written with the initial emphasized gradation, the liquid crystal display device 20 has the enhanced gradation. The frame written in step 1 and the frame written in the initial emphasis gradation are alternately shown every 1/60 seconds. Therefore, flicker having a period of 1/30 second occurs.

また、1番目の「A」および2番目の「A」がいずれも強調階調で書き込まれた場合には、2番目の「A」を表示するタイミングでは、適切な階調値以上の階調値に達してしまう。すなわち、過強調になってしまう。   Further, when both the first “A” and the second “A” are written in the emphasized gradation, the gradation that is equal to or higher than the appropriate gradation value is displayed at the timing of displaying the second “A”. Reach the value. That is, it becomes overemphasized.

そこで、実施の形態5にかかる動画処理装置10においては、同一のフレームの2番目の表示においては、強調すべきエッジ領域に対し、(式24)に示す第2の強調階調Lecを書き込む。

Figure 2010146015
ここで、Lecは、エッジ補正フレームにおけるエッジ補正階調を示している。係数rは0〜1の係数を示している。(式24)は、(β−1)(Le−L1)で表される過強調量に対し係数rを乗じ、L1を加算した過強調の到達階調を示している。 Therefore, in the moving image processing apparatus 10 according to the fifth embodiment, in the second display of the same frame, the second enhancement gradation L ec shown in (Equation 24) is written in the edge region to be enhanced. .
Figure 2010146015
Here, L ec indicates the edge correction gradation in the edge correction frame. The coefficient r indicates a coefficient from 0 to 1. (Equation 24) represents the over-emphasized reached gradation obtained by multiplying the over-emphasis amount represented by (β-1) (L e -L 1 ) by a coefficient r and adding L 1 .

係数rは、液晶表示装置の応答の遅れを補正する係数である。液晶表示装置に(β−1)(Le−L1)で表される過強調を書き込んだ場合に、実際に到達できるは液晶表示装置の応答の遅れのために、(β−1)(Le−L1)の過強調量までは到達できない。そのため、0〜1の係数を乗じることにより、実際の到達階調に補正している。なお、rは液晶表示装置の応答特性により決定される値である。rは、実測値に基づいて算出してもよい。そして、ゲートアレイ104は、(式24)により算出した第2強調階調Lecを書き込む。 The coefficient r is a coefficient for correcting a response delay of the liquid crystal display device. When the over-emphasis represented by (β-1) (L e -L 1 ) is written on the liquid crystal display device, (β-1) ( L e -L 1) of the can not reach excessive emphasis amount. Therefore, the actual reached gradation is corrected by multiplying by a coefficient of 0 to 1. Note that r is a value determined by the response characteristics of the liquid crystal display device. r may be calculated based on an actual measurement value. Then, the gate array 104 writes the second emphasized gradation Lec calculated by (Equation 24).

なお、実施の形態にかかる第2強調係数Lecと初期強調階調L1との差分値が、特許請求の範囲に記載の第2補正量に相当する。 Note that the difference value between the second enhancement coefficient Lec and the initial enhancement gradation L 1 according to the embodiment corresponds to the second correction amount described in the claims.

図18は、実施の形態5にかかる動画像処理装置10による動画像処理を示すフローチャートである。本実施の形態においては、ゲートアレイ104は、ステップS106においてエッジ強度を検出した後、液晶表示装置20のリフレッシュレートを取得する(ステップS108)。次に、入力画像のフレームレートと液晶表示装置20のリフレッシュレートとを比較する(ステップS122)。入力画像のフレームレトが液晶表示装置20のリフレッシュレートよりも大きい場合には(ステップS122,No)、実施の形態1にかかるゲートアレイ104と同様に、ゲートアレイ104は、エッジ強度に基づいて強調補正係数βを決定し、(式4)により強調階調Lcを決定する(ステップS124)。次に、決定した階調を書き込む(ステップS126)。 FIG. 18 is a flowchart of the moving image processing performed by the moving image processing apparatus 10 according to the fifth embodiment. In the present embodiment, after detecting the edge strength in step S106, the gate array 104 acquires the refresh rate of the liquid crystal display device 20 (step S108). Next, the frame rate of the input image is compared with the refresh rate of the liquid crystal display device 20 (step S122). When the frame rate of the input image is larger than the refresh rate of the liquid crystal display device 20 (No in step S122), the gate array 104 is emphasized based on the edge strength, like the gate array 104 according to the first embodiment. The correction coefficient β is determined, and the enhancement gradation L c is determined by (Equation 4) (step S124). Next, the determined gradation is written (step S126).

一方、入力画像のフレームレトが液晶表示装置20のリフレッシュレートよりも小さい場合には(ステップS122,No)、上述の(式24)により第2強調階調Lecを決定する(ステップS130)。 On the other hand, when the frame rate of the input image is smaller than the refresh rate of the liquid crystal display device 20 (No at Step S122), the second emphasis gradation Lec is determined by the above (Equation 24) (Step S130).

以上で、実施の形態5にかかる動画像処理が完了する。なお、これ以外の処理ステップは、実施の形態1において図7を参照しつつ説明した同一ステップ番号の処理と同様である。   Thus, the moving image processing according to the fifth embodiment is completed. The other processing steps are the same as the processing of the same step number described in the first embodiment with reference to FIG.

また、他の例としては、(式9)により強調フレームを決定する実施の形態2に対する第2の強調階調は、(式24)にかえて(式25)により算出される。

Figure 2010146015
ここで、(Yec,Uec,Vec)は、それぞれ、エッジ補正フレームの輝度及び色差情報を表している。 As another example, the second enhancement gradation for the second embodiment in which the enhancement frame is determined by (Equation 9) is calculated by (Equation 25) instead of (Equation 24).
Figure 2010146015
Here, (Y ec , U ec , V ec ) represent the luminance and color difference information of the edge correction frame, respectively.

(式25)は、以下のように導出することができる。(式9)により液晶表示装置が到達する階調を(Yx,Ux,Vx)とすると、以下の式が成り立つ。

Figure 2010146015
(式26)を(Yx,Ux,Vx)について解くと、(式25)が得られる。 (Equation 25) can be derived as follows. When the gradation reached by the liquid crystal display device according to (Equation 9) is (Y x , U x , V x ), the following equation is established.
Figure 2010146015
Solving (Equation 26) for (Y x , U x , V x ) yields (Equation 25).

また、他の例としては、(式10)により強調フレームを決定する実施の形態2に対する第2の強調階調は、(式24)にかえて(式27)により算出される。

Figure 2010146015
なお、実施の形態にかかるβ/αは、特許請求の範囲に記載の第2強調補正係数に相当し、βは、特許請求の範囲に記載の第1強調補正係数に相当する。 As another example, the second enhancement gradation for the second embodiment in which the enhancement frame is determined by (Equation 10) is calculated by (Equation 27) instead of (Equation 24).
Figure 2010146015
Note that β / α according to the embodiment corresponds to the second emphasis correction coefficient described in the claims, and β corresponds to the first emphasis correction coefficient described in the claims.

(式27)は、以下のように導出することができる。(式10)により液晶表示装置が到達する階調を(Yx,Ux,Vx)とすると、以下の式が成り立つ。

Figure 2010146015
(式28)を(Yx,Ux,Vx)について解くと、(式27)が得られる。 (Expression 27) can be derived as follows. When the gradation reached by the liquid crystal display device according to (Expression 10) is (Y x , U x , V x ), the following expression is established.
Figure 2010146015
When (Equation 28) is solved for (Y x , U x , V x ), (Equation 27) is obtained.

入力映像情報が赤、緑、青の三原色画像情報の場合は、(式25)及び(式27)の(Y、U、V)を(R、G、B)に置き換えることで、エッジ補正フレームの階調(Rec、Gec、Bec)を求めることができる。 When the input video information is red, green, and blue primary color image information, the edge correction frame is obtained by replacing (Y, U, V) in (Equation 25) and (Equation 27) with (R, G, B). Can be obtained (R ec , G ec , B ec ).

以上説明したように、実施の形態5にかかる動画処理装置においても、液晶表示装置に表示させる動画の先鋭度を向上させることができる。これにより、観察者に高品質な動画を提示することができる。   As described above, also in the moving image processing apparatus according to the fifth embodiment, the sharpness of moving images displayed on the liquid crystal display device can be improved. Thereby, a high-quality moving image can be presented to the observer.

以上、本発明に係わる液晶表示装置20の表示方法に関する実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない範囲内において種々変形して実施することが可能である。更に上記実施形態には、種々の段階の発明が含まれており、開示された構成要件を適宜組み合わせることによって種々の発明が抽出され得る。例えば、開示された構成要件からいくつかの構成要素が削除されても、所定の効果が得られるものであれば発明として抽出され得る。   As mentioned above, although embodiment regarding the display method of the liquid crystal display device 20 concerning this invention was described, this invention is not limited to the said embodiment, It implements in various deformation | transformation within the range which does not deviate from the meaning. Is possible. Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining the disclosed constituent elements. For example, even if some constituent elements are deleted from the disclosed constituent requirements, the invention can be extracted as long as a predetermined effect can be obtained.

10 動画処理装置
20 液晶表示装置
51 CPU
52 ROM
53 RAM
57 通信I/F
62 バス
100 フレームメモリ
102 エッジ検出部
104 ゲートアレイ
106 配列データ保持部
110 強調係数乗算部
112 階調情報変換部
10 moving image processing device 20 liquid crystal display device 51 CPU
52 ROM
53 RAM
57 Communication I / F
62 bus 100 frame memory 102 edge detection unit 104 gate array 106 array data holding unit 110 enhancement coefficient multiplication unit 112 gradation information conversion unit

Claims (12)

液晶表示装置に表示する動画を処理する動画処理装置であって、
前記動画に含まれる第1のフレーム中の所定の位置における画素値と、前記第1のフレームと時間軸方向に連続して配置された第2のフレーム中の前記所定の位置に対応する位置の画素値とを参照して、前記液晶表示装置が動画を表示するときに生じる応答遅延の程度に基づいて、前記第2のフレームの前記所定の位置の画素の出力値を決定する出力値決定手段と、
前記第2のフレームからエッジ領域を検出するエッジ領域検出手段と、
検出された前記エッジ領域に対し前記出力値と、前記第2のフレーム中の前記所定の位置における画素値との差分の絶対値がより大きくなるように、前記出力値を補正する出力値補正手段と
を有することを特徴とする動画処理装置。
A moving image processing device for processing a moving image to be displayed on a liquid crystal display device,
A pixel value at a predetermined position in the first frame included in the moving image, and a position corresponding to the predetermined position in the second frame continuously arranged in the time axis direction with the first frame. Output value determination means for determining an output value of the pixel at the predetermined position of the second frame based on the degree of response delay that occurs when the liquid crystal display device displays a moving image with reference to the pixel value When,
Edge region detection means for detecting an edge region from the second frame;
Output value correction means for correcting the output value so that the absolute value of the difference between the output value and the pixel value at the predetermined position in the second frame becomes larger with respect to the detected edge region. And a moving image processing apparatus.
前記第2のフレーム中の前記所定の位置に対応する位置の画素値と、前記第1のフレーム中の前記所定の位置の画素値との差分値を算出する差分値算出手段を更に有し、
前記出力値決定手段は、前記差分値と、前記応答遅延の程度に基づいて、前記第2のフレームの前記所定の位置の画素の前記出力値を決定することを特徴とする請求項1記載の動画処理装置。
A difference value calculating means for calculating a difference value between a pixel value at a position corresponding to the predetermined position in the second frame and a pixel value at the predetermined position in the first frame;
2. The output value determination unit according to claim 1, wherein the output value determination unit determines the output value of a pixel at the predetermined position of the second frame based on the difference value and the response delay level. Movie processing device.
前記エッジ領域検出手段は、前記第2のフレーム中の各位置における輝度成分に基づいてエッジ領域を検出することを特徴とする請求項1に記載の動画処理装置。   The moving image processing apparatus according to claim 1, wherein the edge area detection unit detects an edge area based on a luminance component at each position in the second frame. 前記エッジ領域検出手段が検出した前記第2のフレームの前記エッジ領域におけるエッジ強度を算出するエッジ強度算出手段と、
前記エッジ強度算出手段において算出した前記エッジ強度に基づいて、前記出力値補正手段において補正すべき補正量を決定する補正量決定手段と
をさらに有し、
前記出力値補正手段は、前記出力値決定手段において決定された前記所定の位置に対応する前記出力値を、当該出力値から、前記第1のフレーム中の前記所定の位置に対応する画素値を減算した差分値が0より大きい場合は、前記補正量決定手段において決定された前記補正量だけ大きい値に補正し、前記差分値が0より小さい場合は、前記補正量決定手段において決定された前記補正量だけ小さい値に補正することを特徴とする請求項1記載の動画処理装置。
Edge strength calculating means for calculating edge strength in the edge region of the second frame detected by the edge region detecting means;
Correction amount determination means for determining a correction amount to be corrected in the output value correction means based on the edge strength calculated in the edge strength calculation means;
The output value correcting means determines the output value corresponding to the predetermined position determined by the output value determining means, and the pixel value corresponding to the predetermined position in the first frame from the output value. When the subtracted difference value is greater than 0, the value is corrected to a value that is larger by the correction amount determined by the correction amount determination unit, and when the difference value is less than 0, the correction amount determination unit determines the correction value. The moving image processing apparatus according to claim 1, wherein the correction is made to a value that is smaller by a correction amount.
前記補正量決定手段は、前記エッジ強度に比例する前記補正量を決定することを特徴とする請求項4に記載の動画処理装置。   The moving image processing apparatus according to claim 4, wherein the correction amount determination unit determines the correction amount proportional to the edge strength. 前記出力値補正手段は、前記所定の位置の前記出力値から前記第2のフレームの前記所定の位置の画素値を引いた値に、前記補正量決定手段で求められた1よりも大きい強調補正係数を乗じた値から前記補正された出力値を決定することを特徴とする請求項4または5記載の動画処理装置。   The output value correcting means is an emphasis correction greater than 1 obtained by the correction amount determining means to a value obtained by subtracting the pixel value at the predetermined position of the second frame from the output value at the predetermined position. 6. The moving image processing apparatus according to claim 4, wherein the corrected output value is determined from a value multiplied by a coefficient. 前記出力値決定手段は、前記差分値算出手段で算出された前記差分値に、前記液晶表示装置が動画を表示するときに生じる応答遅延の程度に基づいて予め定められた強調係数を乗じることにより前記出力値を決定し、
前記出力値補正手段は、前記出力値に前記強調補正係数を乗じた値に前記第1フレーム中の前記所定の位置の画素値を加算することで前記補正された出力値を決定することを特徴とする請求項6に記載の動画処理装置。
The output value determining means multiplies the difference value calculated by the difference value calculating means by a predetermined enhancement coefficient based on the degree of response delay that occurs when the liquid crystal display device displays a moving image. Determining the output value;
The output value correction means determines the corrected output value by adding a pixel value at the predetermined position in the first frame to a value obtained by multiplying the output value by the enhancement correction coefficient. The moving image processing apparatus according to claim 6.
前記出力値決定手段は、前記差分値算出手段で算出された前記差分値に、前記液晶表示装置が動画を表示するときに生じる応答遅延の程度に基づいて予め定められた強調係数を乗じることにより前記出力値を決定し、
前記出力値補正手段は、前記差分値に前記強調補正係数を乗じた値と前記第1フレームの前記所定の位置の画素値を前記出力値に加算することで前記補正された出力値を決定することを特徴とする請求項6に記載の動画処理装置。
The output value determining means multiplies the difference value calculated by the difference value calculating means by a predetermined enhancement coefficient based on the degree of response delay that occurs when the liquid crystal display device displays a moving image. Determining the output value;
The output value correction means determines the corrected output value by adding a value obtained by multiplying the difference value by the enhancement correction coefficient and a pixel value at the predetermined position of the first frame to the output value. The moving image processing apparatus according to claim 6.
前記出力値決定手段は、前記液晶表示装置に表示する赤、緑、青の三原色それぞれに対する出力値を決定することを特徴とする請求項1から8のいずれか一項に記載の動画処理装置。   The moving image processing apparatus according to any one of claims 1 to 8, wherein the output value determining unit determines an output value for each of the three primary colors red, green, and blue displayed on the liquid crystal display device. 前記出力値決定手段は、前記第2フレームにおける輝度成分および色差成分のそれぞれに対する出力値を決定することを特徴とする請求項1から9のいずれか一項に記載の動画処理装置。   The moving image processing apparatus according to any one of claims 1 to 9, wherein the output value determining means determines an output value for each of a luminance component and a color difference component in the second frame. 液晶表示装置に表示する動画を処理する動画処理方法であって、
前記動画に含まれる第1のフレーム中の所定の位置における画素値と、前記第1のフレームと時間軸方向に連続して配置された第2のフレーム中の前記所定の位置に対応する位置の画素値とを参照して、前記液晶表示装置が動画を表示するときに生じる応答遅延の程度に基づいて、前記第2のフレームの前記所定の位置の画素の出力値を決定する出力値決定ステップと、
前記第2のフレームからエッジ領域を検出するエッジ領域検出ステップと、
検出された前記エッジ領域に対し前記出力値と、前記第2のフレーム中の前記所定の位置における画素値との差分の絶対値がより大きくなるように、前記出力値を補正する出力値補正ステップと
を有することを特徴とする動画処理方法。
A moving image processing method for processing a moving image to be displayed on a liquid crystal display device,
A pixel value at a predetermined position in the first frame included in the moving image, and a position corresponding to the predetermined position in the second frame continuously arranged in the time axis direction with the first frame. An output value determining step of determining an output value of a pixel at the predetermined position of the second frame based on a degree of response delay caused when the liquid crystal display device displays a moving image with reference to a pixel value When,
An edge region detection step of detecting an edge region from the second frame;
An output value correction step for correcting the output value so that the absolute value of the difference between the output value and the pixel value at the predetermined position in the second frame becomes larger with respect to the detected edge region. And a moving image processing method.
液晶表示装置に表示する動画を処理する動画処理をコンピュータに実行させる動画処理プログラムであって、
前記動画に含まれる第1のフレーム中の所定の位置における画素値と、前記第1のフレームと時間軸方向に連続して配置された第2のフレーム中の前記所定の位置に対応する位置の画素値とを参照して、前記液晶表示装置が動画を表示するときに生じる応答遅延の程度に基づいて、前記第2のフレームの前記所定の位置の画素の出力値を決定する出力値決定機能と、
前記第2のフレームからエッジ領域を検出するエッジ領域検出機能と、
検出された前記エッジ領域に対し前記出力値と、前記第2のフレーム中の前記所定の位置における画素値との差分の絶対値がより大きくなるように、前記出力値を補正する出力値補正機能と
を有することを特徴とする動画処理プログラム。
A moving image processing program for causing a computer to execute moving image processing for processing a moving image to be displayed on a liquid crystal display device,
A pixel value at a predetermined position in the first frame included in the moving image, and a position corresponding to the predetermined position in the second frame continuously arranged in the time axis direction with the first frame. An output value determination function that determines an output value of a pixel at the predetermined position of the second frame based on a degree of response delay that occurs when the liquid crystal display device displays a moving image with reference to a pixel value When,
An edge region detection function for detecting an edge region from the second frame;
Output value correction function for correcting the output value so that the absolute value of the difference between the output value and the pixel value at the predetermined position in the second frame becomes larger with respect to the detected edge region And a moving image processing program.
JP2010004210A 2010-01-12 2010-01-12 Animation processing device, animation processing method and animation processing program Abandoned JP2010146015A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010004210A JP2010146015A (en) 2010-01-12 2010-01-12 Animation processing device, animation processing method and animation processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010004210A JP2010146015A (en) 2010-01-12 2010-01-12 Animation processing device, animation processing method and animation processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004285488A Division JP2006098803A (en) 2004-09-29 2004-09-29 Moving image processing method, moving image processing apparatus and moving image processing program

Publications (1)

Publication Number Publication Date
JP2010146015A true JP2010146015A (en) 2010-07-01

Family

ID=42566451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010004210A Abandoned JP2010146015A (en) 2010-01-12 2010-01-12 Animation processing device, animation processing method and animation processing program

Country Status (1)

Country Link
JP (1) JP2010146015A (en)

Similar Documents

Publication Publication Date Title
JP2006098803A (en) Moving image processing method, moving image processing apparatus and moving image processing program
JP5131509B2 (en) Image display device, drive circuit used in image display device, and drive method
JP4139430B1 (en) Image processing apparatus and method, image display apparatus and method
US8077258B2 (en) Image display apparatus, signal processing apparatus, image processing method, and computer program product
US8711072B2 (en) Motion blur reduction for LCD video/graphics processors
JP4231071B2 (en) Image display device, image display method, and image display program
JP3808788B2 (en) Liquid crystal display method
JP2007155840A5 (en)
EP1589748A2 (en) Apparatus, method, and program for processing image
JP4548520B2 (en) Coefficient generation apparatus and method, image generation apparatus and method, and program
JP4333163B2 (en) Image processing apparatus, image display apparatus, and image processing method
JP4918926B2 (en) Image processing apparatus, display apparatus, image processing method, and program
KR20070122408A (en) Integrated histogram auto adaptive contrast control(acc)
WO2008062578A1 (en) Image display apparatus
JP2007052127A (en) Image processing apparatus, image processing method and image processing program
US8279346B2 (en) Frame rate converting apparatus and method thereof
JP2009109694A (en) Display unit
JP2009055340A (en) Image display device and method, and image processing apparatus and method
JP2008033592A (en) Image processing apparatus, image processing method, and program
JP2017175422A (en) Image display device and television apparatus
JP2010146015A (en) Animation processing device, animation processing method and animation processing program
JP4384126B2 (en) Liquid crystal display method
JP2012095035A (en) Image processing device and method of controlling the same
JP2007101694A (en) Image processing system and program
JP2009258269A (en) Image display device

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20111128