JP5451495B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5451495B2
JP5451495B2 JP2010087869A JP2010087869A JP5451495B2 JP 5451495 B2 JP5451495 B2 JP 5451495B2 JP 2010087869 A JP2010087869 A JP 2010087869A JP 2010087869 A JP2010087869 A JP 2010087869A JP 5451495 B2 JP5451495 B2 JP 5451495B2
Authority
JP
Japan
Prior art keywords
image processing
frame
frames
period
fade scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010087869A
Other languages
Japanese (ja)
Other versions
JP2011223160A (en
JP2011223160A5 (en
Inventor
裕紀 進藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010087869A priority Critical patent/JP5451495B2/en
Publication of JP2011223160A publication Critical patent/JP2011223160A/en
Publication of JP2011223160A5 publication Critical patent/JP2011223160A5/ja
Application granted granted Critical
Publication of JP5451495B2 publication Critical patent/JP5451495B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

フレーム毎に、そのフレームのAPL(平均輝度レベル)や輝度ヒストグラムなどの輝度特徴量に基づいてγカーブ(画像処理パラメータ)を設定することで、表示画像のコントラストを好適に制御する技術がある。以後、このような階調補正処理をダイナミックγ処理と表記する。このような技術は、例えば、特許文献1に開示されている。通常、ダイナミックγ処理では、入力された映像信号の輝度などが急激に変化した場合に、設定するγカーブが急激に変化し、ちらつき等の妨害感が発生しないよう、一定の時定数を持たせて緩やかにγカーブが変更される。以後、このような処理を時間方向LPF処理と表記する。
時間方向LPF処理の一例として、時間的に連続するフレーム間のシーンの変化の度合いを検出し、検出した変化の度合いに応じた重み付けを輝度特徴量にし、重み付けされた輝度特徴量を用いて画像処理パラメータを求める技術が特許文献2に開示されている。
There is a technique for suitably controlling the contrast of a display image by setting a γ curve (image processing parameter) for each frame based on a luminance feature amount such as an APL (average luminance level) or luminance histogram of the frame. Hereinafter, such gradation correction processing is referred to as dynamic γ processing. Such a technique is disclosed in Patent Document 1, for example. Normally, in dynamic γ processing, when the brightness of the input video signal changes abruptly, the γ curve to be set changes abruptly, and a constant time constant is given so as not to cause a feeling of interference such as flickering. The γ curve is changed slowly. Hereinafter, such processing is referred to as time direction LPF processing.
As an example of temporal direction LPF processing, the degree of scene change between temporally continuous frames is detected, weighting according to the detected degree of change is used as a luminance feature amount, and an image is obtained using the weighted luminance feature amount. A technique for obtaining a processing parameter is disclosed in Patent Document 2.

特開平03−126377号公報Japanese Unexamined Patent Publication No. 03-126377 特開2004−282377号公報JP 2004-282377 A

しかしながら、フェードシーンの期間において、時間方向LPF処理を用いたダイナミックγ処理を行うと、γカーブの適用が遅れ、黒つぶれや白とびが生じる場合がある。また、時間方向LPF処理を行わないと、検出したフレーム毎の輝度特徴量の変化が直接γカーブに適用されてしまうため、ちらつき等の妨害感が発生する場合がある。フェードシーンは、フレームの輝度が単調に増加または減少するシーンであり、例えば、ある画像から別の画像に徐々に切り替わっていくシーンである。   However, when dynamic γ processing using time-direction LPF processing is performed during the fade scene period, application of the γ curve may be delayed, and blackout or overexposure may occur. Further, if the time-direction LPF processing is not performed, the detected change in the luminance feature amount for each frame is directly applied to the γ curve, so that a sense of interference such as flicker may occur. A fade scene is a scene in which the brightness of a frame monotonously increases or decreases, for example, a scene where a certain image is gradually switched to another image.

本発明は、フェードシーンの期間において、階調補正パラメータの適用の遅れ、及び、ちらつき等の妨害感が抑制された階調補正処理を実現することのできる技術を提供することを目的とする。   An object of the present invention is to provide a technique capable of realizing a gradation correction process in which a delay in application of gradation correction parameters and a feeling of interference such as flickering are suppressed during a fade scene period.

本発明の画像処理装置は、入力映像信号の輝度に基づき階調補正に用いる画像処理パラメータを動的に切り替える画像処理装置であって、入力映像信号のフレーム毎に、そのフレームの輝度を表す輝度特徴量を検出する輝度特徴量検出手段と、複数のフレームの輝度特徴量から、フレームの輝度が単調に増加または減少するフェードシーンの期間を検出するフェードシーン検出手段と、フェードシーンの期間の最初と最後のフレームに適用する画像処理パラメータをそれぞれのフレームの輝度特徴量から決定し、前記最初と最後のフレームの間にある複数のフレームに適用する画像処理パラメータを前記最初のフレームに適用する画像処理パラメータから前記最後のフレームに適用する画像処理パラメータへと徐々に変化するように決定する決定手段と、フェードシーンの期間内のフレームを前記決定手段で決定された画像処理パラメータを用いて階調補正する補正手段と、を有する。   An image processing apparatus of the present invention is an image processing apparatus that dynamically switches image processing parameters used for gradation correction based on the luminance of an input video signal, and represents the luminance of the frame for each frame of the input video signal. A luminance feature quantity detecting means for detecting a feature quantity; a fade scene detecting means for detecting a fade scene period in which the brightness of the frame monotonously increases or decreases from the luminance feature quantities of a plurality of frames; An image processing parameter to be applied to the first frame is determined from the luminance feature amount of each frame, and an image processing parameter to be applied to a plurality of frames between the first and last frames is applied to the first frame Decide to gradually change from processing parameters to image processing parameters to be applied to the last frame With a constant section, and a correction means for gradation correction frames within a period of fade scenes by using the image processing parameter determined by said determining means.

本発明の画像処理方法は、入力映像信号の輝度に基づき階調補正に用いる画像処理パラ
メータを動的に切り替える画像処理装置によって実行される画像処理方法であって、入力映像信号のフレーム毎に、そのフレームの輝度を表す輝度特徴量を検出する輝度特徴量検出ステップと、複数のフレームの輝度特徴量から、フレームの輝度が単調に増加または減少するフェードシーンの期間を検出するフェードシーン検出ステップと、フェードシーンの期間の最初と最後のフレームに適用する画像処理パラメータをそれぞれのフレームの輝度特徴量から決定し、前記最初と最後のフレームの間にある複数のフレームに適用する画像処理パラメータを前記最初のフレームに適用する画像処理パラメータから前記最後のフレームに適用する画像処理パラメータへと徐々に変化するように決定する決定ステップと、フェードシーンの期間内のフレームを前記決定ステップで決定された画像処理パラメータを用いて階調補正する補正ステップと、を有する。
An image processing method of the present invention is an image processing method executed by an image processing apparatus that dynamically switches image processing parameters used for gradation correction based on the luminance of an input video signal, and for each frame of the input video signal, A luminance feature amount detecting step for detecting a luminance feature amount representing the luminance of the frame; a fade scene detecting step for detecting a fade scene period in which the luminance of the frame monotonously increases or decreases from the luminance feature amounts of a plurality of frames; The image processing parameters to be applied to the first and last frames of the fade scene period are determined from the luminance feature values of the respective frames, and the image processing parameters to be applied to a plurality of frames between the first and last frames are determined. The image processing parameters applied to the last frame from the image processing parameters applied to the first frame. It has a determining step of determining to gradually change to chromatography data, and a correction step of tone correction frames within a period of fade scenes by using the image processing parameter determined by the determining step.

本発明によれば、フェードシーンの期間において、階調補正パラメータの適用の遅れ、及び、ちらつき等の妨害感が抑制された階調補正処理を実現することができる。   According to the present invention, it is possible to realize a gradation correction process in which a delay in application of a gradation correction parameter and an interference feeling such as flickering are suppressed during a fade scene period.

実施例1に係る画像処理装置の機能構成の一例。1 is an example of a functional configuration of an image processing apparatus according to a first embodiment. 時間とAPLの関係の一例。An example of the relationship between time and APL. フェードシーンの期間を検出する際の処理フローの一例。An example of the processing flow at the time of detecting the period of a fade scene. 各フレームのAPLの一例。An example of APL of each frame. フェードシーン検出部の出力の一例。An example of the output of a fade scene detection part. γカーブの一例を示す図。The figure which shows an example of (gamma) curve. APLとブレンド率の関係の一例。An example of the relationship between APL and a blend rate. フェードシーンの期間内でのフレーム番号とブレンド率の関係の一例。An example of the relationship between the frame number and the blend ratio within the fade scene period. 実施例2に係る画像処理装置の機能構成の一例。FIG. 10 illustrates an example of a functional configuration of an image processing apparatus according to a second embodiment. フェードシーンの期間を検出する際の処理フローの一例。An example of the processing flow at the time of detecting the period of a fade scene.

<実施例1>
以下、本発明の実施例1に係る画像処理装置及びその画像処理装置によって実行される画像処理方法について、図を用いて説明する。本実施例に係る画像処理装置は、入力される映像信号(入力映像信号)の輝度に基づき階調補正に用いる画像処理パラメータを動的に切り替える。
図1は本実施例に係る画像処理装置の機能ブロック図である。図1に示すように、画像処理装置100は、入力信号端子101、映像遅延部102、APL検出部103、APL記憶部104、フェードシーン検出部105等を有する。また、γカーブ生成部106、フェードシーンγカーブ生成部107、γカーブ選択部108、γ変換部109、出力信号端子110等を有する。
<Example 1>
Hereinafter, an image processing apparatus according to Embodiment 1 of the present invention and an image processing method executed by the image processing apparatus will be described with reference to the drawings. The image processing apparatus according to the present embodiment dynamically switches image processing parameters used for gradation correction based on the luminance of an input video signal (input video signal).
FIG. 1 is a functional block diagram of the image processing apparatus according to the present embodiment. As shown in FIG. 1, the image processing apparatus 100 includes an input signal terminal 101, a video delay unit 102, an APL detection unit 103, an APL storage unit 104, a fade scene detection unit 105, and the like. Further, it includes a γ curve generation unit 106, a fade scene γ curve generation unit 107, a γ curve selection unit 108, a γ conversion unit 109, an output signal terminal 110, and the like.

入力信号端子101には、入力映像信号が入力される。具体的には、入力映像信号はフレーム単位で入力される。
映像遅延部102は、フレームの輝度が単調に増加または減少するフェードシーンの期間の検出のために、所定数のフレームを記憶し、入力映像信号を該所定数のフレーム分遅延してγ変換部109に出力する。具体的には、画像処理装置100(映像遅延部102)は、所定数のフレームを記憶可能な不図示のバッファメモリを有しており、映像遅延部102は、該バッファメモリにフレームを記録する。本実施例では、遅延量を300フレームとする(即ち、300枚のフレームを記憶するものとする)。なお、遅延量はこれに限らない。フェードシーンの期間分のフレームを記憶できればよい。
An input video signal is input to the input signal terminal 101. Specifically, the input video signal is input in units of frames.
The video delay unit 102 stores a predetermined number of frames for detection of a fade scene period in which the luminance of the frame monotonously increases or decreases, and delays the input video signal by the predetermined number of frames to delay the input video signal. Output to 109. Specifically, the image processing apparatus 100 (video delay unit 102) has a buffer memory (not shown) capable of storing a predetermined number of frames, and the video delay unit 102 records the frames in the buffer memory. . In this embodiment, the delay amount is 300 frames (that is, 300 frames are stored). The amount of delay is not limited to this. It is only necessary to store frames for the fade scene period.

APL検出部103は、入力映像信号のフレーム毎に、そのフレームの輝度を表す輝度
特徴量を検出する(輝度特徴量検出手段)。具体的には、フレームのAPLを検出する。APLは、フレームの各画素の輝度値の合計値を、該フレームの総画素数で除算することで得ることができる。なお、本実施例では、APLは、0〜255の8ビット(256階調)の精度で検出されるものとするが、これに限らず、例えば128,512階調の精度で検出されてもよい。また、輝度特徴量はAPLに限らない。輝度特徴量は、輝度ヒストグラム、フレームの最大輝度値、最小輝度値など、フレームの輝度を表すデータであればよい。
The APL detection unit 103 detects, for each frame of the input video signal, a luminance feature amount representing the luminance of the frame (luminance feature amount detection unit). Specifically, the APL of the frame is detected. The APL can be obtained by dividing the total luminance value of each pixel in the frame by the total number of pixels in the frame. In this embodiment, APL is detected with an accuracy of 8 bits (256 gradations) from 0 to 255. However, the present invention is not limited to this. For example, APL may be detected with an accuracy of 128, 512 gradations. Good. Further, the luminance feature amount is not limited to APL. The luminance feature amount may be data representing the luminance of the frame, such as a luminance histogram, the maximum luminance value of the frame, and the minimum luminance value.

APL記憶部104は、所定数のフレームのAPL(APL検出部103で検出されたAPL)を記憶し、APLを該所定数のフレーム分遅延してγカーブ生成部106及びフェードシーンγカーブ生成部107に出力する。具体的には、APLは不図示のバッファメモリに記録される。本実施例では、遅延量を映像遅延部102の遅延量と同じ300フレームとする。なお、フレームとAPLは共通のバッファメモリに格納されてもよいし、それぞれ異なるバッファメモリに格納されてもよい。図2に、時間(フレーム番号)と、APL検出部103及びAPL記憶部104が出力するAPLとの関係を示す。図2に示すように、APL記憶部104からは、APLが、APL検出部103よりも300フレーム分(遅延量)だけ遅延されて出力される。
また、APL記憶部104は、300フレーム分のAPLを記憶すると、該300フレーム分のAPLをフェードシーン検出部105に出力する。即ち、300フレーム分のAPLを記憶した後は、APLが入力される度に記憶している300フレーム分のAPLをフェードシーン検出部105に出力する。
The APL storage unit 104 stores a predetermined number of frames of APL (APL detected by the APL detection unit 103), delays the APL by the predetermined number of frames, and a γ curve generation unit 106 and a fade scene γ curve generation unit It outputs to 107. Specifically, the APL is recorded in a buffer memory (not shown). In this embodiment, the delay amount is set to 300 frames which is the same as the delay amount of the video delay unit 102. The frame and the APL may be stored in a common buffer memory, or may be stored in different buffer memories. FIG. 2 shows a relationship between time (frame number) and APL output from the APL detection unit 103 and the APL storage unit 104. As shown in FIG. 2, the APL is output from the APL storage unit 104 after being delayed by 300 frames (delay amount) from the APL detection unit 103.
In addition, when storing the APL for 300 frames, the APL storage unit 104 outputs the APL for 300 frames to the fade scene detection unit 105. That is, after storing 300 frames of APL, every time an APL is input, the stored 300 frames of APL are output to the fade scene detection unit 105.

フェードシーン検出部105は、複数のフレームの輝度特徴量から、フェードシーンの期間を検出する(フェードシーン検出手段)。そして、検出結果をフェードシーンγカーブ生成部107とγカーブ選択部108に出力する。具体的には、フェードシーン検出部105は、APL記憶部104から300フレーム分のAPLを取得する。そして、取得したAPLを用いてフレーム毎にフェードシーンのフレームであるか否かを判定し、判定結果をフェードシーンγカーブ生成部107とγカーブ選択部108に出力する。
本実施例では、APLが10フレーム以上連続で単調減少または単調増加している期間をフェードシーンの期間として検出する。それにより、フェードイン、フェードアウト、クロスフェードの映像シーンなどの期間を検出することができる。
The fade scene detection unit 105 detects a fade scene period from the luminance feature values of a plurality of frames (fade scene detection means). The detection result is output to fade scene γ curve generation unit 107 and γ curve selection unit 108. Specifically, the fade scene detection unit 105 acquires APL for 300 frames from the APL storage unit 104. Then, using the acquired APL, it is determined for each frame whether the frame is a fade scene, and the determination result is output to the fade scene γ curve generation unit 107 and the γ curve selection unit 108.
In this embodiment, a period in which APL continuously decreases monotonously or increases monotonously for 10 frames or more is detected as a fade scene period. Thereby, it is possible to detect a period such as a fade-in, fade-out, or cross-fade video scene.

具体的には、下記条件式1,2を10フレーム以上連続で満たしている場合は単調減少と判定し、下記条件式3,4を10フレーム以上連続で満たしている場合は単調増加と判定する。
apl(i+f)−apl(i+1+f)≧th1 …(1)
apl(i+f)−apl(i+1+f)≦th2 …(2)
apl(i+1+f)−apl(i+f)≧th3 …(3)
apl(i+1+f)−apl(i+f)≦th4 …(4)
Specifically, when the following conditional expressions 1 and 2 are satisfied continuously for 10 frames or more, it is determined as monotonic decrease, and when the following conditional expressions 3 and 4 are satisfied continuously for 10 frames or more, it is determined as monotonic increase. .
apl (i + f) −apl (i + 1 + f) ≧ th1 (1)
apl (i + f) −apl (i + 1 + f) ≦ th2 (2)
apl (i + 1 + f) −apl (i + f) ≧ th3 (3)
apl (i + 1 + f) −apl (i + f) ≦ th4 (4)

式1〜4において、apl(i)はi番目のフレーム(フレームi)のAPLであり、fは判定に用いる変数である。th1は、判定対象のフレームのAPLよりも、その次のフレーム(後フレーム)のAPLの方が低いか否かを判定するための閾値である。th2は、判定対象のフレームと後フレームの間でAPLが大きく変化していないか否かを判定するための閾値である。th3は、判定対象のフレームのAPLよりも後フレームのAPLの方が高いか否かを判定するための閾値である。th4は、判定対象のフレームと後フレームの間でAPLが大きく変化していないか否かを判定するための閾値である。式2,4を設ける理由は、判定対象のフレームと後フレームの間でAPLが大きく変化している場合には、シーンが急に変わった可能性が高く、フェードシーンである可能性が低いからである。
本実施例では、th1=1、th2=10、th3=1、th4=10とする。なお、この値は一例であり、APLが単調減少または単調増加しているか否か判定できればどのような値であってもよい。th1とth3、th2とth4は、互いに異なる値であってもよい。
In equations 1 to 4, apl (i) is the APL of the i-th frame (frame i), and f is a variable used for determination. th1 is a threshold value for determining whether or not the APL of the next frame (subsequent frame) is lower than the APL of the determination target frame. th2 is a threshold value for determining whether or not the APL has largely changed between the determination target frame and the subsequent frame. th3 is a threshold value for determining whether or not the APL of the subsequent frame is higher than the APL of the determination target frame. th4 is a threshold value for determining whether or not the APL has largely changed between the determination target frame and the subsequent frame. The reason why Equations 2 and 4 are provided is that when the APL greatly changes between the determination target frame and the subsequent frame, it is highly possible that the scene has suddenly changed and the possibility of being a fade scene is low. It is.
In this embodiment, th1 = 1, th2 = 10, th3 = 1, and th4 = 10. This value is merely an example, and any value may be used as long as it can be determined whether APL is monotonously decreasing or monotonically increasing. Th1 and th3 and th2 and th4 may be different from each other.

次に、図3を用いて、フェードシーンの期間を検出する際の処理フローについて説明する。
以下、フェードシーンのフレームか否かを示す変数をflg(i)とする。具体的には、フェードシーンのフレームではない場合には、flg(i)=0とし、フェードシーンのフレームである場合には、flg(i)=1とする。
Next, a processing flow for detecting a fade scene period will be described with reference to FIG.
Hereinafter, a variable indicating whether or not the frame is a fade scene is defined as flg (i). Specifically, if the frame is not a fade scene, flg (i) = 0, and if the frame is a fade scene, flg (i) = 1.

また、本実施例では、フェードシーンのフレームか否かの情報だけでなく、フェードシーンγカーブ生成部107での処理のため、更なる情報を生成(検出)し、出力する。具体的には、フェードシーンのフレーム数がnであり、i番目のフレームがフェードシーンのフレームである場合には、f_no(i)(=0,1,・・・,n−1)、apl_s、apl_eを出力する。f_no(i)は、フェードシーンの期間内でのフレーム番号であり、apl_s、apl_eは、それぞれ、フェードシーンの最初のフレーム(開始フレーム)のAPL、フェードシーンの最後のフレーム(終了フレーム)のAPLである。また、フェードシーンでないフレームに対しては、n=f_no(i)=apl_s=apl_e=−1を出力する。   In the present embodiment, not only the information indicating whether or not the frame is a fade scene, but further information is generated (detected) and output for processing by the fade scene γ curve generation unit 107. Specifically, when the number of frames of the fade scene is n and the i-th frame is a frame of the fade scene, f_no (i) (= 0, 1,..., N−1), apl_s , Apl_e are output. f_no (i) is a frame number within the fade scene period, and apl_s and apl_e are the APL of the first frame (start frame) of the fade scene and the APL of the last frame (end frame) of the fade scene, respectively. It is. For frames that are not fade scenes, n = f_no (i) = apl_s = apl_e = −1 is output.

また、本実施例では、一例として、各フレームのAPLが図4に示すような値の場合について説明する。フェードシーン検出部105は、フレーム0から順に、図3の処理フローに従って、フェードシーンのフレームか否かを判定する。
まず、ステップS101で、i=0とし、ステップS102に進む(初期化処理)。
ステップS102では、300フレーム分の判定処理を行ったか否かを判定する。この時点では、判定対象のフレームiがフレーム0であり、300フレーム分の判定処理が行われていないため(S102:no)、ステップS103に進む。
ステップS103では、f=0とし、ステップS104に進む。
ステップS104では、apl(i+f),apl(i+1+f)が式1,2を満たしているか否かを判定する。フレーム0のAPLは80、フレーム1のAPLは80であり、フレーム0,1のAPLは式1,2を満たしていないため(S104:no)、ステップS106に進む。なお、apl(i+f),apl(i+1+f)が式1,2を満たしている場合には(S104:yes)、fに1を加算し、ステップS103に進む。
ステップS106では、f≧9を満たしているか否かを判定する。この時点では、f=0であり、f≧9を満たしていないため(S106:no)、S107に進む。
ステップS107では、f=0とし、ステップS108に進む。
ステップS108では、apl(i+f),apl(i+1+f)が式3,4を満たしているか否かを判定する。フレーム0のAPLは80、フレーム1のAPLは80であり、フレーム0,1のAPLは式3,4を満たしていないため(S108:no)、ステップS110に進む。なお、apl(i+f),apl(i+1+f)が式3,4を満たしている場合には(S108:yes)、fに1を加算し、ステップS108に進む。
ステップS110では、f≧9を満たしているか否かを判定する。この時点では、f=0であり、f≧9を満たしていないため(S110:no)、S112に進む。
ステップS112では、判定対象のフレームiをフェードシーンのフレームでないと判定し、判定対象のフレームiに対しflg(i)=0,n=−1,f_no(i)=−1,apl_s=−1,apl_e=−1としてステップS114に進む。この時点では、フレーム0がフェードシーンでないと判定され、flg(0)=0、n=−1、f_no(i)=−1、apl_s=−1、apl_e=−1とされる。
ステップS114では、i=i+f+1とし、ステップS102に進む。この時点では
、i=1とされる。
In the present embodiment, as an example, the case where the APL of each frame has a value as shown in FIG. 4 will be described. The fade scene detection unit 105 determines whether or not it is a frame of a fade scene in accordance with the processing flow of FIG.
First, in step S101, i = 0 is set, and the process proceeds to step S102 (initialization process).
In step S102, it is determined whether determination processing for 300 frames has been performed. At this point in time, the determination target frame i is frame 0, and determination processing for 300 frames has not been performed (S102: no), and the process proceeds to step S103.
In step S103, f = 0 is set, and the process proceeds to step S104.
In step S104, it is determined whether apl (i + f) and apl (i + 1 + f) satisfy Expressions 1 and 2. Since the APL of frame 0 is 80, the APL of frame 1 is 80, and the APL of frames 0 and 1 does not satisfy Equations 1 and 2 (S104: no), the process proceeds to step S106. When apl (i + f) and apl (i + 1 + f) satisfy the expressions 1 and 2 (S104: yes), 1 is added to f, and the process proceeds to step S103.
In step S106, it is determined whether or not f ≧ 9 is satisfied. At this time, since f = 0 and f ≧ 9 is not satisfied (S106: no), the process proceeds to S107.
In step S107, f = 0 is set, and the process proceeds to step S108.
In step S108, it is determined whether apl (i + f) and apl (i + 1 + f) satisfy Expressions 3 and 4. Since the APL of frame 0 is 80, the APL of frame 1 is 80, and the APL of frames 0 and 1 does not satisfy Equations 3 and 4 (S108: no), the process proceeds to step S110. If apl (i + f) and apl (i + 1 + f) satisfy Expressions 3 and 4 (S108: yes), 1 is added to f, and the process proceeds to step S108.
In step S110, it is determined whether or not f ≧ 9 is satisfied. At this time, since f = 0 and f ≧ 9 is not satisfied (S110: no), the process proceeds to S112.
In step S112, it is determined that the determination target frame i is not a fade scene frame, and flg (i) = 0, n = −1, f_no (i) = − 1, apl_s = −1 with respect to the determination target frame i. , Apl_e = −1, the process proceeds to step S114. At this time, it is determined that the frame 0 is not a fade scene, and flg (0) = 0, n = −1, f_no (i) = − 1, apl_s = −1, and apl_e = −1.
In step S114, i = i + f + 1 is set, and the process proceeds to step S102. At this time, i = 1.

以降、i=199まで、フェードシーンのフレームではないと判定される。
次に、フレーム200以降のフレームに対する処理フローについて説明する。
まず、ステップS102では、判定対象のフレームiがフレーム200であり、300フレーム分の判定が行われていないため、ステップS103に進む。
ステップS103では、f=0とし、ステップS104に進む。
ステップS104では、フレーム200のAPLは78、フレーム201のAPLは76であり、フレーム200,201のAPLは式1,2を満たしているため(S104:yes)、ステップS105に進む。
ステップS105では、fに1を加算し、ステップS103に進む。この時点では、f=1とされる。
ステップS103では、フレーム201のAPLは78、フレーム202のAPLは76であり、フレーム201,202のAPLは式1,2を満たしているため、ステップS105に進む。
Thereafter, until i = 199, it is determined that the frame is not a fade scene.
Next, a processing flow for frames after frame 200 will be described.
First, in step S102, since the determination target frame i is the frame 200, and determination for 300 frames has not been performed, the process proceeds to step S103.
In step S103, f = 0 is set, and the process proceeds to step S104.
In step S104, the APL of the frame 200 is 78, the APL of the frame 201 is 76, and the APL of the frames 200 and 201 satisfies Expressions 1 and 2 (S104: yes), the process proceeds to step S105.
In step S105, 1 is added to f, and the process proceeds to step S103. At this time, f = 1.
In step S103, the APL of the frame 201 is 78, the APL of the frame 202 is 76, and the APL of the frames 201 and 202 satisfies Expressions 1 and 2, so the process proceeds to step S105.

以降、ステップS103でf=14になるまで、ステップS104で式1,2が満たされる。
そして、f=14のときに、ステップS104で、フレーム214のAPLは50、フレーム215のAPLは50であり、式1,2を満たしていないため、ステップS106に進む。
次に、ステップS106で、f=14であり、f≧9を満たしているため(S106:yes)、ステップS113に進む。
そして、ステップS113で、フレームi〜i+fの期間がフェードシーンの期間とされる。具体的には、フレーム200〜214の期間がフェードシーンの期間とされる。
Thereafter, expressions 1 and 2 are satisfied in step S104 until f = 14 in step S103.
When f = 14, the APL of the frame 214 is 50 and the APL of the frame 215 is 50 in step S104, and the expressions 1 and 2 are not satisfied. Therefore, the process proceeds to step S106.
Next, in step S106, since f = 14 and f ≧ 9 is satisfied (S106: yes), the process proceeds to step S113.
In step S113, the period of frames i to i + f is set as the fade scene period. Specifically, the period of frames 200 to 214 is a fade scene period.

また、ステップS113では、フレーム200〜214の期間がフェードシーンの期間であるため、flg(200)=flg(201)=・・・=flg(214)=1とされる。フェードシーンの期間内でのフレーム番号は、f_no(200)=0、f_no(201)=1、・・・、f_no(214)=14とされる。フェードシーンのフレーム数nは15、開始フレームのAPL(apl_s)は78、終了フレームのAPL(apl_e)は50とされる。
そして、ステップS114に進む。
ステップS114では、i=215とされ、ステップS102に進む。そして、フレーム215以降のフレームに対する処理が行われる。
以降、同様にフェードシーンのフレームか否かの判定が行われる。本実施例では、フレーム215〜フレーム300は、フェードシーンのフレームではないと判定される。300フレーム分の判定処理が行われたら(S102:yes)、フェードシーン検出部105は,フェードシーンγカーブ生成部107とγカーブ選択部108に図5に示すような判定結果を出力する。
In step S113, since the period of frames 200 to 214 is a fade scene period, flg (200) = flg (201) =... = Flg (214) = 1. The frame numbers in the fade scene period are f_no (200) = 0, f_no (201) = 1,..., F_no (214) = 14. The number n of fade scenes is 15, the APL (apl_s) of the start frame is 78, and the APL (apl_e) of the end frame is 50.
Then, the process proceeds to step S114.
In step S114, i = 215 is set, and the process proceeds to step S102. Then, processing for the frames after frame 215 is performed.
Thereafter, it is similarly determined whether or not the frame is a fade scene. In this embodiment, it is determined that the frames 215 to 300 are not fade scene frames. When the determination process for 300 frames is performed (S102: yes), the fade scene detection unit 105 outputs a determination result as shown in FIG. 5 to the fade scene γ curve generation unit 107 and the γ curve selection unit.

γカーブ生成部106は、APL記憶部104から遅延して出力されるAPLを用いて、フレーム毎に画像処理パラメータを生成し、γカーブ選択部108に出力する。本実施例では、画像処理パラメータとしてγカーブを生成する。なお、画像処理パラメータは、γカーブに限らない。階調補正に用いるパラメータであれば、どのようなパラメータであってもよい。以下、γカーブ生成部106の処理の一例について詳しく説明する。   The γ curve generation unit 106 generates an image processing parameter for each frame using the APL delayed from the APL storage unit 104 and outputs the image processing parameter to the γ curve selection unit 108. In this embodiment, a γ curve is generated as an image processing parameter. The image processing parameter is not limited to the γ curve. Any parameter may be used as long as it is used for gradation correction. Hereinafter, an example of processing of the γ curve generation unit 106 will be described in detail.

γカーブ生成部106は、暗部を浮かせるγカーブG0と、暗部を沈めるγカーブG1を保持しているものとする。γカーブ生成部106は、式5〜7によりブレンド率α(x)を算出する。式5〜7において、xはAPL記憶部104から遅延して出力されるAP
Lであり、a,b,cはそれぞれ所定の係数である。そして、ブレンド率α(x)に応じた重みでG0とG1の2つのγカーブを合成してγカーブG(x)を生成する。
G0は、例えば、図6の(a)で示すようなγカーブであり、G1は、例えば、図6の(b)で示すようなγカーブである。
α(x)=a×x 0≦x≦64の場合 …(5)
α(x)=b×(x−64)+α(64) 65≦x≦205の場合 …(6)
α(x)=c×(x−205)+α(205) 206≦x≦255の場合 …(7)
本実施例では、a=0.0022、b=0.0052、c=0.00252とする。この場合のAPLxとブレンド率α(x)の関係を図7に示す。
The γ curve generation unit 106 holds a γ curve G0 that floats a dark part and a γ curve G1 that sinks a dark part. The γ curve generation unit 106 calculates the blend rate α (x) using Equations 5-7. In Expressions 5 to 7, x is an AP that is output with a delay from the APL storage unit 104.
L, and a, b, and c are predetermined coefficients. Then, the γ curve G (x) is generated by synthesizing the two γ curves G0 and G1 with weights corresponding to the blend rate α (x).
For example, G0 is a γ curve as shown in FIG. 6A, and G1 is a γ curve as shown in FIG. 6B, for example.
When α (x) = a × x 0 ≦ x ≦ 64 (5)
α (x) = b × (x−64) + α (64) When 65 ≦ x ≦ 205 (6)
α (x) = c × (x−205) + α (205) When 206 ≦ x ≦ 255 (7)
In this embodiment, it is assumed that a = 0.0002, b = 0.0052, and c = 0.00252. FIG. 7 shows the relationship between APLx and blend rate α (x) in this case.

ブレンド率α(x)を用いたγカーブG(x)の生成方法を式8に示す。
G(x)=α(x)×G1+(1−α(x))×G0 …(8)
式8によれば、APLxが0の場合には、α(0)=0となるため、G(0)=G0となる。APLxが255の場合には、α(255)=1となるため、G(255)=G1となる。APLxが60の場合は、式5より、α(60)=0.132となるため、G(60)=0.132×G1+0.868×G0となる。図6の(c)に式8によって得られたG(60)のγカーブを示す。
Formula 8 shows a method for generating the γ curve G (x) using the blend rate α (x).
G (x) = α (x) × G1 + (1−α (x)) × G0 (8)
According to Equation 8, when APLx is 0, α (0) = 0, so G (0) = G0. When APLx is 255, α (255) = 1, so G (255) = G1. When APLx is 60, α (60) = 0.132 from Equation 5, and thus G (60) = 0.132 × G1 + 0.868 × G0. FIG. 6C shows a γ curve of G (60) obtained by Expression 8.

フェードシーンγカーブ生成部107は、APL記憶部104から遅延して出力されるAPLと、フェードシーン検出部105の検出結果とに基づいて、フェードシーンの期間内のフレームに対する画像処理パラメータを生成する(決定手段)。具体的には、フェードシーンγカーブ生成部107は、フェードシーンの期間の最初と最後のフレームに適用する画像処理パラメータをそれぞれのフレームの輝度特徴量から決定(生成)する。そして、上記最初と最後のフレームの間にある複数のフレームに適用する画像処理パラメータ(シーン内パラメータ)を最初のフレームに適用する画像処理パラメータから最後のフレームに適用する画像処理パラメータへと徐々に変化するように決定する。本実施例では、シーン内パラメータを、そのフレームの輝度特徴量から決定される画像処理パラメータと、最初のフレームから最後のフレームまで画像処理パラメータが線形に変化すると仮定した場合の画像処理パラメータとの間の値をとるように、決定する。以下、詳しく説明する。   The fade scene γ curve generation unit 107 generates image processing parameters for frames in the fade scene period based on the APL output from the APL storage unit 104 with a delay and the detection result of the fade scene detection unit 105. (Decision means). Specifically, the fade scene γ curve generation unit 107 determines (generates) an image processing parameter to be applied to the first and last frames of the fade scene period from the luminance feature amount of each frame. Then, the image processing parameters (in-scene parameters) applied to a plurality of frames between the first and last frames are gradually changed from the image processing parameters applied to the first frame to the image processing parameters applied to the last frame. Decide to change. In this embodiment, the in-scene parameters are an image processing parameter determined from the luminance feature amount of the frame, and an image processing parameter when the image processing parameter is assumed to change linearly from the first frame to the last frame. Decide to take a value between. This will be described in detail below.

フェードシーンの期間内のフレームに対するブレンド率α_f(i)の算出方法を式9に示す。
α_f(i)=d×α(x)+e×β(i) …(9)
なお、式9中のxはフレームiのAPLであり、d,eは所定の係数である。本実施例では、d=0.5、e=0.5とする。
式9中のβ(i)は、ブレンド率がフェードシーンの開始フレームのブレンド率α(apl_s)(式5〜7によって得られるブレンド率)から、終了フレームのブレンド率α
(apl_e)まで線形に変化すると仮定したときのフレームiのブレンド率である。ブ
レンド率β(i)の算出方法を式10に示す。
β(i)=α(apl_s)
+(α(apl_e)−α(apl_s))×(f_no(i)/(n−1))
…(10)
Formula 9 shows a calculation method of the blend rate α_f (i) for the frames within the fade scene period.
α_f (i) = d × α (x) + e × β (i) (9)
Note that x in Equation 9 is the APL of the frame i, and d and e are predetermined coefficients. In this embodiment, d = 0.5 and e = 0.5.
Β (i) in Expression 9 is obtained by blending ratio α of the end frame from blend ratio α (apl_s) (blending ratio obtained by Expressions 5 to 7) of the start frame of the fade scene.
This is the blend ratio of frame i when it is assumed that the linearity changes to (apl_e). The calculation method of the blend rate β (i) is shown in Equation 10.
β (i) = α (apl_s)
+ (Α (apl_e) −α (apl_s)) × (f_no (i) / (n−1))
(10)

具体的には、フレーム209のブレンド率α_f(i)は下記のように算出される。なお、本実施例では、図5より、apl_s=78、apl_e=50、n=15である。また、式5より、α(64)=0.1408となる。そのため、式5,6から、α(apl_s),α(apl_e)は、それぞれ、0.2136,0.11となる。また、フレーム209のAPLは60、f_no(209)=9である。
β(209)=α(78)+(α(50)−α(78))×(9/14)
=0.2136+(0.11−0.2136)×(9/14)
=0.147
α_f(209)=0.5×α(60)+0.5×β(209)
=0.5×0.132+0.5×0.147
=0.1395
Specifically, the blend rate α_f (i) of the frame 209 is calculated as follows. In this embodiment, as shown in FIG. 5, apl_s = 78, apl_e = 50, and n = 15. From Equation 5, α (64) = 0.1408. Therefore, from Expressions 5 and 6, α (apl_s) and α (apl_e) are 0.2136 and 0.11, respectively. The APL of the frame 209 is 60 and f_no (209) = 9.
β (209) = α (78) + (α (50) −α (78)) × (9/14)
= 0.2136+ (0.11-0.2136) × (9/14)
= 0.147
α_f (209) = 0.5 × α (60) + 0.5 × β (209)
= 0.5 x 0.132 + 0.5 x 0.147
= 0.1395

本実施例では、フェードシーンγカーブ生成部107は、γカーブ生成部106と同様の方法で、ブレンド率α_f(i)を用いてγカーブを生成する。そのため、フレーム209のγカーブは0.1395×G1+0.8605×G0となる。
そして、フェードシーンの期間内でのフレーム番号と、上記方法で生成したγカーブをγカーブ選択部108に出力する。
In the present embodiment, the fade scene γ curve generation unit 107 generates a γ curve using the blend rate α_f (i) in the same manner as the γ curve generation unit 106. Therefore, the γ curve of the frame 209 is 0.1395 × G1 + 0.8605 × G0.
Then, the frame number in the fade scene period and the γ curve generated by the above method are output to the γ curve selection unit 108.

本実施例では、フレーム200〜214の期間がフェードシーンの期間であるので、フェードシーンの期間内でのフレーム番号とブレンド率α_f(i)の関係は図8の(a)のようになる。
また、図8の(b)は、時間方向LPF処理を行って得られるブレンド率であり、図8の(c)は、時間方向LPF処理を行わずにフレームのAPLから求められるブレンド率である。
In the present embodiment, since the period of frames 200 to 214 is a fade scene period, the relationship between the frame number and the blend rate α_f (i) within the fade scene period is as shown in FIG.
8B shows the blend rate obtained by performing the time-direction LPF processing, and FIG. 8C shows the blend rate obtained from the APL of the frame without performing the time-direction LPF processing. .

時間方向LPF処理を行う場合、図8の(b)のようにブレンド率が遷移するため、フェードシーンの期間の最後のフレーム(終了フレーム)でブレンド率の適用が遅れ、黒つぶれや白とびが発生してしまう。
また、時間方向LPF処理を行わない場合、図8の(c)のようにブレンド率が遷移するため、ブレンド率の変化点(ブレンド率が不連続となる点)であるフレーム番号f_no(i)が7の前後でちらつきが発生してしまう。
一方、本実施例では、図8(a)のように、ブレンド率が、フェードシーンの期間の開始フレームに適用するブレンド率から終了フレームに適用するブレンド率へと徐々に変化する。そのため、ちらつきの発生や、パラメータの適用の遅れ(黒つぶれや白とびの発生)を抑制することができる。
When performing the time-direction LPF process, the blend rate transitions as shown in FIG. 8B, so the application of the blend rate is delayed in the last frame (end frame) of the fade scene period, and blackout and overexposure occur. Will occur.
Further, when the time direction LPF processing is not performed, the blend rate transitions as shown in FIG. 8C, so that the frame number f_no (i) which is the blend rate change point (the point at which the blend rate becomes discontinuous). Flickers before and after 7.
On the other hand, in this embodiment, as shown in FIG. 8A, the blend rate gradually changes from the blend rate applied to the start frame of the fade scene period to the blend rate applied to the end frame. For this reason, it is possible to suppress the occurrence of flickering and the delay of parameter application (blackout and overexposure).

γカーブ選択部108では、フェードシーンの期間内のフレームに対しては、フェードシーンγカーブ生成部106から出力されるγカーブを選択する。フェードシーンの期間外のフレームに対しては、γカーブ生成部106から出力されるγカーブを適用する。フェードシーンの期間内のフレームか否かは、フェードシーン検出部105から出力される判定結果を用いて判定される。具体的には、γカーブ選択部108は、flg(i)=1であるフレームをフェードシーンの期間内のフレームであると判定し、flg(i)=0であるフレームをフェードシーンの期間外のフレームであると判定する。   The γ curve selection unit 108 selects the γ curve output from the fade scene γ curve generation unit 106 for frames within the fade scene period. The γ curve output from the γ curve generation unit 106 is applied to frames outside the fade scene period. Whether or not the frame is within the fade scene period is determined using the determination result output from the fade scene detection unit 105. Specifically, the γ curve selection unit 108 determines that the frame with flg (i) = 1 is a frame within the fade scene period, and the frame with flg (i) = 0 is out of the fade scene period. It is determined that it is a frame.

γ変換部109は、映像遅延部102から出力されるフレームに対応するγカーブ(γカーブ選択部108から出力されるγカーブ)を用いて階調補正を行い、階調補正されたフレームを出力信号端子に出力する(補正手段)。即ち、フェードシーンの期間内のフレームは、フェードシーンγカーブ生成部106で生成(決定)されたγカーブ(階調補正パラメータ)を用いて階調補正される。フェードシーンの期間外のフレームは、γカーブ生成部106で生成されたγカーブを用いて階調補正される。
出力信号端子110は、階調補正されたフレームを不図示の画像表示装置(テレビジョン装置)や録画機器などに出力する。
The γ conversion unit 109 performs gradation correction using a γ curve corresponding to the frame output from the video delay unit 102 (γ curve output from the γ curve selection unit 108), and outputs a frame after gradation correction. Output to the signal terminal (correction means). In other words, the frames within the fade scene period are subjected to gradation correction using the γ curve (gradation correction parameter) generated (determined) by the fade scene γ curve generation unit 106. Frames outside the fade scene period are subjected to gradation correction using the γ curve generated by the γ curve generation unit 106.
The output signal terminal 110 outputs the gradation-corrected frame to an image display device (television device) (not shown), a recording device, or the like.

以上述べたように、本実施例によれば、フェードシーンの期間の最初と最後のフレームの間で、最初のフレームに適用する画像処理パラメータから最後のフレームに適用する画像処理パラメータへと徐々に変化するように画像処理パラメータが決定される。それによ
り、γカーブの適用の遅れや、ちらつき等の妨害感を抑制できる。
As described above, according to the present embodiment, the image processing parameter applied to the first frame is gradually changed from the image processing parameter applied to the first frame between the first and last frames of the fade scene period. Image processing parameters are determined to change. As a result, delay in application of the γ curve and a sense of interference such as flickering can be suppressed.

<実施例2>
以下、本発明の実施例2に係る画像処理装置及びその画像処理装置によって実行される画像処理方法について、図を用いて説明する。
<Example 2>
Hereinafter, an image processing apparatus according to Embodiment 2 of the present invention and an image processing method executed by the image processing apparatus will be described with reference to the drawings.

図9は本実施例に係る画像処理装置の機能ブロック図である。図9に示すように画像処理装置200は、実施例1の画像処理装置100の機能ブロックと同様の機能ブロックを有する。図9において、実施例1と同じ機能ブロックには実施例1と同じ符号を付し、説明を省略する。本実施例は、フェードシーン検出部905の出力を映像遅延部902とAPL記憶部904で反映し、遅延量を可変とする点が実施例1と異なる。   FIG. 9 is a functional block diagram of the image processing apparatus according to the present embodiment. As illustrated in FIG. 9, the image processing apparatus 200 includes functional blocks similar to the functional blocks of the image processing apparatus 100 according to the first embodiment. In FIG. 9, the same functional blocks as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment, and description thereof is omitted. This embodiment is different from the first embodiment in that the output of the fade scene detection unit 905 is reflected by the video delay unit 902 and the APL storage unit 904, and the delay amount is variable.

映像遅延部902は、複数のフレームを記憶し、入力映像信号を該複数のフレーム分遅延してγ変換部109に出力する。本実施例では、入力映像信号が入力されてからフェードシーン検出部905で最初にフェードシーンの期間を検出するのに要したフレーム数を遅延量とする。また、映像遅延部902は、所定数(例えば300枚)のフレームを記憶することができるものとする。そして、所定数のフレームが入力されてもフェードシーン検出部905でフェードシーンの期間が検出されない場合には、所定数のフレーム分(300フレーム)を遅延量とする。   The video delay unit 902 stores a plurality of frames, delays the input video signal by the plurality of frames, and outputs it to the γ conversion unit 109. In the present embodiment, the number of frames required for the fade scene detection unit 905 to first detect the fade scene period after the input video signal is input is used as the delay amount. The video delay unit 902 can store a predetermined number (for example, 300 frames) of frames. If a fade scene period is not detected by the fade scene detection unit 905 even if a predetermined number of frames are input, a predetermined number of frames (300 frames) is set as the delay amount.

APL記憶部904は、複数のフレームのAPLを記憶し、APLを該複数のフレーム分遅延してγカーブ生成部106及びフェードシーンγカーブ生成部107に出力する。本実施例では、遅延量は映像遅延部902と同様とする。
また、本実施例では、APL記憶部904は、所定数のフレーム分のAPLを記憶すると、該所定数のフレーム分のAPLをフェードシーン検出部905に出力する。具体的には、APL記憶部904は、100フレーム分のAPLを記憶すると、該100フレーム分のAPLをフェードシーン検出部905に出力する。
そのため、本実施例では、γ変換部109において、最初のフェードシーンの期間が検出されたタイミングで各フレームが階調補正されて出力されることになる。
The APL storage unit 904 stores APLs of a plurality of frames, delays the APL by the plurality of frames, and outputs the delayed APLs to the γ curve generation unit 106 and the fade scene γ curve generation unit 107. In this embodiment, the delay amount is the same as that of the video delay unit 902.
In this embodiment, when the APL storage unit 904 stores the APL for a predetermined number of frames, the APL for the predetermined number of frames is output to the fade scene detection unit 905. Specifically, when the APL storage unit 904 stores the APL for 100 frames, the APL for the 100 frames is output to the fade scene detection unit 905.
Therefore, in this embodiment, each frame is subjected to gradation correction at the timing when the first fade scene period is detected in the γ conversion unit 109 and is output.

フェードシーン検出部905は、APL記憶部904から100フレーム分のAPLを取得し、フェードシーンの期間を検出する。そして、検出結果をフェードシーンγカーブ生成部107とγカーブ選択部108に出力する。また、フェードシーン検出部905は、300フレーム分のAPLが入力される前にフェードシーンの期間を検出した場合には、最初のフェードシーンの期間を検出するのに要したフレーム数を映像遅延部902とAPL記憶部904に出力する。   The fade scene detection unit 905 acquires 100 frames of APL from the APL storage unit 904, and detects the period of the fade scene. The detection result is output to fade scene γ curve generation unit 107 and γ curve selection unit 108. Further, when the fade scene detection unit 905 detects the period of the fade scene before the APL for 300 frames is input, the fade scene detection unit 905 determines the number of frames required to detect the period of the first fade scene. 902 and the APL storage unit 904.

次に、図10を用いて、フェードシーンを検出する際の処理フローについて説明する。なお、図10において、実施例1と同じ処理には同じ符号を付し、説明は省略する。
本実施例では、ステップS101の次に、100フレーム分の判定処理を行ったか否かを判定する(ステップS202)。100フレーム分の判定処理が行われていない場合には(S202:no)、ステップS103へ進み、100フレーム分の判定処理が行われた場合には(S202:yes)、フェードシーンの期間の検出処理を終了する。
ステップS113の次では、フェードシーンの期間の検出が初めてか否かを判断する(ステップS215)。フェードシーンの期間の検出が初めての場合には(S215:yes)、ステップS216へ進み、そうでない場合には(S215:no)、ステップS114へ進む。
ステップS216では、最初にフェードシーンの期間を検出するのに要したフレーム数を映像遅延部902とAPL記憶部904に出力する。
Next, a processing flow for detecting a fade scene will be described with reference to FIG. In FIG. 10, the same processes as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
In this embodiment, after step S101, it is determined whether or not determination processing for 100 frames has been performed (step S202). If the determination process for 100 frames has not been performed (S202: no), the process proceeds to step S103. If the determination process for 100 frames has been performed (S202: yes), the fade scene period is detected. The process ends.
After step S113, it is determined whether or not the fade scene period is detected for the first time (step S215). If the fade scene period is detected for the first time (S215: yes), the process proceeds to step S216. If not (S215: no), the process proceeds to step S114.
In step S216, the number of frames required to detect the fade scene period first is output to the video delay unit 902 and the APL storage unit 904.

実施例1と同様に、各フレームのAPLが図4のような場合を考える。この場合、最初にフレーム200〜214の期間がフェードシーンの期間として検出されるため、検出するのに要したフレーム数として215が映像遅延部902とAPL記憶部904に出力される。
その結果、映像遅延部902とAPL記憶部904の遅延量は215フレームに設定される。なお、検出するのに要したフレーム数が300を超えていた場合には、映像遅延部902とAPL記憶部904の遅延量は300フレームに設定される。
As in the first embodiment, consider the case where the APL of each frame is as shown in FIG. In this case, since the period of the frames 200 to 214 is first detected as a fade scene period, 215 is output to the video delay unit 902 and the APL storage unit 904 as the number of frames required for detection.
As a result, the delay amount of the video delay unit 902 and the APL storage unit 904 is set to 215 frames. If the number of frames required for detection exceeds 300, the delay amounts of the video delay unit 902 and the APL storage unit 904 are set to 300 frames.

以上述べたように、本実施例では、最初のフェードシーンの期間が検出されたタイミングで各フレームが階調補正されて出力される。具体的には、入力映像信号の先頭フレームの入力が開始されてから映像遅延部902に所定数のフレームが蓄積されるよりも前に最初のフェードシーンの期間が検出された場合に、該検出のタイミングで各フレームが階調補正されて出力される。それにより、実施例1に比べ映像を表示するまでの時間を短くすることができる。   As described above, in this embodiment, each frame is subjected to gradation correction at the timing when the period of the first fade scene is detected and output. Specifically, when the first fade scene period is detected before the predetermined number of frames are accumulated in the video delay unit 902 after the input of the first frame of the input video signal is started, the detection is performed. At each timing, each frame is subjected to gradation correction and output. Thereby, it is possible to shorten the time until the video is displayed as compared with the first embodiment.

100,200 画像処理装置
103 APL検出部
105,905 フェードシーン検出部
107 フェードシーンγカーブ生成部
109 γ変換部
DESCRIPTION OF SYMBOLS 100,200 Image processing apparatus 103 APL detection part 105,905 Fade scene detection part 107 Fade scene gamma curve generation part 109 γ conversion part

Claims (10)

入力映像信号の輝度に基づき階調補正に用いる画像処理パラメータを動的に切り替える画像処理装置であって、
入力映像信号のフレーム毎に、そのフレームの輝度を表す輝度特徴量を検出する輝度特徴量検出手段と、
複数のフレームの輝度特徴量から、フレームの輝度が単調に増加または減少するフェードシーンの期間を検出するフェードシーン検出手段と、
フェードシーンの期間の最初と最後のフレームに適用する画像処理パラメータをそれぞれのフレームの輝度特徴量から決定し、前記最初と最後のフレームの間にある複数のフレームに適用する画像処理パラメータを前記最初のフレームに適用する画像処理パラメータから前記最後のフレームに適用する画像処理パラメータへと徐々に変化するように決定する決定手段と、
フェードシーンの期間内のフレームを前記決定手段で決定された画像処理パラメータを用いて階調補正する補正手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that dynamically switches image processing parameters used for gradation correction based on luminance of an input video signal,
A luminance feature amount detecting means for detecting a luminance feature amount representing the luminance of the frame for each frame of the input video signal;
Fade scene detection means for detecting a fade scene period in which the luminance of the frame monotonously increases or decreases from the luminance feature quantity of a plurality of frames;
Image processing parameters to be applied to the first and last frames of the fade scene period are determined from the luminance feature values of the respective frames, and image processing parameters to be applied to a plurality of frames between the first and last frames are determined. Determining means for deciding to gradually change from an image processing parameter applied to the last frame to an image processing parameter applied to the last frame;
Correction means for correcting gradation using the image processing parameter determined by the determination means for a frame within a fade scene period;
An image processing apparatus comprising:
前記決定手段は、前記最初と最後のフレームの間にあるフレームに適用する画像処理パラメータを、そのフレームの輝度特徴量から決定される画像処理パラメータと、前記最初のフレームから前記最後のフレームまで画像処理パラメータが線形に変化すると仮定した場合の画像処理パラメータとの間の値をとるように、決定する
ことを特徴する請求項1に記載の画像処理装置。
The determination means includes an image processing parameter to be applied to a frame between the first and last frames, an image processing parameter determined from a luminance feature amount of the frame, and an image from the first frame to the last frame. The image processing apparatus according to claim 1, wherein the determination is made to take a value between the image processing parameter when the processing parameter is assumed to change linearly.
フェードシーンの検出のために所定数のフレームを記憶可能なバッファメモリを有しており、
入力映像信号の先頭フレームの入力が開始されてから前記バッファメモリに前記所定数のフレームが蓄積されるよりも前に、前記フェードシーン検出手段により最初のフェードシーンの期間が検出された場合は、前記最初のフェードシーンの期間が検出されたタイミングで各フレームを階調補正して出力する処理が開始される
ことを特徴とする請求項1または2に記載の画像処理装置。
It has a buffer memory that can store a predetermined number of frames for detection of fade scenes,
If the period of the first fade scene is detected by the fade scene detection means before the predetermined number of frames are accumulated in the buffer memory after the input of the first frame of the input video signal is started, 3. The image processing apparatus according to claim 1, wherein a process of correcting and outputting the gradation of each frame is started at a timing when the period of the first fade scene is detected.
前記フェードシーン検出手段は、  The fade scene detection means includes
フレームの輝度特徴量から、1つ後のフレームの輝度特徴量を減算した値が第1の閾値以上第2の閾値以下であるフレームが所定数以上連続する場合に、当該所定数以上のフレームの期間を、フレームの輝度が単調に減少するフェードシーンの期間であると判断し、    When a predetermined number or more of frames having a value obtained by subtracting the luminance feature value of the next frame from the luminance feature value of the frame is equal to or greater than the first threshold value and equal to or less than the second threshold value, Judge the period as the period of the fade scene where the brightness of the frame decreases monotonously,
フレームの輝度特徴量を、1つ後のフレームの輝度特徴量から減算した値が第3の閾値以上第4の閾値以下であるフレームが所定数以上連続する場合に、当該所定数以上のフレームの期間を、フレームの輝度が単調に増加するフェードシーンの期間であると判断する    When a predetermined number or more of frames having a value obtained by subtracting the luminance feature value of the frame from the luminance feature value of the next frame is not less than the third threshold value and not more than the fourth threshold value, Judge the period as the period of the fade scene where the brightness of the frame increases monotonously
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記決定手段は、  The determining means includes
フェードシーンの期間の最初のフレームに対して、そのフレームの輝度特徴量からブレンド率を決定し、決定したブレンド率で第1の画像処理パラメータと第2の画像処理パラメータをブレンドすることにより画像処理パラメータを決定し、    For the first frame of the fade scene period, the blending rate is determined from the luminance feature amount of the frame, and the first image processing parameter and the second image processing parameter are blended at the determined blending rate to perform image processing. Determine the parameters,
フェードシーンの期間の最後のフレームに対して、そのフレームの輝度特徴量からブレンド率を決定し、決定したブレンド率で前記第1の画像処理パラメータと前記第2の画像処理パラメータをブレンドすることにより画像処理パラメータを決定し、    For the last frame of the fade scene period, a blend rate is determined from the luminance feature amount of the frame, and the first image processing parameter and the second image processing parameter are blended at the determined blend rate. Determine image processing parameters,
前記最初と最後のフレームの間にある複数のフレームのそれぞれに対して、前記最初のフレームに対して決定されたブレンド率から前記最後のフレームに対して決定されたブレンド率へと徐々に変化するようにブレンド率を決定し、決定したブレンド率で前記第1の画像処理パラメータと前記第2の画像処理パラメータをブレンドすることにより画像処理パラメータを決定する    For each of a plurality of frames between the first and last frames, gradually change from the blend rate determined for the first frame to the blend rate determined for the last frame. And determining the image processing parameter by blending the first image processing parameter and the second image processing parameter at the determined blend rate.
ことを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
入力映像信号の輝度に基づき階調補正に用いる画像処理パラメータを動的に切り替える画像処理装置によって実行される画像処理方法であって、
入力映像信号のフレーム毎に、そのフレームの輝度を表す輝度特徴量を検出する輝度特徴量検出ステップと、
複数のフレームの輝度特徴量から、フレームの輝度が単調に増加または減少するフェードシーンの期間を検出するフェードシーン検出ステップと、
フェードシーンの期間の最初と最後のフレームに適用する画像処理パラメータをそれぞれのフレームの輝度特徴量から決定し、前記最初と最後のフレームの間にある複数のフレームに適用する画像処理パラメータを前記最初のフレームに適用する画像処理パラメータから前記最後のフレームに適用する画像処理パラメータへと徐々に変化するように決定する決定ステップと、
フェードシーンの期間内のフレームを前記決定ステップで決定された画像処理パラメータを用いて階調補正する補正ステップと、
を有することを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus that dynamically switches image processing parameters used for gradation correction based on luminance of an input video signal,
A luminance feature amount detection step for detecting a luminance feature amount representing the luminance of the frame for each frame of the input video signal;
A fade scene detection step for detecting a period of a fade scene in which the luminance of the frame monotonously increases or decreases from the luminance feature amount of the plurality of frames;
Image processing parameters to be applied to the first and last frames of the fade scene period are determined from the luminance feature values of the respective frames, and image processing parameters to be applied to a plurality of frames between the first and last frames are determined. A determination step for deciding to gradually change from an image processing parameter to be applied to a frame of the image processing parameter to be applied to the last frame;
A correction step for correcting gradation using the image processing parameters determined in the determination step for frames within a fade scene period;
An image processing method comprising:
前記決定ステップでは、前記最初と最後のフレームの間にあるフレームに適用する画像処理パラメータを、そのフレームの輝度特徴量から決定される画像処理パラメータと、前記最初のフレームから前記最後のフレームまで画像処理パラメータが線形に変化すると仮定した場合の画像処理パラメータとの間の値をとるように、決定する  In the determining step, an image processing parameter to be applied to a frame between the first and last frames, an image processing parameter determined from a luminance feature amount of the frame, and an image from the first frame to the last frame Decide to take a value between the image processing parameters assuming that the processing parameters change linearly
ことを特徴する請求項6に記載の画像処理方法。The image processing method according to claim 6.
前記画像処理装置は、フェードシーンの検出のために所定数のフレームを記憶可能なバッファメモリを有しており、  The image processing apparatus has a buffer memory capable of storing a predetermined number of frames for detecting a fade scene,
入力映像信号の先頭フレームの入力が開始されてから前記バッファメモリに前記所定数のフレームが蓄積されるよりも前に、前記フェードシーン検出ステップで最初のフェードシーンの期間が検出された場合は、前記最初のフェードシーンの期間が検出されたタイミ  When the period of the first fade scene is detected in the fade scene detection step before the predetermined number of frames are accumulated in the buffer memory after the input of the first frame of the input video signal is started, The timing at which the period of the first fade scene was detected
ングで各フレームを階調補正して出力する処理が開始されるProcessing to output each frame with gradation correction
ことを特徴とする請求項6または7に記載の画像処理方法。The image processing method according to claim 6 or 7, wherein:
前記フェードシーン検出ステップでは、  In the fade scene detection step,
フレームの輝度特徴量から、1つ後のフレームの輝度特徴量を減算した値が第1の閾値以上第2の閾値以下であるフレームが所定数以上連続する場合に、当該所定数以上のフレームの期間を、フレームの輝度が単調に減少するフェードシーンの期間であると判断し、    When a predetermined number or more of frames having a value obtained by subtracting the luminance feature value of the next frame from the luminance feature value of the frame is equal to or greater than the first threshold value and equal to or less than the second threshold value, Judge the period as the period of the fade scene where the brightness of the frame decreases monotonously,
フレームの輝度特徴量を、1つ後のフレームの輝度特徴量から減算した値が第3の閾値以上第4の閾値以下であるフレームが所定数以上連続する場合に、当該所定数以上のフレームの期間を、フレームの輝度が単調に増加するフェードシーンの期間であると判断する    When a predetermined number or more of frames having a value obtained by subtracting the luminance feature value of the frame from the luminance feature value of the next frame is not less than the third threshold value and not more than the fourth threshold value, Judge the period as the period of the fade scene where the brightness of the frame increases monotonously
ことを特徴とする請求項6〜8のいずれか1項に記載の画像処理方法。The image processing method according to claim 6, wherein:
前記決定ステップでは、  In the determination step,
フェードシーンの期間の最初のフレームに対して、そのフレームの輝度特徴量からブレンド率を決定し、決定したブレンド率で第1の画像処理パラメータと第2の画像処理パラメータをブレンドすることにより画像処理パラメータを決定し、    For the first frame of the fade scene period, the blending rate is determined from the luminance feature amount of the frame, and the first image processing parameter and the second image processing parameter are blended at the determined blending rate to perform image processing. Determine the parameters,
フェードシーンの期間の最後のフレームに対して、そのフレームの輝度特徴量からブレンド率を決定し、決定したブレンド率で前記第1の画像処理パラメータと前記第2の画像処理パラメータをブレンドすることにより画像処理パラメータを決定し、    For the last frame of the fade scene period, a blend rate is determined from the luminance feature amount of the frame, and the first image processing parameter and the second image processing parameter are blended at the determined blend rate. Determine image processing parameters,
前記最初と最後のフレームの間にある複数のフレームのそれぞれに対して、前記最初のフレームに対して決定されたブレンド率から前記最後のフレームに対して決定されたブレンド率へと徐々に変化するようにブレンド率を決定し、決定したブレンド率で前記第1の画像処理パラメータと前記第2の画像処理パラメータをブレンドすることにより画像処理パラメータを決定する    For each of a plurality of frames between the first and last frames, gradually change from the blend rate determined for the first frame to the blend rate determined for the last frame. And determining the image processing parameter by blending the first image processing parameter and the second image processing parameter at the determined blend rate.
ことを特徴とする請求項6〜9のいずれか1項に記載の画像処理方法。The image processing method according to any one of claims 6 to 9.
JP2010087869A 2010-04-06 2010-04-06 Image processing apparatus and image processing method Expired - Fee Related JP5451495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010087869A JP5451495B2 (en) 2010-04-06 2010-04-06 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010087869A JP5451495B2 (en) 2010-04-06 2010-04-06 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2011223160A JP2011223160A (en) 2011-11-04
JP2011223160A5 JP2011223160A5 (en) 2013-05-23
JP5451495B2 true JP5451495B2 (en) 2014-03-26

Family

ID=45039597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010087869A Expired - Fee Related JP5451495B2 (en) 2010-04-06 2010-04-06 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5451495B2 (en)

Also Published As

Publication number Publication date
JP2011223160A (en) 2011-11-04

Similar Documents

Publication Publication Date Title
US9990704B2 (en) Image processing apparatus and image processing method
US8411987B2 (en) Method and apparatus for contrast enhancement
US9454805B2 (en) Method and apparatus for reducing noise of image
US8942475B2 (en) Image signal processing device to emphasize contrast
JP4912398B2 (en) Image processing apparatus, image processing method, program, recording medium, and integrated circuit
JP6757890B2 (en) Signal processors, display devices, signal processing methods, and programs
US10970827B2 (en) Image processor and image processing method
CN101527038B (en) Improved method for enhancing picture contrast based on histogram
WO2006095576A1 (en) Display device, contrast adjusting method and contrast adjusting program
KR20040008067A (en) Image enhancing circuit using corelation between frames and method therefor
WO2017064829A1 (en) Image signal processing device, image signal processing method and program
US20060187344A1 (en) Global motion adaptive system with motion values correction with respect to luminance level
JP5021963B2 (en) Liquid crystal display device and liquid crystal display method
JP6180135B2 (en) Image display apparatus and control method thereof
US20090324125A1 (en) Image Processing Apparatus and Method, and Program
JP2005318198A (en) Gradation improving circuit and display system
JP4854431B2 (en) Image processing apparatus and method
JP5451495B2 (en) Image processing apparatus and image processing method
JP2002247611A (en) Image discriminating circuit, image quality correcting device, image discrimination method, image quality correction method and program
JP2017223823A (en) Image processor, image processing program, and image processing method
JP2002142132A (en) Apparatus and method for correcting image data
JP4265986B2 (en) Image processing method, apparatus, and program
JP4773739B2 (en) Image processing method
JP5361624B2 (en) Image processing apparatus, image processing method, and program
JP2010008535A (en) Image display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131226

R151 Written notification of patent or utility model registration

Ref document number: 5451495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees