JP5860298B2 - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP5860298B2
JP5860298B2 JP2012024001A JP2012024001A JP5860298B2 JP 5860298 B2 JP5860298 B2 JP 5860298B2 JP 2012024001 A JP2012024001 A JP 2012024001A JP 2012024001 A JP2012024001 A JP 2012024001A JP 5860298 B2 JP5860298 B2 JP 5860298B2
Authority
JP
Japan
Prior art keywords
luminance
frame
image
unit
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012024001A
Other languages
Japanese (ja)
Other versions
JP2013161340A (en
Inventor
俊枝 三須
俊枝 三須
境田 慎一
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012024001A priority Critical patent/JP5860298B2/en
Publication of JP2013161340A publication Critical patent/JP2013161340A/en
Application granted granted Critical
Publication of JP5860298B2 publication Critical patent/JP5860298B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、映像のダイナミックレンジを拡張する画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and program for extending the dynamic range of video.

映像のダイナミックレンジを拡張する手法として、露光量の異なる画像を複数枚撮像し、それらを合成する手法がある。このとき光路を分光光学系で分割し、各光路に光電変換手段を設け、複数の光電変換手段で得られた画像を合成することでハイダイナミックレンジ画像を得る手法がある(特許文献1)。   As a technique for extending the dynamic range of video, there is a technique for capturing a plurality of images with different exposure amounts and combining them. At this time, there is a method of dividing a light path by a spectroscopic optical system, providing a photoelectric conversion means in each light path, and synthesizing images obtained by a plurality of photoelectric conversion means to obtain a high dynamic range image (Patent Document 1).

また、複数のビデオフレームを位置合わせして重ね合わせることでハイダイナミックレンジ化する手法がある(特許文献2)。   In addition, there is a technique for achieving a high dynamic range by aligning and overlapping a plurality of video frames (Patent Document 2).

特開2006−165826号公報JP 2006-165826 A 特表2006−525747号公報JP-T-2006-525747

しかしながら、従来技術の分光光学系を用いるダイナミックレンジ拡張手法は、特殊な光学系を要し、すでにある光学系やすでに撮像された画像からダイナミックレンジ拡張を行うことができなかった。   However, the conventional dynamic range expansion method using a spectroscopic optical system requires a special optical system, and cannot expand the dynamic range from an existing optical system or an already captured image.

また、特殊な光学系を必要としない従来技術である、複数フレームを用いるダイナミックレンジ拡張手法は、画像全体の輝度変化に規則性がある場合であっても、その規則性を考慮することなく、輝度の分布関数のみからダイナミックレンジ拡張を試みていた。よって、この技術では、突発的又は局所的な輝度変化の影響を受けてしまう。   In addition, the dynamic range expansion method using a plurality of frames, which is a conventional technique that does not require a special optical system, has regularity in the luminance change of the entire image without considering the regularity. We tried to expand the dynamic range only from the luminance distribution function. Therefore, this technique is affected by sudden or local luminance changes.

そこで、本発明は上記問題点に鑑みてなされたものであり、突発的又は局所的な輝度変化の影響を少なくしてダイナミックレンジを拡張し、画質を向上させることができる画像処理装置及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an image processing apparatus and program capable of extending the dynamic range and improving the image quality by reducing the influence of sudden or local luminance change. The purpose is to provide.

本発明の一態様における画像処理装置は、入力映像におけるフレーム間の輝度を用いて、前記輝度の時間変化に対して規則性を抽出するためのフィルタ処理を行う分析手段と、各フレームの輝度について、前記分析手段によりフィルタ処理された値を、各フレーム内の輝度値分布が目標とする分布になるように補正する補正手段と、前記補正手段により輝度が補正された複数のフレームを重畳する重畳手段と、を備える。   An image processing apparatus according to an aspect of the present invention provides an analysis unit that performs filter processing for extracting regularity with respect to temporal change in luminance using luminance between frames in an input video, and luminance of each frame Correcting means for correcting the value filtered by the analyzing means so that the luminance value distribution in each frame becomes a target distribution, and superimposing a plurality of frames whose luminance is corrected by the correcting means Means.

また、前記分析手段は、各フレームの輝度の平均及び/又は分散に対してカーブフィッティングを行い、前記補正手段は、前記各フレームの輝度値の平均及び/又は分散を補正してもよい。   The analysis unit may perform curve fitting on the average and / or variance of the luminance of each frame, and the correction unit may correct the average and / or variance of the luminance value of each frame.

また、前記重畳手段は、前記重畳されたフレームの有効性を判定し、有効であると判定した場合に前記重畳されたフレームを出力し、無効であると判定した場合には重畳されていないフレームを出力してもよい。   In addition, the superimposing means determines the validity of the superimposed frame, outputs the superimposed frame when it is determined to be valid, and the frame that is not superimposed when it is determined to be invalid. May be output.

また、前記重畳手段は、前記重畳されたフレームの輝度レベル数が閾値を超えていれば有効であると判定し、前記重畳されたフレームの輝度レベル数が閾値以下であれば無効であると判定してもよい。   Further, the superimposing means determines that it is valid if the number of luminance levels of the superimposed frame exceeds a threshold value, and determines that it is invalid if the number of luminance levels of the superimposed frame is less than or equal to the threshold value. May be.

また、本発明の他の態様におけるプログラムは、入力映像におけるフレーム間の輝度を用いて、前記輝度の時間変化に対して規則性を抽出するためのフィルタ処理を行う分析ステップと、各フレームの輝度について、前記フィルタ処理された値を、各フレーム内の輝度値分布が目標とする分布になるように補正する補正ステップと、前記輝度が補正された複数のフレームを重畳する重畳ステップと、をコンピュータに実行させる。   Further, the program according to another aspect of the present invention includes an analysis step of performing a filtering process for extracting regularity with respect to temporal change of the luminance using luminance between frames in the input video, and luminance of each frame. A correction step for correcting the filtered value so that the luminance value distribution in each frame becomes a target distribution, and a superimposing step for superimposing the plurality of frames whose luminance has been corrected. To run.

本発明によれば、突発的又は局所的な輝度変化の影響を少なくしてダイナミックレンジを拡張し、画質を向上させることができる。   According to the present invention, it is possible to expand the dynamic range and improve the image quality by reducing the influence of sudden or local luminance change.

実施例1における画像処理装置の構成の一例を示すブロック図。1 is a block diagram illustrating an example of a configuration of an image processing device according to Embodiment 1. FIG. 分析処理を説明するための図。The figure for demonstrating an analysis process. 補正処理を説明するための図。The figure for demonstrating a correction process. 輝度のレンジ変換と画像合成について説明するための図。The figure for demonstrating the range conversion and image composition of a brightness | luminance. 有効性判定の判定方法1を説明するための図。The figure for demonstrating the determination method 1 of effectiveness determination. 有効性判定の判定方法2を説明するための図。The figure for demonstrating the determination method 2 of effectiveness determination. 実施例1におけるダイナミックレンジの拡張処理の一例を示すフローチャート。6 is a flowchart illustrating an example of dynamic range expansion processing according to the first exemplary embodiment. 実施例2における画像処理装置の構成の一例を示すブロック図。FIG. 6 is a block diagram illustrating an example of a configuration of an image processing apparatus according to a second embodiment. 実施例2におけるダイナミックレンジの拡張処理の一例を示すフローチャート。9 is a flowchart illustrating an example of dynamic range expansion processing according to the second embodiment. 実施例3における画像処理装置の構成の一例を示すブロック図。FIG. 9 is a block diagram illustrating an example of a configuration of an image processing apparatus according to a third embodiment.

以下、添付図面を参照しながら本発明について説明する。   The present invention will be described below with reference to the accompanying drawings.

[実施例1]
<構成>
図1は、実施例1における画像処理装置1の構成の一例を示すブロック図である。図1に示す画像処理装置1は、バッチ処理で入力映像のダイナミックレンジを拡張する装置である。逐次処理でダイナミックレンジを拡張することもできるが、この場合の画像処理装置については実施例2で説明する。
[Example 1]
<Configuration>
FIG. 1 is a block diagram illustrating an example of the configuration of the image processing apparatus 1 according to the first embodiment. An image processing apparatus 1 shown in FIG. 1 is an apparatus that expands the dynamic range of an input video by batch processing. Although the dynamic range can be expanded by sequential processing, an image processing apparatus in this case will be described in a second embodiment.

以下では、映像を動画像とも呼ぶ。また、動画像Xの時刻tにおけるフレーム(画像)をX(t)のように表記し、さらに、動画像Xの時刻tにおけるフレームの画像座標(x,y)における画素値をX(t;x,y)のように表記する。   Hereinafter, the video is also referred to as a moving image. Further, a frame (image) at the time t of the moving image X is expressed as X (t), and the pixel value at the image coordinates (x, y) of the frame at the time t of the moving image X is expressed as X (t; x, y).

画像処理装置1は、分析手段101と、フレームメモリ104と、輝度補正手段105と、画像重畳手段106と、量子化手段107とを有する。なお、画像処理装置1は、量子化手段107を含まない構成にしてもよい。   The image processing apparatus 1 includes an analysis unit 101, a frame memory 104, a luminance correction unit 105, an image superimposing unit 106, and a quantization unit 107. Note that the image processing apparatus 1 may be configured not to include the quantization unit 107.

分析手段101は、入力映像におけるフレーム間の輝度値を用いて、輝度の時間変化に対して規則性を抽出するためのフィルタ処理を行う。例えば、分析手段101は、入力映像の各フレームがその全体として有する輝度の特徴量(例えば平均輝度値、分散)の時間的変化パターンを分析する。なお、入力映像は、例えば原映像や、量子化された映像や、アナログセンサから入力された映像などのいずれの映像を適用してもよい。   The analysis unit 101 performs filter processing for extracting regularity with respect to temporal change in luminance using luminance values between frames in the input video. For example, the analysis unit 101 analyzes a temporal change pattern of a luminance feature amount (for example, average luminance value, variance) possessed by each frame of the input video as a whole. The input video may be any video such as an original video, a quantized video, and a video input from an analog sensor.

分析手段101は、具体的には、輝度の特徴量の規則性を抽出したり、輝度の特徴量の時間変化をダイナミクスのモデルに当てはめたりする動作を行う。そのため、分析手段101は、例えば、輝度特徴抽出手段102と、フィルタ手段103とを有する。   Specifically, the analysis unit 101 performs an operation of extracting regularity of a luminance feature amount or applying a temporal change of the luminance feature amount to a dynamics model. Therefore, the analysis unit 101 includes, for example, a luminance feature extraction unit 102 and a filter unit 103.

輝度特徴抽出手段102は、入力映像の各フレームの輝度の代表値または分布を求める。時刻tにおける輝度の代表値または分布を輝度特徴F(t)と表記する。   The luminance feature extraction unit 102 obtains a representative value or distribution of luminance of each frame of the input video. A representative value or distribution of luminance at time t is expressed as luminance feature F (t).

例えば、輝度特徴抽出手段102は、入力映像の各フレーム内の総和(または、平均輝度値)を求める。入力映像Aがモノクロ画像である場合には、輝度特徴抽出手段102は、例えば式(1)により輝度特徴を求める。   For example, the luminance feature extraction unit 102 obtains the sum (or average luminance value) in each frame of the input video. When the input video A is a monochrome image, the luminance feature extraction unit 102 obtains a luminance feature by, for example, the equation (1).


入力映像Aがカラーであるなど、複数の色成分や波長(バンド)成分からなる場合には、輝度特徴抽出手段102は、例えば、ベクトル値たる画素値A(t;x,y)に対して、式(2)又は式(3)により輝度特徴を求める。

When the input video A is a color or the like and is composed of a plurality of color components and wavelength (band) components, the luminance feature extraction means 102, for example, for a pixel value A (t; x, y) as a vector value The luminance feature is obtained by the equation (2) or the equation (3).

あるいは、色ベクトルから輝度値への変換行列(行ベクトル)M Alternatively, a conversion matrix (row vector) M from a color vector to a luminance value

M:色ベクトルから輝度値への変換行列(行ベクトル)
ここで、画素値A(t;x,y)が3次元の列ベクトルであり、その第1成分が赤成分を、第2成分が緑成分を、第3成分が青成分をそれぞれ表すとする。この場合、変換行列Mとして、例えば、以下のITU−R BT.601規格に定める輝度信号算出用の行列(行ベクトル)を用いる。
M: Conversion matrix from color vector to luminance value (row vector)
Here, it is assumed that the pixel value A (t; x, y) is a three-dimensional column vector, the first component represents the red component, the second component represents the green component, and the third component represents the blue component. . In this case, as the transformation matrix M, for example, the following ITU-R BT. A matrix (row vector) for luminance signal calculation defined in the 601 standard is used.

また、以下のITU−R BT.709規格に定める輝度信号算出用の行列(行ベクトル)を用いてもよい。 In addition, the following ITU-R BT. A matrix (row vector) for calculating a luminance signal defined in the 709 standard may be used.

また、例えば、輝度特徴抽出手段102は、輝度特徴F(t)として、フレームA(t)内における輝度のヒストグラムを採用してもよい。輝度特徴抽出手段102は、抽出した輝度特徴F(t)をフィルタ手段103に出力する。 Further, for example, the luminance feature extraction unit 102 may adopt a luminance histogram in the frame A (t) as the luminance feature F (t). The luminance feature extraction unit 102 outputs the extracted luminance feature F (t) to the filter unit 103.

フィルタ手段103は、輝度特徴抽出手段102から取得した輝度特徴F(t)の時系列に対して、フィルタ処理を行い、例えば平滑化又はカーブフィッティングを行って、フィルタ処理の結果G(t)を得る。   The filter unit 103 performs filter processing on the time series of the luminance feature F (t) acquired from the luminance feature extraction unit 102, for example, performs smoothing or curve fitting, and obtains the result G (t) of the filter processing. obtain.

フィルタ手段103は、例えば輝度特徴F(t)に対して、以下の式(4)によりディジタルフィルタを適用する。   For example, the filter unit 103 applies a digital filter to the luminance feature F (t) by the following equation (4).

ここに、vおよびwτはフィルタ係数であり、例えば、あらかじめ定める定数を用いる。また、aおよびbはフィルタを適用する時刻の範囲であり、a≦bとする。b−aの範囲には、例えば10フレーム含まれる。 Here, v and are filter coefficients, and for example, predetermined constants are used. Further, a and b are time ranges where the filter is applied, and a ≦ b. The range of b−a includes, for example, 10 frames.

また、フィルタ手段103は、例えば、カルマンフィルタを適用してもよい。さらにまた、フィルタ手段103は、カーブフィッティングを適用してもよい。   The filter unit 103 may apply a Kalman filter, for example. Furthermore, the filter means 103 may apply curve fitting.

フィルタ手段103は、カーブフィッティングを行う場合、フィッティングする関数をf(p,t)とおく。この関数は、パラメータp(pはスカラーまたはベクトル)によってその形状を調整できるものとする。パラメータpは、例えばスカラーとして各フレーム内の輝度の平均値や輝度の分散、ベクトルとして輝度の平均及び輝度の分散などを用いる。   When performing the curve fitting, the filter unit 103 sets the function to be fitted as f (p, t). It is assumed that the shape of this function can be adjusted by a parameter p (p is a scalar or a vector). As the parameter p, for example, an average value of luminance and a variance of luminance in each frame are used as a scalar, and an average of luminance and a luminance variance are used as vectors.

フィルタ手段103は、例えば、式(5)により、時刻t近傍(t+aからt+bの区間)における最適なパラメータpoptを求める。 The filter means 103 obtains the optimum parameter p opt in the vicinity of the time t (interval from t + a to t + b) by, for example, Expression (5).

この最適化には、例えばLevenberg-Marquardt法などの非線形最小二乗法を用いることができる。続いて、フィルタ手段103は、フィルタ結果G(t)を、式(6)により決定する。 For this optimization, for example, a nonlinear least square method such as the Levenberg-Marquardt method can be used. Subsequently, the filter unit 103 determines the filter result G (t) according to Expression (6).

カーブフィッティングする関数f(p,t)としては、例えば、M次関数(Mは0以上の整数; 例えばM=3)が用いられる。 As the function f (p, t) for curve fitting, for example, an M-order function (M is an integer of 0 or more; for example, M = 3) is used.

パラメータpを、以下のようにM+1次元のベクトルとして定義することができる。 The parameter p can be defined as an M + 1 dimensional vector as follows:

フィルタ手段103は、輝度の変動が周期的な場合には、カーブフィッティングする関数f(p,t)を式(8)のように正弦関数に基づき定めてもよい。 The filter means 103 may determine the function f (p, t) for curve fitting based on a sine function as shown in the equation (8) when the luminance fluctuation is periodic.

この場合、パラメータpは、次のように4次元のベクトルとなる。 In this case, the parameter p is a four-dimensional vector as follows.

フィルタ手段103は、フィルタ結果G(t)を輝度補正手段105に出力する。 The filter unit 103 outputs the filter result G (t) to the luminance correction unit 105.

フレームメモリ104は、入力映像の過去または現在のN時点のフレーム(Nは2以上の整数)を記憶する。フレームメモリ104に記憶されたN時点を、t、t、…、tとおく。 The frame memory 104 stores frames of the input video in the past or current time point N (N is an integer of 2 or more). N points of time stored in the frame memory 104 are set as t 1 , t 2 ,..., T N.

輝度補正手段105は、フレームメモリ104に記憶された過去または現在のN時点のフレームA(t)、A(t)、…、A(t)に対して、対応する時点の分析手段101からの出力のフィルタ結果G(t)、G(t)、…、G(t)に基づき、輝度値分布が目標とする分布になるように補正する。ここで、補正結果を補正フレームH(t)、H(t)、…、H(t)とおく。 The luminance correction unit 105 analyzes the time points corresponding to the frames A (t 1 ), A (t 2 ),..., A (t N ) stored in the frame memory 104 at the past or present time point N. Based on the filter results G (t 1 ), G (t 2 ),..., G (t N ) of the output from 101, the luminance value distribution is corrected to become a target distribution. Here, the correction results are set as correction frames H (t 1 ), H (t 2 ),..., H (t N ).

例えば、輝度補正手段105は、時点t(nは1以上N以下の整数)におけるフレームA(t)に対し、式(9)により補正演算を行う。 For example, the luminance correction unit 105 performs a correction operation on the frame A (t n ) at the time point t n (n is an integer equal to or greater than 1 and equal to or smaller than N) using Equation (9).

輝度補正手段105は、輝度値の平均がG(t)、G(t)、…、G(t)の平均となるようなゲインをA(t)に掛け、補正フレームH(t)を得る。輝度補正手段105は、補正後のフレームを画像重畳手段106に出力する。 The luminance correction unit 105 multiplies A (t n ) by a gain such that the average of luminance values is the average of G (t 1 ), G (t 2 ),..., G (t N ), and corrects the correction frame H ( t n ). The luminance correction unit 105 outputs the corrected frame to the image superimposing unit 106.

画像重畳手段106は、補正フレームH(t)、H(t)、…、H(t)を重ね合わせ、時点tにおける合成映像CのフレームC(t)を得る。なお、時点tは、N時点を、t、t、…、tのうち所定インデックスを有するいずれかの時点、またはt、t、…、tの最小値以上かつ最大値以下のある時点(例えば、最小値と最大値との平均値)とする。 The image superimposing means 106 superimposes the correction frames H (t 1 ), H (t 2 ),..., H (t N ) to obtain the frame C (t O ) of the composite video C at the time point t O. Incidentally, the time t O is the N point, t 1, t 2, ..., any point having a predetermined index of t N or t 1, t 2,, ..., a minimum value or more and the maximum value of t N A certain time point (for example, an average value of the minimum value and the maximum value) is set as follows.

画像重畳手段106は、例えば、以下の式(10)により、N時点の補正フレームH(t)、H(t)、…、H(t)の平均値を合成映像フレームC(t)とする。 For example, the image superimposing means 106 calculates the average value of the correction frames H (t 1 ), H (t 2 ),..., H (t N ) at the N time points by using the following formula (10). O ).

また、画像重畳手段106は、平均値を以て合成映像フレームC(t)を計算する際に、輝度補正前の輝度値が「最大輝度値(例えば8ビット映像であれば255)であり、かつ補正後の輝度値が合成対象の時刻t、t、…tにおける最大値ではない」場合と、輝度補正前の輝度値が「最小輝度値(例えば0)であり、かつ補正後の輝度値が合成対象の時刻t、t、…tにおける最小値ではない」場合とのいずれか一方もしくはその両方を除外してもよい。 In addition, when the image superimposing means 106 calculates the composite video frame C (t O ) using the average value, the luminance value before luminance correction is “the maximum luminance value (eg, 255 for 8-bit video), and When the luminance value after correction is not the maximum value at the synthesis target times t 1 , t 2 ,... TN ”and the luminance value before luminance correction is“ the minimum luminance value (for example, 0) and One or both of the cases where the luminance value is not the minimum value at times t 1 , t 2 ,... T N to be combined may be excluded.

画像重畳手段106は、例えば、次の式(11)で合成映像フレームC(t)を得る。 For example, the image superimposing unit 106 obtains a composite video frame C (t 0 ) by the following equation (11).

このようにすることで、入力映像において飽和状態にある輝度値や0レベルにある輝度値を、輝度補正の結果それらが最高輝度や最低輝度となる場合(輝度変換後のレンジの両端となる場合)でない限り、除外することができる。画像重畳手段106は、重畳した映像を量子化手段107に出力する。なお、量子化手段107は必ずしも必要ではない。 In this way, when the luminance value that is saturated in the input video or the luminance value that is at the 0 level becomes the maximum luminance or the minimum luminance as a result of luminance correction (when both ends of the range after luminance conversion) ), It can be excluded. The image superimposing unit 106 outputs the superimposed video to the quantizing unit 107. Note that the quantization means 107 is not always necessary.

なお、画像重畳手段106は、重畳されたフレームの有効性を判定してもよい。例えば、画像重畳手段106は、重畳されたフレームの輝度レベル数が閾値を超えていれば有効と判定し、輝度レベル数が閾値以下であれば無効であると判定する。この有効性の判定については後述する。   Note that the image superimposing unit 106 may determine the validity of the superimposed frame. For example, the image superimposing unit 106 determines that it is valid if the number of luminance levels of the superimposed frame exceeds a threshold, and determines that it is invalid if the number of luminance levels is equal to or less than the threshold. This determination of effectiveness will be described later.

量子化手段107は、合成映像フレームCの各画素値を量子化し、その結果を出力映像のフレーム(t)として出力する。好ましくは、出力映像の量子化は、入力映像の量子化のステップ数よりも多い量子化ステップ数とする。 The quantizing means 107 quantizes each pixel value of the composite video frame C and outputs the result as an output video frame (t O ). Preferably, the output video is quantized with a number of quantization steps larger than the number of steps of quantization of the input video.

以上の構成を有することで、突発的又は局所的な輝度変化の影響を少なくしてダイナミックレンジを拡張し、画質を向上させることができる。   By having the above configuration, the dynamic range can be expanded and the image quality can be improved by reducing the influence of sudden or local luminance change.

<分析処理と補正処理>
次に、分析手段101による分析処理、及び輝度補正手段105による補正処理について詳しく説明する。
<Analysis processing and correction processing>
Next, analysis processing by the analysis unit 101 and correction processing by the luminance correction unit 105 will be described in detail.

図2は、分析処理を説明するための図である。図2(A)は、入力映像の各フレームの一例を示す。fm11〜18は、入力映像の各フレームを表す。この映像は、周期的な明暗を有する。このような明暗はフリッカと呼ばれ、交流で点灯する電灯下(とくに蛍光灯)にてビデオ撮影を行った場合などに生じることがある。本実施例は、フリッカが発生する環境下で撮影された映像に対して好適にダイナミックレンジを拡張することができる。   FIG. 2 is a diagram for explaining the analysis process. FIG. 2A shows an example of each frame of the input video. fm11 to 18 represent each frame of the input video. This image has periodic brightness. Such light and darkness is called flicker, and may occur when video is shot under an electric lamp that is lit with alternating current (particularly a fluorescent lamp). In this embodiment, the dynamic range can be suitably extended for an image shot in an environment where flicker occurs.

また、図2(A)に示す例では、フレームfm12、fm13、fm16、fm18にそれぞれのノイズns21〜24が含まれる。このノイズは、例えば突発的又は局所的なノイズ、あるいは瞬間的に撮像された被写体である。   In the example shown in FIG. 2A, the frames fm12, fm13, fm16, and fm18 include the noises ns21 to 24, respectively. This noise is, for example, sudden or local noise or a subject imaged instantaneously.

図2(B)は、フレームfm11〜18の輝度のヒストグラムの例を示す。hg31〜38は、ヒストグラムを表す。pk41〜44は、ノイズns21〜24に起因するピークを表す。   FIG. 2B shows an example of a luminance histogram of the frames fm11-18. hg31 to 38 represent histograms. pk41 to 44 represent peaks due to the noise ns21 to 24.

図2(C)は、入力映像の各画像フレームfm11〜18の輝度特徴のフィルタ処理を示す。この例での輝度特徴は、例えば、輝度の平均値であるとする。av51〜58は、各フレームの輝度の平均値を表す。cv61は、輝度特徴av51〜58に対して、カーブフィッティングした場合の曲線を表す。   FIG. 2C shows the filtering process of the luminance feature of each image frame fm11 to 18 of the input video. The luminance feature in this example is, for example, an average value of luminance. Av51 to 58 represent the average value of the luminance of each frame. cv61 represents a curve when curve fitting is performed on the luminance features av51 to av58.

図2(A)に示す映像を、例えば、単純に画像フレーム全体の平均輝度値を正規化することで輝度補正を行うと、ns21〜24のようなノイズが平均輝度の計算において悪影響を及ぼし、ノイズ以外の領域の被写体の輝度が揺らいでしまう。   For example, if the video shown in FIG. 2A is corrected for luminance by simply normalizing the average luminance value of the entire image frame, noise such as ns21 to 24 has an adverse effect on the calculation of the average luminance. The brightness of the subject in the area other than noise fluctuates.

そこで、実施例1における画像処理装置1は、分析手段101(フィルタ手段103)によって、例えば、図2(C)の曲線cv61に示すようなカーブフィッティングを行う。輝度補正手段105では、輝度特徴抽出手段102により抽出された輝度特徴(例えば輝度の平均値)av51〜58を輝度補正に用いる代わりに、フィルタ手段103により求められた曲線cv61上の値を輝度補正に用いる。これにより、ノイズの悪影響を軽減することができる。   Therefore, the image processing apparatus 1 according to the first embodiment performs, for example, curve fitting as shown by a curve cv61 in FIG. 2C by the analysis unit 101 (filter unit 103). In the luminance correction unit 105, instead of using the luminance features (for example, average value of luminance) av 51 to 58 extracted by the luminance feature extraction unit 102 for luminance correction, the luminance correction unit 105 performs luminance correction on the value on the curve cv 61 obtained by the filter unit 103. Used for. Thereby, the bad influence of noise can be reduced.

よって、輝度補正手段105は、図2(C)に示す曲線cv61の各時点での値を参照しつつ、その値が目標値(目標となる分布)となるよう、フレームメモリ104に記憶された各時点の入力映像フレームのレンジを変換する。   Therefore, the luminance correction means 105 is stored in the frame memory 104 so that the value becomes the target value (target distribution) while referring to the value at each time point of the curve cv61 shown in FIG. Convert the range of the input video frame at each time point.

ここで、輝度補正手段105は、例えば、曲線cv61の各時点での値が曲線cv61の平均値となるよう輝度補正を実行する。   Here, for example, the luminance correction unit 105 performs the luminance correction so that the value at each time point of the curve cv61 becomes the average value of the curve cv61.

図3は、補正処理を説明するための図である。図3(A)は、図2(A)と同様で、入力映像の各フレームfm11〜18を表す。   FIG. 3 is a diagram for explaining the correction process. FIG. 3A is similar to FIG. 2A and represents the frames fm11 to 18 of the input video.

図3(B)は、補正された輝度特徴を示す。図3(B)に示す例では、ヒストグラムhg71〜78は、ノイズ成分以外のヒストグラム形状がほぼ一致する。なお、補正する輝度特徴は、輝度の平均値だけでなく、輝度の分散も補正するようにしてもよい。   FIG. 3B shows the corrected luminance feature. In the example shown in FIG. 3B, the histograms hg71 to 78 almost coincide with the histogram shapes other than the noise components. Note that the luminance feature to be corrected may correct not only the average luminance value but also the luminance dispersion.

図3(C)は、輝度補正結果を示す。fm81〜88は、輝度補正した結果の各フレームを表す。図3(C)に示すように、各フレームで安定した輝度値を有することができるようになる。   FIG. 3C shows the luminance correction result. Reference numerals fm81 to 88 denote frames as a result of luminance correction. As shown in FIG. 3C, each frame can have a stable luminance value.

<輝度のレンジ変換と画像合成>
図4は、輝度のレンジ変換と画像合成について説明するための図である。画像合成は、画像重畳と同様の意味で用いる。図4に示す符号91と92の黒点は、別時点に撮像された同一被写体上のあるライン上の輝度を示す。
<Brightness range conversion and image composition>
FIG. 4 is a diagram for explaining luminance range conversion and image composition. Image composition is used in the same meaning as image superposition. Black dots 91 and 92 shown in FIG. 4 indicate the luminance on a certain line on the same subject captured at another time point.

いずれの輝度も輝度方向(縦軸方向)に量子化されているとする。輝度92を含む画像は、輝度91を含む画像に比べて約4/3倍明るく撮像されている。ここで、輝度91の補正時のゲインが1.00で、輝度92の補正時のゲインが0.75であったとする。   It is assumed that any luminance is quantized in the luminance direction (vertical axis direction). The image including the luminance 92 is captured approximately 4/3 times brighter than the image including the luminance 91. Here, it is assumed that the gain at the time of correcting the luminance 91 is 1.00 and the gain at the time of correcting the luminance 92 is 0.75.

輝度91と輝度92の補正結果を輝度93と輝度94に示す。輝度補正手段105による輝度補正後は、元の量子化ステップより細かい量子化により輝度値を保持することとする。輝度94の場合においては、輝度値のとり得る値の間隔が、入力映像の輝度値の間隔の0.75倍となる。   The correction results of the luminance 91 and the luminance 92 are shown as a luminance 93 and a luminance 94. After the luminance correction by the luminance correction unit 105, the luminance value is held by finer quantization than the original quantization step. In the case of the luminance 94, the interval between the values that the luminance value can take is 0.75 times the interval between the luminance values of the input video.

画像重畳手段106において、輝度補正後の2つの輝度93および輝度94の平均値を計算し、その結果である輝度95を含む合成映像Cの一フレームを生成する。合成映像Cは、例えば輝度91を含む画像単独の場合に比べて、より豊富な輝度値を表現し得るようになる。   The image superimposing means 106 calculates an average value of the two luminances 93 and 94 after the luminance correction, and generates one frame of the synthesized video C including the luminance 95 as a result. The composite video C can express more abundant luminance values than, for example, the case of an image alone including the luminance 91.

より豊富な輝度値を表現できることから、量子化手段107では、好ましくは入力映像よりも多いステップ数の量子化を行ってもよい。これにより、映像のダイナミックレンジを拡大することができる。なお、量子化手段107による量子化は必ずしも必要な処理ではない。   Since more abundant luminance values can be expressed, the quantization means 107 may preferably perform quantization with a larger number of steps than the input video. As a result, the dynamic range of the video can be expanded. Note that the quantization by the quantization means 107 is not necessarily a necessary process.

<重畳された画像の有効性判定>
次に、重畳された画像についての有効性判定について説明する。画像重畳手段106は、画像重畳が有効であれば重畳された画像を出力し、画像重畳が無効(有効ではない)であれば重畳されていない画像を出力するようにしてもよい。また、画像重畳手段106は、重畳された画像とともに、有効性の判定結果を出力するようにしてもよい。
<Effectiveness determination of superimposed image>
Next, the effectiveness determination for the superimposed image will be described. The image superimposing means 106 may output a superimposed image if the image superimposition is valid, and may output an image that is not superimposed if the image superimposition is invalid (not valid). Further, the image superimposing means 106 may output the validity determination result together with the superimposed image.

(判定方法1)
まず、有効性判定の判定方法1について説明する。判定方法1では、合成映像Cの一フレーム内の輝度レベルの数を用いる方法である。
(Judgment method 1)
First, the determination method 1 for determining the effectiveness will be described. In the determination method 1, the number of luminance levels in one frame of the composite video C is used.

図5は、有効性判定の判定方法1を説明するための図である。図5(A)は、合成映像Cの一フレーム内の輝度レベル数が8である場合を示す。図5(B)は、合成映像Cの一フレーム内の輝度レベル数が11である場合を示す。   FIG. 5 is a diagram for explaining a determination method 1 for determining validity. FIG. 5A shows a case where the number of luminance levels in one frame of the composite video C is eight. FIG. 5B shows a case where the number of luminance levels in one frame of the composite video C is 11.

図5に示す例では、図5(B)に示すフレームの方が、図5(A)に示すフレームよりも階調表現が豊かである。すなわち、図5(B)に示すフレームの方が、図5(A)に示すフレームよりもダイナミックレンジが広いといえる。   In the example shown in FIG. 5, the frame shown in FIG. 5B has richer gradation expression than the frame shown in FIG. That is, it can be said that the frame shown in FIG. 5B has a wider dynamic range than the frame shown in FIG.

ここで、画像重畳手段106は、合成映像Cの一フレームの有効性を判定する場合、出現した輝度レベル数が、閾値1を超えていれば「有効」と判定する。また、画像重畳手段106は、出現した輝度レベル数が、閾値1以下であれば「無効」と判定する。閾値1は、例えば、入力映像に出現した輝度レベル数や予め設定された数などを用いればよい。この判定方法1は、有効性判定において、実用的であり、かつ妥当な方法であるといえる。   Here, when determining the validity of one frame of the composite video C, the image superimposing unit 106 determines “effective” if the number of appearing luminance levels exceeds the threshold 1. The image superimposing unit 106 determines “invalid” if the number of appearing luminance levels is equal to or less than the threshold value 1. As the threshold value 1, for example, the number of luminance levels that appear in the input video or a preset number may be used. This determination method 1 can be said to be a practical and appropriate method for determining the effectiveness.

(判定方法2)
次に、有効性判定の判定方法2について説明する。判定方法2では、合成映像Cの一フレームの輝度変換(輝度補正)後の量子化レベルを求め、合成すべきフレームについて、その平均値が取り得る輝度レベルを求める方法である。
(Judgment method 2)
Next, the determination method 2 for determining the effectiveness will be described. The determination method 2 is a method of obtaining a quantization level after luminance conversion (luminance correction) of one frame of the synthesized video C and obtaining a luminance level that can be taken by an average value of the frames to be synthesized.

図6は、有効性判定の判定方法2を説明するための図である。図6(A)は、合成映像の一フレーム(合成フレーム)の輝度値の取りうる値の例1を示す。図6(B)は、合成フレームの輝度値の取りうる値の例2を示す。図6(C)は、合成フレームの輝度値の取りうる値の例3を示す。図6に示す黒丸が合成フレームの輝度値の取りうる値を表す。   FIG. 6 is a diagram for explaining a determination method 2 for determining validity. FIG. 6A shows an example 1 of possible values of the luminance value of one frame (composite frame) of the composite video. FIG. 6B shows Example 2 of possible values of the luminance value of the composite frame. FIG. 6C shows an example 3 of possible values of the luminance value of the composite frame. Black circles shown in FIG. 6 represent possible values of the luminance value of the composite frame.

画像重畳手段106は、合成フレームの輝度値の取りうる値が閾値2以下の場合は、有効性は「無効」であると判定する。画像重畳手段106は、合成フレームの輝度値の取りうる値が閾値2より多い場合は、有効性は「有効」であると判定する。閾値2は、例えば入力映像の輝度値の取りうる値や予め設定された値などである。   The image superimposing unit 106 determines that the validity is “invalid” when the possible value of the luminance value of the composite frame is equal to or less than the threshold value 2. The image superimposing means 106 determines that the validity is “valid” when the possible value of the luminance value of the combined frame is greater than the threshold value 2. The threshold 2 is, for example, a value that can be taken by the luminance value of the input video or a preset value.

例えば、図6(C)に示す重畳された合成映像の一フレームは、「無効」であると判定され、図6(A)や図6(B)の重畳された合成映像の一フレームは、「有効」であると判定される。   For example, one frame of the superimposed synthesized video shown in FIG. 6C is determined to be “invalid”, and one frame of the superimposed synthesized video in FIG. 6A or 6B is It is determined to be “valid”.

以上より、画像重畳手段106は、重畳された画像の有効性を判定することで、重畳された画像を出力するか否かのON/OFFを切り替え制御したり、有効性の判定結果を出力したりすることができる。   As described above, the image superimposing unit 106 determines whether the superimposed image is valid, thereby switching the ON / OFF of whether or not to output the superimposed image, and outputs the validity determination result. Can be.

<動作>
次に、実施例1における画像処理装置1の動作について説明する。図7は、実施例1におけるダイナミックレンジの拡張処理の一例を示すフローチャートである。図7に示す処理は、バッチ処理である。
<Operation>
Next, the operation of the image processing apparatus 1 in the first embodiment will be described. FIG. 7 is a flowchart illustrating an example of dynamic range expansion processing according to the first embodiment. The process shown in FIG. 7 is a batch process.

ステップS101で、画像処理装置1は、変数nを初期化し、nに0を設定する。ステップS102で、画像処理装置1は、以下の式(12)を満たすか否かを判定する。
n%N==N−1 ・・・式(12)
N:重畳するフレーム数
n%N:nをNで割った余り
式(12)を満たせば(ステップS102−YES)ステップS108に進み、式(12)を満たさなければ(ステップS102−NO)ステップS103に進む。式(12)を満たす場合は、フレームメモリ104に、重畳するフレーム数Nが記憶されたことを意味する。
In step S101, the image processing apparatus 1 initializes a variable n and sets n to 0. In step S102, the image processing apparatus 1 determines whether or not the following expression (12) is satisfied.
n% N == N−1 (12)
N: Number of frames to be superimposed n% N: Remainder of dividing n by N If equation (12) is satisfied (step S102—YES), the process proceeds to step S108, and if equation (12) is not satisfied (step S102—NO), step The process proceeds to S103. When the expression (12) is satisfied, it means that the number N of frames to be superimposed is stored in the frame memory 104.

ステップS103で、フレームメモリ104は、第n%Nフレームの記憶領域M(n%N)に入力映像が記憶される。   In step S103, the frame memory 104 stores the input video in the storage area M (n% N) of the n% Nth frame.

ステップS104で、輝度特徴抽出手段102は、入力映像nの輝度特徴を抽出する。輝度特徴は、フレームの輝度の平均値及び/又は分散などである。   In step S104, the luminance feature extraction unit 102 extracts the luminance feature of the input video n. The luminance feature is an average value and / or variance of the luminance of the frame.

ステップS105で、フィルタ手段103は、抽出された輝度特徴にフィルタ処理を行う。フィルタ処理は、例えば前述したカーブフィッティングなどである。なお、ステップS104、S105の処理は、入力映像の輝度の規則性を分析するための処理である。   In step S105, the filter unit 103 performs a filtering process on the extracted luminance feature. The filter process is, for example, the curve fitting described above. Note that the processes in steps S104 and S105 are processes for analyzing the regularity of the luminance of the input video.

ステップS106で、画像処理装置1は、nに1を加算し、次のフレームに対して処理を行うようにする。   In step S <b> 106, the image processing apparatus 1 adds 1 to n and performs processing for the next frame.

ステップS107で、画像処理装置1は、全映像の処理が完了したか否かを判定する。全映像の処理が完了していれば(ステップS107−YES)処理を終了し、全映像の処理が完了していなければ(ステップS107−NO)ステップS102に戻る。   In step S107, the image processing apparatus 1 determines whether or not the processing of all the videos has been completed. If all the video processing has been completed (step S107—YES), the processing is terminated. If all video processing has not been completed (step S107—NO), the processing returns to step S102.

ステップS108で、輝度補正手段105は、パラメータを初期化し、kを0に設定し、Cを0に設定する。Cは全画素の輝度値を表す。   In step S108, the brightness correction unit 105 initializes parameters, sets k to 0, and sets C to 0. C represents the luminance value of all pixels.

ステップS109で、輝度補正手段105は、フレームメモリ104内の第kフレームの映像M(k)の各画素の輝度を、フィルタ処理結果に基づき補正し(式(9))、その結果をHとする。   In step S109, the brightness correction unit 105 corrects the brightness of each pixel of the video M (k) of the k-th frame in the frame memory 104 based on the filter processing result (formula (9)). To do.

ステップS110で、画像重畳手段106は、Cの対応する画素の輝度にHの輝度を加算して累積し、kに1を加算する。ステップS111で、画像重畳手段106は、k<Nであるかを判定する。k<Nであれば(ステップS111−YES)ステップS109に戻り、k<Nでなければ(ステップS111−NO)ステップS112に進む。   In step S110, the image superimposing unit 106 adds and accumulates the luminance of H to the luminance of the corresponding pixel of C, and adds 1 to k. In step S111, the image superimposing unit 106 determines whether k <N. If k <N (step S111-YES), the process returns to step S109, and if k <N (step S111-NO), the process proceeds to step S112.

ステップS112で、画像重畳手段106は、CをNで割って平均化した画像を新たなCとする。   In step S112, the image superimposing means 106 sets the image obtained by dividing C by N and averaging it as a new C.

ステップS113で、量子化手段107は、Cを量子化し、量子化した結果を出力映像として出力する。なお、ステップS113の量子化は必ずしも必要な処理ではなく、画像重畳手段106が、画像重畳した画像を出力映像として出力してもよい。   In step S113, the quantization unit 107 quantizes C and outputs the quantized result as an output video. Note that the quantization in step S113 is not necessarily a necessary process, and the image superimposing unit 106 may output an image on which the image is superimposed as an output video.

また、画像重畳手段106は、重畳された画像に対して有効性を判定し、判定結果に基づいて出力を制御したり、判定結果を出力したりするようにしてもよい。   Further, the image superimposing unit 106 may determine the validity of the superimposed image, and may control the output based on the determination result or output the determination result.

以上、実施例1によれば、突発的又は局所的な輝度変化の影響を少なくしてダイナミックレンジを拡張し、画質を向上させることができる。   As described above, according to the first embodiment, it is possible to improve the image quality by extending the dynamic range by reducing the influence of sudden or local luminance change.

[実施例2]
次に、実施例2における画像処理装置2について説明する。実施例2では、ダイナミックレンジ拡張処理を逐次処理で行う。
[Example 2]
Next, the image processing apparatus 2 according to the second embodiment will be described. In the second embodiment, the dynamic range expansion process is performed sequentially.

<構成>
図8は、実施例2における画像処理装置2の構成の一例を示すブロック図である。図8に示す例では、画像処理装置2は、分析手段201と、輝度補正手段205と、フレームメモリ208と、画像重畳手段206と、量子化手段207とを有する。なお、量子化手段207は、必ずしも必要な構成ではないため、画像処理装置2は、量子化手段207を含めなくてもよい。
<Configuration>
FIG. 8 is a block diagram illustrating an example of the configuration of the image processing apparatus 2 according to the second embodiment. In the example illustrated in FIG. 8, the image processing apparatus 2 includes an analysis unit 201, a luminance correction unit 205, a frame memory 208, an image superimposing unit 206, and a quantization unit 207. Note that the quantization unit 207 is not necessarily required, and thus the image processing apparatus 2 may not include the quantization unit 207.

分析手段201及び量子化手段207は、実施例1と基本的には同じ処理を行うので、説明を省略する。   Since the analysis unit 201 and the quantization unit 207 perform basically the same processing as in the first embodiment, the description thereof is omitted.

輝度補正手段205は、入力映像の各フレームに対して、フィルタ処理結果に基づいて輝度補正を行う。輝度補正処理などは実施例1と同様である。輝度補正手段205は、輝度補正した各フレームをフレームメモリ208に記憶する。   The luminance correction unit 205 performs luminance correction on each frame of the input video based on the filter processing result. The brightness correction process and the like are the same as those in the first embodiment. The brightness correction unit 205 stores each frame whose brightness has been corrected in the frame memory 208.

フレームメモリ208は、輝度補正手段205により補正されたフレームを記憶する。画像重畳手段206は、フレームメモリ208に記憶されたN枚のフレームを逐次重畳して、合成画像を生成し、量子化手段207に出力する。   The frame memory 208 stores the frame corrected by the luminance correction unit 205. The image superimposing unit 206 sequentially superimposes the N frames stored in the frame memory 208 to generate a composite image and outputs it to the quantization unit 207.

これにより、逐次処理で、画像の輝度補正処理、重畳処理などを行うことができるようになる。   Thus, it is possible to perform image brightness correction processing, superimposition processing, and the like by sequential processing.

<動作>
次に、実施例2における画像処理装置2の動作について説明する。図9は、実施例2におけるダイナミックレンジの拡張処理の一例を示すフローチャートである。図9に示す処理は、逐次処理である。
<Operation>
Next, the operation of the image processing apparatus 2 in the second embodiment will be described. FIG. 9 is a flowchart illustrating an example of dynamic range expansion processing according to the second embodiment. The process shown in FIG. 9 is a sequential process.

ステップS201〜S203は、図7に示すステップS101、S104、S105と同様の処理であるため、その説明を省略する。   Steps S201 to S203 are the same as steps S101, S104, and S105 shown in FIG.

ステップS204で、輝度補正手段205は、入力映像の各フレームに対し、フィルタ処理結果に基づいて輝度補正し、その補正結果をフレームメモリ208の第n%Nフレームの記憶領域M(n%N)に記憶する。   In step S204, the luminance correction unit 205 corrects the luminance of each frame of the input video based on the filter processing result, and the correction result is stored in the storage area M (n% N) of the n% Nth frame of the frame memory 208. To remember.

ステップS205で、画像重畳手段206は、n≧N−1であるか否かを判定する。n≧N−1であれば(ステップS205−YES)ステップS206に進み、n≧N−1でなければ(ステップS205−NO)ステップS211に進む。   In step S205, the image superimposing unit 206 determines whether n ≧ N−1. If n ≧ N−1 (step S205—YES), the process proceeds to step S206, and if n ≧ N−1 (step S205—NO), the process proceeds to step S211.

これは、フレームメモリ208に重畳するだけのフレーム数が記憶されているかを判定する処理である。   This is a process of determining whether the number of frames to be superimposed on the frame memory 208 is stored.

ステップS206で、画像重畳手段206は、k=0に設定し、Cを0に設定する。Cは全画素の輝度値を表す。   In step S206, the image superimposing unit 206 sets k = 0 and sets C to 0. C represents the luminance value of all pixels.

ステップS207で、画像重畳手段206は、フレームメモリ208内の第kフレームの映像M(k)の輝度を、Cの対応する画素の輝度に加算して累積し、k=k+1とする。   In step S207, the image superimposing unit 206 adds the luminance of the video M (k) of the k-th frame in the frame memory 208 to the luminance of the corresponding pixel of C and accumulates, so that k = k + 1.

ステップS208で、画像重畳手段206は、k<Nであるかを判定する。k<Nであれば(ステップS208−YES)ステップS207に戻り、k<Nでなければ(ステップS208−NO)ステップS209に進む。   In step S208, the image superimposing unit 206 determines whether k <N. If k <N (step S208—YES), the process returns to step S207, and if k <N (step S208—NO), the process proceeds to step S209.

ステップS209−S210の処理は、図7に示すステップS112−S113の処理と同様であるため、その説明を省略する。   The processing of steps S209-S210 is the same as the processing of steps S112-S113 shown in FIG.

ステップS211−S212の処理は、図7に示すステップS106−S107の処理と同様であるため、その説明を省略する。   The processing of steps S211 to S212 is the same as the processing of steps S106 to S107 shown in FIG.

なお、ステップS210の量子化は必ずしも必要な処理ではなく、画像重畳手段106が、画像重畳した画像を出力映像として出力してもよい。   Note that the quantization in step S210 is not necessarily a necessary process, and the image superimposing unit 106 may output an image on which the image is superimposed as an output video.

また、画像重畳手段206は、重畳された画像に対して有効性を判定し、判定結果に基づいて出力を制御したり、判定結果を出力したりするようにしてもよい。   Further, the image superimposing unit 206 may determine the validity of the superimposed image, and may control the output based on the determination result or output the determination result.

図9に示す逐次処理では、最初のNフレーム以降、フレームメモリ208に記憶される最新のNフレームを順次重畳していく処理について説明した。また、画像重畳手段206は、最初のNフレームまでは、フレームメモリ208に記憶されているフレーム数で画像を重畳するようにしてもよい。   In the sequential process shown in FIG. 9, the process of sequentially superimposing the latest N frames stored in the frame memory 208 after the first N frames has been described. Further, the image superimposing unit 206 may superimpose an image with the number of frames stored in the frame memory 208 up to the first N frames.

以上、実施例2によれば、実施例1のバッチ処理を逐次処理で行うことができる。よって、突発的又は局所的な輝度変化の影響を少なくしてダイナミックレンジを拡張し、画質を向上させることができる。   As described above, according to the second embodiment, the batch processing of the first embodiment can be performed by sequential processing. Therefore, the dynamic range can be expanded by reducing the influence of sudden or local luminance change, and the image quality can be improved.

[実施例3]
図10は、実施例3における画像処理装置3の構成の一例を示すブロック図である。図10に示す画像処理装置3は、上述した実施例1や2で説明した画像処理をソフトウェアで実装した装置の一例である。
[Example 3]
FIG. 10 is a block diagram illustrating an example of the configuration of the image processing apparatus 3 according to the third embodiment. An image processing apparatus 3 illustrated in FIG. 10 is an example of an apparatus in which the image processing described in the first and second embodiments is implemented by software.

図10に示すように、画像処理装置3は、制御部301、主記憶部302、補助記憶部303、ドライブ装置304、ネットワークI/F部306、入力部307、表示部308を有する。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。   As illustrated in FIG. 10, the image processing apparatus 3 includes a control unit 301, a main storage unit 302, an auxiliary storage unit 303, a drive device 304, a network I / F unit 306, an input unit 307, and a display unit 308. These components are connected to each other via a bus so as to be able to transmit and receive data.

制御部301は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部301は、主記憶部302又は補助記憶部303に記憶された画像符号化処理のプログラムを実行する演算装置である。制御部301は、入力部307や記憶装置からデータを受け取り、演算、加工した上で、表示部308や記憶装置などに出力する。   The control unit 301 is a CPU that controls each device, calculates data, and processes in a computer. The control unit 301 is an arithmetic device that executes an image encoding processing program stored in the main storage unit 302 or the auxiliary storage unit 303. The control unit 301 receives data from the input unit 307 and the storage device, calculates and processes the data, and outputs the data to the display unit 308 and the storage device.

制御部301は、上述した画像処理のプログラムを実行することで、各実施例で説明した処理を実現することができる。   The control unit 301 can realize the processing described in each embodiment by executing the above-described image processing program.

主記憶部302は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部302は、制御部301が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 302 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The main storage unit 302 is a storage device that stores or temporarily stores programs and data such as OS (Operating System) and application software that are basic software executed by the control unit 301.

補助記憶部303は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 303 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software and the like.

ドライブ装置304は、記録媒体305、例えばフレキシブルディスクからプログラムを読み出し、記憶部にインストールする。   The drive device 304 reads the program from the recording medium 305, for example, a flexible disk, and installs it in the storage unit.

また、記録媒体305に、所定のプログラムを格納し、この記録媒体305に格納されたプログラムはドライブ装置304を介して画像処理装置3にインストールされる。インストールされた所定のプログラムは、画像処理装置3により実行可能となる。   A predetermined program is stored in the recording medium 305, and the program stored in the recording medium 305 is installed in the image processing apparatus 3 via the drive device 304. The installed predetermined program can be executed by the image processing apparatus 3.

ネットワークI/F部306は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と画像処理装置3とのインターフェースである。   The network I / F unit 306 is a peripheral having a communication function connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line. This is an interface between the device and the image processing apparatus 3.

入力部307は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部308の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部307は、ユーザが制御部301に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。   The input unit 307 includes a keyboard having cursor keys, numeric input, various function keys, and the like, a mouse and a slice pad for selecting keys on the display screen of the display unit 308, and the like. The input unit 307 is a user interface for a user to give an operation instruction to the control unit 301 or input data.

表示部308は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、制御部301から入力される表示データに応じた表示が行われる。   The display unit 308 is configured by a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and performs display according to display data input from the control unit 301.

なお、実施例1及び実施例2で説明したフレームメモリは、例えば主記憶部302又は補助記憶部303により実現されうる。また、実施例1及び実施例2で説明したフレームメモリ以外の構成は、例えば制御部301及びワークメモリとしての主記憶部302により実現されうる。   The frame memory described in the first and second embodiments can be realized by the main storage unit 302 or the auxiliary storage unit 303, for example. Further, configurations other than the frame memory described in the first and second embodiments can be realized by the control unit 301 and the main storage unit 302 as a work memory, for example.

画像処理装置3で実行されるプログラムは、実施例1や実施例2で説明した各手段を含むモジュール構成となっている。実際のハードウェアとしては、制御部301が補助記憶部303からプログラムを読み出して実行することにより上記各手段のうち1又は複数の各手段が主記憶部302上にロードされ、1又は複数の各部が主記憶部302上に生成されるようになっている。   The program executed by the image processing apparatus 3 has a module configuration including each unit described in the first and second embodiments. As actual hardware, when the control unit 301 reads out and executes a program from the auxiliary storage unit 303, one or more of the above-described units are loaded onto the main storage unit 302, and one or more of the respective units are loaded. Are generated on the main storage unit 302.

このように、上述した実施例1や実施例2で説明した画像処理(ダイナミックレンジ拡張処理)は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、各実施例で説明した処理を実現することができる。   As described above, the image processing (dynamic range expansion processing) described in the first and second embodiments may be realized as a program for causing a computer to execute the image processing. The processing described in each embodiment can be realized by installing this program from a server or the like and causing the computer to execute the program.

また、このプログラムを記録媒体305に記録し、このプログラムが記録された記録媒体305をコンピュータや携帯端末に読み取らせて、前述した画像処理を実現させることも可能である。なお、記録媒体305は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。   It is also possible to record the program on the recording medium 305 and cause the computer or portable terminal to read the recording medium 305 on which the program is recorded to realize the above-described image processing. The recording medium 305 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, and information is electrically stored such as a ROM or flash memory. Various types of recording media such as a semiconductor memory for recording can be used.

なお、上述した実施例1や実施例2で説明した各手段は、各種の集積回路や電子回路を採用できる。また、実施例1で説明した各手段の一部を別の集積回路や電子回路とすることもできる。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。   Note that various integrated circuits and electronic circuits can be adopted as the means described in the first and second embodiments. Further, a part of each means described in the first embodiment can be replaced with another integrated circuit or electronic circuit. For example, examples of the integrated circuit include ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array). Examples of the electronic circuit include a central processing unit (CPU) and a micro processing unit (MPU).

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記変形例以外にも種々の変形及び変更が可能である。   Each embodiment has been described in detail above. However, the present invention is not limited to the specific embodiment, and various modifications and changes other than the above-described modification are possible within the scope described in the claims. .

1、2、3 画像処理装置
101、201 分析手段
102、202 輝度特徴抽出手段
103、203 フィルタ手段
104、208 フレームメモリ
105、206 輝度補正手段
106、206 画像重畳手段
107、207 量子化手段
1, 2, 3 Image processing apparatus 101, 201 Analysis means 102, 202 Luminance feature extraction means 103, 203 Filter means 104, 208 Frame memory 105, 206 Brightness correction means 106, 206 Image superimposition means 107, 207 Quantization means

Claims (5)

入力映像におけるフレーム間の輝度を用いて、前記輝度の時間変化に対する規則性を分析る分析手段と、
各フレームの輝度について、前記規則性に基づいて、各フレーム内の輝度値分布が目標とする分布になるように補正する補正手段と、
前記補正手段により輝度が補正された複数のフレームを重畳する重畳手段と、
を備え
前記補正手段は、1以上のフレームについて、フレーム内の輝度の取り得る値の間隔が減少するように補正することを特徴とする画像処理装置。
Using the luminance between frames in the input video, and analysis means that to analyze the regularity against the time change of the luminance,
Correction means for correcting the luminance value distribution of each frame based on the regularity so that the luminance value distribution in each frame becomes a target distribution;
Superimposing means for superimposing a plurality of frames whose luminance is corrected by the correcting means;
Equipped with a,
The image processing apparatus according to claim 1, wherein the correcting unit corrects one or more frames so that an interval between possible values of luminance in the frame is reduced .
前記分析手段は、
各フレームの輝度の平均及び/又は分散に対してカーブフィッティングを行い、
前記補正手段は、
前記各フレームの輝度値の平均及び/又は分散を補正する請求項1記載の画像処理装置。
The analysis means includes
Perform curve fitting for the average and / or variance of the brightness of each frame,
The correction means includes
The image processing apparatus according to claim 1, wherein the average and / or variance of the luminance value of each frame is corrected.
前記重畳手段は、
前記重畳されたフレームの有効性を判定し、有効であると判定した場合に前記重畳されたフレームを出力し、無効であると判定した場合には重畳されていないフレームを出力する請求項1又は2記載の画像処理装置。
The superimposing means includes
The validity of the superimposed frame is determined, the superimposed frame is output when it is determined to be valid, and the non-superimposed frame is output when it is determined to be invalid. 2. The image processing apparatus according to 2.
前記重畳手段は、
前記重畳されたフレームの輝度レベル数が閾値を超えていれば有効であると判定し、前記重畳されたフレームの輝度レベル数が閾値以下であれば無効であると判定する請求項3記載の画像処理装置。
The superimposing means includes
The image according to claim 3, wherein the image is determined to be valid if the number of luminance levels of the superimposed frame exceeds a threshold value, and is determined to be invalid if the number of luminance levels of the superimposed frame is equal to or less than the threshold value. Processing equipment.
入力映像におけるフレーム間の輝度を用いて、前記輝度の時間変化に対して規則性を分析する分析ステップと、
各フレームの輝度について、前記規則性に基づいて、各フレーム内の輝度値分布が目標とする分布になるよう、かつ、1以上のフレームについて、フレーム内の輝度の取り得る値の間隔が減少するように補正する補正ステップと、
前記輝度が補正された複数のフレームを重畳する重畳ステップと、
をコンピュータに実行させるためのプログラム。

An analysis step of analyzing regularity with respect to temporal change of the luminance using luminance between frames in the input video;
Regarding the luminance of each frame , based on the regularity , the luminance value distribution in each frame becomes a target distribution , and the interval of possible values of luminance in the frame is reduced for one or more frames. and a correction step of correcting, as,
A superimposing step of superimposing a plurality of frames whose luminance has been corrected;
A program that causes a computer to execute.

JP2012024001A 2012-02-07 2012-02-07 Image processing apparatus and program Expired - Fee Related JP5860298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012024001A JP5860298B2 (en) 2012-02-07 2012-02-07 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012024001A JP5860298B2 (en) 2012-02-07 2012-02-07 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2013161340A JP2013161340A (en) 2013-08-19
JP5860298B2 true JP5860298B2 (en) 2016-02-16

Family

ID=49173517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012024001A Expired - Fee Related JP5860298B2 (en) 2012-02-07 2012-02-07 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5860298B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108701438A (en) * 2015-11-18 2018-10-23 汤姆逊许可公司 The brightness management of high dynamic range displays

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7240181B2 (en) * 2019-01-15 2023-03-15 日本放送協会 Video processing device and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181970A (en) * 1991-12-27 1993-07-23 Toshiba Corp Moving image processor
JP3989615B2 (en) * 1997-06-27 2007-10-10 松下電器産業株式会社 Solid-state imaging device
JP4154157B2 (en) * 2002-02-25 2008-09-24 株式会社東芝 Imaging device
JP2004247880A (en) * 2003-02-12 2004-09-02 Hitachi Kokusai Electric Inc Shading correction method and apparatus therefor
JP2006222935A (en) * 2005-01-13 2006-08-24 Canon Inc Electronic still camera, image capturing method, program and storage medium
JP4774857B2 (en) * 2005-08-11 2011-09-14 カシオ計算機株式会社 Image processing apparatus and program
JP5022802B2 (en) * 2007-07-23 2012-09-12 キヤノン株式会社 Imaging apparatus and control method thereof
JP4770907B2 (en) * 2008-10-21 2011-09-14 ソニー株式会社 Imaging apparatus, imaging method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108701438A (en) * 2015-11-18 2018-10-23 汤姆逊许可公司 The brightness management of high dynamic range displays

Also Published As

Publication number Publication date
JP2013161340A (en) 2013-08-19

Similar Documents

Publication Publication Date Title
US9251573B2 (en) Device, method, and storage medium for high dynamic range imaging of a combined image having a moving object
US7489345B2 (en) Image processing apparatus, image-taking system, image processing method and image processing program
WO2019200657A1 (en) Method for processing image edge, electronic device, and computer readable storage medium
CN107395991B (en) Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment
US9123102B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer readable medium storing instructions for performing image correction
KR101821285B1 (en) Apparatus and method for thermal image enhancement
JP2015156615A (en) Image processing system, image processing method, control program, and recording medium
US9007495B1 (en) Image processing
US20130100310A1 (en) Image processing device, imaging device, and image processing program
KR101113483B1 (en) Apparatus for enhancing visibility of color image
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6365355B2 (en) Image generating apparatus and image generating method
US10319113B2 (en) Method for recovering highlights and saturated regions and extending dynamic range in a digital image
CN103858432A (en) Image processing device, method, program and recording medium
US9053552B2 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
US10699455B2 (en) Image processing system, image processing method, and image processing program recording medium
JP5860298B2 (en) Image processing apparatus and program
JP6624061B2 (en) Image processing method, image processing device, and recording medium for storing image processing program
US20210158487A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP6957665B2 (en) Image processing equipment, image processing methods and programs
KR101514152B1 (en) Method and apparatus for improving image quality using singular value decomposition
JP2017229025A (en) Image processing apparatus, image processing method, and program
JP6818585B2 (en) Image processing device, image processing method, and program
JP2006277688A (en) Apparatus and method for improving image quality, and program therefor
JP2016127505A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151218

R150 Certificate of patent or registration of utility model

Ref document number: 5860298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees