JP2009200762A - Image processing circuit, semiconductor device, and image processor - Google Patents
Image processing circuit, semiconductor device, and image processor Download PDFInfo
- Publication number
- JP2009200762A JP2009200762A JP2008039557A JP2008039557A JP2009200762A JP 2009200762 A JP2009200762 A JP 2009200762A JP 2008039557 A JP2008039557 A JP 2008039557A JP 2008039557 A JP2008039557 A JP 2008039557A JP 2009200762 A JP2009200762 A JP 2009200762A
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance
- parameter
- register
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000004065 semiconductor Substances 0.000 title claims description 22
- 238000006243 chemical reaction Methods 0.000 claims abstract description 222
- 238000004364 calculation method Methods 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 description 65
- 238000010586 diagram Methods 0.000 description 37
- 238000003702 image correction Methods 0.000 description 26
- 238000001514 detection method Methods 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 239000004973 liquid crystal related substance Substances 0.000 description 12
- 101100205847 Mus musculus Srst gene Proteins 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 5
- 230000001629 suppression Effects 0.000 description 5
- 102100035235 Coiled-coil domain-containing protein 141 Human genes 0.000 description 4
- 101000737219 Homo sapiens Coiled-coil domain-containing protein 141 Proteins 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000001771 impaired effect Effects 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成する画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置に関するものである。 The present invention relates to an image processing circuit that generates a desired output image by performing luminance conversion processing (luminance dynamic range correction processing) on an input image, a semiconductor device formed by integrating the image processing circuit, and an image processing device using the image processing circuit. Is.
従来より、入力画像をより美しく見せるための画像処理の一つとして、輝度変換処理が一般に用いられている。この輝度変換処理は、例えば、画像全体における輝度ヒストグラムに基づいて、画像領域全体に共通の輝度変換係数を算出し、各画素にこの輝度変換係数を乗じることで輝度変換を行うものである。 Conventionally, luminance conversion processing is generally used as one of image processing for making an input image look more beautiful. In this luminance conversion process, for example, a luminance conversion coefficient common to the entire image region is calculated based on a luminance histogram in the entire image, and the luminance conversion is performed by multiplying each pixel by the luminance conversion coefficient.
より具体的には、まず入力画像の全体を対象とした輝度ヒストグラム(各輝度範囲の頻度、すなわち、所定の輝度範囲毎に属する画素数の分布)を求める。そして、この輝度ヒストグラムに基づき、入力画像における各輝度範囲について、頻度の高いものほど出力画像においては広い輝度範囲を割り当てるように、逆に、頻度の低いものほど出力画像においては狭い輝度範囲を割り当てるように、輝度変換係数を算出するものである。従って、上記の輝度変換係数は、輝度毎に、或いは、所定の輝度範囲毎に、別個の値となる。 More specifically, first, a luminance histogram (frequency of each luminance range, that is, distribution of the number of pixels belonging to each predetermined luminance range) for the entire input image is obtained. Based on this luminance histogram, for each luminance range in the input image, a higher luminance frequency is assigned to the output image, while a lower luminance frequency is assigned to the output image. As described above, the luminance conversion coefficient is calculated. Therefore, the luminance conversion coefficient is a separate value for each luminance or for each predetermined luminance range.
これにより、入力画像において頻度の低い輝度範囲の部分については、よりコントラスト(輝度差)が曖昧となってしまうものの、逆に、入力画像において頻度の高い輝度範囲の部分については、よりコントラストが明瞭となる。そのため、画像全体として見てみると、入力時よりもコントラストを明瞭とすることが可能となる。 As a result, the contrast (brightness difference) becomes more ambiguous in the part of the luminance range that is less frequent in the input image, but the contrast is clearer in the part of the luminance range that is frequent in the input image. It becomes. Therefore, when viewed as an entire image, the contrast can be made clearer than at the time of input.
なお、上記に関連する従来技術としては、特許文献1〜4などを挙げることができる。
確かに、上記従来の画像処理装置であれば、画像全体として見てみると、入力画像よりも出力画像のコントラストを明瞭とすることができるので、その画質や視認性を高めることが可能となる。 Certainly, with the above-described conventional image processing apparatus, when viewed as an entire image, the contrast of the output image can be made clearer than the input image, so that the image quality and visibility can be improved. .
しかしながら、上記従来の画像処理装置では、入力画像全体が輝度変換処理の対象として固定されていたため、ユーザの意図しない領域にまで輝度変換処理を施してしまう場合があり、その画質や視認性を十分に改善しきれないおそれがあった。 However, in the conventional image processing apparatus, since the entire input image is fixed as the target of the luminance conversion process, the luminance conversion process may be performed even on an area not intended by the user, and the image quality and visibility are sufficiently high. There was a risk that it could not be improved.
本発明は、上記の問題点に鑑み、入力画像に含まれる任意の領域について、その画質や視認性を高めることが可能な画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置を提供することを目的とする。 In view of the above problems, the present invention provides an image processing circuit capable of improving the image quality and visibility of an arbitrary area included in an input image, a semiconductor device in which the image processing circuit is integrated, and the use thereof. An object of the present invention is to provide an image processing apparatus.
上記目的を達成するために、本発明に係る画像処理回路は、入力画像の補正有効領域を設定する補正有効領域設定部と;前記入力画像のうち、前記補正有効領域のみを複数のエリアに分割した上で、各エリア毎の輝度変換係数を算出する輝度変換係数算出部と;各エリアを構成する画素に対して、各エリア毎の輝度変換係数に応じた輝度変換処理を施す輝度変換処理部と;を有して成る構成(第1の構成)とされている。 In order to achieve the above object, an image processing circuit according to the present invention includes a correction effective area setting unit that sets a correction effective area of an input image; of the input image, only the correction effective area is divided into a plurality of areas. Then, a luminance conversion coefficient calculation unit that calculates a luminance conversion coefficient for each area; a luminance conversion processing unit that performs a luminance conversion process according to the luminance conversion coefficient for each area on the pixels that constitute each area; And (a first configuration).
なお、上記第1の構成から成る画像処理回路にて、前記補正有効領域設定部は、前記補正有効領域を定めるための設定値を格納するレジスタを有して成る構成(第2の構成)にするとよい。 In the image processing circuit having the first configuration, the correction effective area setting unit has a configuration (second configuration) including a register for storing a setting value for determining the correction effective area. Good.
また、上記第2の構成から成る画像処理回路にて、前記設定値には、前記補正有効領域のスタート位置を示すレジスタ値と、前記補正有効領域の画素サイズを示すレジスタ値が含まれている構成(第3の構成)にするとよい。 In the image processing circuit having the second configuration, the set value includes a register value indicating the start position of the correction effective area and a register value indicating the pixel size of the correction effective area. A configuration (third configuration) is preferable.
また、本発明に係る半導体装置は、上記第1〜第3いずれかの構成から成る画像処理回路を集積化して成る構成(第4の構成)とされている。 The semiconductor device according to the present invention has a configuration (fourth configuration) in which the image processing circuits having any one of the first to third configurations are integrated.
また、本発明に係る画像処理装置は、上記第4の構成から成る半導体装置と、前記半導体装置に前記入力画像を供給する画像入力源と、を有して成る構成(第5の構成)とされている。 An image processing apparatus according to the present invention includes a semiconductor device having the fourth configuration described above and an image input source that supplies the input image to the semiconductor device (fifth configuration). Has been.
本発明に係る画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置であれば、入力画像の補正有効領域を任意に設定することにより、入力画像に含まれる任意の領域について、その画質や視認性を高めることが可能となる。 In the image processing circuit according to the present invention, a semiconductor device formed by integrating the image processing circuit, and an image processing device using the image processing circuit, an arbitrary correction image can be included in the input image by arbitrarily setting the correction effective area of the input image. It is possible to improve the image quality and visibility of these areas.
以下では、動画撮像により得られた各フレームの画像に対して輝度変換処理を行う画像処理装置に本発明を適用した場合を例に挙げて、詳細な説明を行う。 In the following, a detailed description will be given by taking as an example a case where the present invention is applied to an image processing apparatus that performs luminance conversion processing on an image of each frame obtained by moving image capturing.
まず、本発明に係る画像処理装置の第1実施形態について詳細に説明する。 First, a first embodiment of an image processing apparatus according to the present invention will be described in detail.
図1は、本発明に係る画像処理装置の第1実施形態を示すブロック図である。 FIG. 1 is a block diagram showing a first embodiment of an image processing apparatus according to the present invention.
本図に示す通り、本実施形態の画像処理装置1は、撮像部10と、輝度変換処理部11と、輝度変換係数算出部12と、輝度変換係数記憶部13と、出力部14を有して成る。
As shown in this figure, the
撮像部10は、所定のレンズ群や撮像素子(例えば、CMOS[Complementary Metal-Oxide Semiconductor]センサやCCD[Charge Coupled Devices]センサ)等を備えており、被写体の光学像を結像させることで被写体の撮像処理(例えば30フレーム毎秒の動画撮像)を行う。なお、各フレームに係る画像データは、輝度変換処理部11及び輝度変換係数算出部12に逐次出力される。
The
輝度変換処理部11は、撮像部10から入力される各フレーム毎の画像データ(入力画像)に対し、輝度変換処理を施して出力する。なお、この輝度変換処理は、入力画像における各画素の輝度を、輝度変換係数記憶部13に記憶されている輝度変換係数に応じて変換することにより行われる。
The luminance
輝度変換係数算出部12は、撮像部10から入力される各フレーム毎の画像データ(入力画像)に基づいて、輝度変換処理に用いられる輝度変換係数を算出する。なお、輝度変換係数の内容及び輝度変換係数の算出方法については、後に改めて説明する。
The luminance conversion
輝度変換係数記憶部13は、輝度変換係数算出部12によって算出された輝度変換係数を、少なくとも次のフレームに係る輝度変換処理が実行されるまで記憶する。なお、この記憶内容は、輝度変換処理部11における輝度変換処理において用いられることとなる。
The luminance conversion
出力部14は、LCD[Liquid Crystal Display]等のディスプレイ(例えば、車載モニタ)を備えており、輝度変換処理部11によって輝度変換処理のなされた出力画像を逐次表示する。
The
上記構成から成る画像処理装置1は、動画撮像により得られた入力画像に輝度変換係数に基づいた輝度変換処理を施して、これをディスプレイ表示する。
The
なお、上記構成要素のうち、輝度変換処理部11、輝度変換係数算出部12、及び、輝度変換係数記憶部13については、半導体装置に集積化するとよい。
Of the above-described components, the luminance
次に、画像処理装置1における画像処理の全体的な流れについて、図2を参照しながら説明する。
Next, the overall flow of image processing in the
図2は、画像処理装置1における画像処理の全体的な流れを説明するための図である。
FIG. 2 is a diagram for explaining the overall flow of image processing in the
本図に示すように、第n番目のフレームに係る入力画像が到来すると、輝度変換係数算出部12は、入力画像に基づいて輝度変換係数の算出を行う。これにより、第n番目のフレームに基づいて定められる輝度変換係数が得られ、これが輝度変換係数記憶部13に一旦格納される。
As shown in this figure, when an input image related to the nth frame arrives, the luminance conversion
一方、輝度変換処理部11は、到来した第n番目のフレームに係る入力画像に対し、既に輝度変換係数記憶部13に格納されている第(n−1)番目のフレームに基づいて定められた輝度変換係数を用いて輝度変換処理を施す。
On the other hand, the luminance
より具体的には、n番目のフレームにおける座標(i,j)の画素について、輝度変換処理前の輝度をIij(n)、輝度変換処理後の輝度をOij(n)とし、(n−1)番目のフレームに基づいて、座標(i,j)の画素に対して定められた輝度変換係数をTij(n−1)とすると、各フレームの各画素に係る輝度は、下記の(1)式に基づいて、変換処理される。そして、輝度変換処理部11にて輝度変換処理のなされた出力画像は、出力部14を通じて出力される。
More specifically, for a pixel at coordinates (i, j) in the nth frame, the luminance before luminance conversion processing is Iij (n), the luminance after luminance conversion processing is Oij (n), and (n−1) ) If the luminance conversion coefficient determined for the pixel at coordinates (i, j) based on the first frame is Tij (n−1), the luminance related to each pixel in each frame is (1) Conversion processing is performed based on the expression. Then, the output image that has been subjected to the luminance conversion processing by the luminance
Oij(n)=Tij(n−1)×Iij(n) ・・・(1)
このように、本実施形態の画像処理装置1は、第n番目のフレームに係る入力画像に対しては、第(n−1)番目のフレームに基づいて定められる輝度変換係数を用いて輝度変換処理を行う構成とされている。そのため、第n番目の輝度変換係数の算出を待たずに、第n番目の輝度変換処理および画像出力を実行することが可能となる。その結果、入力画像に輝度変換処理を施したものを極力早い時期に出力することが可能となり、リアルタイムに近い画像出力が可能となる。
Oij (n) = Tij (n−1) × Iij (n) (1)
As described above, the
なお、第n番目のフレームに係る入力画像に対して、第(n−2)番目以前のフレームに基づいて定められた輝度変換係数を用いて輝度変換処理を行うことも可能ではあるが、あまり古いフレームに基づいた輝度変換係数を用いた場合、変換処理の精度が問題となることに注意を要する。この問題は、特に、動きの大きい動画である場合に顕著となる。また、例えば、入力画像として静止画を扱う場合等においては、第n番目のフレームに係る入力画像に対して、第n番目のフレームに基づいて定められた輝度変換係数を用いて輝度変換処理を行うようにしても良い。 Note that although it is possible to perform the luminance conversion process on the input image related to the nth frame using the luminance conversion coefficient determined based on the (n−2) th and previous frames, It should be noted that the accuracy of the conversion process becomes a problem when the luminance conversion coefficient based on the old frame is used. This problem is particularly noticeable when the moving image has a large movement. For example, when a still image is handled as an input image, the luminance conversion process is performed on the input image related to the nth frame using a luminance conversion coefficient determined based on the nth frame. You may make it do.
次に、輝度変換係数の算出処理の内容について、図3のフローチャートを参照しながら説明する。 Next, the content of the luminance conversion coefficient calculation process will be described with reference to the flowchart of FIG.
図3は、画像処理装置1における輝度変換係数の算出処理を説明するためのフローチャートである。
FIG. 3 is a flowchart for explaining the luminance conversion coefficient calculation processing in the
まず、1フレーム分の入力画像に対して、エリア分割を行う(ステップS11)。 First, area division is performed on an input image for one frame (step S11).
図4は、画像処理装置1におけるエリア分割の態様を説明するための図である。
FIG. 4 is a diagram for explaining a mode of area division in the
なお、図4の例では、1フレームが縦40×横64(=2560)の画素から構成されているものとし、1エリアは8×8画素分の大きさとする。従って、エリアの総数は、縦5エリア×横8エリア=40エリアとなる。また、各エリアについては、左上から順に、A0、A1、・・・、An、・・・、A39と称することにする。 In the example of FIG. 4, it is assumed that one frame is composed of 40 × 64 pixels (= 2560), and one area is 8 × 8 pixels in size. Accordingly, the total number of areas is 5 vertical areas × 8 horizontal areas = 40 areas. Each area will be referred to as A0, A1,..., An,.
エリア分割が完了したら、次に、エリア別変換係数の算出を行う(図3のステップS12)。このエリア別変換係数は、エリア毎に決定されるものであり、エリア内の各画素に共通となる。 When the area division is completed, the area-specific conversion coefficient is calculated (step S12 in FIG. 3). This area-specific conversion coefficient is determined for each area, and is common to each pixel in the area.
なお、エリア別変換係数の算出方法については、フレーム全体を対象とする変換係数の算出方法と同様であるため、ここでは詳細な説明を割愛するが、フレーム全体の輝度ヒストグラムではなく、エリア毎の輝度ヒストグラム(各輝度または各輝度範囲に属する画素の出現頻度)が算出された後、当該エリア毎の輝度ヒストグラムに基づいて変換係数が算出される、という点で従来構成とは異なっている。このようにして算出されたエリア別変換係数によれば、分割された各エリアにつき、入力画像において高頻度な輝度範囲であるほど、出力画像において広い輝度範囲が割り当てられることとなる。 Note that the method for calculating the conversion coefficient for each area is the same as the method for calculating the conversion coefficient for the entire frame, and a detailed description thereof is omitted here. This is different from the conventional configuration in that after a luminance histogram (appearance frequency of pixels belonging to each luminance or each luminance range) is calculated, a conversion coefficient is calculated based on the luminance histogram for each area. According to the area-specific conversion coefficient calculated in this way, for each divided area, a wider luminance range in the output image is assigned to a higher luminance range in the input image.
図3のステップS12では、画像領域内の全エリアについて、エリア別変換係数が算出される。すなわち、各々のエリア毎に、固有のエリア別変換係数が定まることとなる。そして、エリア別変換係数をそのまま輝度変換係数として採用し、入力画像の輝度変換処理を実行するものとしても良い。これにより、画像全体に比べて輝度差の大きい箇所が部分的に存在していても、当該部分を含めた良好なコントラストを得ることが可能となる。 In step S12 of FIG. 3, area-specific conversion coefficients are calculated for all areas in the image area. That is, a unique area-specific conversion coefficient is determined for each area. Then, the area-specific conversion coefficient may be adopted as the luminance conversion coefficient as it is, and the luminance conversion process of the input image may be executed. As a result, even when a portion having a large luminance difference as compared with the entire image partially exists, it is possible to obtain a good contrast including the portion.
ただし、エリア別変換係数は、そのエリアの外、すなわち、他のエリアに係る輝度情報は基本的に考慮されない。そのため、エリア同士の境界部分では、輝度の差が目立ち(輝度の分布が高周波となり)、滑らかさの点において良好とはいえない画像が出力されるおそれがある。そこで、本実施形態では、各エリアについて算出されたエリア別変換係数に対し、フィルタ処理等を行うこととする。この処理の内容について具体的に説明する。 However, the area-specific conversion coefficient does not basically consider luminance information outside the area, that is, other areas. For this reason, the difference in luminance is conspicuous (brightness distribution has a high frequency) at the boundary between areas, and an image that is not good in terms of smoothness may be output. Therefore, in this embodiment, filter processing or the like is performed on the area-specific conversion coefficients calculated for each area. The contents of this process will be specifically described.
まず、フィルタ処理等の実行に先立ち、画像領域の外部に上述したエリアと同規模の仮想エリアを設定する。 First, prior to execution of filter processing or the like, a virtual area having the same scale as the above-described area is set outside the image area.
図5は、仮想エリア(図中のA40〜A69)が設定された状態を説明するための図である。 FIG. 5 is a diagram for explaining a state in which virtual areas (A40 to A69 in the figure) are set.
そして、これらの仮想エリアA40〜A69に対して、仮想のエリア別変換係数(以下では、仮想係数と呼ぶ)を設定する(図3のステップS13)。なお、この仮想係数は、後述する通り、画像領域の外縁付近のエリアに対しても、通常通りフィルタ処理を実行し得るようにするためのものであり、エリア別変換係数と同様の形式をとるものである。 Then, virtual area-specific conversion coefficients (hereinafter referred to as virtual coefficients) are set for these virtual areas A40 to A69 (step S13 in FIG. 3). As will be described later, this virtual coefficient is used to allow normal filtering processing to be performed on an area near the outer edge of the image area, and takes the same form as the area-specific conversion coefficient. Is.
上記の仮想係数は、仮想エリアに隣り合う各エリア(画像領域の外縁に位置する各エリア)を基準として、当該仮想エリアと対称位置に存在するエリアのエリア別変換係数を参照して設定される。例えば、A41はA0に対してA8と対称であるから、A41の仮想係数は、A8のエリア別変換係数と同値とする。同様に、A42はA1に対してA9と対称であるから、A42の仮想係数は、A9のエリア別変換係数と同値とする。一方、四隅に位置するA40はA0に対してA9と対称であるから、A40の仮想係数は、A9のエリア別変換係数と同値とする。 The virtual coefficient is set with reference to each area adjacent to the virtual area (each area located at the outer edge of the image area) with reference to the area-specific conversion coefficient of the area existing at a symmetric position with the virtual area. . For example, since A41 is symmetric with A8 with respect to A0, the virtual coefficient of A41 has the same value as the area-specific conversion coefficient of A8. Similarly, since A42 is symmetric with A9 with respect to A1, the virtual coefficient of A42 is set to the same value as the area-specific conversion coefficient of A9. On the other hand, since A40 located at the four corners is symmetrical with A9 with respect to A0, the virtual coefficient of A40 has the same value as the area-specific conversion coefficient of A9.
なお、仮想係数の設定方法は、上述の他、例えば、画像領域の外縁(図5中の太線)に対して対称となるように設定しても良い。この場合、A41は画像領域の外縁に対してA0と対称であるから、A40の仮想係数は、A0のエリア別変換係数と同値とする。同様に、A42は画像領域の外縁に対してA1と対称であるから、A42の仮想係数は、A1のエリア別変換係数と同値とする。一方、四隅に位置するA40は画像領域の外縁に対してA0と対称であるから、A40の仮想係数は、A0のエリア別変換係数と同値とする。 In addition to the above, the setting method of the virtual coefficient may be set to be symmetric with respect to the outer edge of the image area (thick line in FIG. 5), for example. In this case, since A41 is symmetrical with A0 with respect to the outer edge of the image area, the virtual coefficient of A40 is set to the same value as the area-specific conversion coefficient of A0. Similarly, since A42 is symmetric with A1 with respect to the outer edge of the image area, the virtual coefficient of A42 is set to the same value as the area-specific conversion coefficient of A1. On the other hand, A40 located at the four corners is symmetric with A0 with respect to the outer edge of the image area, so the virtual coefficient of A40 is the same value as the area-specific conversion coefficient of A0.
このように、各仮想エリアに対して仮想係数を設定したら、次に、画像領域内の各エリアにおけるエリア別変換係数について、画像空間的にローパスフィルタをかける処理(フィルタ処理)を実行する(図3のステップS14)。 After setting the virtual coefficient for each virtual area in this way, next, a process (filter process) for applying a low-pass filter in the image space is performed on the area-specific conversion coefficient in each area in the image area (FIG. 5). 3 step S14).
図6は、ローパスフィルタの態様を説明するための図である。 FIG. 6 is a diagram for explaining an aspect of the low-pass filter.
これによれば、ある注目エリアについてフィルタを施す場合に、注目エリア周辺の所定範囲(この場合は上下左右の4エリア)に存在するエリアのエリア別変換係数が用いられることになる。ただし、この所定範囲の一部が画像領域からはみ出す場合、そのはみ出した部分については、その位置の仮想エリアに割り当てられた仮想係数をエリア別変換係数と仮定する。 According to this, when a filter is applied to a certain area of interest, the area-specific conversion coefficients of areas existing in a predetermined range around the area of interest (in this case, the four areas on the top, bottom, left, and right) are used. However, when a part of the predetermined range protrudes from the image area, the virtual coefficient assigned to the virtual area at that position is assumed to be the area-specific conversion coefficient.
例えば、エリアA0におけるフィルタ処理後のエリア別変換係数a’(0)は、以下のようになる。なお、a(n)は、エリアAn(n=0,1,8,41,50)における当該フィルタ処理前のエリア別変換係数を示している。また、a(41)とa(50)は、それぞれ仮想エリアA41とA50における仮想係数である。 For example, the area-specific conversion coefficient a ′ (0) after the filter processing in the area A0 is as follows. Note that a (n) represents the area-specific conversion coefficient in the area An (n = 0, 1, 8, 41, 50) before the filter processing. Further, a (41) and a (50) are virtual coefficients in the virtual areas A41 and A50, respectively.
a´(0)=a(0)/2+[a(1)+a(8)+a(41)+a(50)]/8
このようなフィルタ処理により、エリア同士の境界部分において輝度の差が目立っていた場合であっても、かかる輝度の差を軽減させることが可能となる。また、本実施形態では、ローパスフィルタとして図6に示すものを挙げたが、どの範囲までのエリアに係るエリア別変換係数を考慮するか、また、フィルタにおける各エリア毎の重み付けをどのようにするか等については、種々の態様とすることが可能である。
a ′ (0) = a (0) / 2 + [a (1) + a (8) + a (41) + a (50)] / 8
Such a filtering process can reduce the difference in luminance even when the difference in luminance is conspicuous at the boundary between areas. In the present embodiment, the low-pass filter shown in FIG. 6 has been described. However, the area-specific conversion coefficient related to the area up to which range is considered, and the weighting for each area in the filter is performed. Various aspects can be adopted.
上記したフィルタ処理がなされたエリア別変換係数をそのまま輝度変換係数として採用し、入力画像の輝度変換処理を実行するようにしても良い。しかし、本実施形態では、さらに出力画像の滑らかさを得るため、画素ごとに決定される(同一エリア内でも、各画素に共通とは限らない)画素別変換係数を算出し(図3のステップS15)、これを輝度変換係数として適用する(図3のステップS16)。 The area-specific conversion coefficient that has been subjected to the above-described filter processing may be directly used as the luminance conversion coefficient, and the luminance conversion process of the input image may be executed. However, in this embodiment, in order to further obtain the smoothness of the output image, a pixel-specific conversion coefficient determined for each pixel (not necessarily common to each pixel even in the same area) is calculated (step of FIG. 3). S15), and this is applied as a luminance conversion coefficient (step S16 in FIG. 3).
ここで、この画素別変換係数の算出方法(バイリニア演算)について、図7を参照しながら説明する。 Here, a calculation method (bilinear calculation) of the conversion coefficient for each pixel will be described with reference to FIG.
図7は、バイリニア演算について説明するための図である。 FIG. 7 is a diagram for explaining bilinear calculation.
ある注目画素についての画素別変換係数を定めるにあたっては、当該画素の近傍に係る4個のエリアに着目する。例えば、図7における画素Pが注目画素であるときは、A0、A1、A8、及び、A9のエリアに着目することとなる。つまり、各エリアが一つの頂点を共有するとともに、各エリアの中心同士を結んでできる四辺形の内部に注目画素が位置する関係となるように、4個のエリアを選ぶこととする。 In determining the pixel-specific conversion coefficient for a certain target pixel, attention is paid to four areas related to the vicinity of the pixel. For example, when the pixel P in FIG. 7 is the target pixel, attention is paid to the areas A0, A1, A8, and A9. In other words, four areas are selected so that each area shares one vertex and the pixel of interest is located inside a quadrilateral formed by connecting the centers of the areas.
そして、注目画素Pの画素別変換係数は、これら4個のエリアの各々におけるフィルタ処理後のエリア別変換係数[a´(0)、a´(1)、a´(8)、a´(9)]と、注目画素Pの位置と、当該4個のエリアの各々における中心位置と、に係るバイリニア演算により算出される。 The pixel-specific conversion coefficients of the pixel of interest P are the area-specific conversion coefficients [a ′ (0), a ′ (1), a ′ (8), a ′ ( 9)], the position of the target pixel P, and the center position in each of the four areas.
より具体的には、図7に示すように、横方向のエリア間距離をX、縦方向のエリア間距離をY、エリアA0の中心と注目画素Pとの横方向の距離をa、同じく縦方向の距離をbとした場合、注目画素Pの画素別変換係数p(P)は、次のように求められる。 More specifically, as shown in FIG. 7, the horizontal distance between the areas is X, the vertical distance between the areas is Y, the horizontal distance between the center of the area A0 and the target pixel P is a, and the vertical distance is the same. When the distance in the direction is b, the pixel-by-pixel conversion coefficient p (P) of the target pixel P is obtained as follows.
p(P)={ a´(0)×(X−a)×(Y−b)
+a´(1)×a×(Y−b)
+a´(8)×(X−a)×b
+a´(9)×a×b ] /(X×Y)
なお、当該バイリニア演算においても、注目画素が画像領域の外縁付近にある場合は、着目する4個のエリアのうちの一部が画像領域からはみ出してしまうことが考えられる。このような場合でも、先述したフィルタ処理の場合と同様、仮想エリアおよび仮想係数を設定しておくこと等により、通常のバイリニア演算が実行可能である。
p (P) = {a ′ (0) × (X−a) × (Y−b)
+ A ′ (1) × a × (Y−b)
+ A ′ (8) × (X−a) × b
+ A ′ (9) × a × b] / (X × Y)
Even in the bilinear calculation, if the target pixel is in the vicinity of the outer edge of the image area, it is conceivable that a part of the four areas of interest protrudes from the image area. Even in such a case, a normal bilinear calculation can be performed by setting a virtual area and a virtual coefficient as in the case of the filter processing described above.
かかる方法によって、画像領域内の全ての画素について画素別変換係数を算出し、これを各々対応する画素に関する輝度変換係数とする。これにより、エリア別変換係数に基づいてエリア同士の境界部を含めて輝度の変化が滑らかとなるように、画素別変換係数が算出される。その結果、輝度変化の不連続な部分が生じることを極力回避することが可能となり、より美しい画像を出力することが容易となる。 With this method, pixel-specific conversion coefficients are calculated for all pixels in the image area, and these are used as luminance conversion coefficients for the corresponding pixels. Accordingly, the pixel-specific conversion coefficient is calculated based on the area-specific conversion coefficient so that the luminance change is smooth including the boundary portion between the areas. As a result, it is possible to avoid the occurrence of a discontinuous portion of luminance change as much as possible, and it becomes easy to output a more beautiful image.
なお、上述のようにバイリニア演算を用いた場合、通常、エリア同士の境界における輝度の差がより小さくなるように画素別変換係数が算出されることになる。しかし、エリア同士の境界における輝度の差を確実に小さくさせるため、上記バイリニア演算に代えて、またはバイリニア演算に加えて、別の演算手段を適用することとしても良い。 When bilinear calculation is used as described above, the pixel-specific conversion coefficient is usually calculated so that the difference in luminance at the boundary between areas becomes smaller. However, another calculation means may be applied instead of the bilinear calculation or in addition to the bilinear calculation in order to surely reduce the luminance difference at the boundary between the areas.
また、先述の輝度変換係数記憶部13には、エリア別変換係数(エリア毎の係数)のみを格納しておき、最終的に輝度変換係数として採用する画素別変換係数(画素毎の係数)については、輝度変換処理が実行される時に算出されるものとしてもよい。このようにすれば、画素別変換係数を格納するものに比べて、輝度変換係数記憶部13のメモリ容量が少なくて済むようになる。
In addition, the above-described luminance conversion
また、上述した「画素」については、文字通り単一の画素を「画素」とする他、例えばRGB(赤・緑・青)の各画素からなる画素群を一体として考え、「画素」として取り扱うようにしてもよい。この場合「画素の輝度」は、当該画素群における輝度の平均値等と考えることができる。 As for the above-mentioned “pixel”, literally a single pixel is regarded as a “pixel”, and for example, a pixel group composed of RGB (red, green, and blue) pixels is considered as a unit and treated as a “pixel”. It may be. In this case, the “pixel luminance” can be considered as an average value of luminance in the pixel group.
また、上述した「輝度変換係数」および「エリア別変換係数」は、入力画素の輝度と出力画素の輝度との関係を定めるものであり、例えば、入力時の輝度毎に定められる出力画素の輝度と入力画素の輝度との比として与えられるが、これには限定されない。 Further, the above-described “brightness conversion coefficient” and “area-specific conversion coefficient” define the relationship between the luminance of the input pixel and the luminance of the output pixel. For example, the luminance of the output pixel determined for each luminance at the time of input. However, the present invention is not limited to this.
また、上述した「画素別変換係数」も、「輝度変換係数」や「エリア別変換係数」と同様に、入力画素の輝度と出力画素の輝度との関係を定めるものであり、例えば、入力時の輝度毎に定められる出力画素の輝度と入力画素の輝度との比として与えられるが、これに限定されるものではない。 In addition, the “pixel-specific conversion coefficient” described above defines the relationship between the luminance of the input pixel and the luminance of the output pixel, similarly to the “luminance conversion coefficient” and the “area-specific conversion coefficient”. Is given as a ratio between the luminance of the output pixel and the luminance of the input pixel determined for each luminance, but is not limited to this.
上記したように、本実施形態の画像処理装置1であれば、画像全体からみると頻度の低い輝度(或いは輝度範囲)に係る部分が存在しても、当該部分を含めて良好なコントラストを得ることが可能となる。
As described above, with the
ただし、本実施形態の画像処理装置1では、エリア毎の輝度ヒストグラムに基づいて、輝度変換係数が算出されるため、輝度値の小さい画素が多数を占めるエリア(すなわち、暗いエリア)については、低輝度部分(暗い部分)のコントラストが高められることに伴って、暗所で発生しやすい撮像素子のノイズが目立ちやすくなるが、出力画像に対してノイズフィルタ処理を一律に施してしまうと、暗い部分のノイズを除去し得る反面、明るい部分の鮮明度を損なうおそれがある。
However, in the
そこで、以下では、上記の不具合を解消するための手段として、本発明に係る画像処理装置の第2実施形態を提案し、その構成及び動作について詳細な説明を行う。 Therefore, in the following, a second embodiment of the image processing apparatus according to the present invention is proposed as means for solving the above problems, and the configuration and operation thereof will be described in detail.
図8は、本発明に係る画像処理装置の第2実施形態を示すブロック図である。 FIG. 8 is a block diagram showing a second embodiment of the image processing apparatus according to the present invention.
本図に示すように、本実施形態の画像処理装置1−2は、先述の第1実施形態とほぼ同様の構成から成り、低輝度画素にのみノイズフィルタ処理を施す点に特徴を有している。そこで、第1実施形態と同様の部分については、図1と同一の符号を付すことで説明を省略し、以下では、本実施形態の特徴部分について、重点的な説明を行うことにする。 As shown in the figure, the image processing apparatus 1-2 of the present embodiment has a configuration substantially similar to that of the first embodiment described above, and is characterized in that noise filter processing is performed only on low-luminance pixels. Yes. Therefore, the same parts as those of the first embodiment are denoted by the same reference numerals as those in FIG. 1, and the description thereof will be omitted. Hereinafter, the characteristic parts of this embodiment will be mainly described.
本実施形態の画像処理装置1−2は、上記ノイズフィルタ処理を実現する手段として、ノイズフィルタ処理部15と、ノイズフィルタ制御部16と、を有して成る。
The image processing apparatus 1-2 according to the present embodiment includes a noise
なお、画像処理装置1−2を構成する回路要素のうち、先述した輝度変換処理部11、輝度変換係数算出部12、及び、輝度変換係数記憶部13のほか、ノイズフィルタ処理部15、及び、ノイズフィルタ制御部16についても、半導体装置に集積化するとよい。
Of the circuit elements constituting the image processing apparatus 1-2, in addition to the above-described luminance
ノイズフィルタ処理部15は、輝度変換処理部11の出力画像を構成する各画素に対して、所定のノイズフィルタ処理を施す手段である。なお、ノイズフィルタ処理の一例としては、ある注目画素(ノイズフィルタ処理の対象となる画素)の輝度値と、その周辺画素(例えば上下左右の4画素)の輝度値を参照して、先述のローパスフィルタ処理と同様の重み付け演算を施すことが考えられる。
The noise
ノイズフィルタ制御部16は、輝度変換係数算出部12で得られる各画素毎の輝度値に基づいて、ノイズフィルタ処理の実施/不実施を切り替える手段である。なお、本実施形態のノイズフィルタ制御部16は、輝度ダイナミックレンジ補正処理(具体的には輝度ヒストグラムの取得処理)に際して、輝度変換係数算出部12で得られる各画素毎の輝度値を入力順にバッファしておき、所定の閾値よりも低い輝度値を有する画素にのみ、ノイズフィルタ処理を施すように、ノイズフィルタ処理部16に指示を送る構成とされている。
The noise
このような構成とすることにより、入力画像の各画素毎に、ノイズフィルタ処理の要否を判断して、その実施/不実施を切り替えることができるので、ノイズが強調されているおそれのある暗い部分については、ノイズフィルタ処理を施す一方、明るい部分については、ノイズが目立ちにくいことに鑑みて、ノイズフィルタ処理を施すことなく、その鮮明度を優先することが可能となる。 By adopting such a configuration, it is possible to determine whether or not noise filter processing is necessary for each pixel of the input image, and to switch between implementation / non-execution, so that the noise may be emphasized. While the noise filter processing is performed on the portion, it is possible to give priority to the sharpness of the bright portion without performing the noise filter processing in view of the fact that noise is not noticeable.
従って、本実施形態の画像処理装置1−2であれば、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成するに際して、暗い部分のノイズが強調された場合でも、明るい部分の鮮明度を損なうことなく、暗い部分のノイズを適切に除去し、出力画像の画質や視認性を高めることが可能となる。 Therefore, in the case of the image processing apparatus 1-2 of the present embodiment, when a desired output image is generated by performing luminance conversion processing (luminance dynamic range correction processing) on the input image, noise in dark portions is emphasized. However, it is possible to appropriately remove the noise in the dark part without impairing the sharpness of the bright part and improve the image quality and visibility of the output image.
なお、上記の第2実施形態では、入力画像を複数エリアに分割し、各エリア毎の輝度ヒストグラムに基づいて輝度変換係数を算出する画像処理装置に本発明を適用した場合を例に挙げて説明を行ったが、低輝度画素にのみノイズフィルタ処理を施す本願発明の適用対象に関して言えば、何ら上記実施形態に限定されるものではなく、入力画像全体の輝度ヒストグラムに基づいて輝度変換係数を算出し、入力画像を構成する各画素に対して、輝度変換係数に応じた輝度変換処理を施すことにより、所望の出力画像を生成する画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置全般に広く適用することが可能である。 In the second embodiment, the case where the present invention is applied to an image processing apparatus that divides an input image into a plurality of areas and calculates a luminance conversion coefficient based on a luminance histogram for each area will be described as an example. However, as far as the application target of the present invention in which noise filter processing is performed only on low-luminance pixels, the present invention is not limited to the above embodiment, and the luminance conversion coefficient is calculated based on the luminance histogram of the entire input image. An image processing circuit that generates a desired output image by performing luminance conversion processing corresponding to a luminance conversion coefficient on each pixel constituting the input image, a semiconductor device formed by integrating the image processing circuit, and The present invention can be widely applied to all image processing apparatuses using the.
また、本発明の構成は、上記実施形態のほか、発明の主旨を逸脱しない範囲で種々の変更を加えることが可能である。 The configuration of the present invention can be variously modified within the scope of the present invention in addition to the above embodiment.
例えば、上記の第2実施形態では、ノイズフィルタ制御部16を用いてノイズフィルタ処理の実施/不実施を切り替える構成を例に挙げて説明を行ったが、本発明の構成はこれに限定されるものではなく、例えば、輝度変換係数算出部12で得られる各画素毎の輝度値に基づいて、ノイズフィルタ処理の特性を調整する構成(例えば、先述した重み付け演算の係数を可変制御する構成)としてもよい。このような構成とすることにより、ノイズフィルタ処理の実施/不実施を切り替える構成に比べて、さらに柔軟なノイズフィルタ制御を実現することが可能となる。
For example, in the second embodiment, the description has been given by taking as an example the configuration for switching between implementation / non-implementation of the noise filter processing using the noise
次に、本発明に係る画像処理装置の第3実施形態について詳細に説明する。 Next, a third embodiment of the image processing apparatus according to the present invention will be described in detail.
図9は、本発明に係る画像処理装置の第3実施形態を示すブロック図である。 FIG. 9 is a block diagram showing a third embodiment of the image processing apparatus according to the present invention.
本図に示すように、本実施形態の画像処理装置1−3は、先述の第1実施形態とほぼ同様の構成から成り、輝度ダイナミックレンジ補正処理の補正量を反映してノイズフィルタ処理を施す点に特徴を有している。そこで、第1実施形態と同様の部分については、図1と同一の符号を付すことで説明を省略し、以下では、本実施形態の特徴部分について、重点的な説明を行うことにする。 As shown in this figure, the image processing apparatus 1-3 of the present embodiment has a configuration substantially similar to that of the first embodiment described above, and performs noise filter processing reflecting the correction amount of the luminance dynamic range correction processing. It is characterized by a point. Therefore, the same parts as those of the first embodiment are denoted by the same reference numerals as those in FIG. 1, and the description thereof will be omitted. Hereinafter, the characteristic parts of this embodiment will be mainly described.
本実施形態の画像処理装置1−3は、上記ノイズフィルタ処理を実現する手段として、ノイズフィルタ処理部15−2と、フィルタ係数設定部17と、を有して成る。
The image processing apparatus 1-3 according to the present embodiment includes a noise filter processing unit 15-2 and a filter
なお、画像処理装置1−3を構成する回路要素のうち、先述した輝度変換処理部11、輝度変換係数算出部12、及び、輝度変換係数記憶部13のほか、ノイズフィルタ処理部15−2、及び、フィルタ係数設定部17についても、半導体装置に集積化するとよい。
Of the circuit elements constituting the image processing apparatus 1-3, in addition to the above-described luminance
ノイズフィルタ処理部15−2は、フィルタ係数設定部17で得られるフィルタ係数に基づき、輝度変換処理部11の出力画像を構成する各画素に対して、所定のノイズ除去処理を施す手段である。なお、ノイズ除去処理の一例としては、ノイズ除去処理の対象となる画素の輝度値と、その周辺画素(例えば上下左右の4画素)の輝度値を参照し、所定の重み付け演算を行うによって、画像空間的にローパスフィルタ処理を施すことが考えられる。このようなノイズ除去処理により、隣接する画素同士の輝度差を軽減して、ノイズを目立たなくすることが可能となる。
The noise filter processing unit 15-2 is a unit that performs predetermined noise removal processing on each pixel constituting the output image of the luminance
フィルタ係数設定部17は、入力画像を構成する各画素毎の輝度値(補正前の輝度値)と、輝度変換処理部11の出力画像を構成する各画素毎の輝度値(補正後の輝度値)との差分値(輝度変換処理による補正量)を算出し、その算出結果に応じてノイズ除去処理のフィルタ係数を設定する手段である。
The filter
上記構成から成る画像処理装置1−3は、動画撮像により得られた入力画像に輝度変換係数に基づいた輝度変換処理を施して、これをディスプレイ表示する。このような輝度変換処理を施すことにより、入力画像において頻度の高い輝度範囲の部分については、そのコントラストをより明瞭とすることが可能となる。 The image processing apparatus 1-3 configured as described above performs luminance conversion processing based on the luminance conversion coefficient on the input image obtained by moving image capturing, and displays this on the display. By performing such luminance conversion processing, it is possible to make the contrast of a portion of the luminance range with high frequency in the input image clearer.
また、本実施形態の画像処理装置1−3は、入力画像の輝度値(明暗)に基づいてノイズフィルタ処理のフィルタ係数を設定する構成ではなく、補正前の輝度値と補正後の輝度値との差分値(すなわち、輝度変換処理による補正量)に基づいてノイズフィルタ処理のフィルタ係数を設定する構成とされている。 In addition, the image processing apparatus 1-3 according to the present embodiment is not configured to set the filter coefficient of the noise filter processing based on the luminance value (brightness) of the input image, and the luminance value before correction and the luminance value after correction The filter coefficient of the noise filter process is set based on the difference value (that is, the correction amount by the luminance conversion process).
より具体的に述べると、本実施形態の画像処理回路1−3において、フィルタ係数設定部17は、図10で模式的に示すように、輝度変換処理による補正量が大きいほど、ノイズフィルタ処理を強めるように、直線的或いは曲線的な相関を持って、ノイズフィルタ処理のフィルタ係数を設定する構成とされている。なお、図10において、輝度ダイナミックレンジ補正処理の対象部分X1〜X4は、それぞれノイズフィルタ処理の対象部分Y1〜Y4に対応する。
More specifically, in the image processing circuit 1-3 of the present embodiment, the filter
このように、輝度ダイナミックレンジ補正処理の補正量を反映して、ノイズフィルタ処理を行う構成とすることにより、輝度変換処理による補正量(前記差分値)が大きい部分(ノイズが強調されているおそれのある部分)については、ノイズフィルタ処理を強めに施す一方、補正量が小さい部分については、ノイズが目立ちにくいことに鑑みて、ノイズフィルタ処理を弱めにし、その鮮明度を優先することが可能となる。従って、本実施形態の画像処理装置1−3であれば、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成するに際して、出力画像の鮮明度を損なうことなくノイズを適切に除去し、出力画像の画質や視認性を高めることが可能となる。 In this way, by adopting a configuration in which the noise filter processing is performed by reflecting the correction amount of the luminance dynamic range correction processing, a portion where the correction amount (the difference value) by the luminance conversion processing is large (the noise may be emphasized). The noise filter processing is applied to a portion with a small correction amount, and the noise filter processing is weakened for the portion with a small correction amount so that the sharpness can be given priority. Become. Therefore, in the case of the image processing apparatus 1-3 according to the present embodiment, when a desired output image is generated by performing luminance conversion processing (luminance dynamic range correction processing) on the input image, the sharpness of the output image is not impaired. It is possible to appropriately remove noise and improve the image quality and visibility of the output image.
次に、本発明に係る画像処理装置の第4実施形態について詳細に説明する。 Next, a fourth embodiment of the image processing apparatus according to the present invention will be described in detail.
図11は、本発明に係る画像処理装置の第4実施形態を示すブロック図である。 FIG. 11 is a block diagram showing a fourth embodiment of the image processing apparatus according to the present invention.
本図に示すように、本実施形態の画像処理装置1−4は、先述の第3実施形態とほぼ同様の構成から成り、ノイズフィルタ処理部15−2の後段に、エッジ強調処理部18を有して成るほか、ノイズフィルタ処理のフィルタ係数を設定するフィルタ係数設定部17に代えて、エッジ強調処理部18のフィルタ係数を設定するフィルタ係数設定部17−2を有して成る点に特徴を有している。
As shown in the figure, the image processing apparatus 1-4 according to the present embodiment has substantially the same configuration as that of the third embodiment described above, and an edge
エッジ強調処理部18は、フィルタ係数設定部17−2で得られるフィルタ係数に基づき、ノイズフィルタ処理部15−2の出力画像を構成する各画素に対して、所定のエッジ強調処理を施す手段である。なお、エッジ強調処理の一例としては、エッジ強調処理の対象となる画素の輝度値と、その周辺画素(例えば上下左右の4画素)の輝度値を参照し、所定の重み付け演算を行うによって、画像空間的にハイパスフィルタ処理を施すことが考えられる。このようなエッジ強調処理により、ノイズ除去処理によって曖昧となった出力画像の輪郭を際立たせて、出力画像のぼけを抑制することが可能となる。
The edge
フィルタ係数設定部17−2は、入力画像を構成する各画素毎の輝度値(補正前の輝度値)と、輝度変換処理部11の出力画像を構成する各画素毎の輝度値(補正後の輝度値)との差分値(輝度変換処理による補正量)を算出し、その算出結果に応じてエッジ強調処理のフィルタ係数を設定する手段である。 The filter coefficient setting unit 17-2 includes a luminance value for each pixel constituting the input image (a luminance value before correction) and a luminance value for each pixel constituting the output image of the luminance conversion processing unit 11 (after the correction). This is a means for calculating a difference value (correction amount by luminance conversion processing) with respect to (luminance value) and setting filter coefficients for edge enhancement processing according to the calculation result.
このように、本実施形態の画像処理装置1−4は、補正前の輝度値と補正後の輝度値との差分値(輝度変換処理による補正量)に基づいて、ノイズフィルタ処理のフィルタ係数を設定するのではなく、エッジ強調処理のフィルタ係数を設定する構成とされている。 As described above, the image processing apparatus 1-4 according to the present embodiment determines the filter coefficient of the noise filter process based on the difference value (correction amount by the luminance conversion process) between the luminance value before correction and the luminance value after correction. Instead of setting, a filter coefficient for edge enhancement processing is set.
より具体的に述べると、本実施形態の画像処理回路1−4において、フィルタ係数設定部17−2は、図12で模式的に示すように、輝度変換処理による補正量が小さいほど、エッジ強調処理を強めるように、直線的或いは曲線的な相関を持って、エッジ強調処理のフィルタ係数を設定する構成とされている。なお、図12において、輝度ダイナミックレンジ補正処理の対象部分X1〜X4は、それぞれエッジ強調処理の対象部分Y1〜Y4に対応する。 More specifically, in the image processing circuit 1-4 of the present embodiment, the filter coefficient setting unit 17-2 performs edge enhancement as the correction amount by the luminance conversion process is smaller as schematically illustrated in FIG. In order to enhance the processing, the filter coefficient of the edge enhancement processing is set with a linear or curved correlation. In FIG. 12, the target portions X1 to X4 of the luminance dynamic range correction process correspond to the target portions Y1 to Y4 of the edge enhancement process, respectively.
このように、輝度ダイナミックレンジ補正処理の補正量を反映して、エッジ強調処理を行う構成とすることにより、輝度変換処理による補正量(前記差分値)が小さい部分(不要に強いノイズ除去処理が施されているおそれのある部分)については、エッジ強調処理を強めに施す一方、補正量が大きい部分については、エッジ強調処理を弱めにして、出力画像のぼけ抑制よりもノイズ除去を優先することが可能となる。従って、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成するに際して、出力画像の鮮明度を損なうことなくノイズを適切に除去し、出力画像の画質や視認性を高めることが可能となる。従って、本実施形態の画像処理装置1−4であれば、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成するに際して、出力画像の鮮明度を損なうことなくノイズを適切に除去し、出力画像の画質や視認性を高めることが可能となる。 Thus, by adopting a configuration in which the edge enhancement process is performed by reflecting the correction amount of the luminance dynamic range correction process, a portion where the correction amount (the difference value) by the luminance conversion process is small (unnecessarily strong noise removal process is performed). For parts that may be applied), edge enhancement processing is applied more strongly, while for parts with a large amount of correction, edge enhancement processing is weakened and noise removal is prioritized over blurring of the output image. Is possible. Therefore, when the input image is subjected to luminance conversion processing (luminance dynamic range correction processing) to generate a desired output image, noise is appropriately removed without impairing the sharpness of the output image, and the image quality and visibility of the output image are reduced. Can be increased. Therefore, in the case of the image processing apparatus 1-4 according to the present embodiment, when a desired output image is generated by performing luminance conversion processing (luminance dynamic range correction processing) on the input image, the sharpness of the output image is not impaired. It is possible to appropriately remove noise and improve the image quality and visibility of the output image.
次に、本発明に係る画像処理装置の第5実施形態について詳細に説明する。 Next, a fifth embodiment of the image processing apparatus according to the present invention will be described in detail.
図13は、本発明に係る画像処理装置の第5実施形態を示すブロック図である。 FIG. 13 is a block diagram showing a fifth embodiment of the image processing apparatus according to the present invention.
本図に示す通り、本実施形態の画像処理装置1−5は、先述の第1実施形態とほぼ同様の構成から成り、画像処理IC20と制御部30(CPU[Central Processing Unit]など)を協働させて成る画像処理システムを構築し、入力画像の輝度を反映した輝度変換処理を行う点に特徴を有している。そこで、第1実施形態と同様の部分については、図1と同一の符号を付すことで説明を省略し、以下では、本実施形態の特徴部分について、重点的な説明を行うことにする。
As shown in the figure, the image processing apparatus 1-5 of the present embodiment has substantially the same configuration as that of the first embodiment described above, and cooperates with the
画像処理IC20は、撮像部10で得られる入力画像の輝度ヒストグラムに基づいて輝度変換係数を算出し、入力画像を構成する各画素に対して、輝度変換係数に応じた輝度変換処理を施すことにより、所望の出力画像を生成する半導体集積回路装置であって、先に述べた輝度変換処理部11、輝度変換係数算出部12、及び、輝度変換係数記憶部13を有するほか、入力画像の輝度に関する情報を取得し、これをIC外部に送出する手段として、輝度検出部19を集積化して成る。
The
輝度検出部19は、撮像部10で得られる入力画像をモニタすることで、該入力画像の輝度ヒストグラムを取得し、これを入力画像の輝度に関する情報として制御部30に送出する。なお、上記した輝度ヒストグラムの取得に際しては、処理の高速化を図るべく、入力画像の各画素を輝度情報の上位3ビットの値ごとに区分し、この各区分(各輝度範囲)に属する画素数をカウントすればよい。
The
また、画像処理IC20において、輝度変換処理部11は、制御部30からの指示に応じて、入力画像の輝度に関する情報を反映した輝度変換処理を行うように、輝度変換処理に関するパラメータ(ここでは輝度変換処理の強度)を可変制御する構成とされている。
Also, in the
また、輝度変換処理部11は、上記した輝度変換処理の強度制御を実現するために、制御部30からの指示に応じて、入力輝度Iと輝度変換処理後の出力輝度Oをどのような比率で出力するかを定めるパラメータαを調整し、最終的な出力輝度O’を決定する構成とされている。例えば、パラメータαの値が大きいほど、輝度変換処理を強く効かせる形となり、逆に、パラメータαの値が小さいほど、輝度変換処理を弱く効かせる形となる。
In addition, the luminance
一方、制御部30は、画像処理IC20の輝度検出部19から送出される入力画像の輝度に関する情報(輝度ヒストグラム)を受け取り、これを反映した輝度変換処理を行うように、画像処理IC20に指示を送る機能を具備している。
On the other hand, the
このように、制御部30を用いて撮像画像の輝度ヒストグラムを読み出せるようにし、その結果を輝度変換処理に関するパラメータ(輝度変換処理の強度)に反映させる画像処理システムを構築することにより、上記のパラメータを固定的に設定していた従来構成に比べて、入力画像に適合した輝度変換処理を施すことができるので、出力画像の画質や視認性を改善することが可能となる。
In this way, by constructing an image processing system that enables the luminance histogram of the captured image to be read using the
また、本実施形態の画像処理装置1−5は、出力部14として、出力画像を表示する液晶ディスプレイを有して成り、制御部30は、画像処理IC20の輝度検出部19から送出される入力画像の輝度に関する情報(輝度ヒストグラム)を受け取り、これを反映したバックライト制御を行うように、出力部14(特に、液晶ディスプレイの駆動電流を制御する液晶ディスプレイドライバ)に指示を送る構成とされている。
The image processing apparatus 1-5 of the present embodiment includes a liquid crystal display that displays an output image as the
このような構成とすることにより、例えば、撮像部10で得られた入力画像が明るければ、周囲が明るく、バックライトの輝度を高めないと出力画像の視認性が低下するという判断の下、バックライトの輝度を高めて、出力画像を見やすくすることが可能となる。一方、撮像部10で得られた入力画像が暗ければ、周囲が暗く、少々バックライトの輝度を落としても出力画像の視認性は低下しにくいという判断の下、バックライトの輝度を落とすことで、消費電力を低減することが可能となる。
With such a configuration, for example, if the input image obtained by the
すなわち、本実施形態の画像処理装置1−5であれば、入力画像の明暗に応じて、バックライトの輝度をフィードバック制御することができるので、出力画像の視認性向上と消費電力の効率性向上を両立することが可能となる。 That is, with the image processing apparatus 1-5 of the present embodiment, the brightness of the backlight can be feedback-controlled according to the brightness of the input image, so that the visibility of the output image and the efficiency of power consumption are improved. It is possible to achieve both.
なお、上記の第5実施形態では、動画撮像により得られた各フレームの画像に対して輝度変換処理を行う画像処理装置に本発明を適用した場合を例に挙げて説明を行ったが、本発明の適用対象はこれに限定されるものではなく、静止画像に対して輝度変換処理を施す画像処理装置など、入力画像に輝度変換処理を施して所望の出力画像を生成する画像処理装置全般に適用することが可能である。 In the fifth embodiment, the case where the present invention is applied to an image processing apparatus that performs luminance conversion processing on an image of each frame obtained by moving image capturing has been described as an example. The scope of application of the invention is not limited to this, and is generally applied to image processing apparatuses that generate a desired output image by performing luminance conversion processing on an input image, such as an image processing apparatus that performs luminance conversion processing on a still image. It is possible to apply.
例えば、映画などのコンテンツを再生する画像再生装置に本発明を適用する場合、上記のバックライト制御に関しては、入力画像が明るければ、少々バックライトの輝度を落としても出力画像の視認性は低下しにくいという判断の下、バックライトの輝度を落として消費電力を低減することが可能となる。一方、入力画像が暗ければ、バックライトの輝度を強めることで、出力画像を見やすくすることができる。 For example, when the present invention is applied to an image playback apparatus that plays back content such as a movie, the visibility of the output image is reduced even if the brightness of the backlight is slightly reduced if the input image is bright with respect to the backlight control described above. It is possible to reduce power consumption by reducing the brightness of the backlight based on the judgment that it is difficult to do so. On the other hand, if the input image is dark, it is possible to make the output image easier to see by increasing the luminance of the backlight.
或いは、上記と逆に、入力画像が明るい場合には、出力画像の輝度が落ちないように、バックライトの輝度を通常値に設定する一方、入力画像が暗い場合には、バックライトの輝度を落として、消費電力を低減する構成としてもよい。 Or, conversely, if the input image is bright, the backlight brightness is set to a normal value so that the brightness of the output image does not decrease, while if the input image is dark, the backlight brightness is The power consumption may be reduced by reducing the power consumption.
また、上記の第5実施形態では、入力画像を複数エリアに分割し、各エリア毎の輝度ヒストグラムに基づいて輝度変換係数を算出する画像処理装置に本発明を適用した場合を例に挙げて説明を行ったが、画像処理IC20と制御部30を協働させて成る画像処理システムを構築し、入力画像の輝度を反映した輝度変換処理を行う本願発明の適用対象に関して言えば、何ら上記実施形態に限定されるものではなく、入力画像の輝度ヒストグラムに基づいて輝度変換係数を算出し、入力画像を構成する各画素に対して、輝度変換係数に応じた輝度変換処理を施すことにより、所望の出力画像を生成する画像処理装置全般に広く適用することが可能である。
In the fifth embodiment, the case where the present invention is applied to an image processing apparatus that divides an input image into a plurality of areas and calculates a luminance conversion coefficient based on a luminance histogram for each area will be described as an example. However, in terms of the application object of the present invention in which an image processing system is constructed by cooperating the
また、入力画像の輝度情報に基づいて、液晶ディスプレイのバックライト制御を行うという点に関して言えば、制御部30を主体とする上記構成のほか、画像処理IC20や出力部14(特に液晶ディスプレイドライバ)を主体とする構成としても構わない。また、輝度検出部19についても、画像処理IC20に内蔵させた上記構成のほか、別途独立のICとする構成や、出力部14に内蔵させる構成としても構わない。
Further, in terms of performing backlight control of the liquid crystal display based on the luminance information of the input image, in addition to the above configuration mainly including the
以下では、上記のバックライト制御を実現するための具体的な構成について、詳細な説明を行う。 Hereinafter, a specific configuration for realizing the above backlight control will be described in detail.
図14は、本発明に係るバックライト駆動装置の一構成例を示すブロック図である。 FIG. 14 is a block diagram showing a configuration example of the backlight driving device according to the present invention.
本図に示す通り、本構成例のバックライト駆動装置は、液晶ディスプレイ300に表示される入力画像の輝度に関する情報を取得する輝度検出部100と、輝度検出部100の検出結果を反映して液晶ディスプレイ300のバックライト制御を行う駆動部200と、を有して成る構成とされている。
As shown in the figure, the backlight driving device of this configuration example reflects the detection result of the
なお、本構成例のバックライト駆動装置において、輝度検出部100は、入力画像の各画素を複数の輝度範囲に区分し、各区分に属する画素数(HYS_count0〜HYS_count7)をカウントすることで、入力画像の輝度ヒストグラムを取得する構成とされている。
In the backlight drive device of this configuration example, the
図15は、入力画像の輝度ヒストグラムの一例を示す図である。なお、図15の横軸は輝度(Y)を示しており、縦軸は画素数(HYS_count)を示している。 FIG. 15 is a diagram illustrating an example of a luminance histogram of an input image. Note that the horizontal axis in FIG. 15 indicates luminance (Y), and the vertical axis indicates the number of pixels (HYS_count).
また、本構成例のバックライト駆動装置において、駆動部200は、第1加算器201と、乗算器202と、第2加算器203と、デューティ決定部204と、を有して成る。
In the backlight driving apparatus of this configuration example, the driving
第1加算器201は、輝度検出部100で得られた各区分毎のカウント値(HYS_count0〜HYS_count7)を足し合わせる手段である。すなわち、第1加算器201では、入力画像1フレーム分の全画素数(HYS_TOTAL)が得られることになる。
The
乗算器202は、輝度検出部100で得られた各区分毎のカウント値(HYS_count0〜HYS_count7)に所定の係数(PWM_HCOEF0〜PWM_HCOEF7)を乗算する手段である。
The
なお、上記の係数(PWM_HCOEF0〜PWM_HCOEF7)については、各区分毎のカウント値について適切な重み付けを行い、最終的に入力画像1フレーム分の輝度値が数値化できるのであれば、いかなる値に設定しても構わない。例えば、ハードウェア構成の簡易化を優先するのであれば、PWM_HCOEF0=0、PWM_HCOEF1=1/64、PWM_HCOEF2=1/32、PWM_HCOEF3=1/16、PWM_HCOEF4=1/8、PWM_HCOEF5=1/4、PWM_HCOEF6=1/2、PWM_HCOEF7=1というように、輝度範囲が1区分下がる毎に、その重み付けが2分の1となるように、上記の係数(PWM_HCOEF0〜PWM_HCOEF7)を設定すればよい。また、異なる区分のカウント値に同一の係数を乗算することも可能である。 For the above coefficients (PWM_HCOEF0 to PWM_HCOEF7), an appropriate weighting is applied to the count value for each section, and finally any value can be set as long as the luminance value for one frame of the input image can be quantified. It doesn't matter. For example, if priority is given to simplifying the hardware configuration, PWM_HCOEF0 = 0, PWM_HCOEF1 = 1/64, PWM_HCOEF2 = 1/32, PWM_HCOEF3 = 1/16, PWM_HCOEF4 = 1/8, PWM_HCOEF5 = 1/4, PWM_HCOEF6 The above coefficients (PWM_HCOEF0 to PWM_HCOEF7) may be set so that each time the luminance range falls by one division, such as = 1/2 and PWM_HCOEF7 = 1, the weighting is reduced to one half. It is also possible to multiply the count values of different sections by the same coefficient.
第2加算器203は、乗算器202によって所定の係数(PWM_HCOEF0〜PWM_HCOEF7)が乗算された各区分毎のカウント値を足し合わせる手段である。すなわち、第2加算器202では、PWM信号のデューティを決定するために必要な分布和(hys_total)が得られることになる。
The
デューティ決定部204は、第1加算器201の演算結果(HYS_TOTAL)と第2加算器203の演算結果(hys_total)に基づいて、液晶ディスプレイ300のバックライト制御に用いられるPWM信号のデューティを決定する手段である。
The
より具体的に述べると、上記のデューティ決定部204は、第2加算器203の演算結果(hys_total)を第1加算器201の演算結果(HYS_TOTAL)で正規化し、その演算結果(dutyA)をテーブル変換することで、PWM信号のデューティ(PWM_DUTY)を決定する構成とされている。
More specifically, the
図16は、デューティ決定部204で用いられる変換テーブルの一例を示す図である。なお、図16の横軸は、正規化処理により得られた基準デューティ(dutyA)を示しており、縦軸は、PWM信号のデューティ(PWM_DUTY)を示している。
FIG. 16 is a diagram illustrating an example of a conversion table used in the
上記の変換テーブルを用いることで、基準デューティ(dutyA)とPWM信号のデューティ(PWM_DUTY)との相関関係、延いては、PWM信号のハイレベル幅(H幅)を任意に設定することが可能となる。なお、基準デューティ(dutyA)とPWM信号のデューティ(PWM_DUTY)との間に、線形性(直線性)を持たせておけば、基準デューティ(dutyA)がそのままPWM信号のデューティ(PWM_DUTY)として用いられることになる。 By using the above conversion table, it is possible to arbitrarily set the correlation between the reference duty (dutyA) and the duty of the PWM signal (PWM_DUTY), and thus the high level width (H width) of the PWM signal. Become. If linearity (linearity) is provided between the reference duty (dutyA) and the PWM signal duty (PWM_DUTY), the reference duty (dutyA) is used as it is as the PWM signal duty (PWM_DUTY). It will be.
また、上記の変換テーブルとしては、基準デューティ(dutyA)に対するPWM信号のデューティ(PWM_DUTY)を離散的に設定した上で、各離散値間を直線補間すればよい。このような構成とすることにより、変換テーブルのデータ量を縮小することが可能となる。 Further, as the above conversion table, the duty (PWM_DUTY) of the PWM signal with respect to the reference duty (dutyA) may be set discretely, and linear interpolation may be performed between the discrete values. With this configuration, the data amount of the conversion table can be reduced.
また、上記の変換テーブルは、ユーザが任意に書き換えられるように、レジスタ等に格納しておくことが望ましい。 The conversion table is preferably stored in a register or the like so that the user can rewrite it arbitrarily.
液晶ディスプレイ300のバックライトは、上記のPWM信号に基づいて、その駆動制御(電流制御)が行われる。
The backlight of the
図17は、バックライトのPWM駆動を説明するための図である。 FIG. 17 is a diagram for explaining the PWM drive of the backlight.
本図に示すように、PWM信号は、所定のサイクルでハイレベル期間(オン期間)とローレベル期間(オフ期間)を交互に繰り返すパルス信号であり、そのデューティ(ハイレベル幅)を可変制御することで、バックライトに流す駆動電流の平均値を調整することが可能となる。すなわち、PWM信号のデューティを大きくするほど、バックライトは明るくなり、PWM信号のデューティを小さくするほど、バックライトは暗くなる。 As shown in this figure, the PWM signal is a pulse signal that alternately repeats a high level period (on period) and a low level period (off period) in a predetermined cycle, and variably controls its duty (high level width). This makes it possible to adjust the average value of the drive current that flows through the backlight. That is, the backlight becomes brighter as the duty of the PWM signal is increased, and the backlight is darker as the duty of the PWM signal is decreased.
例えば、先の図16で示した変換テーブルを用いた場合、入力画像が明るく、基準デューティ(dutyA)が大きい場合には、バックライトの輝度を高めて、視認性を保つ一方、入力画像が暗く、基準デューティ(dutyA)が小さい場合には、バックライトの輝度を落として、消費電力を低減することが可能となる。 For example, when the conversion table shown in FIG. 16 is used, when the input image is bright and the reference duty (dutyA) is large, the backlight brightness is increased and the visibility is maintained, while the input image is dark. When the reference duty (dutyA) is small, it is possible to reduce the power consumption by reducing the luminance of the backlight.
次に、本発明に係る画像処理装置の第6実施形態について詳細に説明する。 Next, a sixth embodiment of the image processing apparatus according to the present invention will be described in detail.
図18は、本発明に係る画像処理装置の第6実施形態を示すブロック図である。 FIG. 18 is a block diagram showing a sixth embodiment of the image processing apparatus according to the present invention.
図18に示すように、本実施形態の画像処理装置は、画像生成装置10−2と、画像処理IC20−2と、表示装置14−2と、照度センサ40と、を有して成る。
As shown in FIG. 18, the image processing apparatus according to the present embodiment includes an image generation apparatus 10-2, an image processing IC 20-2, a display apparatus 14-2, and an
画像生成装置10−2は、カラーの入力画像INを生成する手段であり、撮像装置、放送受信装置、及び、メディア再生装置のいずれかを用いることができる。 The image generation device 10-2 is a unit that generates a color input image IN, and any one of an imaging device, a broadcast reception device, and a media playback device can be used.
なお、上記の撮像装置としては、動画撮影を行うデジタルビデオカメラや、静止画撮影を行うデジタルスチルカメラなどを用いることができ、そのイメージセンサとしては、CMOS[Complementary Metal-Oxide Semiconductor]センサやCCD[Charge Coupled Devices]センサなどを用いることができる。このように、画像生成装置10−2として撮像装置を用いた場合、上記の入力画像INは、撮像装置で得られた撮像画像となる。 As the above imaging device, a digital video camera that performs moving image shooting, a digital still camera that performs still image shooting, and the like can be used. As the image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) sensor or a CCD is used. A [Charge Coupled Devices] sensor or the like can be used. Thus, when an imaging device is used as the image generation device 10-2, the input image IN is a captured image obtained by the imaging device.
また、上記の放送受信装置としては、デジタルテレビジョン放送の受信装置などを用いることができる。このように、画像生成装置10−2として放送受信装置を用いた場合、上記の入力画像INは、放送受信装置で得られた受信画像となる。 Also, as the broadcast receiving apparatus, a digital television broadcast receiving apparatus or the like can be used. Thus, when a broadcast receiving device is used as the image generating device 10-2, the input image IN is a received image obtained by the broadcast receiving device.
また、上記のメディア再生装置としては、ビデオCD、DVD、ブルーレイディスク、ハードディスク、半導体メモリなどの再生機能を備えたドライブ装置のほか、インターネットを介して提供される映像コンテンツの再生機能を備えたパーソナルコンピュータなどを用いることができる。このように、画像生成装置10−2としてメディア再生装置を用いた場合、上記の入力画像INは、メディア再生装置で得られた再生画像となる。 In addition to the above-mentioned media playback devices such as video CDs, DVDs, Blu-ray discs, hard disks, semiconductor memories, and other drive devices with playback functions, personal computers with playback functions of video content provided via the Internet. A computer or the like can be used. In this way, when a media playback device is used as the image generation device 10-2, the input image IN is a playback image obtained by the media playback device.
画像処理IC20−2は、画像処理部21と、色補正制御部22と、を集積化して成る半導体装置である。
The image processing IC 20-2 is a semiconductor device in which the
画像処理部21は、入力画像INに対して所定の色補正処理を施す色補正部21aを含んでいる。また、図1には明示されていないが、画像処理部21は、色補正処理部21aのほかにも、入力画像INに対して種々の画像処理(輝度ダイナミックレンジ補正、逆光補正など)を施す回路ブロックを含んでいる。
The
色補正制御部22は、照度センサ40で得られる検出信号DETに基づいて、色補正処理の強弱を制御する手段である。
The color
表示装置14−2は、LCD[Liquid Crystal Display]等のディスプレイを備えており、画像処理IC2で所定の画像処理を施された出力画像OUTを表示する手段である。 The display device 14-2 includes a display such as an LCD [Liquid Crystal Display], and is a means for displaying an output image OUT that has been subjected to predetermined image processing by the image processing IC2.
照度センサ40は、周囲光の照度に応じた検出信号DETを生成し、これを画像処理IC20−2の色補正制御部22に送出する手段である。なお、照度センサ40は、表示装置14−2に入射される周囲光の照度を精度良く測定すべく、できる限り表示装置14−2の近傍に配設することが望ましい。また、照度センサ40の受光素子としては、フォトダイオードやフォトトランジスタを用いることができる。
The
上記構成から成る画像処理装置の動作(特に色補正制御)について詳細な説明を行う。 The operation (particularly color correction control) of the image processing apparatus having the above configuration will be described in detail.
画像処理IC20−2を用いて入力画像INに対する色補正処理を行うに際し、色補正制御部22は、照度センサ40の検出信号DETに基づき、周囲光の照度が高いほど色補正処理を強めるように(入力画像INの色成分を強調するように)、色補正部21aを制御する。
When performing color correction processing on the input image IN using the image processing IC 20-2, the color
このような色補正制御を行うことにより、周囲光の照度が高く、表示装置14−2の色再現性が失われる場合であっても、これを補う形で入力画像INに対する色補正処理が強められるので、出力画像OUTの色が薄く見えるようなことはなく、出力画像OUTの視認性を高めることが可能となる。 By performing such color correction control, even if the illuminance of the ambient light is high and the color reproducibility of the display device 14-2 is lost, the color correction processing for the input image IN is strengthened to compensate for this. Therefore, the color of the output image OUT does not appear light, and the visibility of the output image OUT can be improved.
一方、入力画像INに対する色補正処理を行うに際して、色補正制御部22は、照度センサ40の検出信号DETに基づき、周囲光の照度が低いほど色補正処理を弱めるように色補正部21aを制御する。
On the other hand, when performing color correction processing on the input image IN, the color
このような色補正制御を行うことにより、周囲光の照度が低い場合には、入力画像INに対する色補正処理が弱められるので、出力画像OUTの色合いが不自然になるということはなく、出力画像OUTの視認性を高めることが可能となる。 By performing such color correction control, when the illuminance of ambient light is low, the color correction processing for the input image IN is weakened, so that the hue of the output image OUT does not become unnatural, and the output image It becomes possible to improve the visibility of OUT.
次に、画像処理部21における入力画像の明暗補正処理について、詳細な説明を行う。
Next, detailed description will be given of the brightness correction processing of the input image in the
図19は、画像処理部21の一構成例を示すブロック図である。
FIG. 19 is a block diagram illustrating a configuration example of the
本図に示すように、画像処理部21は、輝度補正部211と、色補正部212と、輝度ヒストグラム取得部213と、補正係数算出部214と、を有して成る。
As shown in the figure, the
輝度補正部211は、入力画像INの輝度成分Yに対して所定の補正処理(輝度ダイナミックレンジ補正処理)を施す手段である。
The
色補正部212は、入力画像INの色差成分U(=B−Y)、V(=R−Y)に対して所定の補正処理を施す手段であり、図18の色補正部21aに対応するブロックである。
The
輝度ヒストグラム取得部213は、入力画像INの輝度ヒストグラム(各輝度範囲の頻度、すなわち、所定の輝度範囲毎に属する画素数の分布)を取得する手段である。
The luminance
補正係数算出部214は、輝度ヒストグラム取得部213で得られた輝度ヒストグラムに基づいて、輝度補正部211で用いる輝度補正係数α、並びに、色補正部212で用いる色補正係数βを各々算出する手段である。
The correction
輝度補正係数αの算出に関して説明すると、補正係数算出部214は、入力画像INの輝度ヒストグラムに基づき、入力画像IN(輝度成分Y)における各輝度範囲について、頻度の高いものほど出力画像OUT(輝度成分Y’)において、広い輝度範囲を割り当てるように、逆に、頻度の低いものほど出力画像OUT(輝度成分Y’)において、狭い輝度範囲を割り当てるように、輝度補正係数αを算出する。従って、上記の輝度補正係数αは、輝度毎に、或いは、所定の輝度範囲毎に、別個の値となる。
The calculation of the brightness correction coefficient α will be described. Based on the brightness histogram of the input image IN, the correction
これにより、入力画像INにおいて頻度の低い輝度範囲の部分については、よりコントラスト(輝度差)が曖昧となってしまうものの、逆に、入力画像INにおいて頻度の高い輝度範囲の部分については、よりコントラストが明瞭となる。そのため、画像全体として見てみると、入力時よりもコントラストを明瞭とすることが可能となる。 As a result, the contrast (brightness difference) becomes more ambiguous in the portion of the luminance range that is less frequent in the input image IN, but conversely, the portion of the luminance range that is frequent in the input image IN is more contrasted. Becomes clear. Therefore, when viewed as an entire image, the contrast can be made clearer than at the time of input.
一方、色補正係数βの算出に関して説明すると、補正係数算出部214は、輝度値が低く、かつ、輝度補正量が大きい部分(低輝度値の画素数が多い部分)について、色補正量を小さくするように、色補正係数βを算出する構成とされている。
On the other hand, the calculation of the color correction coefficient β will be described. The correction
例えば、補正係数算出部214は、図20に示すように、明るい入力画像用の第1補正テーブル214aと、暗い入力画像用の第2補正テーブル214bと、を有して成り、入力画像INの輝度ヒストグラムに基づき、入力画像INが所定の閾値よりも明るければ、第1補正テーブル214aを用いて色補正係数βを算出する一方、入力画像INが所定の閾値よりも暗ければ、色補正量を小さくするように、第2補正テーブル214bを用いて色補正係数βを算出する構成とすればよい。
For example, as shown in FIG. 20, the correction
若しくは、補正係数算出部214は、図21に示すように、基準補正テーブル214cと、調整係数算出部214dと、を有して成り、基準補正テーブル214cを用いて、基準補正係数γを算出しておき、これに入力画像INの輝度ヒストグラムに応じた調整係数δを掛け合わせて、色補正係数β(=γ×δ)を算出する構成としてもよい。
Alternatively, as shown in FIG. 21, the correction
これにより、入力画像INの明暗補正処理が輝度補正処理と色補正処理から成り立っている場合に、輝度補正処理によって入力画像INの暗部を明るく補正する際には、色補正量を小さく抑えて、ノイズ(不要クロマ成分)を除去することができるので、自然な出力画像OUTを得ることが可能となり、延いては、周囲光の照度に依ることなく、出力画像OUTの視認性を高めることが可能となる。 Thereby, when the brightness correction processing of the input image IN is composed of the brightness correction processing and the color correction processing, when correcting the dark portion of the input image IN brightly by the brightness correction processing, the color correction amount is suppressed to be small, Since noise (unnecessary chroma components) can be removed, it is possible to obtain a natural output image OUT, and it is possible to improve the visibility of the output image OUT without depending on the illuminance of ambient light. It becomes.
なお、上記の第6実施形態では、照度センサ40の検出信号DETを画像処理IC20−2の色補正制御部22に直接的に入力する構成を例に挙げて説明を行ったが、本発明の構成はこれに限定されるものではなく、CPU[Central Processing Unit]などを介して間接的に入力する構成としても構わない。
In the sixth embodiment, the configuration in which the detection signal DET of the
次に、本発明に係る画像処理装置の第7実施形態について詳細に説明する。 Next, a seventh embodiment of the image processing apparatus according to the present invention will be described in detail.
図22は、本発明に係る画像処理装置の第7実施形態を示すブロック図である。本図に示したように、本実施形態の画像処理装置は、カメラモジュール10−3と、画像処理IC20−3と、制御部(CPUやDSPなど)30−3と、を有して成る。 FIG. 22 is a block diagram showing a seventh embodiment of the image processing apparatus according to the present invention. As shown in this figure, the image processing apparatus of this embodiment includes a camera module 10-3, an image processing IC 20-3, and a control unit (CPU, DSP, etc.) 30-3.
図23は、画像処理IC20−3の一構成例を示すブロック図である。本図に示したように、本構成例の画像処理IC20−3は、カラーコレクション部A1と、輝度判別部A2と、画像エンハンス部A3と、レジスタA4と、I2Cインターフェイス部A5と、エッジ強調・ガンマ補正部A6と、PWM信号発生コントロール部A7と、タイミング発生部A8と、を有して成る。 FIG. 23 is a block diagram illustrating a configuration example of the image processing IC 20-3. As shown in the figure, the image processing IC 20-3 of this configuration example includes a color correction unit A1, a luminance determination unit A2, an image enhancement unit A3, a register A4, an I2C interface unit A5, an edge enhancement / It includes a gamma correction unit A6, a PWM signal generation control unit A7, and a timing generation unit A8.
画像処理IC20−3は、制御部30−3からシリアル入力される制御信号(データ信号SDA、クロック信号SDC)に基づいて、カメラモジュール10−3からの入力信号(画像データ信号CAMDI[7:0]、水平同期信号CAMHSI、垂直同期信号CAMVSI、クロック信号CAMCKI)に所定の演算処理(輝度ダイナミックレンジ補正や色補正など)を施し、所望の出力信号(画像データ信号CAMDO[7:0]、水平同期信号CAMHSO、垂直同期信号CAMVSO、クロック信号CAMCKO)を生成して、これらを制御部30−3に出力する手段である。なお、画像処理IC20−3の適用対象としては、セキュリティ機器や車載カメラ/モニタを挙げることができる。 The image processing IC 20-3 receives an input signal (image data signal CAMDI [7: 0]) from the camera module 10-3 based on a control signal (data signal SDA, clock signal SDC) serially input from the control unit 30-3. ], The horizontal synchronization signal CAMHSI, the vertical synchronization signal CAMVSI, and the clock signal CAMMCI) are subjected to predetermined arithmetic processing (luminance dynamic range correction, color correction, etc.), and a desired output signal (image data signal CAMDO [7: 0], horizontal Synchronization signal CAMHSO, vertical synchronization signal CAMVSO, and clock signal CAMCKO), and outputs these to the control unit 30-3. Note that examples of the application target of the image processing IC 20-3 include a security device and an in-vehicle camera / monitor.
画像処理IC20−3の特徴について説明する。第1の特徴は、QCIFサイズ(176×144ピクセル)から最大WVGA+サイズ(886×480ピクセル)までの画像データに対応している点である。第2の特徴は、入出力データフォーマットとして、「ITU−R BT.656−4」、または、「同期信号付きYCbCr」に対応している点である。第3の特徴は、動作モードとして、画像エンハンスモード、スルーモード、スリープモードを具備している点である。第4の特徴は、2線式のシリアルインターフェイス(I2Cインターフェイス部A5)を介してレジスタ設定を行うことができる点である。第5の特徴は、画像に適応してLCDバックライトを制御するためのPWM信号を出力する機能部(PWM発生コントロール部A7)を備えている点である。第6の特徴は、出力画像にエッジ強調フィルタやガンマフィルタを施す機能部(エッジ強調・ガンマ補正部A6)を内蔵している点である。 The characteristics of the image processing IC 20-3 will be described. The first feature is that it corresponds to image data from a QCIF size (176 × 144 pixels) to a maximum WVGA + size (886 × 480 pixels). The second feature is that the input / output data format corresponds to “ITU-R BT.656-4” or “YCbCr with synchronization signal”. A third feature is that an image enhancement mode, a through mode, and a sleep mode are provided as operation modes. A fourth feature is that register setting can be performed via a two-wire serial interface (I2C interface unit A5). A fifth feature is that a function unit (PWM generation control unit A7) that outputs a PWM signal for controlling the LCD backlight in conformity with an image is provided. A sixth feature is that a function unit (edge enhancement / gamma correction unit A6) for applying an edge enhancement filter or a gamma filter to the output image is incorporated.
画像処理IC20−3の機能概要について説明する。画像処理IC20−3は、カメラインターフェイス用のアダプティブイメージエンハンサであり、図22に示すように、カメラインターフェイスに挿入して使用されるものである。画像処理IC20−3は、輝度判別部A2及び画像エンハンス部A3を用いた輝度ダイナミックレンジ補正処理により、入力された画像の暗い部分を明るく、明る過ぎる部分は明るさを抑えた画像に補正して出力する機能を具備している。また、画像処理IC20−3は、カラーコレクション部A1を用いた色補正処理によって、入力された画像をより鮮やかな画像に補正する機能も具備している。なお、上記の画像処理は、前フレームを解析して現フレームに反映させる形で実施される。 A functional overview of the image processing IC 20-3 will be described. The image processing IC 20-3 is an adaptive image enhancer for the camera interface, and is used by being inserted into the camera interface as shown in FIG. The image processing IC 20-3 corrects the dark portion of the input image to a bright image and the excessively bright portion by reducing the brightness by the luminance dynamic range correction processing using the luminance determination unit A2 and the image enhancement unit A3. It has a function to output. The image processing IC 20-3 also has a function of correcting an input image to a more vivid image by color correction processing using the color correction unit A1. Note that the above-described image processing is performed by analyzing the previous frame and reflecting it in the current frame.
また、画像処理IC20−3は、YUVフォーマットのデータ入力に対応しており、画像補正を行ったデータを同じフォーマットで出力する機能を具備している。また、画像処理IC20−3に内蔵されたレジスタA4は、I2Cインターフェイス部A5を介して、そのレジスタ値の設定が行われる。なお、画像処理IC20−3は、カメラモジュール10−3から入力されるクロック信号CAMCKIに基づいて動作する。また、画像処理IC20−3は、カメラモジュール10−3から入力される水平同期信号CAMHSI、垂直同期信号CAMVSI、及び、クロック信号CAMCKIに所定のタイミング調整処理を施し、これらを水平同期信号CAMHSO、垂直同期信号CAMVSO、及び、クロック信号CAMCKOとして、制御部30−3に送出する機能部(タイミング発生部A8)を備えている。また、画像処理IC20−3は、外部から入力されるモード選択信号MSEL0/1/2に応じて、自身に外部接続される入力機器(カメラや映像再生装置など)や出力機器(CPU、DSPなど)に適した動作モードを選択する機能も具備している。 The image processing IC 20-3 is compatible with YUV format data input, and has a function of outputting image-corrected data in the same format. The register value of the register A4 built in the image processing IC 20-3 is set through the I2C interface unit A5. The image processing IC 20-3 operates based on the clock signal CAMCKI input from the camera module 10-3. Further, the image processing IC 20-3 performs predetermined timing adjustment processing on the horizontal synchronization signal CAMHSI, the vertical synchronization signal CAMVSI, and the clock signal CAMCKI input from the camera module 10-3, and these are subjected to the horizontal synchronization signal CAMHSO and the vertical synchronization signal. As a synchronization signal CAMVSO and a clock signal CAMCKO, a functional unit (timing generation unit A8) for sending to the control unit 30-3 is provided. In addition, the image processing IC 20-3 receives an input device (such as a camera or a video reproduction device) or an output device (such as a CPU or DSP) that is externally connected to the image processing IC 20-3 in response to a mode selection signal MSEL0 / 1/2 that is input from the outside. ) Is also provided with a function for selecting a suitable operation mode.
図24及び図25は、いずれも画像処理IC20−3の端子機能表であり、ピン番号、端子名、入出力種類(In/Out)、アクティブレベル、リセット中のピン状態(Init)、及び、機能説明が記載されている。なお、アクティブレベル欄の”*”は、レジスタA4を用いて任意に設定変更が可能であることを示している。”*1”は、リセット中(初期状態)はサスペンドである端子を示している。”*2”及び”*3”は、GNDに接続すべき端子を示している。”*4”は、VDDIO(デジタルIO電源)に接続すべき端子を示している。”*5”は、オープンとすべき端子を示している。 24 and 25 are both terminal function tables of the image processing IC 20-3, and pin numbers, terminal names, input / output types (In / Out), active levels, pin states during reset (Init), and Function description is described. Note that “*” in the active level column indicates that the setting can be arbitrarily changed using the register A4. “* 1” indicates a terminal that is suspended during reset (initial state). “* 2” and “* 3” indicate terminals to be connected to GND. “* 4” indicates a terminal to be connected to VDDIO (digital IO power supply). “* 5” indicates a terminal to be opened.
次に、YUVインターフェイスタイミングについて、図26〜図30を参照しながら、概略を説明する。 Next, an outline of the YUV interface timing will be described with reference to FIGS.
図26は、「ITU−R BT.656」入力フォーマット(水平方向ボトム)を示すタイミングチャートである。図27は、NTSCでの「ITU−R BT.656」入力フォーマット(垂直方向)を示すタイミングチャートである。図28は、PALでの「ITU−R BT.656」入力フォーマット(垂直方向ボトム)を示すタイミングチャートである。なお、動作中には、クロック信号CAMCKIの周波数を変更すべきでない。 FIG. 26 is a timing chart showing the “ITU-R BT.656” input format (horizontal direction bottom). FIG. 27 is a timing chart showing the “ITU-R BT.656” input format (vertical direction) in NTSC. FIG. 28 is a timing chart showing an “ITU-R BT.656” input format (vertical bottom) in PAL. Note that the frequency of the clock signal CAMCKI should not be changed during operation.
図29は、「同期信号付きYCbCr」8ビット入力フォーマット(水平方向)を示すタイミングチャートである。図中の「YUV_XST」、「XSIZE×2」、「AIE_XST×2」、「AIE_XSIZE×2」は、いずれもレジスタA4を用いて設定することができるレジスタ値である。また、クロック信号CAMCKI、垂直同期信号CAMVSI、水平同期信号CAMHSIの極性については、いずれもPOLレジスタ(インデックスアドレス:E1h)の値を変更することで個別に設定することができる。なお、図29は、クロック信号CAMCKIの立ち下がりエッジでデータの取り込みを行う場合であって(CKPOL=1)、かつ、水平同期信号CAMHSIの極性は、ローアクティブ(HSPOL=0)の場合を示している。また、水平同期信号CAMHSIは、シンク区間(図29でCAMHSIがローレベルとされている区間)以外でローレベルとならないように留意すべきである。また、データ信号CAMDI0〜CAMDI7の入力中は、クロック信号CAMCKIの周波数を変更すべきでない。 FIG. 29 is a timing chart showing the “YCbCr with synchronization signal” 8-bit input format (horizontal direction). In the figure, “YUV_XST”, “XSIZE × 2”, “AIE_XST × 2”, and “AIE_XSIZE × 2” are all register values that can be set using the register A4. In addition, the polarities of the clock signal CAMCKI, the vertical synchronization signal CAMVSI, and the horizontal synchronization signal CAMHSI can be individually set by changing the value of the POL register (index address: E1h). FIG. 29 shows the case where data is captured at the falling edge of the clock signal CAMCKI (CKPOL = 1), and the polarity of the horizontal synchronization signal CAMHSI is low active (HSPOL = 0). ing. Also, it should be noted that the horizontal synchronization signal CAMHSI does not become low level except in the sync period (interval in which CAMHSI is low level in FIG. 29). Further, the frequency of the clock signal CAMCKI should not be changed while the data signals CAMDI0 to CAMDI7 are being input.
図30は、「同期信号付きYCbCr」8ビット入力フォーマット(垂直方向)を示すタイミングチャートである。図中の「YSIZE」、「AIE_YST」、「AIE_YSIZE」は、いずれもレジスタA4を用いて設定することができるレジスタ値である。なお、図30は、垂直同期信号CAMVSIと水平同期信号CAMHSIの極性がいずれもローアクティブ(VSPOL=0、HSPOL=0)の場合を示している。 FIG. 30 is a timing chart showing the “YCbCr with synchronization signal” 8-bit input format (vertical direction). “YSIZE”, “AIE_YST”, and “AIE_YSIZE” in the figure are register values that can be set using the register A4. FIG. 30 shows a case where the polarities of the vertical synchronization signal CAMVSI and the horizontal synchronization signal CAMHSI are both low active (VSPOL = 0, HSPOL = 0).
次に、I2Cインターフェイスについて、図31を参照しながら概略を説明する。 Next, an outline of the I2C interface will be described with reference to FIG.
図31は、I2Cインターフェイスフォーマット示す図である。なお、図中の符号Sはスタートコンディションを示しており、符号Pはストップコンディションを示している。また、符号A(S)はスレーブによるアクノリッジを示しており、符号A(M)はマスタによるアクノリッジを示している。また、A(S)バーはスレーブによる非アクノリッジを示しており、A(M)バーはマスタによる非アクノリッジを示している。スレーブアドレスは、I2CDEV0=0のときには42hであり、I2CDEV0=1のときには43hである。ライト/リード共に2回以上の連続アクセスを行った場合、サブアドレスは自動的にインクリメントされる。 FIG. 31 is a diagram showing an I2C interface format. In addition, the code | symbol S in a figure has shown the start condition, and the code | symbol P has shown the stop condition. Reference symbol A (S) indicates an acknowledge by the slave, and reference symbol A (M) indicates an acknowledge by the master. A (S) bar indicates non-acknowledgement by the slave, and A (M) bar indicates non-acknowledgement by the master. The slave address is 42h when I2CDEV0 = 0, and 43h when I2CDEV0 = 1. The sub address is automatically incremented when two or more consecutive accesses are performed for both writing and reading.
次に、レジスタA4の設定について詳細に説明する。 Next, the setting of the register A4 will be described in detail.
図32は、初期化レジスタSRSTの内容を示すマップである。初期化レジスタSRST(インデックスアドレス:FFh)は、ソフトウェアリセットに関するレジスタ値であり、1ビットのパラメータSRST(ビット番号0、ライト属性)を含んでいる。パラメータSRSTの初期値は「0」であり、パラメータSRSTに「1」を書き込むことで、画像処理IC20−3がソフトウェアリセットされる。ソフトウェアリセット後、100[ns]の間は、初期化レジスタSRSTに対してアクセスすべきでない。ハードウェアリセット後には、ソフトウェアリセットを行う必要はない。
FIG. 32 is a map showing the contents of the initialization register SRST. The initialization register SRST (index address: FFh) is a register value related to software reset, and includes a 1-bit parameter SRST (
図33は、パラメータ更新レジスタPARAMSETの内容を示すマップである。パラメータ更新レジスタPARAMSET(インデックスアドレス:11h)は、パラメータ更新に関するレジスタ値であり、1ビットのパラメータPARAM_SET(ビット番号0、リード/ライト属性)のほか、2ビット分のリザーブビットRESERVED(ビット番号1、2)を含んでいる。パラメータPARAM_SETの初期値は「0」であり、パラメータPARAM_SETに「1」を書き込むことで、各種レジスタ値のパラメータ更新が行われる。より具体的に述べると、各種レジスタ値のパラメータ更新は、パラメータ更新レジスタPARAMSETが書き込まれた後のフレームの先頭で行われる。なお、パラメータ更新レジスタPARAMSETは、各種レジスタ値のパラメータが更新された後に自動でクリアされる。
FIG. 33 is a map showing the contents of the parameter update register PARAMSET. The parameter update register PARAMSET (index address: 11h) is a register value related to parameter update. In addition to the 1-bit parameter PARAM_SET (
図34は、モードレジスタMODEの内容を示すマップである。モードレジスタMODE(インデックスアドレス:12h)は、画像処理IC20−3の各種動作モードの設定に関するレジスタ値であり、2ビットのパラメータMODE(ビット番号0〜1、リード/ライト属性)と、1ビットのパラメータTH_TYPE(ビット番号2、リード/ライト属性)と、1ビットのパラメータSUSP(ビット番号3、リード/ライト属性)と、を含んでいる。
FIG. 34 is a map showing the contents of the mode register MODE. The mode register MODE (index address: 12h) is a register value related to setting of various operation modes of the image processing IC 20-3, and includes a 2-bit parameter MODE (
パラメータMODEは、スリープモード、スルーモード、及び、エンハンスモードの切替を行うためのパラメータであり、その初期値は「00b」である。この値を書き込むことで、動作モードがスリープモードになる。スリープモードでは、画像処理IC20−3がスリープ状態となる。パラメータMODEに「01b」を書き込むことで、動作モードがスルーモードになる。スルーモードでは、入力データに対する画像補正が行われず、入力データはそのまま出力データとなる。なお、動作モードをスルーモードに設定する前には、必ずパラメータTH_TYPEを「1」に設定する必要がある。パラメータMODEに「11b」を書き込むことで、動作モードがエンハンスモードになる。エンハンスモードでは、入力データに画像補正を施した結果が出力データとして出力される。なお、パラメータMODEに「10b」を書き込むことは禁止されている。図35は、パラメータMODEと動作モードとの関係を示す論理表である。 The parameter MODE is a parameter for switching between the sleep mode, the through mode, and the enhancement mode, and its initial value is “00b”. By writing this value, the operation mode becomes the sleep mode. In the sleep mode, the image processing IC 20-3 enters a sleep state. By writing “01b” in the parameter MODE, the operation mode becomes the through mode. In the through mode, image correction is not performed on the input data, and the input data becomes output data as it is. Note that the parameter TH_TYPE must be set to “1” before the operation mode is set to the through mode. By writing “11b” in the parameter MODE, the operation mode becomes the enhancement mode. In the enhanced mode, the result of performing image correction on input data is output as output data. Note that writing “10b” to the parameter MODE is prohibited. FIG. 35 is a logical table showing the relationship between the parameter MODE and the operation mode.
パラメータTH_TYPEは、スルーモードの動作タイプを設定するためのパラメータであり、その初期値は「0」である。パラメータTH_TYPEに「1」を書き込むことで、画像処理IC20−3は、スルーモードにおいてカメラモジュール10−3から入力されるデータと同期信号をエンハンスモードと同じサイクル数だけ遅延させて出力するようになる。なお、パラメータTH_TYPEに「0」を書き込むことは禁止されている。 The parameter TH_TYPE is a parameter for setting the operation type of the through mode, and its initial value is “0”. By writing “1” in the parameter TH_TYPE, the image processing IC 20-3 delays the data and the synchronization signal input from the camera module 10-3 in the through mode by the same number of cycles as in the enhancement mode, and outputs the delayed data. . Note that writing “0” to the parameter TH_TYPE is prohibited.
パラメータSUSPは、I/O[Input/Output]のサスペンドモードを設定するためのパラメータであり、その初期値は「1」である。パラメータSUSPに「0」を書き込むことで、サスペンドモードが解除され、パラメータSUSPに「1」を書き込むことで、サスペンドモードが設定される。 The parameter SUSP is a parameter for setting the suspend mode of I / O [Input / Output], and its initial value is “1”. Writing “0” to the parameter SUSP cancels the suspend mode, and writing “1” to the parameter SUSP sets the suspend mode.
図36は、カメラX方向画素サイズ設定レジスタDXSIZEの内容を示すマップである。カメラX方向画素サイズ設定レジスタDXSIZE(インデックスアドレス:14h及び15h)は、入力画像データのX方向の画素数を設定するためのレジスタ値であり、11ビットのパラメータXSIZE(アドレス14hのビット番号0〜7、及び、アドレス15hのビット番号0〜2、リード/ライト属性)を含んでいる。パラメータXSIZEの初期値は「010 1000 0000b」(640ピクセル)であり、144ピクセル〜1024ピクセルまで設定することができる。
FIG. 36 is a map showing the contents of the camera X direction pixel size setting register DXSIZE. The camera X direction pixel size setting register DXSIZE (index address: 14h and 15h) is a register value for setting the number of pixels in the X direction of input image data, and is an 11-bit parameter XSIZE (
図37は、カメラY方向画素サイズ設定レジスタDYSIZEの内容を示すマップである。カメラY方向画素サイズ設定レジスタDYSIZE(インデックスアドレス:16h及び17h)は、入力画像データのY方向の画素数を設定するためのレジスタ値であり、11ビットのパラメータYSIZE(アドレス16hのビット番号0〜7、及び、アドレス17hのビット番号0〜2、リード/ライト属性)を含んでいる。パラメータYSIZEの初期値は「001 1110 0000b」(480ピクセル)である。
FIG. 37 is a map showing the contents of the camera Y direction pixel size setting register DYSIZE. The camera Y direction pixel size setting register DYSIZE (index address: 16h and 17h) is a register value for setting the number of pixels in the Y direction of the input image data, and is an 11-bit parameter YSIZE (
図38は、画像補正有効領域X方向スタート位置設定レジスタAIEXSTの内容を示すマップである。画像補正有効領域X方向スタート位置設定レジスタAIEXST(インデックスアドレス:18h及び19h)は、画像補正有効領域のX方向スタート位置を設定するためのレジスタ値であり、10ビットのパラメータAIEXST(アドレス18hのビット番号0〜7、及び、アドレス19hのビット番号0〜1、リード/ライト属性)を含んでいる。パラメータAIEXSTの初期値は「00 0000 0000b」であり、0〜(XSIZE−AIEXSIZE)まで設定することができる。
FIG. 38 is a map showing the contents of the image correction effective area X direction start position setting register AIEXST. The image correction effective area X-direction start position setting register AIEXST (index address: 18h and 19h) is a register value for setting the X-direction start position of the image correction effective area, and is a 10-bit parameter AIEXST (bit of address 18h). Number 0-7, bit number 0-1 of
図39は、画像補正有効領域Y方向スタート位置設定レジスタAIEYSTの内容を示すマップである。画像補正有効領域Y方向スタート位置設定レジスタAIEYST(インデックスアドレス:1Ah及び1Bh)は、画像補正有効領域のY方向スタート位置を設定するためのレジスタ値であり、10ビットのパラメータAIEYST(アドレス1Ahのビット番号0〜7、及び、アドレス1Bhのビット番号0〜1、リード/ライト属性)を含んでいる。パラメータAIEYSTの初期値は「00 0000 0000b」であり、0〜(YSIZE−AIEYSIZE)まで設定することができる。
FIG. 39 is a map showing the contents of the image correction effective area Y-direction start position setting register AIEYST. The image correction effective area Y-direction start position setting register AIEYST (index addresses: 1Ah and 1Bh) is a register value for setting the Y-direction start position of the image correction effective area, and is a 10-bit parameter AIEYST (bit of address 1Ah).
図40は、画像補正有効領域X方向サイズ設定レジスタAIEXSIZEの内容を示すマップである。画像補正有効領域X方向サイズ設定レジスタAIEXSIZE(インデックスアドレス:1Ch及び1Dh)は、画像補正有効領域のX方向の画素数を設定するためのレジスタ値であり、11ビットのパラメータAIEXSIZE(アドレス1Chのビット番号0〜7、及び、アドレス1Dhのビット番号0〜2、リード/ライト属性)を含んでいる。パラメータAIEXSTの初期値は「010 1000 0000b」(640ピクセル)であり、144〜XSIZEまで設定することができる。
FIG. 40 is a map showing the contents of the image correction effective area X-direction size setting register AIEXSIZE. The image correction effective area X-direction size setting register AIEXSIZE (index address: 1Ch and 1Dh) is a register value for setting the number of pixels in the X direction of the image correction effective area, and is an 11-bit parameter AIEXSIZE (address 1Ch bit).
図41は、画像補正有効領域Y方向サイズ設定レジスタAIEYSIZEの内容を示すマップである。画像補正有効領域Y方向サイズ設定レジスタAIEYSIZE(インデックスアドレス:1Eh及び1Fh)は、画像補正有効領域のY方向の画素数を設定するためのレジスタ値であり、11ビットのパラメータAIEYSIZE(アドレス1Ehのビット番号0〜7、及び、アドレス1Fhのビット番号0〜2、リード/ライト属性)を含んでいる。パラメータAIEYSTの初期値は「001 1110 0000b」(480ピクセル)であり、144〜YSIZEまで設定することができる。 FIG. 41 is a map showing the contents of the image correction effective area Y-direction size setting register AIEYSIZE. The image correction effective area Y-direction size setting register AIEYSIZE (index address: 1Eh and 1Fh) is a register value for setting the number of pixels in the Y direction of the image correction effective area, and is an 11-bit parameter AIEYSIZE (address 1Eh bit). Number 0-7, bit number 0-2 of address 1Fh, read / write attribute). The initial value of the parameter AIEYST is “001 1110 0000b” (480 pixels), and can be set from 144 to YSIZE.
図42は、入力画像データの画像補正有効領域を模式的に示す図である。 FIG. 42 is a diagram schematically showing an image correction effective area of input image data.
図42で示したように、本実施形態の画像処理IC20−3は、入力画像全体を補正対象とするのではなく、任意の画像補正有効領域にのみ、画像補正処理を施す機能を備えている。すなわち、輝度判別部A2(他の実施形態で言えば、輝度変換係数算出部12に相当)は、図42に示された画像補正有効領域のみを複数のエリアに分割した上で、各エリア毎の輝度変換係数を算出し、画像エンハンス部A3(他の実施形態で言えば、輝度変換処理部11に相当)は、各エリアを構成する画素に対して、各エリア毎の輝度変換係数に応じた輝度変換処理を施す。なお、輝度変換係数の算出処理や輝度変換処理については、先述の第1実施形態と同様であるため、重複した説明は割愛する。
As shown in FIG. 42, the image processing IC 20-3 according to the present embodiment has a function of performing image correction processing only on an arbitrary image correction effective area, not the entire input image as a correction target. . That is, the luminance determination unit A2 (corresponding to the luminance conversion
上記のように、本実施形態の画像処理IC20−3は、入力画像の補正有効領域を設定する補正有効領域設定部(図23の例では、レジスタA4及びI2Cインターフェイス部A5)と;前記入力画像のうち、前記補正有効領域のみを複数のエリアに分割した上で、各エリア毎の輝度変換係数を算出する輝度変換係数算出部(図23の例では、輝度判別部A2)と;各エリアを構成する画素に対して、各エリア毎の輝度変換係数に応じた輝度変換処理を施す輝度変換処理部(図23の例では、画像エンハンス部A3)と;を有して成る構成とされている。このような構成とすることにより、入力画像に含まれる任意の領域について、ユーザの意図した通りに、その画質や視認性を高めることが可能となる。 As described above, the image processing IC 20-3 of the present embodiment includes the correction effective area setting unit (in the example of FIG. 23, the register A4 and the I2C interface unit A5) that sets the correction effective area of the input image; A luminance conversion coefficient calculation unit (in the example of FIG. 23, luminance determination unit A2) that calculates a luminance conversion coefficient for each area after dividing only the effective correction area into a plurality of areas; A luminance conversion processing unit (image enhancement unit A3 in the example of FIG. 23) that performs a luminance conversion process according to the luminance conversion coefficient for each area on the constituent pixels. . With this configuration, it is possible to improve the image quality and visibility of an arbitrary area included in the input image as intended by the user.
図43は、輝度補正強度設定レジスタSTRENGTHの内容を示すマップである。輝度補正強度設定レジスタSTRENGTH(インデックスアドレス:21h)は、画像補正の強度(輝度変換処理の強度)を設定するためのレジスタ値であり、7ビットのパラメータSTR(ビット番号0〜6、リード/ライト属性)を含んでいる。パラメータSTRの初期値は「110 0000b」(96d)であり、0〜127dまで設定することができる。なお、輝度変換処理の強度を可変制御する構成については、先述の第5実施形態と同様であるため、重複した説明は割愛する。
FIG. 43 is a map showing the contents of the brightness correction strength setting register STRENGTH. The luminance correction strength setting register STRENGTH (index address: 21h) is a register value for setting the strength of image correction (luminance conversion processing strength), and is a 7-bit parameter STR (
図44は、色差補正強度設定レジスタUV_STRENGTHの内容を示すマップである。色差補正強度設定レジスタUV_STRENGTH(インデックスアドレス22h)は、色差補正の強度(カラーコレクション処理の強度)を設定するためのレジスタ値であり、4ビットのパラメータUV_STR(ビット番号0〜3、リード/ライト属性)と、4ビットのパラメータV_ENHANCE(ビット番号4〜7、リード/ライト属性)を含んでいる。
FIG. 44 is a map showing the contents of the color difference correction intensity setting register UV_STRENGTH. The color difference correction intensity setting register UV_STRENGTH (index address 22h) is a register value for setting the intensity of color difference correction (intensity of color correction processing), and is a 4-bit parameter UV_STR (
パラメータUV_STRの初期値は「0110b」(6d)であり、0〜13dまで設定することができる。なお、パラメータUV_STRの値が大きいほど発色が強くなる。また、パラメータUV_STRに「1110」、「1111」(14d、15d)を書き込むことは禁止されている。 The initial value of the parameter UV_STR is “0110b” (6d), and can be set from 0 to 13d. Note that the larger the value of the parameter UV_STR, the stronger the color development. Also, writing “1110”, “1111” (14d, 15d) to the parameter UV_STR is prohibited.
パラメータV_ENHANCEの初期値は「0000b」であり、0〜15dまで設定することができる。なお、パラメータV_ENHANCEの値が大きいほど赤みが強くなる。具体的には、+約3[%]×設定値だけ赤みが強調される。 The initial value of the parameter V_ENHANCE is “0000b” and can be set from 0 to 15d. Note that redness increases as the value of the parameter V_ENHANCE increases. Specifically, redness is emphasized by about +3 [%] × set value.
図45は、ノイズ抑制設定レジスタNOISE_SUPの内容を示すマップである。ノイズ抑制設定レジスタNOISE_SUP(インデックスアドレス:23h)は、ノイズ抑制値を設定するためのレジスタ値であって、7ビットのパラメータNOISE_SUP(ビット番号0〜6、リード/ライト属性)を含んでいる。パラメータNOISE_SUPの初期値は「110 0000b」(96d)であり、10d〜127dまで設定することができる。なお、パラメータNOISE_SUPの値が大きいほどノイズが抑制される。また、パラメータNOISE_SUPに「0000」〜「1001」(0〜9d)を書き込むことは禁止されている。ノイズ抑制値を可変制御する構成については、先述の第3実施形態と同様であるため、重複した説明は割愛する。
FIG. 45 is a map showing the contents of the noise suppression setting register NOISE_SUP. The noise suppression setting register NOISE_SUP (index address: 23h) is a register value for setting a noise suppression value, and includes a 7-bit parameter NOISE_SUP (
図46はエッジ強調フィルタ設定レジスタEDG_CNTの内容を示すマップである。エッジ強調フィルタ設定レジスタEDG_CNT(インデックスアドレス:24h)は、エッジ強調フィルタの動作を制御するためのレジスタ値であり、4ビットのパラメータEDG_ST(ビット番号0〜3、リード/ライト属性)と、1ビットのパラメータEDG_EN(ビット番号7、リード/ライト属性)を含んでいる。
FIG. 46 is a map showing the contents of the edge enhancement filter setting register EDG_CNT. The edge emphasis filter setting register EDG_CNT (index address: 24h) is a register value for controlling the operation of the edge emphasis filter, and includes a 4-bit parameter EDG_ST (
パラメータEDG_STの初期値は「0000b」であり、0〜15dまで設定することができる。なお、パラメータEDG_STの値が大きいほどエッジ強調が強くなる。 The initial value of the parameter EDG_ST is “0000b” and can be set from 0 to 15d. Note that edge enhancement becomes stronger as the value of the parameter EDG_ST increases.
パラメータEDG_ENは、エッジ強調フィルタのイネーブルを設定するためのパラメータであり、その初期値は「0」である。パラメータEDG_ENに「0」を書き込むことで、エッジ強調フィルタがディセーブルとされ、パラメータEDG_ENに「1」を書き込むことで、エッジ強調フィルタがイネーブルとされる。エッジ強調フィルタは、ITU656フォーマット時のみ有効であり、その他の場合には、パラメータEDG_ENを「0」に設定すべきである。 The parameter EDG_EN is a parameter for setting enable of the edge enhancement filter, and its initial value is “0”. Writing “0” to the parameter EDG_EN disables the edge enhancement filter, and writing “1” to the parameter EDG_EN enables the edge enhancement filter. The edge enhancement filter is effective only in the ITU656 format, and in other cases, the parameter EDG_EN should be set to “0”.
なお、エッジ強調フィルタの強度を可変制御する構成については、先述の第4実施形態と同様であるため、重複した説明は割愛する。 Note that the configuration for variably controlling the strength of the edge enhancement filter is the same as that in the fourth embodiment described above, and therefore a duplicate description is omitted.
図47は、応答時間設定レジスタRESP_SETの内容を示すマップである。応答時間設定レジスタRESP_SET(インデックスアドレス:25h)は、画像補正効果の応答時間を設定するためのレジスタ値であって、4ビットのパラメータRESP_SET(ビット番号0〜3、リード/ライト属性)を含んでいる。パラメータRESP_SETの初期値は「0000b」であり、0〜15dまで設定することができる。なお、パラメータRESP_SETの値が大きいほど応答時間が長くなる。
FIG. 47 is a map showing the contents of the response time setting register RESP_SET. The response time setting register RESP_SET (index address: 25h) is a register value for setting the response time of the image correction effect, and includes a 4-bit parameter RESP_SET (
図48は、ポストフィルタイネーブルレジスタPFLT_ENの内容を示すマップである。ポストフィルタイネーブルレジスタPFLT_EN(インデックスアドレス26h)は、出力ガンマフィルタのイネーブルを設定するためのレジスタ値であり、1ビットのパラメータPFLT_EN(ビット番号0、リード/ライト属性)を含んでいる。パラメータPFLT_ENの初期値は「0」である。パラメータPFLT_ENに「0」を書き込むことで出力ガンマフィルタがディセーブルとされ、パラメータPFLT_ENに「1」を書き込むことで、出力ガンマフィルタがイネーブルとされる。出力ガンマフィルタがイネーブルとされている場合、ポストフィルタ特性レジスタ(後述のPOFLT0〜POFLT8)で設定された特性を用いて、画像補正後の画像にガンマフィルタがかけられる。
FIG. 48 is a map showing the contents of the post filter enable register PFLT_EN. The post filter enable register PFLT_EN (index address 26h) is a register value for setting the output gamma filter enable, and includes a 1-bit parameter PFLT_EN (
図49は、出力ガンマ特性レジスタPOFLT0〜POFLT8の内容を示すマップである。出力ガンマ特性レジスタPOFLT0〜POFLT8(インデックスアドレス:27h〜2Fh)はいずれも出力ガンマ特性(図50を参照)の設定を行うためのレジスタ値であり、各々8ビットのパラメータPOFLT0〜POFLT8(ビット番号0〜7、リード/ライト属性)を含んでいる。パラメータPOFLT0の初期値は「0000 0000b」である。パラメータPOFLT1の初期値は「0001 1111b」(31d)である。パラメータPOFLT2の初期値は「0011 1111b」(63d)である。パラメータPOFLT3の初期値は「0101 1111b」(95d)である。パラメータPOFLT4の初期値は「0111 1111b」(127d)である。パラメータPOFLT5の初期値は「1001 1111b」(159d)である。パラメータPOFLT6の初期値は「1011 1111b」(191d)である。パラメータPOFLT7の初期値は「1101 1111b」(223d)である。パラメータPOFLT8の初期値は「1111 1111b」(255d)である。 FIG. 49 is a map showing the contents of the output gamma characteristic registers POFLT0 to POFLT8. The output gamma characteristic registers POFLT0 to POFLT8 (index addresses: 27h to 2Fh) are all register values for setting the output gamma characteristic (see FIG. 50). Each of the 8-bit parameters POFLT0 to POFLT8 (bit number 0) ~ 7, read / write attributes). The initial value of the parameter POFLT0 is “0000 0000b”. The initial value of the parameter POFLT1 is “0001 1111b” (31d). The initial value of the parameter POFLT2 is “0011 1111b” (63d). The initial value of the parameter POFLT3 is “0101 1111b” (95d). The initial value of the parameter POFLT4 is “0111 1111b” (127d). The initial value of the parameter POFLT5 is “1001 1111b” (159d). The initial value of the parameter POFLT6 is “1011 1111b” (191d). The initial value of the parameter POFLT7 is “1101 1111b” (223d). The initial value of the parameter POFLT8 is “1111 1111b” (255d).
図51は、輝度分布設定レジスタLFREQSETの内容を示すマップである。輝度分布設定レジスタLFREQSET(インデックスアドレス:30h)は、輝度値の度数取込み動作に関するレジスタ値であり、1ビットのパラメータLFREQST(ビット番号0、リード/ライト属性)と、1ビットのパラメータLFREQPOS(ビット番号1、リード/ライト属性)を含んでいる。
FIG. 51 is a map showing the contents of the luminance distribution setting register LFREQSET. The luminance distribution setting register LFREQSET (index address: 30h) is a register value related to the luminance value frequency fetch operation, and is a 1-bit parameter LFREQST (
パラメータLFREQSTに「1」を書き込むと、次フレーム画像の輝度値の度数が取り込まれる。なお、パラメータLFREQSTの値が「1」に維持されている間は、輝度値の度数の取り込み処理が未完了の状態であり、後述の輝度分布レジスタLFREQ0〜7、及び、輝度分布母数レジスタLFREQ_TOTALのデータは無効となる。一方、パラメータLFREQSTの値が「0」に戻っていれば、輝度値の度数の取り込み処理が完了された状態であり、輝度分布レジスタLFREQ0〜7、及び、輝度分布母数レジスタLFREQ_TOTALのデータは有効となる。従って、パラメータLFREQSTに「1」を書き込んでから、その値が「0」に復帰した後、輝度分布レジスタLFREQ0〜7、及び、輝度分布母数レジスタLFREQ_TOTALを読み出すことができる。 When “1” is written in the parameter LFREQST, the frequency of the luminance value of the next frame image is captured. Note that while the value of the parameter LFREQST is maintained at “1”, the process of fetching the frequency of the brightness value is in an incomplete state, and the brightness distribution registers LFREQ0 to LFREQ and the brightness distribution parameter register LFREQ_TOTAL which will be described later. This data is invalid. On the other hand, if the value of the parameter LFREQST returns to “0”, it means that the process of fetching the luminance value frequency has been completed, and the data in the luminance distribution registers LFREQ0 to LFREQ and the luminance distribution parameter register LFREQ_TOTAL are valid. It becomes. Therefore, after writing “1” in the parameter LFREQST and returning the value to “0”, the luminance distribution registers LFREQ0 to LFREQ and the luminance distribution parameter register LFREQ_TOTAL can be read.
パラメータLFREQPOSは、輝度値の度数を取り込む画像を選択するためのパラメータであり、その初期値は「0」である。パラメータLFREQPOSに「1」を書き込むことで、出力画像(画像補正済み画像)の輝度値が取り込まれる形となり、パラメータFREQPOSに「0」を書き込むことで、入力画像の輝度値が取り込まれる形となる。 The parameter LFREQPOS is a parameter for selecting an image from which the luminance value frequency is taken, and its initial value is “0”. Writing “1” to the parameter LFREQPOS takes in the luminance value of the output image (image corrected image), and writing “0” into the parameter FREQPOS takes in the luminance value of the input image. .
図52は、輝度分布レジスタLFREQ0〜LFREQ7の内容を示すマップである。輝度分布レジスタLFREQ0〜LFREQ7(インデックスアドレス31h〜38h)は、いずれも画像の輝度値の度数を格納するためのレジスタ値であり、各々8ビットのパラメータLFREQ0〜LFREQ7(ビット番号0〜7、リード属性)を含んでいる。パラメータLFREQ0には、輝度値0〜31を有する画素数が格納される。パラメータLFREQ1には、輝度値32〜63を有する画素数が格納される。パラメータLFREQ2には、輝度値64〜95を有する画素数が格納される。パラメータLFREQ3には輝度値96〜127を有する画素数が格納される。パラメータLFREQ4には、輝度値128〜159を有する画素数が格納される。パラメータLFREQ5には、輝度値160〜191を有する画素数が格納される。パラメータLFREQ6には、輝度値192〜223を有する画素数が格納される。パラメータLFREQ7には、輝度値224〜255を有する画素数が格納される。
FIG. 52 is a map showing the contents of the luminance distribution registers LFREQ0 to LFREQ7. The luminance distribution registers LFREQ0 to LFREQ7 (index addresses 31h to 38h) are all register values for storing the frequency of the luminance value of the image. Each of the 8-bit parameters LFREQ0 to LFREQ7 (
図53は、輝度分布母数レジスタLFREQ_TOTALの内容を示すマップである。輝度分布母数レジスタLFREQ_TOTAL(インデックスアドレス:39h)は、輝度分布母数(全画素数)を格納するためのレジスタ値であり、8ビットのパラメータLFREQ_TOTAL(ビット番号0〜7、リード属性)を含んでいる。なお、輝度分布母数レジスタは、アナリシス時、或いは、エンハンス時にのみ動作となる。
FIG. 53 is a map showing the contents of the luminance distribution parameter register LFREQ_TOTAL. The luminance distribution parameter register LFREQ_TOTAL (index address: 39h) is a register value for storing the luminance distribution parameter (total number of pixels), and includes an 8-bit parameter LFREQ_TOTAL (
なお、輝度分布の取り込み動作については、先述の第5実施形態と同様であるため、重複した説明は割愛する。 Note that since the luminance distribution capturing operation is the same as that of the fifth embodiment described above, a duplicate description is omitted.
図54は、PWM制御レジスタの内容を示すマップである。PWM制御レジスタPWMCNT(インデックスアドレス:40h)は、PWM信号の出力制御を行うためのレジスタ値であって、2ビットのパラメータPWM_SEL(ビット番号0〜1、リード/ライト属性)と、1ビットのパラメータPWM_HOST(ビット番号6、リード/ライト属性)と、1ビットのパラメータPWM_EN(ビット番号7、リード/ライト属性)と、を含んでいる。
FIG. 54 is a map showing the contents of the PWM control register. The PWM control register PWMCNT (index address: 40h) is a register value for controlling the output of the PWM signal, and includes a 2-bit parameter PWM_SEL (
パラメータPWM_SELは、PWM信号の出力端子を設定するためのパラメータであり、その初期値は「00b」である。パラメータPWM_SELに「00b」を書き込むことで、PWM信号は非出力状態となり、パラメータPWM_SELに「01b」を書き込むことで、PWM信号がPWMO端子を介して出力される状態となる。なお、パラメータPWM_SELに「10b」、「11b」を書き込むことは禁止されている。 The parameter PWM_SEL is a parameter for setting the output terminal of the PWM signal, and its initial value is “00b”. Writing "00b" to the parameter PWM_SEL makes the PWM signal non-output state, and writing "01b" to the parameter PWM_SEL makes the PWM signal output via the PWMO terminal. Note that writing “10b” and “11b” to the parameter PWM_SEL is prohibited.
パラメータPWM_HOSTは、PWM信号のデューティ制御方法を設定するためのパラメータであり、その初期値は「0」である。パラメータPWM_HOSTに「0」を書き込むことで、PWM信号のデューティを画像処理IC20−3が自動制御する状態となる。パラメータPWM_HOSTに「1」を書き込むことで、PWM信号のデューティが外部制御される状態となる。このとき、後述するPWMDUTY設定レジスタPWM_DUTYのレジスタ値が反映される。 The parameter PWM_HOST is a parameter for setting the duty control method of the PWM signal, and its initial value is “0”. By writing “0” in the parameter PWM_HOST, the image processing IC 20-3 automatically controls the duty of the PWM signal. By writing “1” to the parameter PWM_HOST, the duty of the PWM signal is controlled externally. At this time, a register value of a PWM DUTY setting register PWM_DUTY described later is reflected.
パラメータPWM_ENは、PWM制御のイネーブルを設定するためのパラメータであり、その初期値は「0」である。パラメータPWM_ENに「0」を書き込むことで、PWM制御がディセーブルとされ、パラメータPWM_ENに「1」を書き込むことで、PWM制御がイネーブルとされる。 The parameter PWM_EN is a parameter for setting the PWM control enable, and its initial value is “0”. Writing “0” to the parameter PWM_EN disables the PWM control, and writing “1” to the parameter PWM_EN enables the PWM control.
図55は、PWMクロック分周レジスタの内容を示すマップである。PWMクロック分周レジスタPWMCLK(インデックスアドレス:41h及び42h)は、PWM信号の生成用クロックの分周比(延いては、PWM信号の周波数T)を設定するためのレジスタ値であり、14ビットのパラメータPWMCLK(アドレス41hのビット番号0〜7、及び、アドレス42hのビット番号0〜5、リード/ライト属性)を含んでいる。なお、PWM信号の生成用クロックは、所定周波数の基準クロックを(PWMクロック分周レジスタで設定された値+1)分周することにより生成される。
FIG. 55 is a map showing the contents of the PWM clock divider register. The PWM clock frequency division register PWMCLK (index address: 41h and 42h) is a register value for setting the frequency division ratio of the PWM signal generation clock (and hence the frequency T of the PWM signal). It includes parameters PWMCLK (bit numbers 0-7 of address 41h and bit numbers 0-5 of
図56は、PWMスロープ制御レジスタの内容を示すマップである。PWMスロープ制御レジスタPWMSLOPE(インデックスアドレス:43h)は、PWMデューティのスロープ(PWMデューティを可変制御する際の変化度合い)を設定するためのレジスタ値であり、7ビットのパラメータSLOPE(ビット番号0〜6、リード/ライト属性)を含んでいる。 FIG. 56 is a map showing the contents of the PWM slope control register. The PWM slope control register PWMSLOPE (index address: 43h) is a register value for setting the slope of the PWM duty (degree of change when the PWM duty is variably controlled), and is a 7-bit parameter SLOPE (bit numbers 0-6). Read / write attribute).
図57は、SLOPE更新サイクルレジスタの内容を示すマップである。SLOPE更新サイクルレジスタSLOPE_CYCLE(インデックスアドレス:52h、53h)は、PWMデューティのスロープ更新サイクル数を設定するためのレジスタ値であり、16ビットのパラメータSLOPE_CYCLE(アドレス52hのビット番号0〜7、及び、アドレス53hのビット番号0〜7、リード/ライト属性)を含んでいる。
FIG. 57 is a map showing the contents of the SLOPE update cycle register. The SLOPE update cycle register SLOPE_CYCLE (index address: 52h, 53h) is a register value for setting the number of slope update cycles of the PWM duty, and the 16-bit parameter SLOPE_CYCLE (
すなわち、PWMデューティは、図58に示すように、SLOPE_CYCLE×PWMCLKで設定されるタイミング毎に、PWMSLOPEの設定値だけ変化されることになる。なお、PWMスロープ制御レジスタPWMSLOPEに「0」が書き込まれているときには、スロープ無しとなる。 That is, as shown in FIG. 58, the PWM duty is changed by the setting value of PWMSLOPE at every timing set by SLOPE_CYCLE × PWMCLK. When “0” is written in the PWM slope control register PWMSLOPE, there is no slope.
図59は、PWMデューティ設定レジスタの内容を示すマップである。PWMデューティ設定レジスタPWM_DUTY(インデックスアドレス:44h)は、外部制御時にPWMデューティ(ハイレベル区間の幅)を設定するためのレジスタ値であり、7ビットのパラメータPWM_DUTY(ビット番号0〜6、リード/ライト属性)を含んでいる。パラメータPWM_DUTYに「0」を書き込むことで、PWM信号は常時ロー出力となり、パラメータPWM_DUTYに「111 1111b」(127d)を書き込むことで、PWM信号は常時ハイ出力となる。その余のレジスタ値「V」を書き込んだ場合、1周期を127サイクルとして、Vサイクルだけハイレベルとなり、(127−V)サイクルだけローレベルとなる。なお、ここでの1サイクルは、PWM分周クロックレジスタPWMCLKで設定されたPWM信号生成用クロックの1クロックに相当する。また、PWMデューティ設定レジスタPWM_DUTYは、PWM制御レジスタPWMCNTに含まれるパラメータPWM_HOSTが「1」(PWMデューティが外部制御される状態)であるときにのみ有効となる。
FIG. 59 is a map showing the contents of the PWM duty setting register. The PWM duty setting register PWM_DUTY (index address: 44h) is a register value for setting the PWM duty (high level interval width) during external control, and is a 7-bit parameter PWM_DUTY (
図60は、PWMDUTYテーブルレジスタの内容を示すマップである。PWMDUTYテーブルレジスタPWM_DTBL0〜8(インデックスアドレス:45h〜4Dh)は、画像処理IC20−3がPWMデューティを自動制御する際のテーブル(右肩上がりの挙動を示すテーブル)を設定するものであり、それぞれ7ビットのパラメータPWM_DUTY_TABLE0〜8(ビット番号0〜6、リード/ライト属性)を含んでいる。
FIG. 60 is a map showing the contents of the PWMDUTY table register. The PWMDUTY table registers PWM_DTBL0 to 8 (index address: 45h to 4Dh) are tables for setting the PWM processing by the image processing IC 20-3 (a table showing a rising behavior). Bit parameters PWM_DUTY_TABLE0 to 8 (
図61は、PWM度数係数レジスタの内容を示すマップである。PWM度数係数レジスタPWM_HCOEF0〜3(インデックスアドレス:4Eh〜51h)は、画像処理IC20−3によるPWMデューティの自動制御に際して、輝度度数分布の重み付けに用いる係数を設定するためのレジスタ値である。 FIG. 61 is a map showing the contents of the PWM frequency coefficient register. The PWM frequency coefficient registers PWM_HCOEF0 to 3 (index address: 4Eh to 51h) are register values for setting coefficients used for weighting the luminance frequency distribution when the PWM duty is automatically controlled by the image processing IC 20-3.
PWM度数係数レジスタPWM_HCOEF0は、3ビットのパラメータPWM_HCOEF0(ビット番号0〜2、リード/ライト属性)と、3ビットのパラメータPWM_HCOEF1(ビット番号4〜6、リード/ライト属性)を含んでいる。PWM度数係数レジスタPWM_HCOEF1は、3ビットのパラメータPWM_HCOEF2(ビット番号0〜2、リード/ライト属性)と、3ビットのパラメータPWM_HCOEF3(ビット番号4〜6、リード/ライト属性)を含んでいる。PWM度数係数レジスタPWM_HCOEF2は、3ビットのパラメータPWM_HCOEF4(ビット番号0〜2、リード/ライト属性)と、3ビットのパラメータPWM_HCOEF5(ビット番号4〜6、リード/ライト属性)を含んでいる。PWM度数係数レジスタPWM_HCOEF3は、3ビットのパラメータPWM_HCOEF6(ビット番号0〜2、リード/ライト属性)と、3ビットのパラメータPWM_HCOEF7(ビット番号4〜6、リード/ライト属性)を含んでいる。
The PWM frequency coefficient register PWM_HCOEF0 includes a 3-bit parameter PWM_HCOEF0 (
パラメータPWM_HCOEF0〜7の各々に関して、「0」を書き込むことで、重み付け係数が「0倍」に設定される。また、「1」を書き込むことで、重み付け係数が「1倍」に設定される。同様に、「2」〜「7」を書き込むことで、それぞれ、重み付け係数が「1/2倍」、「1/4倍」、「1/8倍」、「1/16倍」、「1/32倍」、「1/64倍」に設定される。 By writing “0” for each of the parameters PWM_HCOEF0 to 7, the weighting coefficient is set to “0 times”. Further, by writing “1”, the weighting coefficient is set to “1 time”. Similarly, by writing “2” to “7”, the weighting coefficients are “1/2 times”, “1/4 times”, “1/8 times”, “1/16 times”, “1”, respectively. / 32 times "and" 1/64 times ".
なお、上記した輝度分布度数の重み付け処理については、先述の第5実施形態と同様であるため、重複した説明は割愛する。 Note that the above-described weighting process of the luminance distribution frequency is the same as that of the fifth embodiment described above, and thus a duplicate description is omitted.
図62は、極性設定レジスタの内容を示すマップである。極性設定レジスタPOL(インデックスアドレス:E1h)は、信号の極性を設定するためのレジスタ値であり、3ビット分のリザーブビットRESERVE(ビット番号2〜4)と、1ビットのパラメータCKPOL(ビット番号5、リード/ライト属性)と、1ビットのパラメータHSPOL(ビット番号6、リード/ライト属性)と、1ビットのパラメータVSPOL(ビット番号7、リード/ライト属性)と、を含んでいる。
FIG. 62 is a map showing the contents of the polarity setting register. The polarity setting register POL (index address: E1h) is a register value for setting the polarity of the signal. The reserved bits RESERVE (
パラメータCKPOLは、カメラモジュール10−3から入力されるデータ信号CAMDIに対するクロック信号CAMCKIの極性を設定するためのパラメータであり、その初期値は「0」である。図63に示すように、パラメータCKPOLに「0」を書き込むことで、クロック信号CAMCKIの立ち下りエッジでデータ信号CAMDIが変化し、クロック信号CAMCKIの立ち上りエッジでデータ信号CAMDIが取り込まれる。 The parameter CKPOL is a parameter for setting the polarity of the clock signal CAMCKI with respect to the data signal CAMDI input from the camera module 10-3, and its initial value is “0”. As shown in FIG. 63, by writing “0” to the parameter CKPOL, the data signal CAMDI changes at the falling edge of the clock signal CAMCKI, and the data signal CAMDI is captured at the rising edge of the clock signal CAMCKI.
パラメータHSPOLは、水平同期信号CAMHSIの極性を設定するためのパラメータであり、初期値は「0」である。パラメータHSPOLに「0」を書き込むことで、ハイレベル区間が有効データ区間(ローレベル区間がシンク区間)となる。逆に、パラメータHSPOLに「1」を書き込むことで、ローレベル区間が有効データ区間(ハイレベル区間がシンク区間)となる。 The parameter HSPOL is a parameter for setting the polarity of the horizontal synchronization signal CAMHSI, and the initial value is “0”. By writing “0” in the parameter HSPOL, the high level section becomes the valid data section (the low level section becomes the sync section). Conversely, by writing “1” in the parameter HSPOL, the low level section becomes the valid data section (the high level section is the sync section).
パラメータVSPOLは、垂直同期信号CAMVSIの極性を設定するためのパラメータであり、初期値は「0」である。パラメータVSPOLに「0」を書き込むことで、ハイレベル区間が有効データ区間(ローレベル区間がシンク区間)となる。逆に、パラメータVSPOLに「1」を書き込むことで、ローレベル区間が有効データ区間(ハイレベル区間がシンク区間)となる。 The parameter VSPOL is a parameter for setting the polarity of the vertical synchronization signal CAMVSI, and its initial value is “0”. By writing “0” in the parameter VSPOL, the high level section becomes the valid data section (the low level section becomes the sync section). Conversely, by writing “1” in the parameter VSPOL, the low level section becomes the valid data section (the high level section is the sync section).
なお、リザーブビットRESERVEは、初期値から変更すべきではない。 Note that the reserve bit RESERVE should not be changed from the initial value.
図64は、入力インタフェイスフォーマット指定レジスタの内容を示すマップである。入力インターフェイスフォーマット指定レジスタYUVIFSET(インデックスアドレス:Efh)は、入力インターフェイスのフォーマットを指定するためのレジスタ値であり、1ビットのパラメータYUVIFEN(ビット番号0、リード/ライト属性)と、1ビットのパラメータITU656EN(ビット番号1、リード/ライト属性)と、1ビットのパラメータITU601R_I(ビット番号2、リード/ライト属性)と、1ビットのパラメータITU601R_O(ビット番号3、リード/ライト属性)と、2ビットのパラメータYUVORD(ビット番号4及び5、リード/ライト属性)と、2ビットのパラメータYUV_XST(ビット番号6及び7、リード/ライト属性)を含んでいる。
FIG. 64 is a map showing the contents of the input interface format designation register. The input interface format designation register YUVIFSET (index address: Efh) is a register value for designating the format of the input interface. The 1-bit parameter YUVIFEN (
パラメータYUVIFENは、YUVインターフェイスのイネーブル信号であり、その初期値は「0」である。パラメータYUVIFENに「0」を書き込むことで、YUVインターフェイスはディセーブルとなり、パラメータYUVIFENに「1」を書き込むことで、YUVインターフェイスはイネーブルとなる。 The parameter YUVIFEN is an enable signal for the YUV interface, and its initial value is “0”. Writing “0” to the parameter YUVIFEN disables the YUV interface, and writing “1” to the parameter YUVIFEN enables the YUV interface.
パラメータITU656ENは、入出力のデジタルインターフェイスを設定するためのパラメータであり、その初期値は「0」である。パラメータITU656ENに「0」を書き込むことで、入出力のデジタルインターフェイスは、同期信号付きYCbCrに対応したものとなり、パラメータITU656ENに「1」を書き込むことで、入出力のデジタルインターフェイスは、ITU656フォーマットに対応したものとなる。 The parameter ITU656EN is a parameter for setting an input / output digital interface, and its initial value is “0”. By writing “0” in the parameter ITU656EN, the input / output digital interface becomes compatible with YCbCr with a synchronization signal, and by writing “1” in the parameter ITU656EN, the input / output digital interface supports the ITU656 format. Will be.
パラメータITU601R_Iは、デジタル入力インターフェイスのレンジを設定するためのパラメータであり、その初期値は「0」である。パラメータITU601R_Iに「0」を書き込むことで、デジタル入力インターフェイスは、Y、Cb、Crがフルレンジとなる。一方、パラメータITU601R_Iに「1」を書き込むことで、デジタル入力インターフェイスは、ITU601のレンジとなる。 The parameter ITU601R_I is a parameter for setting the range of the digital input interface, and its initial value is “0”. By writing “0” in the parameter ITU601R_I, the digital input interface has full range of Y, Cb, and Cr. On the other hand, by writing “1” in the parameter ITU601R_I, the digital input interface becomes the range of the ITU601.
パラメータITU601R_Oは、デジタル出力インターフェイスのレンジを設定するためのパラメータであり、その初期値は「0」である。パラメータITU601R_Oに「0」を書き込むことで、デジタル出力インターフェイスは、Y、Cb、Crがフルレンジとなる。一方、パラメータITU601R_Oに「1」を書き込むことで、デジタル出力インターフェイスは、ITU601のレンジとなる。 The parameter ITU601R_O is a parameter for setting the range of the digital output interface, and its initial value is “0”. By writing “0” to the parameter ITU601R_O, Y, Cb, and Cr are in the full range in the digital output interface. On the other hand, by writing “1” in the parameter ITU601R_O, the digital output interface becomes the range of ITU601.
パラメータYUVORDは、Y、Cb、Crの入力フォーマットを設定するパラメータであり、その初期値は「00b」である。パラメータYUVORDに「00b」を書き込むことで、Y、Cb、Crの入力フォーマットは、「Y・Cb・Y・Cr」の順となる。パラメータYUVORDに「01b」を書き込むことで、Y、Cb、Crの入力フォーマットは、「Y・Cr・Y・Cb」の順となる。パラメータYUVORDに「10b」を書き込むことで、Y、Cb、Crの入力フォーマットは、「Cb・Y・Cr・Y」の順となる。パラメータYUVORDに「11b」を書き込むことで、Y、Cb、Crの入力フォーマットは、「Cr・Y・Cb・Y」の順となる。 The parameter YUVORD is a parameter for setting the input format of Y, Cb, and Cr, and its initial value is “00b”. By writing “00b” in the parameter YUVORD, the input formats of Y, Cb, and Cr are in the order of “Y · Cb · Y · Cr”. By writing “01b” in the parameter YUVORD, the input formats of Y, Cb, and Cr are in the order of “Y · Cr · Y · Cb”. By writing “10b” in the parameter YUVORD, the input formats of Y, Cb, and Cr are in the order of “Cb · Y · Cr · Y”. By writing “11b” in the parameter YUVORD, the input formats of Y, Cb, and Cr are in the order of “Cr · Y · Cb · Y”.
パラメータYUV_XSTは、水平同期信号CAMHSIが有効となってから、データ入力が有効となるまでのディレイを設定するためのパラメータである(図29を参照)。 The parameter YUV_XST is a parameter for setting a delay from when the horizontal synchronization signal CAMHSI becomes valid until the data input becomes valid (see FIG. 29).
図65は、データフォーマット設定レジスタの内容を示すマップである。データフォーマット設定レジスタCAMDFM(インデックスアドレス:E2h)は、データフォーマットを設定するためのレジスタ値であり、5ビットのパラメータDFM(ビット番号0〜4、リード/ライト属性)と、3ビット分のリザーブビットRESERVE(ビット番号5〜7)と、を含んでいる。
FIG. 65 is a map showing the contents of the data format setting register. The data format setting register CAMDFM (index address: E2h) is a register value for setting the data format, and includes a 5-bit parameter DFM (
パラメータDFMは、データフォーマットを設定するためのパラメータであり、その初期値は「0」である。パラメータDFMに「0」を書き込むことで、データフォーマットは「ITU−R BT.656−4」に設定され、パラメータDFMに「1」を書き込むことで、データフォーマットは「同期信号付きYCbCr」に設定される。なお、パラメータDFMに上記以外の値を書き込むことは禁止されている。 The parameter DFM is a parameter for setting the data format, and its initial value is “0”. Writing “0” to the parameter DFM sets the data format to “ITU-R BT.656-4”, and writing “1” to the parameter DFM sets the data format to “YCbCr with sync signal”. Is done. Note that writing values other than those described above to the parameter DFM is prohibited.
なお、上記実施形態では、動画撮像により得られた各フレームの画像に対して輝度変換処理を行う画像処理装置に本発明を適用した場合を例に挙げて説明を行ったが、本発明の適用対象はこれに限定されるものではなく、テレビ放送の受信画像やDVDの再生画像、写真等の静止画像に対して輝度変換処理を施す画像処理装置など、入力画像に輝度換処理を施して所望の出力画像を生成する画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置全般に適用することが可能である。 In the above embodiment, the case where the present invention is applied to an image processing apparatus that performs luminance conversion processing on each frame image obtained by moving image capturing has been described as an example. The target is not limited to this, and the input image is subjected to luminance conversion processing, such as an image processing device that performs luminance conversion processing on a received image of a television broadcast, a playback image of a DVD, or a still image such as a photograph. The present invention can be applied to an image processing circuit that generates the output image, a semiconductor device formed by integrating the output processing circuit, and an image processing apparatus using the image processing circuit.
また、本発明の構成は、上記実施形態のほか、発明の主旨を逸脱しない範囲で種々の変更を加えることが可能である。 The configuration of the present invention can be variously modified within the scope of the present invention in addition to the above embodiment.
本発明は、入力画像に輝度変換処理を施して所望の出力画像を生成する画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置において、出力画像の画質や視認性を高める上で有用な技術である。 The present invention relates to an image processing circuit that performs luminance conversion processing on an input image to generate a desired output image, a semiconductor device integrated with the image processing circuit, and an image processing device using the image processing circuit. This is a useful technique for improving the performance.
1、1−2、1−3、1−4、1−5 画像処理装置
10 撮像部(撮像手段)
10−2 画像生成装置
10−3 カメラモジュール
11 輝度変換処理部
12 輝度変換係数算出部
13 輝度変換係数記憶部
14 出力部
14−2 画像出力装置(液晶ディスプレイ)
15、15−2 ノイズフィルタ処理部
16 ノイズフィルタ制御部
17、17−2 フィルタ係数設定部
18 エッジ強調処理部
19 輝度検出部
20、20−2、20−3 画像処理IC(半導体装置)
21 画像処理部
21a 色補正部
211 輝度補正部
212 色補正部
213 輝度ヒストグラム取得部
214 補正係数算出部
214a 第1補正テーブル
214b 第2補正テーブル
214c 基準補正テーブル
214d 調整係数算出部
22 色補正制御部
30、30−2 制御部(CPU)
40 照度センサ
100 輝度検出部
200 駆動部
201 第1加算器
202 乗算器
203 第2加算器
204 デューティ決定部
300 液晶ディスプレイ
A1 カラーコレクション部
A2 輝度判別部
A3 画像エンハンス部
A4 レジスタ
A5 I2Cインターフェイス部
A6 エッジ強調・ガンマ補正部
A7 PWM信号発生コントロール部
A8 タイミング発生部
DESCRIPTION OF
10-2 Image Generation Device 10-3
15, 15-2 Noise
21
40
Claims (5)
前記入力画像のうち、前記補正有効領域のみを複数のエリアに分割した上で、各エリア毎の輝度変換係数を算出する輝度変換係数算出部と;
各エリアを構成する画素に対して、各エリア毎の輝度変換係数に応じた輝度変換処理を施す輝度変換処理部と;
を有して成ることを特徴とする画像処理回路。 A correction effective area setting unit for setting a correction effective area of the input image;
A luminance conversion coefficient calculation unit that calculates a luminance conversion coefficient for each area after dividing only the correction effective area of the input image into a plurality of areas;
A luminance conversion processing unit that performs luminance conversion processing according to the luminance conversion coefficient for each area on the pixels constituting each area;
An image processing circuit comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008039557A JP2009200762A (en) | 2008-02-21 | 2008-02-21 | Image processing circuit, semiconductor device, and image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008039557A JP2009200762A (en) | 2008-02-21 | 2008-02-21 | Image processing circuit, semiconductor device, and image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009200762A true JP2009200762A (en) | 2009-09-03 |
Family
ID=41143801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008039557A Pending JP2009200762A (en) | 2008-02-21 | 2008-02-21 | Image processing circuit, semiconductor device, and image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009200762A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013198124A (en) * | 2012-03-22 | 2013-09-30 | Toshiba Corp | Image processing apparatus and image processing method |
US9083898B2 (en) | 2013-02-28 | 2015-07-14 | Kabushiki Kaisha Toshiba | Solid-state imaging device and camera module |
JP2015216473A (en) * | 2014-05-09 | 2015-12-03 | オリンパス株式会社 | Display controller |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09154044A (en) * | 1995-09-25 | 1997-06-10 | Matsushita Electric Ind Co Ltd | Picture display method and its device |
JP2006165828A (en) * | 2004-12-06 | 2006-06-22 | Mitsubishi Electric Corp | Gradation correcting device |
JP2006331172A (en) * | 2005-05-27 | 2006-12-07 | Mitsubishi Electric Corp | Gradation correction apparatus |
JP2007251849A (en) * | 2006-03-17 | 2007-09-27 | Ricoh Co Ltd | Image processing system |
WO2007142134A1 (en) * | 2006-06-02 | 2007-12-13 | Rohm Co., Ltd. | Image processing circuit, semiconductor device, and image processing device |
-
2008
- 2008-02-21 JP JP2008039557A patent/JP2009200762A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09154044A (en) * | 1995-09-25 | 1997-06-10 | Matsushita Electric Ind Co Ltd | Picture display method and its device |
JP2006165828A (en) * | 2004-12-06 | 2006-06-22 | Mitsubishi Electric Corp | Gradation correcting device |
JP2006331172A (en) * | 2005-05-27 | 2006-12-07 | Mitsubishi Electric Corp | Gradation correction apparatus |
JP2007251849A (en) * | 2006-03-17 | 2007-09-27 | Ricoh Co Ltd | Image processing system |
WO2007142134A1 (en) * | 2006-06-02 | 2007-12-13 | Rohm Co., Ltd. | Image processing circuit, semiconductor device, and image processing device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013198124A (en) * | 2012-03-22 | 2013-09-30 | Toshiba Corp | Image processing apparatus and image processing method |
US9083898B2 (en) | 2013-02-28 | 2015-07-14 | Kabushiki Kaisha Toshiba | Solid-state imaging device and camera module |
JP2015216473A (en) * | 2014-05-09 | 2015-12-03 | オリンパス株式会社 | Display controller |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230276136A1 (en) | Photographing method, electronic device, and storage medium | |
JP6186512B2 (en) | Image tone adjustment using local tone curve calculation | |
JP5006568B2 (en) | Register setting control device, register setting control method, program, and digital camera | |
JP6288816B2 (en) | Image processing apparatus, image processing method, and program | |
US20150023594A1 (en) | Transforming Wide Dynamic Range Images to Reduced Dynamic Range Images | |
JP3057055B2 (en) | Computer, overlay processing apparatus, and overlay processing execution method | |
JP2008217785A (en) | Display controller and image data converting method | |
CN110445986A (en) | Image processing method, device, storage medium and electronic equipment | |
CN110198419A (en) | Image processing method, device, storage medium and electronic equipment | |
JP4930154B2 (en) | Imaging apparatus and computer program therefor | |
WO2020207427A1 (en) | Method for image-processingand electronic device | |
JP2008125049A (en) | Image processing ic, image processing apparatus and back light driving device | |
US8223225B2 (en) | Image processing apparatus, method, and recording medium for reducing noise in an image | |
JP2009200762A (en) | Image processing circuit, semiconductor device, and image processor | |
JP5232410B2 (en) | Display device driving circuit, display device, and electronic apparatus | |
JP2012028997A (en) | Image processing device and camera | |
US20120098988A1 (en) | Image processor, electronic device including image processor, and image processing method | |
JP2012220717A (en) | Image processing circuit, semiconductor device, and image processing device | |
JP2007052184A (en) | Signal processing to improve blur of moving image | |
JP2008148296A (en) | Image processing circuit, semiconductor device, and image processing apparatus | |
JP5462912B2 (en) | Backlight drive device, image display device, and image processing device | |
KR100933171B1 (en) | Non-memory semiconductor embodied graphic display function | |
JP2006243940A (en) | Camera data transfer device | |
JP5518111B2 (en) | Digital camera | |
CN110035233A (en) | Image processing method, device, storage medium and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120424 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130312 |