JP2009200762A - Image processing circuit, semiconductor device, and image processor - Google Patents

Image processing circuit, semiconductor device, and image processor Download PDF

Info

Publication number
JP2009200762A
JP2009200762A JP2008039557A JP2008039557A JP2009200762A JP 2009200762 A JP2009200762 A JP 2009200762A JP 2008039557 A JP2008039557 A JP 2008039557A JP 2008039557 A JP2008039557 A JP 2008039557A JP 2009200762 A JP2009200762 A JP 2009200762A
Authority
JP
Japan
Prior art keywords
image
luminance
parameter
register
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008039557A
Other languages
Japanese (ja)
Inventor
Tetsuya Takemura
哲也 武村
Kazuma Mishima
一馬 三嶋
Akira Sawamura
陽 沢村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Priority to JP2008039557A priority Critical patent/JP2009200762A/en
Publication of JP2009200762A publication Critical patent/JP2009200762A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing circuit capable of improving the image quality and visibility for an optional region included in an input image. <P>SOLUTION: The image processing circuit comprises: a correction effective region setting means for setting the correction effective region of the input image; a luminance conversion coefficient calculation means for dividing only the correction effective region of the input image into a plurality of areas and then calculating a luminance conversion coefficient for each area; and a luminance conversion processing section for performing luminance conversion processing corresponding to the luminance conversion coefficient for each area on pixels configuring each area. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成する画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置に関するものである。   The present invention relates to an image processing circuit that generates a desired output image by performing luminance conversion processing (luminance dynamic range correction processing) on an input image, a semiconductor device formed by integrating the image processing circuit, and an image processing device using the image processing circuit. Is.

従来より、入力画像をより美しく見せるための画像処理の一つとして、輝度変換処理が一般に用いられている。この輝度変換処理は、例えば、画像全体における輝度ヒストグラムに基づいて、画像領域全体に共通の輝度変換係数を算出し、各画素にこの輝度変換係数を乗じることで輝度変換を行うものである。   Conventionally, luminance conversion processing is generally used as one of image processing for making an input image look more beautiful. In this luminance conversion process, for example, a luminance conversion coefficient common to the entire image region is calculated based on a luminance histogram in the entire image, and the luminance conversion is performed by multiplying each pixel by the luminance conversion coefficient.

より具体的には、まず入力画像の全体を対象とした輝度ヒストグラム(各輝度範囲の頻度、すなわち、所定の輝度範囲毎に属する画素数の分布)を求める。そして、この輝度ヒストグラムに基づき、入力画像における各輝度範囲について、頻度の高いものほど出力画像においては広い輝度範囲を割り当てるように、逆に、頻度の低いものほど出力画像においては狭い輝度範囲を割り当てるように、輝度変換係数を算出するものである。従って、上記の輝度変換係数は、輝度毎に、或いは、所定の輝度範囲毎に、別個の値となる。   More specifically, first, a luminance histogram (frequency of each luminance range, that is, distribution of the number of pixels belonging to each predetermined luminance range) for the entire input image is obtained. Based on this luminance histogram, for each luminance range in the input image, a higher luminance frequency is assigned to the output image, while a lower luminance frequency is assigned to the output image. As described above, the luminance conversion coefficient is calculated. Therefore, the luminance conversion coefficient is a separate value for each luminance or for each predetermined luminance range.

これにより、入力画像において頻度の低い輝度範囲の部分については、よりコントラスト(輝度差)が曖昧となってしまうものの、逆に、入力画像において頻度の高い輝度範囲の部分については、よりコントラストが明瞭となる。そのため、画像全体として見てみると、入力時よりもコントラストを明瞭とすることが可能となる。   As a result, the contrast (brightness difference) becomes more ambiguous in the part of the luminance range that is less frequent in the input image, but the contrast is clearer in the part of the luminance range that is frequent in the input image. It becomes. Therefore, when viewed as an entire image, the contrast can be made clearer than at the time of input.

なお、上記に関連する従来技術としては、特許文献1〜4などを挙げることができる。
特表2004−530368号公報 特開2000−013625号公報 特開2000−036043号公報 特開2004−145399号公報
In addition, patent documents 1-4 etc. can be mentioned as a prior art relevant to the above.
JP-T-2004-530368 JP 2000-013625 A JP 2000-036043 A JP 2004-145399 A

確かに、上記従来の画像処理装置であれば、画像全体として見てみると、入力画像よりも出力画像のコントラストを明瞭とすることができるので、その画質や視認性を高めることが可能となる。   Certainly, with the above-described conventional image processing apparatus, when viewed as an entire image, the contrast of the output image can be made clearer than the input image, so that the image quality and visibility can be improved. .

しかしながら、上記従来の画像処理装置では、入力画像全体が輝度変換処理の対象として固定されていたため、ユーザの意図しない領域にまで輝度変換処理を施してしまう場合があり、その画質や視認性を十分に改善しきれないおそれがあった。   However, in the conventional image processing apparatus, since the entire input image is fixed as the target of the luminance conversion process, the luminance conversion process may be performed even on an area not intended by the user, and the image quality and visibility are sufficiently high. There was a risk that it could not be improved.

本発明は、上記の問題点に鑑み、入力画像に含まれる任意の領域について、その画質や視認性を高めることが可能な画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置を提供することを目的とする。   In view of the above problems, the present invention provides an image processing circuit capable of improving the image quality and visibility of an arbitrary area included in an input image, a semiconductor device in which the image processing circuit is integrated, and the use thereof. An object of the present invention is to provide an image processing apparatus.

上記目的を達成するために、本発明に係る画像処理回路は、入力画像の補正有効領域を設定する補正有効領域設定部と;前記入力画像のうち、前記補正有効領域のみを複数のエリアに分割した上で、各エリア毎の輝度変換係数を算出する輝度変換係数算出部と;各エリアを構成する画素に対して、各エリア毎の輝度変換係数に応じた輝度変換処理を施す輝度変換処理部と;を有して成る構成(第1の構成)とされている。   In order to achieve the above object, an image processing circuit according to the present invention includes a correction effective area setting unit that sets a correction effective area of an input image; of the input image, only the correction effective area is divided into a plurality of areas. Then, a luminance conversion coefficient calculation unit that calculates a luminance conversion coefficient for each area; a luminance conversion processing unit that performs a luminance conversion process according to the luminance conversion coefficient for each area on the pixels that constitute each area; And (a first configuration).

なお、上記第1の構成から成る画像処理回路にて、前記補正有効領域設定部は、前記補正有効領域を定めるための設定値を格納するレジスタを有して成る構成(第2の構成)にするとよい。   In the image processing circuit having the first configuration, the correction effective area setting unit has a configuration (second configuration) including a register for storing a setting value for determining the correction effective area. Good.

また、上記第2の構成から成る画像処理回路にて、前記設定値には、前記補正有効領域のスタート位置を示すレジスタ値と、前記補正有効領域の画素サイズを示すレジスタ値が含まれている構成(第3の構成)にするとよい。   In the image processing circuit having the second configuration, the set value includes a register value indicating the start position of the correction effective area and a register value indicating the pixel size of the correction effective area. A configuration (third configuration) is preferable.

また、本発明に係る半導体装置は、上記第1〜第3いずれかの構成から成る画像処理回路を集積化して成る構成(第4の構成)とされている。   The semiconductor device according to the present invention has a configuration (fourth configuration) in which the image processing circuits having any one of the first to third configurations are integrated.

また、本発明に係る画像処理装置は、上記第4の構成から成る半導体装置と、前記半導体装置に前記入力画像を供給する画像入力源と、を有して成る構成(第5の構成)とされている。   An image processing apparatus according to the present invention includes a semiconductor device having the fourth configuration described above and an image input source that supplies the input image to the semiconductor device (fifth configuration). Has been.

本発明に係る画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置であれば、入力画像の補正有効領域を任意に設定することにより、入力画像に含まれる任意の領域について、その画質や視認性を高めることが可能となる。   In the image processing circuit according to the present invention, a semiconductor device formed by integrating the image processing circuit, and an image processing device using the image processing circuit, an arbitrary correction image can be included in the input image by arbitrarily setting the correction effective area of the input image. It is possible to improve the image quality and visibility of these areas.

以下では、動画撮像により得られた各フレームの画像に対して輝度変換処理を行う画像処理装置に本発明を適用した場合を例に挙げて、詳細な説明を行う。   In the following, a detailed description will be given by taking as an example a case where the present invention is applied to an image processing apparatus that performs luminance conversion processing on an image of each frame obtained by moving image capturing.

まず、本発明に係る画像処理装置の第1実施形態について詳細に説明する。   First, a first embodiment of an image processing apparatus according to the present invention will be described in detail.

図1は、本発明に係る画像処理装置の第1実施形態を示すブロック図である。   FIG. 1 is a block diagram showing a first embodiment of an image processing apparatus according to the present invention.

本図に示す通り、本実施形態の画像処理装置1は、撮像部10と、輝度変換処理部11と、輝度変換係数算出部12と、輝度変換係数記憶部13と、出力部14を有して成る。   As shown in this figure, the image processing apparatus 1 of the present embodiment includes an imaging unit 10, a luminance conversion processing unit 11, a luminance conversion coefficient calculation unit 12, a luminance conversion coefficient storage unit 13, and an output unit 14. It consists of

撮像部10は、所定のレンズ群や撮像素子(例えば、CMOS[Complementary Metal-Oxide Semiconductor]センサやCCD[Charge Coupled Devices]センサ)等を備えており、被写体の光学像を結像させることで被写体の撮像処理(例えば30フレーム毎秒の動画撮像)を行う。なお、各フレームに係る画像データは、輝度変換処理部11及び輝度変換係数算出部12に逐次出力される。   The imaging unit 10 includes a predetermined lens group, an imaging device (for example, a CMOS [Complementary Metal-Oxide Semiconductor] sensor or a CCD [Charge Coupled Devices] sensor), and the like, and forms an optical image of the subject to form the subject. Imaging processing (for example, moving image capturing at 30 frames per second). Note that image data relating to each frame is sequentially output to the luminance conversion processing unit 11 and the luminance conversion coefficient calculation unit 12.

輝度変換処理部11は、撮像部10から入力される各フレーム毎の画像データ(入力画像)に対し、輝度変換処理を施して出力する。なお、この輝度変換処理は、入力画像における各画素の輝度を、輝度変換係数記憶部13に記憶されている輝度変換係数に応じて変換することにより行われる。   The luminance conversion processing unit 11 performs luminance conversion processing on the image data (input image) for each frame input from the imaging unit 10 and outputs the image data. This luminance conversion process is performed by converting the luminance of each pixel in the input image according to the luminance conversion coefficient stored in the luminance conversion coefficient storage unit 13.

輝度変換係数算出部12は、撮像部10から入力される各フレーム毎の画像データ(入力画像)に基づいて、輝度変換処理に用いられる輝度変換係数を算出する。なお、輝度変換係数の内容及び輝度変換係数の算出方法については、後に改めて説明する。   The luminance conversion coefficient calculation unit 12 calculates the luminance conversion coefficient used for the luminance conversion processing based on the image data (input image) for each frame input from the imaging unit 10. The content of the luminance conversion coefficient and the method for calculating the luminance conversion coefficient will be described later.

輝度変換係数記憶部13は、輝度変換係数算出部12によって算出された輝度変換係数を、少なくとも次のフレームに係る輝度変換処理が実行されるまで記憶する。なお、この記憶内容は、輝度変換処理部11における輝度変換処理において用いられることとなる。   The luminance conversion coefficient storage unit 13 stores the luminance conversion coefficient calculated by the luminance conversion coefficient calculation unit 12 at least until the luminance conversion process related to the next frame is executed. This stored content is used in the luminance conversion processing in the luminance conversion processing unit 11.

出力部14は、LCD[Liquid Crystal Display]等のディスプレイ(例えば、車載モニタ)を備えており、輝度変換処理部11によって輝度変換処理のなされた出力画像を逐次表示する。   The output unit 14 includes a display such as an LCD [Liquid Crystal Display] (for example, an in-vehicle monitor), and sequentially displays output images that have been subjected to luminance conversion processing by the luminance conversion processing unit 11.

上記構成から成る画像処理装置1は、動画撮像により得られた入力画像に輝度変換係数に基づいた輝度変換処理を施して、これをディスプレイ表示する。   The image processing apparatus 1 having the above configuration performs a luminance conversion process based on a luminance conversion coefficient on an input image obtained by moving image capturing, and displays this on a display.

なお、上記構成要素のうち、輝度変換処理部11、輝度変換係数算出部12、及び、輝度変換係数記憶部13については、半導体装置に集積化するとよい。   Of the above-described components, the luminance conversion processing unit 11, the luminance conversion coefficient calculation unit 12, and the luminance conversion coefficient storage unit 13 may be integrated in a semiconductor device.

次に、画像処理装置1における画像処理の全体的な流れについて、図2を参照しながら説明する。   Next, the overall flow of image processing in the image processing apparatus 1 will be described with reference to FIG.

図2は、画像処理装置1における画像処理の全体的な流れを説明するための図である。   FIG. 2 is a diagram for explaining the overall flow of image processing in the image processing apparatus 1.

本図に示すように、第n番目のフレームに係る入力画像が到来すると、輝度変換係数算出部12は、入力画像に基づいて輝度変換係数の算出を行う。これにより、第n番目のフレームに基づいて定められる輝度変換係数が得られ、これが輝度変換係数記憶部13に一旦格納される。   As shown in this figure, when an input image related to the nth frame arrives, the luminance conversion coefficient calculation unit 12 calculates a luminance conversion coefficient based on the input image. As a result, a luminance conversion coefficient determined based on the nth frame is obtained, and is temporarily stored in the luminance conversion coefficient storage unit 13.

一方、輝度変換処理部11は、到来した第n番目のフレームに係る入力画像に対し、既に輝度変換係数記憶部13に格納されている第(n−1)番目のフレームに基づいて定められた輝度変換係数を用いて輝度変換処理を施す。   On the other hand, the luminance conversion processing unit 11 is determined based on the (n−1) th frame already stored in the luminance conversion coefficient storage unit 13 for the input image related to the nth frame that has arrived. Luminance conversion processing is performed using the luminance conversion coefficient.

より具体的には、n番目のフレームにおける座標(i,j)の画素について、輝度変換処理前の輝度をIij(n)、輝度変換処理後の輝度をOij(n)とし、(n−1)番目のフレームに基づいて、座標(i,j)の画素に対して定められた輝度変換係数をTij(n−1)とすると、各フレームの各画素に係る輝度は、下記の(1)式に基づいて、変換処理される。そして、輝度変換処理部11にて輝度変換処理のなされた出力画像は、出力部14を通じて出力される。   More specifically, for a pixel at coordinates (i, j) in the nth frame, the luminance before luminance conversion processing is Iij (n), the luminance after luminance conversion processing is Oij (n), and (n−1) ) If the luminance conversion coefficient determined for the pixel at coordinates (i, j) based on the first frame is Tij (n−1), the luminance related to each pixel in each frame is (1) Conversion processing is performed based on the expression. Then, the output image that has been subjected to the luminance conversion processing by the luminance conversion processing unit 11 is output through the output unit 14.

Oij(n)=Tij(n−1)×Iij(n) ・・・(1)
このように、本実施形態の画像処理装置1は、第n番目のフレームに係る入力画像に対しては、第(n−1)番目のフレームに基づいて定められる輝度変換係数を用いて輝度変換処理を行う構成とされている。そのため、第n番目の輝度変換係数の算出を待たずに、第n番目の輝度変換処理および画像出力を実行することが可能となる。その結果、入力画像に輝度変換処理を施したものを極力早い時期に出力することが可能となり、リアルタイムに近い画像出力が可能となる。
Oij (n) = Tij (n−1) × Iij (n) (1)
As described above, the image processing apparatus 1 according to the present embodiment uses the luminance conversion coefficient determined based on the (n−1) th frame for the input image related to the nth frame. It is set as the structure which processes. Therefore, it is possible to execute the nth luminance conversion process and image output without waiting for the calculation of the nth luminance conversion coefficient. As a result, it is possible to output an input image that has been subjected to luminance conversion processing as early as possible, and output an image close to real time.

なお、第n番目のフレームに係る入力画像に対して、第(n−2)番目以前のフレームに基づいて定められた輝度変換係数を用いて輝度変換処理を行うことも可能ではあるが、あまり古いフレームに基づいた輝度変換係数を用いた場合、変換処理の精度が問題となることに注意を要する。この問題は、特に、動きの大きい動画である場合に顕著となる。また、例えば、入力画像として静止画を扱う場合等においては、第n番目のフレームに係る入力画像に対して、第n番目のフレームに基づいて定められた輝度変換係数を用いて輝度変換処理を行うようにしても良い。   Note that although it is possible to perform the luminance conversion process on the input image related to the nth frame using the luminance conversion coefficient determined based on the (n−2) th and previous frames, It should be noted that the accuracy of the conversion process becomes a problem when the luminance conversion coefficient based on the old frame is used. This problem is particularly noticeable when the moving image has a large movement. For example, when a still image is handled as an input image, the luminance conversion process is performed on the input image related to the nth frame using a luminance conversion coefficient determined based on the nth frame. You may make it do.

次に、輝度変換係数の算出処理の内容について、図3のフローチャートを参照しながら説明する。   Next, the content of the luminance conversion coefficient calculation process will be described with reference to the flowchart of FIG.

図3は、画像処理装置1における輝度変換係数の算出処理を説明するためのフローチャートである。   FIG. 3 is a flowchart for explaining the luminance conversion coefficient calculation processing in the image processing apparatus 1.

まず、1フレーム分の入力画像に対して、エリア分割を行う(ステップS11)。   First, area division is performed on an input image for one frame (step S11).

図4は、画像処理装置1におけるエリア分割の態様を説明するための図である。   FIG. 4 is a diagram for explaining a mode of area division in the image processing apparatus 1.

なお、図4の例では、1フレームが縦40×横64(=2560)の画素から構成されているものとし、1エリアは8×8画素分の大きさとする。従って、エリアの総数は、縦5エリア×横8エリア=40エリアとなる。また、各エリアについては、左上から順に、A0、A1、・・・、An、・・・、A39と称することにする。   In the example of FIG. 4, it is assumed that one frame is composed of 40 × 64 pixels (= 2560), and one area is 8 × 8 pixels in size. Accordingly, the total number of areas is 5 vertical areas × 8 horizontal areas = 40 areas. Each area will be referred to as A0, A1,..., An,.

エリア分割が完了したら、次に、エリア別変換係数の算出を行う(図3のステップS12)。このエリア別変換係数は、エリア毎に決定されるものであり、エリア内の各画素に共通となる。   When the area division is completed, the area-specific conversion coefficient is calculated (step S12 in FIG. 3). This area-specific conversion coefficient is determined for each area, and is common to each pixel in the area.

なお、エリア別変換係数の算出方法については、フレーム全体を対象とする変換係数の算出方法と同様であるため、ここでは詳細な説明を割愛するが、フレーム全体の輝度ヒストグラムではなく、エリア毎の輝度ヒストグラム(各輝度または各輝度範囲に属する画素の出現頻度)が算出された後、当該エリア毎の輝度ヒストグラムに基づいて変換係数が算出される、という点で従来構成とは異なっている。このようにして算出されたエリア別変換係数によれば、分割された各エリアにつき、入力画像において高頻度な輝度範囲であるほど、出力画像において広い輝度範囲が割り当てられることとなる。   Note that the method for calculating the conversion coefficient for each area is the same as the method for calculating the conversion coefficient for the entire frame, and a detailed description thereof is omitted here. This is different from the conventional configuration in that after a luminance histogram (appearance frequency of pixels belonging to each luminance or each luminance range) is calculated, a conversion coefficient is calculated based on the luminance histogram for each area. According to the area-specific conversion coefficient calculated in this way, for each divided area, a wider luminance range in the output image is assigned to a higher luminance range in the input image.

図3のステップS12では、画像領域内の全エリアについて、エリア別変換係数が算出される。すなわち、各々のエリア毎に、固有のエリア別変換係数が定まることとなる。そして、エリア別変換係数をそのまま輝度変換係数として採用し、入力画像の輝度変換処理を実行するものとしても良い。これにより、画像全体に比べて輝度差の大きい箇所が部分的に存在していても、当該部分を含めた良好なコントラストを得ることが可能となる。   In step S12 of FIG. 3, area-specific conversion coefficients are calculated for all areas in the image area. That is, a unique area-specific conversion coefficient is determined for each area. Then, the area-specific conversion coefficient may be adopted as the luminance conversion coefficient as it is, and the luminance conversion process of the input image may be executed. As a result, even when a portion having a large luminance difference as compared with the entire image partially exists, it is possible to obtain a good contrast including the portion.

ただし、エリア別変換係数は、そのエリアの外、すなわち、他のエリアに係る輝度情報は基本的に考慮されない。そのため、エリア同士の境界部分では、輝度の差が目立ち(輝度の分布が高周波となり)、滑らかさの点において良好とはいえない画像が出力されるおそれがある。そこで、本実施形態では、各エリアについて算出されたエリア別変換係数に対し、フィルタ処理等を行うこととする。この処理の内容について具体的に説明する。   However, the area-specific conversion coefficient does not basically consider luminance information outside the area, that is, other areas. For this reason, the difference in luminance is conspicuous (brightness distribution has a high frequency) at the boundary between areas, and an image that is not good in terms of smoothness may be output. Therefore, in this embodiment, filter processing or the like is performed on the area-specific conversion coefficients calculated for each area. The contents of this process will be specifically described.

まず、フィルタ処理等の実行に先立ち、画像領域の外部に上述したエリアと同規模の仮想エリアを設定する。   First, prior to execution of filter processing or the like, a virtual area having the same scale as the above-described area is set outside the image area.

図5は、仮想エリア(図中のA40〜A69)が設定された状態を説明するための図である。   FIG. 5 is a diagram for explaining a state in which virtual areas (A40 to A69 in the figure) are set.

そして、これらの仮想エリアA40〜A69に対して、仮想のエリア別変換係数(以下では、仮想係数と呼ぶ)を設定する(図3のステップS13)。なお、この仮想係数は、後述する通り、画像領域の外縁付近のエリアに対しても、通常通りフィルタ処理を実行し得るようにするためのものであり、エリア別変換係数と同様の形式をとるものである。   Then, virtual area-specific conversion coefficients (hereinafter referred to as virtual coefficients) are set for these virtual areas A40 to A69 (step S13 in FIG. 3). As will be described later, this virtual coefficient is used to allow normal filtering processing to be performed on an area near the outer edge of the image area, and takes the same form as the area-specific conversion coefficient. Is.

上記の仮想係数は、仮想エリアに隣り合う各エリア(画像領域の外縁に位置する各エリア)を基準として、当該仮想エリアと対称位置に存在するエリアのエリア別変換係数を参照して設定される。例えば、A41はA0に対してA8と対称であるから、A41の仮想係数は、A8のエリア別変換係数と同値とする。同様に、A42はA1に対してA9と対称であるから、A42の仮想係数は、A9のエリア別変換係数と同値とする。一方、四隅に位置するA40はA0に対してA9と対称であるから、A40の仮想係数は、A9のエリア別変換係数と同値とする。   The virtual coefficient is set with reference to each area adjacent to the virtual area (each area located at the outer edge of the image area) with reference to the area-specific conversion coefficient of the area existing at a symmetric position with the virtual area. . For example, since A41 is symmetric with A8 with respect to A0, the virtual coefficient of A41 has the same value as the area-specific conversion coefficient of A8. Similarly, since A42 is symmetric with A9 with respect to A1, the virtual coefficient of A42 is set to the same value as the area-specific conversion coefficient of A9. On the other hand, since A40 located at the four corners is symmetrical with A9 with respect to A0, the virtual coefficient of A40 has the same value as the area-specific conversion coefficient of A9.

なお、仮想係数の設定方法は、上述の他、例えば、画像領域の外縁(図5中の太線)に対して対称となるように設定しても良い。この場合、A41は画像領域の外縁に対してA0と対称であるから、A40の仮想係数は、A0のエリア別変換係数と同値とする。同様に、A42は画像領域の外縁に対してA1と対称であるから、A42の仮想係数は、A1のエリア別変換係数と同値とする。一方、四隅に位置するA40は画像領域の外縁に対してA0と対称であるから、A40の仮想係数は、A0のエリア別変換係数と同値とする。   In addition to the above, the setting method of the virtual coefficient may be set to be symmetric with respect to the outer edge of the image area (thick line in FIG. 5), for example. In this case, since A41 is symmetrical with A0 with respect to the outer edge of the image area, the virtual coefficient of A40 is set to the same value as the area-specific conversion coefficient of A0. Similarly, since A42 is symmetric with A1 with respect to the outer edge of the image area, the virtual coefficient of A42 is set to the same value as the area-specific conversion coefficient of A1. On the other hand, A40 located at the four corners is symmetric with A0 with respect to the outer edge of the image area, so the virtual coefficient of A40 is the same value as the area-specific conversion coefficient of A0.

このように、各仮想エリアに対して仮想係数を設定したら、次に、画像領域内の各エリアにおけるエリア別変換係数について、画像空間的にローパスフィルタをかける処理(フィルタ処理)を実行する(図3のステップS14)。   After setting the virtual coefficient for each virtual area in this way, next, a process (filter process) for applying a low-pass filter in the image space is performed on the area-specific conversion coefficient in each area in the image area (FIG. 5). 3 step S14).

図6は、ローパスフィルタの態様を説明するための図である。   FIG. 6 is a diagram for explaining an aspect of the low-pass filter.

これによれば、ある注目エリアについてフィルタを施す場合に、注目エリア周辺の所定範囲(この場合は上下左右の4エリア)に存在するエリアのエリア別変換係数が用いられることになる。ただし、この所定範囲の一部が画像領域からはみ出す場合、そのはみ出した部分については、その位置の仮想エリアに割り当てられた仮想係数をエリア別変換係数と仮定する。   According to this, when a filter is applied to a certain area of interest, the area-specific conversion coefficients of areas existing in a predetermined range around the area of interest (in this case, the four areas on the top, bottom, left, and right) are used. However, when a part of the predetermined range protrudes from the image area, the virtual coefficient assigned to the virtual area at that position is assumed to be the area-specific conversion coefficient.

例えば、エリアA0におけるフィルタ処理後のエリア別変換係数a’(0)は、以下のようになる。なお、a(n)は、エリアAn(n=0,1,8,41,50)における当該フィルタ処理前のエリア別変換係数を示している。また、a(41)とa(50)は、それぞれ仮想エリアA41とA50における仮想係数である。   For example, the area-specific conversion coefficient a ′ (0) after the filter processing in the area A0 is as follows. Note that a (n) represents the area-specific conversion coefficient in the area An (n = 0, 1, 8, 41, 50) before the filter processing. Further, a (41) and a (50) are virtual coefficients in the virtual areas A41 and A50, respectively.

a´(0)=a(0)/2+[a(1)+a(8)+a(41)+a(50)]/8
このようなフィルタ処理により、エリア同士の境界部分において輝度の差が目立っていた場合であっても、かかる輝度の差を軽減させることが可能となる。また、本実施形態では、ローパスフィルタとして図6に示すものを挙げたが、どの範囲までのエリアに係るエリア別変換係数を考慮するか、また、フィルタにおける各エリア毎の重み付けをどのようにするか等については、種々の態様とすることが可能である。
a ′ (0) = a (0) / 2 + [a (1) + a (8) + a (41) + a (50)] / 8
Such a filtering process can reduce the difference in luminance even when the difference in luminance is conspicuous at the boundary between areas. In the present embodiment, the low-pass filter shown in FIG. 6 has been described. However, the area-specific conversion coefficient related to the area up to which range is considered, and the weighting for each area in the filter is performed. Various aspects can be adopted.

上記したフィルタ処理がなされたエリア別変換係数をそのまま輝度変換係数として採用し、入力画像の輝度変換処理を実行するようにしても良い。しかし、本実施形態では、さらに出力画像の滑らかさを得るため、画素ごとに決定される(同一エリア内でも、各画素に共通とは限らない)画素別変換係数を算出し(図3のステップS15)、これを輝度変換係数として適用する(図3のステップS16)。   The area-specific conversion coefficient that has been subjected to the above-described filter processing may be directly used as the luminance conversion coefficient, and the luminance conversion process of the input image may be executed. However, in this embodiment, in order to further obtain the smoothness of the output image, a pixel-specific conversion coefficient determined for each pixel (not necessarily common to each pixel even in the same area) is calculated (step of FIG. 3). S15), and this is applied as a luminance conversion coefficient (step S16 in FIG. 3).

ここで、この画素別変換係数の算出方法(バイリニア演算)について、図7を参照しながら説明する。   Here, a calculation method (bilinear calculation) of the conversion coefficient for each pixel will be described with reference to FIG.

図7は、バイリニア演算について説明するための図である。   FIG. 7 is a diagram for explaining bilinear calculation.

ある注目画素についての画素別変換係数を定めるにあたっては、当該画素の近傍に係る4個のエリアに着目する。例えば、図7における画素Pが注目画素であるときは、A0、A1、A8、及び、A9のエリアに着目することとなる。つまり、各エリアが一つの頂点を共有するとともに、各エリアの中心同士を結んでできる四辺形の内部に注目画素が位置する関係となるように、4個のエリアを選ぶこととする。   In determining the pixel-specific conversion coefficient for a certain target pixel, attention is paid to four areas related to the vicinity of the pixel. For example, when the pixel P in FIG. 7 is the target pixel, attention is paid to the areas A0, A1, A8, and A9. In other words, four areas are selected so that each area shares one vertex and the pixel of interest is located inside a quadrilateral formed by connecting the centers of the areas.

そして、注目画素Pの画素別変換係数は、これら4個のエリアの各々におけるフィルタ処理後のエリア別変換係数[a´(0)、a´(1)、a´(8)、a´(9)]と、注目画素Pの位置と、当該4個のエリアの各々における中心位置と、に係るバイリニア演算により算出される。   The pixel-specific conversion coefficients of the pixel of interest P are the area-specific conversion coefficients [a ′ (0), a ′ (1), a ′ (8), a ′ ( 9)], the position of the target pixel P, and the center position in each of the four areas.

より具体的には、図7に示すように、横方向のエリア間距離をX、縦方向のエリア間距離をY、エリアA0の中心と注目画素Pとの横方向の距離をa、同じく縦方向の距離をbとした場合、注目画素Pの画素別変換係数p(P)は、次のように求められる。   More specifically, as shown in FIG. 7, the horizontal distance between the areas is X, the vertical distance between the areas is Y, the horizontal distance between the center of the area A0 and the target pixel P is a, and the vertical distance is the same. When the distance in the direction is b, the pixel-by-pixel conversion coefficient p (P) of the target pixel P is obtained as follows.

p(P)={ a´(0)×(X−a)×(Y−b)
+a´(1)×a×(Y−b)
+a´(8)×(X−a)×b
+a´(9)×a×b ] /(X×Y)
なお、当該バイリニア演算においても、注目画素が画像領域の外縁付近にある場合は、着目する4個のエリアのうちの一部が画像領域からはみ出してしまうことが考えられる。このような場合でも、先述したフィルタ処理の場合と同様、仮想エリアおよび仮想係数を設定しておくこと等により、通常のバイリニア演算が実行可能である。
p (P) = {a ′ (0) × (X−a) × (Y−b)
+ A ′ (1) × a × (Y−b)
+ A ′ (8) × (X−a) × b
+ A ′ (9) × a × b] / (X × Y)
Even in the bilinear calculation, if the target pixel is in the vicinity of the outer edge of the image area, it is conceivable that a part of the four areas of interest protrudes from the image area. Even in such a case, a normal bilinear calculation can be performed by setting a virtual area and a virtual coefficient as in the case of the filter processing described above.

かかる方法によって、画像領域内の全ての画素について画素別変換係数を算出し、これを各々対応する画素に関する輝度変換係数とする。これにより、エリア別変換係数に基づいてエリア同士の境界部を含めて輝度の変化が滑らかとなるように、画素別変換係数が算出される。その結果、輝度変化の不連続な部分が生じることを極力回避することが可能となり、より美しい画像を出力することが容易となる。   With this method, pixel-specific conversion coefficients are calculated for all pixels in the image area, and these are used as luminance conversion coefficients for the corresponding pixels. Accordingly, the pixel-specific conversion coefficient is calculated based on the area-specific conversion coefficient so that the luminance change is smooth including the boundary portion between the areas. As a result, it is possible to avoid the occurrence of a discontinuous portion of luminance change as much as possible, and it becomes easy to output a more beautiful image.

なお、上述のようにバイリニア演算を用いた場合、通常、エリア同士の境界における輝度の差がより小さくなるように画素別変換係数が算出されることになる。しかし、エリア同士の境界における輝度の差を確実に小さくさせるため、上記バイリニア演算に代えて、またはバイリニア演算に加えて、別の演算手段を適用することとしても良い。   When bilinear calculation is used as described above, the pixel-specific conversion coefficient is usually calculated so that the difference in luminance at the boundary between areas becomes smaller. However, another calculation means may be applied instead of the bilinear calculation or in addition to the bilinear calculation in order to surely reduce the luminance difference at the boundary between the areas.

また、先述の輝度変換係数記憶部13には、エリア別変換係数(エリア毎の係数)のみを格納しておき、最終的に輝度変換係数として採用する画素別変換係数(画素毎の係数)については、輝度変換処理が実行される時に算出されるものとしてもよい。このようにすれば、画素別変換係数を格納するものに比べて、輝度変換係数記憶部13のメモリ容量が少なくて済むようになる。   In addition, the above-described luminance conversion coefficient storage unit 13 stores only the area-specific conversion coefficients (coefficients for each area), and finally the pixel-specific conversion coefficients (coefficients for each pixel) to be adopted as the luminance conversion coefficients. May be calculated when the luminance conversion process is executed. In this way, the memory capacity of the luminance conversion coefficient storage unit 13 can be reduced as compared with that storing pixel-specific conversion coefficients.

また、上述した「画素」については、文字通り単一の画素を「画素」とする他、例えばRGB(赤・緑・青)の各画素からなる画素群を一体として考え、「画素」として取り扱うようにしてもよい。この場合「画素の輝度」は、当該画素群における輝度の平均値等と考えることができる。   As for the above-mentioned “pixel”, literally a single pixel is regarded as a “pixel”, and for example, a pixel group composed of RGB (red, green, and blue) pixels is considered as a unit and treated as a “pixel”. It may be. In this case, the “pixel luminance” can be considered as an average value of luminance in the pixel group.

また、上述した「輝度変換係数」および「エリア別変換係数」は、入力画素の輝度と出力画素の輝度との関係を定めるものであり、例えば、入力時の輝度毎に定められる出力画素の輝度と入力画素の輝度との比として与えられるが、これには限定されない。   Further, the above-described “brightness conversion coefficient” and “area-specific conversion coefficient” define the relationship between the luminance of the input pixel and the luminance of the output pixel. For example, the luminance of the output pixel determined for each luminance at the time of input. However, the present invention is not limited to this.

また、上述した「画素別変換係数」も、「輝度変換係数」や「エリア別変換係数」と同様に、入力画素の輝度と出力画素の輝度との関係を定めるものであり、例えば、入力時の輝度毎に定められる出力画素の輝度と入力画素の輝度との比として与えられるが、これに限定されるものではない。   In addition, the “pixel-specific conversion coefficient” described above defines the relationship between the luminance of the input pixel and the luminance of the output pixel, similarly to the “luminance conversion coefficient” and the “area-specific conversion coefficient”. Is given as a ratio between the luminance of the output pixel and the luminance of the input pixel determined for each luminance, but is not limited to this.

上記したように、本実施形態の画像処理装置1であれば、画像全体からみると頻度の低い輝度(或いは輝度範囲)に係る部分が存在しても、当該部分を含めて良好なコントラストを得ることが可能となる。   As described above, with the image processing apparatus 1 according to the present embodiment, even if there is a portion related to luminance (or luminance range) that is infrequent when viewed from the entire image, good contrast is obtained including that portion. It becomes possible.

ただし、本実施形態の画像処理装置1では、エリア毎の輝度ヒストグラムに基づいて、輝度変換係数が算出されるため、輝度値の小さい画素が多数を占めるエリア(すなわち、暗いエリア)については、低輝度部分(暗い部分)のコントラストが高められることに伴って、暗所で発生しやすい撮像素子のノイズが目立ちやすくなるが、出力画像に対してノイズフィルタ処理を一律に施してしまうと、暗い部分のノイズを除去し得る反面、明るい部分の鮮明度を損なうおそれがある。   However, in the image processing apparatus 1 according to the present embodiment, since the luminance conversion coefficient is calculated based on the luminance histogram for each area, an area in which a large number of pixels with low luminance values occupy a large number (that is, a dark area) is low. As the contrast of the luminance part (dark part) is increased, the noise of the image sensor that is likely to occur in a dark place becomes conspicuous. However, if noise filter processing is uniformly performed on the output image, the dark part While this noise can be removed, the sharpness of bright parts may be impaired.

そこで、以下では、上記の不具合を解消するための手段として、本発明に係る画像処理装置の第2実施形態を提案し、その構成及び動作について詳細な説明を行う。   Therefore, in the following, a second embodiment of the image processing apparatus according to the present invention is proposed as means for solving the above problems, and the configuration and operation thereof will be described in detail.

図8は、本発明に係る画像処理装置の第2実施形態を示すブロック図である。   FIG. 8 is a block diagram showing a second embodiment of the image processing apparatus according to the present invention.

本図に示すように、本実施形態の画像処理装置1−2は、先述の第1実施形態とほぼ同様の構成から成り、低輝度画素にのみノイズフィルタ処理を施す点に特徴を有している。そこで、第1実施形態と同様の部分については、図1と同一の符号を付すことで説明を省略し、以下では、本実施形態の特徴部分について、重点的な説明を行うことにする。   As shown in the figure, the image processing apparatus 1-2 of the present embodiment has a configuration substantially similar to that of the first embodiment described above, and is characterized in that noise filter processing is performed only on low-luminance pixels. Yes. Therefore, the same parts as those of the first embodiment are denoted by the same reference numerals as those in FIG. 1, and the description thereof will be omitted. Hereinafter, the characteristic parts of this embodiment will be mainly described.

本実施形態の画像処理装置1−2は、上記ノイズフィルタ処理を実現する手段として、ノイズフィルタ処理部15と、ノイズフィルタ制御部16と、を有して成る。   The image processing apparatus 1-2 according to the present embodiment includes a noise filter processing unit 15 and a noise filter control unit 16 as means for realizing the noise filter processing.

なお、画像処理装置1−2を構成する回路要素のうち、先述した輝度変換処理部11、輝度変換係数算出部12、及び、輝度変換係数記憶部13のほか、ノイズフィルタ処理部15、及び、ノイズフィルタ制御部16についても、半導体装置に集積化するとよい。   Of the circuit elements constituting the image processing apparatus 1-2, in addition to the above-described luminance conversion processing unit 11, luminance conversion coefficient calculation unit 12, and luminance conversion coefficient storage unit 13, a noise filter processing unit 15, and The noise filter control unit 16 is also preferably integrated in the semiconductor device.

ノイズフィルタ処理部15は、輝度変換処理部11の出力画像を構成する各画素に対して、所定のノイズフィルタ処理を施す手段である。なお、ノイズフィルタ処理の一例としては、ある注目画素(ノイズフィルタ処理の対象となる画素)の輝度値と、その周辺画素(例えば上下左右の4画素)の輝度値を参照して、先述のローパスフィルタ処理と同様の重み付け演算を施すことが考えられる。   The noise filter processing unit 15 is means for applying a predetermined noise filter process to each pixel constituting the output image of the luminance conversion processing unit 11. As an example of the noise filter processing, the low-pass filter described above is referred to with reference to the luminance value of a certain pixel of interest (the pixel to be subjected to the noise filter processing) and the luminance values of its peripheral pixels (for example, four pixels on the top, bottom, left, and right). It is conceivable to perform a weighting operation similar to the filter processing.

ノイズフィルタ制御部16は、輝度変換係数算出部12で得られる各画素毎の輝度値に基づいて、ノイズフィルタ処理の実施/不実施を切り替える手段である。なお、本実施形態のノイズフィルタ制御部16は、輝度ダイナミックレンジ補正処理(具体的には輝度ヒストグラムの取得処理)に際して、輝度変換係数算出部12で得られる各画素毎の輝度値を入力順にバッファしておき、所定の閾値よりも低い輝度値を有する画素にのみ、ノイズフィルタ処理を施すように、ノイズフィルタ処理部16に指示を送る構成とされている。   The noise filter control unit 16 is means for switching execution / non-execution of noise filter processing based on the luminance value for each pixel obtained by the luminance conversion coefficient calculation unit 12. Note that the noise filter control unit 16 of the present embodiment buffers the luminance value for each pixel obtained by the luminance conversion coefficient calculation unit 12 in the order of input in the luminance dynamic range correction processing (specifically, luminance histogram acquisition processing). In addition, an instruction is sent to the noise filter processing unit 16 so that only a pixel having a luminance value lower than a predetermined threshold is subjected to the noise filter processing.

このような構成とすることにより、入力画像の各画素毎に、ノイズフィルタ処理の要否を判断して、その実施/不実施を切り替えることができるので、ノイズが強調されているおそれのある暗い部分については、ノイズフィルタ処理を施す一方、明るい部分については、ノイズが目立ちにくいことに鑑みて、ノイズフィルタ処理を施すことなく、その鮮明度を優先することが可能となる。   By adopting such a configuration, it is possible to determine whether or not noise filter processing is necessary for each pixel of the input image, and to switch between implementation / non-execution, so that the noise may be emphasized. While the noise filter processing is performed on the portion, it is possible to give priority to the sharpness of the bright portion without performing the noise filter processing in view of the fact that noise is not noticeable.

従って、本実施形態の画像処理装置1−2であれば、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成するに際して、暗い部分のノイズが強調された場合でも、明るい部分の鮮明度を損なうことなく、暗い部分のノイズを適切に除去し、出力画像の画質や視認性を高めることが可能となる。   Therefore, in the case of the image processing apparatus 1-2 of the present embodiment, when a desired output image is generated by performing luminance conversion processing (luminance dynamic range correction processing) on the input image, noise in dark portions is emphasized. However, it is possible to appropriately remove the noise in the dark part without impairing the sharpness of the bright part and improve the image quality and visibility of the output image.

なお、上記の第2実施形態では、入力画像を複数エリアに分割し、各エリア毎の輝度ヒストグラムに基づいて輝度変換係数を算出する画像処理装置に本発明を適用した場合を例に挙げて説明を行ったが、低輝度画素にのみノイズフィルタ処理を施す本願発明の適用対象に関して言えば、何ら上記実施形態に限定されるものではなく、入力画像全体の輝度ヒストグラムに基づいて輝度変換係数を算出し、入力画像を構成する各画素に対して、輝度変換係数に応じた輝度変換処理を施すことにより、所望の出力画像を生成する画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置全般に広く適用することが可能である。   In the second embodiment, the case where the present invention is applied to an image processing apparatus that divides an input image into a plurality of areas and calculates a luminance conversion coefficient based on a luminance histogram for each area will be described as an example. However, as far as the application target of the present invention in which noise filter processing is performed only on low-luminance pixels, the present invention is not limited to the above embodiment, and the luminance conversion coefficient is calculated based on the luminance histogram of the entire input image. An image processing circuit that generates a desired output image by performing luminance conversion processing corresponding to a luminance conversion coefficient on each pixel constituting the input image, a semiconductor device formed by integrating the image processing circuit, and The present invention can be widely applied to all image processing apparatuses using the.

また、本発明の構成は、上記実施形態のほか、発明の主旨を逸脱しない範囲で種々の変更を加えることが可能である。   The configuration of the present invention can be variously modified within the scope of the present invention in addition to the above embodiment.

例えば、上記の第2実施形態では、ノイズフィルタ制御部16を用いてノイズフィルタ処理の実施/不実施を切り替える構成を例に挙げて説明を行ったが、本発明の構成はこれに限定されるものではなく、例えば、輝度変換係数算出部12で得られる各画素毎の輝度値に基づいて、ノイズフィルタ処理の特性を調整する構成(例えば、先述した重み付け演算の係数を可変制御する構成)としてもよい。このような構成とすることにより、ノイズフィルタ処理の実施/不実施を切り替える構成に比べて、さらに柔軟なノイズフィルタ制御を実現することが可能となる。   For example, in the second embodiment, the description has been given by taking as an example the configuration for switching between implementation / non-implementation of the noise filter processing using the noise filter control unit 16, but the configuration of the present invention is limited to this. For example, as a configuration for adjusting the characteristics of the noise filter processing based on the luminance value for each pixel obtained by the luminance conversion coefficient calculation unit 12 (for example, a configuration for variably controlling the coefficient of the weighting operation described above) Also good. By adopting such a configuration, it is possible to realize more flexible noise filter control as compared with a configuration in which execution / non-execution of noise filter processing is switched.

次に、本発明に係る画像処理装置の第3実施形態について詳細に説明する。   Next, a third embodiment of the image processing apparatus according to the present invention will be described in detail.

図9は、本発明に係る画像処理装置の第3実施形態を示すブロック図である。   FIG. 9 is a block diagram showing a third embodiment of the image processing apparatus according to the present invention.

本図に示すように、本実施形態の画像処理装置1−3は、先述の第1実施形態とほぼ同様の構成から成り、輝度ダイナミックレンジ補正処理の補正量を反映してノイズフィルタ処理を施す点に特徴を有している。そこで、第1実施形態と同様の部分については、図1と同一の符号を付すことで説明を省略し、以下では、本実施形態の特徴部分について、重点的な説明を行うことにする。   As shown in this figure, the image processing apparatus 1-3 of the present embodiment has a configuration substantially similar to that of the first embodiment described above, and performs noise filter processing reflecting the correction amount of the luminance dynamic range correction processing. It is characterized by a point. Therefore, the same parts as those of the first embodiment are denoted by the same reference numerals as those in FIG. 1, and the description thereof will be omitted. Hereinafter, the characteristic parts of this embodiment will be mainly described.

本実施形態の画像処理装置1−3は、上記ノイズフィルタ処理を実現する手段として、ノイズフィルタ処理部15−2と、フィルタ係数設定部17と、を有して成る。   The image processing apparatus 1-3 according to the present embodiment includes a noise filter processing unit 15-2 and a filter coefficient setting unit 17 as means for realizing the noise filter processing.

なお、画像処理装置1−3を構成する回路要素のうち、先述した輝度変換処理部11、輝度変換係数算出部12、及び、輝度変換係数記憶部13のほか、ノイズフィルタ処理部15−2、及び、フィルタ係数設定部17についても、半導体装置に集積化するとよい。   Of the circuit elements constituting the image processing apparatus 1-3, in addition to the above-described luminance conversion processing unit 11, luminance conversion coefficient calculation unit 12, and luminance conversion coefficient storage unit 13, a noise filter processing unit 15-2, Also, the filter coefficient setting unit 17 may be integrated in the semiconductor device.

ノイズフィルタ処理部15−2は、フィルタ係数設定部17で得られるフィルタ係数に基づき、輝度変換処理部11の出力画像を構成する各画素に対して、所定のノイズ除去処理を施す手段である。なお、ノイズ除去処理の一例としては、ノイズ除去処理の対象となる画素の輝度値と、その周辺画素(例えば上下左右の4画素)の輝度値を参照し、所定の重み付け演算を行うによって、画像空間的にローパスフィルタ処理を施すことが考えられる。このようなノイズ除去処理により、隣接する画素同士の輝度差を軽減して、ノイズを目立たなくすることが可能となる。   The noise filter processing unit 15-2 is a unit that performs predetermined noise removal processing on each pixel constituting the output image of the luminance conversion processing unit 11 based on the filter coefficient obtained by the filter coefficient setting unit 17. As an example of the noise removal process, the luminance value of the pixel that is the target of the noise removal process and the luminance value of the surrounding pixels (for example, the upper, lower, left, and right pixels) are referred to, and a predetermined weighting calculation is performed to obtain an image. It is conceivable to apply a low pass filter process spatially. By such noise removal processing, it is possible to reduce the luminance difference between adjacent pixels and make the noise inconspicuous.

フィルタ係数設定部17は、入力画像を構成する各画素毎の輝度値(補正前の輝度値)と、輝度変換処理部11の出力画像を構成する各画素毎の輝度値(補正後の輝度値)との差分値(輝度変換処理による補正量)を算出し、その算出結果に応じてノイズ除去処理のフィルタ係数を設定する手段である。   The filter coefficient setting unit 17 has a luminance value for each pixel constituting the input image (a luminance value before correction) and a luminance value for each pixel constituting the output image of the luminance conversion processing unit 11 (a luminance value after correction). ), And a filter coefficient for noise removal processing is set according to the calculation result.

上記構成から成る画像処理装置1−3は、動画撮像により得られた入力画像に輝度変換係数に基づいた輝度変換処理を施して、これをディスプレイ表示する。このような輝度変換処理を施すことにより、入力画像において頻度の高い輝度範囲の部分については、そのコントラストをより明瞭とすることが可能となる。   The image processing apparatus 1-3 configured as described above performs luminance conversion processing based on the luminance conversion coefficient on the input image obtained by moving image capturing, and displays this on the display. By performing such luminance conversion processing, it is possible to make the contrast of a portion of the luminance range with high frequency in the input image clearer.

また、本実施形態の画像処理装置1−3は、入力画像の輝度値(明暗)に基づいてノイズフィルタ処理のフィルタ係数を設定する構成ではなく、補正前の輝度値と補正後の輝度値との差分値(すなわち、輝度変換処理による補正量)に基づいてノイズフィルタ処理のフィルタ係数を設定する構成とされている。   In addition, the image processing apparatus 1-3 according to the present embodiment is not configured to set the filter coefficient of the noise filter processing based on the luminance value (brightness) of the input image, and the luminance value before correction and the luminance value after correction The filter coefficient of the noise filter process is set based on the difference value (that is, the correction amount by the luminance conversion process).

より具体的に述べると、本実施形態の画像処理回路1−3において、フィルタ係数設定部17は、図10で模式的に示すように、輝度変換処理による補正量が大きいほど、ノイズフィルタ処理を強めるように、直線的或いは曲線的な相関を持って、ノイズフィルタ処理のフィルタ係数を設定する構成とされている。なお、図10において、輝度ダイナミックレンジ補正処理の対象部分X1〜X4は、それぞれノイズフィルタ処理の対象部分Y1〜Y4に対応する。   More specifically, in the image processing circuit 1-3 of the present embodiment, the filter coefficient setting unit 17 performs noise filter processing as the correction amount by the luminance conversion processing increases as schematically illustrated in FIG. In order to strengthen, the filter coefficient of the noise filter process is set with a linear or curved correlation. In FIG. 10, the target portions X1 to X4 of the luminance dynamic range correction process correspond to the target portions Y1 to Y4 of the noise filter processing, respectively.

このように、輝度ダイナミックレンジ補正処理の補正量を反映して、ノイズフィルタ処理を行う構成とすることにより、輝度変換処理による補正量(前記差分値)が大きい部分(ノイズが強調されているおそれのある部分)については、ノイズフィルタ処理を強めに施す一方、補正量が小さい部分については、ノイズが目立ちにくいことに鑑みて、ノイズフィルタ処理を弱めにし、その鮮明度を優先することが可能となる。従って、本実施形態の画像処理装置1−3であれば、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成するに際して、出力画像の鮮明度を損なうことなくノイズを適切に除去し、出力画像の画質や視認性を高めることが可能となる。   In this way, by adopting a configuration in which the noise filter processing is performed by reflecting the correction amount of the luminance dynamic range correction processing, a portion where the correction amount (the difference value) by the luminance conversion processing is large (the noise may be emphasized). The noise filter processing is applied to a portion with a small correction amount, and the noise filter processing is weakened for the portion with a small correction amount so that the sharpness can be given priority. Become. Therefore, in the case of the image processing apparatus 1-3 according to the present embodiment, when a desired output image is generated by performing luminance conversion processing (luminance dynamic range correction processing) on the input image, the sharpness of the output image is not impaired. It is possible to appropriately remove noise and improve the image quality and visibility of the output image.

次に、本発明に係る画像処理装置の第4実施形態について詳細に説明する。   Next, a fourth embodiment of the image processing apparatus according to the present invention will be described in detail.

図11は、本発明に係る画像処理装置の第4実施形態を示すブロック図である。   FIG. 11 is a block diagram showing a fourth embodiment of the image processing apparatus according to the present invention.

本図に示すように、本実施形態の画像処理装置1−4は、先述の第3実施形態とほぼ同様の構成から成り、ノイズフィルタ処理部15−2の後段に、エッジ強調処理部18を有して成るほか、ノイズフィルタ処理のフィルタ係数を設定するフィルタ係数設定部17に代えて、エッジ強調処理部18のフィルタ係数を設定するフィルタ係数設定部17−2を有して成る点に特徴を有している。   As shown in the figure, the image processing apparatus 1-4 according to the present embodiment has substantially the same configuration as that of the third embodiment described above, and an edge enhancement processing unit 18 is provided after the noise filter processing unit 15-2. In addition, the filter coefficient setting unit 17-2 for setting the filter coefficient of the edge enhancement processing unit 18 is provided instead of the filter coefficient setting unit 17 for setting the filter coefficient of the noise filter processing. have.

エッジ強調処理部18は、フィルタ係数設定部17−2で得られるフィルタ係数に基づき、ノイズフィルタ処理部15−2の出力画像を構成する各画素に対して、所定のエッジ強調処理を施す手段である。なお、エッジ強調処理の一例としては、エッジ強調処理の対象となる画素の輝度値と、その周辺画素(例えば上下左右の4画素)の輝度値を参照し、所定の重み付け演算を行うによって、画像空間的にハイパスフィルタ処理を施すことが考えられる。このようなエッジ強調処理により、ノイズ除去処理によって曖昧となった出力画像の輪郭を際立たせて、出力画像のぼけを抑制することが可能となる。   The edge enhancement processing unit 18 is a means for performing predetermined edge enhancement processing on each pixel constituting the output image of the noise filter processing unit 15-2 based on the filter coefficient obtained by the filter coefficient setting unit 17-2. is there. As an example of the edge enhancement processing, the luminance value of the pixel to be subjected to the edge enhancement processing and the luminance value of the surrounding pixels (for example, the four pixels on the top, bottom, left, and right) are referred to and a predetermined weighting calculation is performed, thereby It is conceivable to apply a high-pass filter process spatially. By such edge enhancement processing, it is possible to make the outline of the output image obscured by the noise removal processing stand out and suppress the blur of the output image.

フィルタ係数設定部17−2は、入力画像を構成する各画素毎の輝度値(補正前の輝度値)と、輝度変換処理部11の出力画像を構成する各画素毎の輝度値(補正後の輝度値)との差分値(輝度変換処理による補正量)を算出し、その算出結果に応じてエッジ強調処理のフィルタ係数を設定する手段である。   The filter coefficient setting unit 17-2 includes a luminance value for each pixel constituting the input image (a luminance value before correction) and a luminance value for each pixel constituting the output image of the luminance conversion processing unit 11 (after the correction). This is a means for calculating a difference value (correction amount by luminance conversion processing) with respect to (luminance value) and setting filter coefficients for edge enhancement processing according to the calculation result.

このように、本実施形態の画像処理装置1−4は、補正前の輝度値と補正後の輝度値との差分値(輝度変換処理による補正量)に基づいて、ノイズフィルタ処理のフィルタ係数を設定するのではなく、エッジ強調処理のフィルタ係数を設定する構成とされている。   As described above, the image processing apparatus 1-4 according to the present embodiment determines the filter coefficient of the noise filter process based on the difference value (correction amount by the luminance conversion process) between the luminance value before correction and the luminance value after correction. Instead of setting, a filter coefficient for edge enhancement processing is set.

より具体的に述べると、本実施形態の画像処理回路1−4において、フィルタ係数設定部17−2は、図12で模式的に示すように、輝度変換処理による補正量が小さいほど、エッジ強調処理を強めるように、直線的或いは曲線的な相関を持って、エッジ強調処理のフィルタ係数を設定する構成とされている。なお、図12において、輝度ダイナミックレンジ補正処理の対象部分X1〜X4は、それぞれエッジ強調処理の対象部分Y1〜Y4に対応する。   More specifically, in the image processing circuit 1-4 of the present embodiment, the filter coefficient setting unit 17-2 performs edge enhancement as the correction amount by the luminance conversion process is smaller as schematically illustrated in FIG. In order to enhance the processing, the filter coefficient of the edge enhancement processing is set with a linear or curved correlation. In FIG. 12, the target portions X1 to X4 of the luminance dynamic range correction process correspond to the target portions Y1 to Y4 of the edge enhancement process, respectively.

このように、輝度ダイナミックレンジ補正処理の補正量を反映して、エッジ強調処理を行う構成とすることにより、輝度変換処理による補正量(前記差分値)が小さい部分(不要に強いノイズ除去処理が施されているおそれのある部分)については、エッジ強調処理を強めに施す一方、補正量が大きい部分については、エッジ強調処理を弱めにして、出力画像のぼけ抑制よりもノイズ除去を優先することが可能となる。従って、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成するに際して、出力画像の鮮明度を損なうことなくノイズを適切に除去し、出力画像の画質や視認性を高めることが可能となる。従って、本実施形態の画像処理装置1−4であれば、入力画像に輝度変換処理(輝度ダイナミックレンジ補正処理)を施して所望の出力画像を生成するに際して、出力画像の鮮明度を損なうことなくノイズを適切に除去し、出力画像の画質や視認性を高めることが可能となる。   Thus, by adopting a configuration in which the edge enhancement process is performed by reflecting the correction amount of the luminance dynamic range correction process, a portion where the correction amount (the difference value) by the luminance conversion process is small (unnecessarily strong noise removal process is performed). For parts that may be applied), edge enhancement processing is applied more strongly, while for parts with a large amount of correction, edge enhancement processing is weakened and noise removal is prioritized over blurring of the output image. Is possible. Therefore, when the input image is subjected to luminance conversion processing (luminance dynamic range correction processing) to generate a desired output image, noise is appropriately removed without impairing the sharpness of the output image, and the image quality and visibility of the output image are reduced. Can be increased. Therefore, in the case of the image processing apparatus 1-4 according to the present embodiment, when a desired output image is generated by performing luminance conversion processing (luminance dynamic range correction processing) on the input image, the sharpness of the output image is not impaired. It is possible to appropriately remove noise and improve the image quality and visibility of the output image.

次に、本発明に係る画像処理装置の第5実施形態について詳細に説明する。   Next, a fifth embodiment of the image processing apparatus according to the present invention will be described in detail.

図13は、本発明に係る画像処理装置の第5実施形態を示すブロック図である。   FIG. 13 is a block diagram showing a fifth embodiment of the image processing apparatus according to the present invention.

本図に示す通り、本実施形態の画像処理装置1−5は、先述の第1実施形態とほぼ同様の構成から成り、画像処理IC20と制御部30(CPU[Central Processing Unit]など)を協働させて成る画像処理システムを構築し、入力画像の輝度を反映した輝度変換処理を行う点に特徴を有している。そこで、第1実施形態と同様の部分については、図1と同一の符号を付すことで説明を省略し、以下では、本実施形態の特徴部分について、重点的な説明を行うことにする。   As shown in the figure, the image processing apparatus 1-5 of the present embodiment has substantially the same configuration as that of the first embodiment described above, and cooperates with the image processing IC 20 and a control unit 30 (CPU [Central Processing Unit], etc.). It is characterized in that an image processing system configured to operate is constructed and brightness conversion processing reflecting the brightness of the input image is performed. Therefore, the same parts as those of the first embodiment are denoted by the same reference numerals as those in FIG. 1, and the description thereof will be omitted. Hereinafter, the characteristic parts of this embodiment will be mainly described.

画像処理IC20は、撮像部10で得られる入力画像の輝度ヒストグラムに基づいて輝度変換係数を算出し、入力画像を構成する各画素に対して、輝度変換係数に応じた輝度変換処理を施すことにより、所望の出力画像を生成する半導体集積回路装置であって、先に述べた輝度変換処理部11、輝度変換係数算出部12、及び、輝度変換係数記憶部13を有するほか、入力画像の輝度に関する情報を取得し、これをIC外部に送出する手段として、輝度検出部19を集積化して成る。   The image processing IC 20 calculates a luminance conversion coefficient based on the luminance histogram of the input image obtained by the imaging unit 10, and performs a luminance conversion process corresponding to the luminance conversion coefficient on each pixel constituting the input image. A semiconductor integrated circuit device that generates a desired output image, which includes the luminance conversion processing unit 11, the luminance conversion coefficient calculation unit 12, and the luminance conversion coefficient storage unit 13 described above, and relates to the luminance of the input image As a means for acquiring information and sending it out of the IC, a luminance detector 19 is integrated.

輝度検出部19は、撮像部10で得られる入力画像をモニタすることで、該入力画像の輝度ヒストグラムを取得し、これを入力画像の輝度に関する情報として制御部30に送出する。なお、上記した輝度ヒストグラムの取得に際しては、処理の高速化を図るべく、入力画像の各画素を輝度情報の上位3ビットの値ごとに区分し、この各区分(各輝度範囲)に属する画素数をカウントすればよい。   The luminance detector 19 monitors the input image obtained by the imaging unit 10 to acquire a luminance histogram of the input image, and sends this to the control unit 30 as information regarding the luminance of the input image. When acquiring the luminance histogram described above, each pixel of the input image is divided into the upper 3 bits of the luminance information in order to speed up the processing, and the number of pixels belonging to each division (each luminance range). Should be counted.

また、画像処理IC20において、輝度変換処理部11は、制御部30からの指示に応じて、入力画像の輝度に関する情報を反映した輝度変換処理を行うように、輝度変換処理に関するパラメータ(ここでは輝度変換処理の強度)を可変制御する構成とされている。   Also, in the image processing IC 20, the luminance conversion processing unit 11 performs a luminance conversion process that reflects information related to the luminance of the input image in accordance with an instruction from the control unit 30. The intensity of conversion processing is variably controlled.

また、輝度変換処理部11は、上記した輝度変換処理の強度制御を実現するために、制御部30からの指示に応じて、入力輝度Iと輝度変換処理後の出力輝度Oをどのような比率で出力するかを定めるパラメータαを調整し、最終的な出力輝度O’を決定する構成とされている。例えば、パラメータαの値が大きいほど、輝度変換処理を強く効かせる形となり、逆に、パラメータαの値が小さいほど、輝度変換処理を弱く効かせる形となる。   In addition, the luminance conversion processing unit 11 determines what ratio between the input luminance I and the output luminance O after the luminance conversion processing in accordance with an instruction from the control unit 30 in order to realize the intensity control of the luminance conversion processing described above. Is adjusted to adjust the parameter α that determines whether or not to output, and the final output brightness O ′ is determined. For example, as the value of the parameter α is larger, the luminance conversion process is more effective. Conversely, as the parameter α is smaller, the luminance conversion process is weaker.

一方、制御部30は、画像処理IC20の輝度検出部19から送出される入力画像の輝度に関する情報(輝度ヒストグラム)を受け取り、これを反映した輝度変換処理を行うように、画像処理IC20に指示を送る機能を具備している。   On the other hand, the control unit 30 receives information (luminance histogram) on the luminance of the input image sent from the luminance detection unit 19 of the image processing IC 20 and instructs the image processing IC 20 to perform luminance conversion processing reflecting this. It has a function to send.

このように、制御部30を用いて撮像画像の輝度ヒストグラムを読み出せるようにし、その結果を輝度変換処理に関するパラメータ(輝度変換処理の強度)に反映させる画像処理システムを構築することにより、上記のパラメータを固定的に設定していた従来構成に比べて、入力画像に適合した輝度変換処理を施すことができるので、出力画像の画質や視認性を改善することが可能となる。   In this way, by constructing an image processing system that enables the luminance histogram of the captured image to be read using the control unit 30 and reflects the result on the parameter relating to the luminance conversion processing (intensity of the luminance conversion processing), Compared to the conventional configuration in which the parameters are fixedly set, luminance conversion processing suitable for the input image can be performed, so that the image quality and visibility of the output image can be improved.

また、本実施形態の画像処理装置1−5は、出力部14として、出力画像を表示する液晶ディスプレイを有して成り、制御部30は、画像処理IC20の輝度検出部19から送出される入力画像の輝度に関する情報(輝度ヒストグラム)を受け取り、これを反映したバックライト制御を行うように、出力部14(特に、液晶ディスプレイの駆動電流を制御する液晶ディスプレイドライバ)に指示を送る構成とされている。   The image processing apparatus 1-5 of the present embodiment includes a liquid crystal display that displays an output image as the output unit 14, and the control unit 30 receives an input sent from the luminance detection unit 19 of the image processing IC 20. It is configured to receive information on the brightness of the image (brightness histogram) and send an instruction to the output unit 14 (particularly, a liquid crystal display driver that controls the driving current of the liquid crystal display) so as to perform backlight control reflecting this. Yes.

このような構成とすることにより、例えば、撮像部10で得られた入力画像が明るければ、周囲が明るく、バックライトの輝度を高めないと出力画像の視認性が低下するという判断の下、バックライトの輝度を高めて、出力画像を見やすくすることが可能となる。一方、撮像部10で得られた入力画像が暗ければ、周囲が暗く、少々バックライトの輝度を落としても出力画像の視認性は低下しにくいという判断の下、バックライトの輝度を落とすことで、消費電力を低減することが可能となる。   With such a configuration, for example, if the input image obtained by the imaging unit 10 is bright, the surroundings are bright, and if the backlight brightness is not increased, the visibility of the output image is reduced. It becomes possible to increase the brightness of the light and make the output image easier to see. On the other hand, if the input image obtained by the image capturing unit 10 is dark, the brightness of the output image is reduced based on the judgment that the surrounding area is dark and the visibility of the output image is hardly lowered even if the backlight brightness is slightly reduced. Thus, power consumption can be reduced.

すなわち、本実施形態の画像処理装置1−5であれば、入力画像の明暗に応じて、バックライトの輝度をフィードバック制御することができるので、出力画像の視認性向上と消費電力の効率性向上を両立することが可能となる。   That is, with the image processing apparatus 1-5 of the present embodiment, the brightness of the backlight can be feedback-controlled according to the brightness of the input image, so that the visibility of the output image and the efficiency of power consumption are improved. It is possible to achieve both.

なお、上記の第5実施形態では、動画撮像により得られた各フレームの画像に対して輝度変換処理を行う画像処理装置に本発明を適用した場合を例に挙げて説明を行ったが、本発明の適用対象はこれに限定されるものではなく、静止画像に対して輝度変換処理を施す画像処理装置など、入力画像に輝度変換処理を施して所望の出力画像を生成する画像処理装置全般に適用することが可能である。   In the fifth embodiment, the case where the present invention is applied to an image processing apparatus that performs luminance conversion processing on an image of each frame obtained by moving image capturing has been described as an example. The scope of application of the invention is not limited to this, and is generally applied to image processing apparatuses that generate a desired output image by performing luminance conversion processing on an input image, such as an image processing apparatus that performs luminance conversion processing on a still image. It is possible to apply.

例えば、映画などのコンテンツを再生する画像再生装置に本発明を適用する場合、上記のバックライト制御に関しては、入力画像が明るければ、少々バックライトの輝度を落としても出力画像の視認性は低下しにくいという判断の下、バックライトの輝度を落として消費電力を低減することが可能となる。一方、入力画像が暗ければ、バックライトの輝度を強めることで、出力画像を見やすくすることができる。   For example, when the present invention is applied to an image playback apparatus that plays back content such as a movie, the visibility of the output image is reduced even if the brightness of the backlight is slightly reduced if the input image is bright with respect to the backlight control described above. It is possible to reduce power consumption by reducing the brightness of the backlight based on the judgment that it is difficult to do so. On the other hand, if the input image is dark, it is possible to make the output image easier to see by increasing the luminance of the backlight.

或いは、上記と逆に、入力画像が明るい場合には、出力画像の輝度が落ちないように、バックライトの輝度を通常値に設定する一方、入力画像が暗い場合には、バックライトの輝度を落として、消費電力を低減する構成としてもよい。   Or, conversely, if the input image is bright, the backlight brightness is set to a normal value so that the brightness of the output image does not decrease, while if the input image is dark, the backlight brightness is The power consumption may be reduced by reducing the power consumption.

また、上記の第5実施形態では、入力画像を複数エリアに分割し、各エリア毎の輝度ヒストグラムに基づいて輝度変換係数を算出する画像処理装置に本発明を適用した場合を例に挙げて説明を行ったが、画像処理IC20と制御部30を協働させて成る画像処理システムを構築し、入力画像の輝度を反映した輝度変換処理を行う本願発明の適用対象に関して言えば、何ら上記実施形態に限定されるものではなく、入力画像の輝度ヒストグラムに基づいて輝度変換係数を算出し、入力画像を構成する各画素に対して、輝度変換係数に応じた輝度変換処理を施すことにより、所望の出力画像を生成する画像処理装置全般に広く適用することが可能である。   In the fifth embodiment, the case where the present invention is applied to an image processing apparatus that divides an input image into a plurality of areas and calculates a luminance conversion coefficient based on a luminance histogram for each area will be described as an example. However, in terms of the application object of the present invention in which an image processing system is constructed by cooperating the image processing IC 20 and the control unit 30 and luminance conversion processing reflecting the luminance of the input image is performed, the above embodiment The luminance conversion coefficient is calculated based on the luminance histogram of the input image, and a luminance conversion process according to the luminance conversion coefficient is performed on each pixel constituting the input image, thereby obtaining a desired value. The present invention can be widely applied to all image processing apparatuses that generate output images.

また、入力画像の輝度情報に基づいて、液晶ディスプレイのバックライト制御を行うという点に関して言えば、制御部30を主体とする上記構成のほか、画像処理IC20や出力部14(特に液晶ディスプレイドライバ)を主体とする構成としても構わない。また、輝度検出部19についても、画像処理IC20に内蔵させた上記構成のほか、別途独立のICとする構成や、出力部14に内蔵させる構成としても構わない。   Further, in terms of performing backlight control of the liquid crystal display based on the luminance information of the input image, in addition to the above configuration mainly including the control unit 30, the image processing IC 20 and the output unit 14 (particularly, a liquid crystal display driver). It is also possible to adopt a configuration mainly composed of In addition to the above-described configuration built in the image processing IC 20, the luminance detection unit 19 may be configured as a separate independent IC or a configuration built in the output unit 14.

以下では、上記のバックライト制御を実現するための具体的な構成について、詳細な説明を行う。   Hereinafter, a specific configuration for realizing the above backlight control will be described in detail.

図14は、本発明に係るバックライト駆動装置の一構成例を示すブロック図である。   FIG. 14 is a block diagram showing a configuration example of the backlight driving device according to the present invention.

本図に示す通り、本構成例のバックライト駆動装置は、液晶ディスプレイ300に表示される入力画像の輝度に関する情報を取得する輝度検出部100と、輝度検出部100の検出結果を反映して液晶ディスプレイ300のバックライト制御を行う駆動部200と、を有して成る構成とされている。   As shown in the figure, the backlight driving device of this configuration example reflects the detection result of the luminance detection unit 100 and the luminance detection unit 100 that acquires information related to the luminance of the input image displayed on the liquid crystal display 300. And a drive unit 200 that performs backlight control of the display 300.

なお、本構成例のバックライト駆動装置において、輝度検出部100は、入力画像の各画素を複数の輝度範囲に区分し、各区分に属する画素数(HYS_count0〜HYS_count7)をカウントすることで、入力画像の輝度ヒストグラムを取得する構成とされている。   In the backlight drive device of this configuration example, the luminance detection unit 100 divides each pixel of the input image into a plurality of luminance ranges, and counts the number of pixels (HYS_count0 to HYS_count7) belonging to each division to input The brightness histogram of the image is acquired.

図15は、入力画像の輝度ヒストグラムの一例を示す図である。なお、図15の横軸は輝度(Y)を示しており、縦軸は画素数(HYS_count)を示している。   FIG. 15 is a diagram illustrating an example of a luminance histogram of an input image. Note that the horizontal axis in FIG. 15 indicates luminance (Y), and the vertical axis indicates the number of pixels (HYS_count).

また、本構成例のバックライト駆動装置において、駆動部200は、第1加算器201と、乗算器202と、第2加算器203と、デューティ決定部204と、を有して成る。   In the backlight driving apparatus of this configuration example, the driving unit 200 includes a first adder 201, a multiplier 202, a second adder 203, and a duty determination unit 204.

第1加算器201は、輝度検出部100で得られた各区分毎のカウント値(HYS_count0〜HYS_count7)を足し合わせる手段である。すなわち、第1加算器201では、入力画像1フレーム分の全画素数(HYS_TOTAL)が得られることになる。   The first adder 201 is means for adding the count values (HYS_count0 to HYS_count7) for each section obtained by the luminance detection unit 100. That is, the first adder 201 obtains the total number of pixels (HYS_TOTAL) for one frame of the input image.

乗算器202は、輝度検出部100で得られた各区分毎のカウント値(HYS_count0〜HYS_count7)に所定の係数(PWM_HCOEF0〜PWM_HCOEF7)を乗算する手段である。   The multiplier 202 is means for multiplying the count values (HYS_count0 to HYS_count7) for each section obtained by the luminance detection unit 100 by a predetermined coefficient (PWM_HCOEF0 to PWM_HCOEF7).

なお、上記の係数(PWM_HCOEF0〜PWM_HCOEF7)については、各区分毎のカウント値について適切な重み付けを行い、最終的に入力画像1フレーム分の輝度値が数値化できるのであれば、いかなる値に設定しても構わない。例えば、ハードウェア構成の簡易化を優先するのであれば、PWM_HCOEF0=0、PWM_HCOEF1=1/64、PWM_HCOEF2=1/32、PWM_HCOEF3=1/16、PWM_HCOEF4=1/8、PWM_HCOEF5=1/4、PWM_HCOEF6=1/2、PWM_HCOEF7=1というように、輝度範囲が1区分下がる毎に、その重み付けが2分の1となるように、上記の係数(PWM_HCOEF0〜PWM_HCOEF7)を設定すればよい。また、異なる区分のカウント値に同一の係数を乗算することも可能である。   For the above coefficients (PWM_HCOEF0 to PWM_HCOEF7), an appropriate weighting is applied to the count value for each section, and finally any value can be set as long as the luminance value for one frame of the input image can be quantified. It doesn't matter. For example, if priority is given to simplifying the hardware configuration, PWM_HCOEF0 = 0, PWM_HCOEF1 = 1/64, PWM_HCOEF2 = 1/32, PWM_HCOEF3 = 1/16, PWM_HCOEF4 = 1/8, PWM_HCOEF5 = 1/4, PWM_HCOEF6 The above coefficients (PWM_HCOEF0 to PWM_HCOEF7) may be set so that each time the luminance range falls by one division, such as = 1/2 and PWM_HCOEF7 = 1, the weighting is reduced to one half. It is also possible to multiply the count values of different sections by the same coefficient.

第2加算器203は、乗算器202によって所定の係数(PWM_HCOEF0〜PWM_HCOEF7)が乗算された各区分毎のカウント値を足し合わせる手段である。すなわち、第2加算器202では、PWM信号のデューティを決定するために必要な分布和(hys_total)が得られることになる。   The second adder 203 is a means for adding the count values for each section multiplied by a predetermined coefficient (PWM_HCOEF0 to PWM_HCOEF7) by the multiplier 202. That is, in the second adder 202, a distribution sum (hys_total) necessary for determining the duty of the PWM signal is obtained.

デューティ決定部204は、第1加算器201の演算結果(HYS_TOTAL)と第2加算器203の演算結果(hys_total)に基づいて、液晶ディスプレイ300のバックライト制御に用いられるPWM信号のデューティを決定する手段である。   The duty determination unit 204 determines the duty of the PWM signal used for backlight control of the liquid crystal display 300 based on the calculation result (HYS_TOTAL) of the first adder 201 and the calculation result (hys_total) of the second adder 203. Means.

より具体的に述べると、上記のデューティ決定部204は、第2加算器203の演算結果(hys_total)を第1加算器201の演算結果(HYS_TOTAL)で正規化し、その演算結果(dutyA)をテーブル変換することで、PWM信号のデューティ(PWM_DUTY)を決定する構成とされている。   More specifically, the duty determination unit 204 normalizes the calculation result (hys_total) of the second adder 203 with the calculation result (HYS_TOTAL) of the first adder 201, and calculates the calculation result (dutyA) in a table. It is configured to determine the duty (PWM_DUTY) of the PWM signal by converting.

図16は、デューティ決定部204で用いられる変換テーブルの一例を示す図である。なお、図16の横軸は、正規化処理により得られた基準デューティ(dutyA)を示しており、縦軸は、PWM信号のデューティ(PWM_DUTY)を示している。   FIG. 16 is a diagram illustrating an example of a conversion table used in the duty determination unit 204. Note that the horizontal axis of FIG. 16 indicates the reference duty (dutyA) obtained by the normalization process, and the vertical axis indicates the duty of the PWM signal (PWM_DUTY).

上記の変換テーブルを用いることで、基準デューティ(dutyA)とPWM信号のデューティ(PWM_DUTY)との相関関係、延いては、PWM信号のハイレベル幅(H幅)を任意に設定することが可能となる。なお、基準デューティ(dutyA)とPWM信号のデューティ(PWM_DUTY)との間に、線形性(直線性)を持たせておけば、基準デューティ(dutyA)がそのままPWM信号のデューティ(PWM_DUTY)として用いられることになる。   By using the above conversion table, it is possible to arbitrarily set the correlation between the reference duty (dutyA) and the duty of the PWM signal (PWM_DUTY), and thus the high level width (H width) of the PWM signal. Become. If linearity (linearity) is provided between the reference duty (dutyA) and the PWM signal duty (PWM_DUTY), the reference duty (dutyA) is used as it is as the PWM signal duty (PWM_DUTY). It will be.

また、上記の変換テーブルとしては、基準デューティ(dutyA)に対するPWM信号のデューティ(PWM_DUTY)を離散的に設定した上で、各離散値間を直線補間すればよい。このような構成とすることにより、変換テーブルのデータ量を縮小することが可能となる。   Further, as the above conversion table, the duty (PWM_DUTY) of the PWM signal with respect to the reference duty (dutyA) may be set discretely, and linear interpolation may be performed between the discrete values. With this configuration, the data amount of the conversion table can be reduced.

また、上記の変換テーブルは、ユーザが任意に書き換えられるように、レジスタ等に格納しておくことが望ましい。   The conversion table is preferably stored in a register or the like so that the user can rewrite it arbitrarily.

液晶ディスプレイ300のバックライトは、上記のPWM信号に基づいて、その駆動制御(電流制御)が行われる。   The backlight of the liquid crystal display 300 is driven and controlled (current control) based on the PWM signal.

図17は、バックライトのPWM駆動を説明するための図である。   FIG. 17 is a diagram for explaining the PWM drive of the backlight.

本図に示すように、PWM信号は、所定のサイクルでハイレベル期間(オン期間)とローレベル期間(オフ期間)を交互に繰り返すパルス信号であり、そのデューティ(ハイレベル幅)を可変制御することで、バックライトに流す駆動電流の平均値を調整することが可能となる。すなわち、PWM信号のデューティを大きくするほど、バックライトは明るくなり、PWM信号のデューティを小さくするほど、バックライトは暗くなる。   As shown in this figure, the PWM signal is a pulse signal that alternately repeats a high level period (on period) and a low level period (off period) in a predetermined cycle, and variably controls its duty (high level width). This makes it possible to adjust the average value of the drive current that flows through the backlight. That is, the backlight becomes brighter as the duty of the PWM signal is increased, and the backlight is darker as the duty of the PWM signal is decreased.

例えば、先の図16で示した変換テーブルを用いた場合、入力画像が明るく、基準デューティ(dutyA)が大きい場合には、バックライトの輝度を高めて、視認性を保つ一方、入力画像が暗く、基準デューティ(dutyA)が小さい場合には、バックライトの輝度を落として、消費電力を低減することが可能となる。   For example, when the conversion table shown in FIG. 16 is used, when the input image is bright and the reference duty (dutyA) is large, the backlight brightness is increased and the visibility is maintained, while the input image is dark. When the reference duty (dutyA) is small, it is possible to reduce the power consumption by reducing the luminance of the backlight.

次に、本発明に係る画像処理装置の第6実施形態について詳細に説明する。   Next, a sixth embodiment of the image processing apparatus according to the present invention will be described in detail.

図18は、本発明に係る画像処理装置の第6実施形態を示すブロック図である。   FIG. 18 is a block diagram showing a sixth embodiment of the image processing apparatus according to the present invention.

図18に示すように、本実施形態の画像処理装置は、画像生成装置10−2と、画像処理IC20−2と、表示装置14−2と、照度センサ40と、を有して成る。   As shown in FIG. 18, the image processing apparatus according to the present embodiment includes an image generation apparatus 10-2, an image processing IC 20-2, a display apparatus 14-2, and an illuminance sensor 40.

画像生成装置10−2は、カラーの入力画像INを生成する手段であり、撮像装置、放送受信装置、及び、メディア再生装置のいずれかを用いることができる。   The image generation device 10-2 is a unit that generates a color input image IN, and any one of an imaging device, a broadcast reception device, and a media playback device can be used.

なお、上記の撮像装置としては、動画撮影を行うデジタルビデオカメラや、静止画撮影を行うデジタルスチルカメラなどを用いることができ、そのイメージセンサとしては、CMOS[Complementary Metal-Oxide Semiconductor]センサやCCD[Charge Coupled Devices]センサなどを用いることができる。このように、画像生成装置10−2として撮像装置を用いた場合、上記の入力画像INは、撮像装置で得られた撮像画像となる。   As the above imaging device, a digital video camera that performs moving image shooting, a digital still camera that performs still image shooting, and the like can be used. As the image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) sensor or a CCD is used. A [Charge Coupled Devices] sensor or the like can be used. Thus, when an imaging device is used as the image generation device 10-2, the input image IN is a captured image obtained by the imaging device.

また、上記の放送受信装置としては、デジタルテレビジョン放送の受信装置などを用いることができる。このように、画像生成装置10−2として放送受信装置を用いた場合、上記の入力画像INは、放送受信装置で得られた受信画像となる。   Also, as the broadcast receiving apparatus, a digital television broadcast receiving apparatus or the like can be used. Thus, when a broadcast receiving device is used as the image generating device 10-2, the input image IN is a received image obtained by the broadcast receiving device.

また、上記のメディア再生装置としては、ビデオCD、DVD、ブルーレイディスク、ハードディスク、半導体メモリなどの再生機能を備えたドライブ装置のほか、インターネットを介して提供される映像コンテンツの再生機能を備えたパーソナルコンピュータなどを用いることができる。このように、画像生成装置10−2としてメディア再生装置を用いた場合、上記の入力画像INは、メディア再生装置で得られた再生画像となる。   In addition to the above-mentioned media playback devices such as video CDs, DVDs, Blu-ray discs, hard disks, semiconductor memories, and other drive devices with playback functions, personal computers with playback functions of video content provided via the Internet. A computer or the like can be used. In this way, when a media playback device is used as the image generation device 10-2, the input image IN is a playback image obtained by the media playback device.

画像処理IC20−2は、画像処理部21と、色補正制御部22と、を集積化して成る半導体装置である。   The image processing IC 20-2 is a semiconductor device in which the image processing unit 21 and the color correction control unit 22 are integrated.

画像処理部21は、入力画像INに対して所定の色補正処理を施す色補正部21aを含んでいる。また、図1には明示されていないが、画像処理部21は、色補正処理部21aのほかにも、入力画像INに対して種々の画像処理(輝度ダイナミックレンジ補正、逆光補正など)を施す回路ブロックを含んでいる。   The image processing unit 21 includes a color correction unit 21a that performs a predetermined color correction process on the input image IN. Although not clearly shown in FIG. 1, the image processing unit 21 performs various image processing (luminance dynamic range correction, backlight correction, etc.) on the input image IN in addition to the color correction processing unit 21a. Includes circuit blocks.

色補正制御部22は、照度センサ40で得られる検出信号DETに基づいて、色補正処理の強弱を制御する手段である。   The color correction control unit 22 is means for controlling the intensity of the color correction process based on the detection signal DET obtained by the illuminance sensor 40.

表示装置14−2は、LCD[Liquid Crystal Display]等のディスプレイを備えており、画像処理IC2で所定の画像処理を施された出力画像OUTを表示する手段である。   The display device 14-2 includes a display such as an LCD [Liquid Crystal Display], and is a means for displaying an output image OUT that has been subjected to predetermined image processing by the image processing IC2.

照度センサ40は、周囲光の照度に応じた検出信号DETを生成し、これを画像処理IC20−2の色補正制御部22に送出する手段である。なお、照度センサ40は、表示装置14−2に入射される周囲光の照度を精度良く測定すべく、できる限り表示装置14−2の近傍に配設することが望ましい。また、照度センサ40の受光素子としては、フォトダイオードやフォトトランジスタを用いることができる。   The illuminance sensor 40 is a means for generating a detection signal DET corresponding to the illuminance of ambient light and sending it to the color correction control unit 22 of the image processing IC 20-2. Note that the illuminance sensor 40 is desirably arranged as close to the display device 14-2 as possible in order to accurately measure the illuminance of the ambient light incident on the display device 14-2. A photodiode or a phototransistor can be used as the light receiving element of the illuminance sensor 40.

上記構成から成る画像処理装置の動作(特に色補正制御)について詳細な説明を行う。   The operation (particularly color correction control) of the image processing apparatus having the above configuration will be described in detail.

画像処理IC20−2を用いて入力画像INに対する色補正処理を行うに際し、色補正制御部22は、照度センサ40の検出信号DETに基づき、周囲光の照度が高いほど色補正処理を強めるように(入力画像INの色成分を強調するように)、色補正部21aを制御する。   When performing color correction processing on the input image IN using the image processing IC 20-2, the color correction control unit 22 increases the color correction processing as the ambient light illuminance increases based on the detection signal DET of the illuminance sensor 40. The color correction unit 21a is controlled (so as to enhance the color component of the input image IN).

このような色補正制御を行うことにより、周囲光の照度が高く、表示装置14−2の色再現性が失われる場合であっても、これを補う形で入力画像INに対する色補正処理が強められるので、出力画像OUTの色が薄く見えるようなことはなく、出力画像OUTの視認性を高めることが可能となる。   By performing such color correction control, even if the illuminance of the ambient light is high and the color reproducibility of the display device 14-2 is lost, the color correction processing for the input image IN is strengthened to compensate for this. Therefore, the color of the output image OUT does not appear light, and the visibility of the output image OUT can be improved.

一方、入力画像INに対する色補正処理を行うに際して、色補正制御部22は、照度センサ40の検出信号DETに基づき、周囲光の照度が低いほど色補正処理を弱めるように色補正部21aを制御する。   On the other hand, when performing color correction processing on the input image IN, the color correction control unit 22 controls the color correction unit 21a based on the detection signal DET of the illuminance sensor 40 so that the color correction processing is weakened as the illuminance of the ambient light decreases. To do.

このような色補正制御を行うことにより、周囲光の照度が低い場合には、入力画像INに対する色補正処理が弱められるので、出力画像OUTの色合いが不自然になるということはなく、出力画像OUTの視認性を高めることが可能となる。   By performing such color correction control, when the illuminance of ambient light is low, the color correction processing for the input image IN is weakened, so that the hue of the output image OUT does not become unnatural, and the output image It becomes possible to improve the visibility of OUT.

次に、画像処理部21における入力画像の明暗補正処理について、詳細な説明を行う。   Next, detailed description will be given of the brightness correction processing of the input image in the image processing unit 21.

図19は、画像処理部21の一構成例を示すブロック図である。   FIG. 19 is a block diagram illustrating a configuration example of the image processing unit 21.

本図に示すように、画像処理部21は、輝度補正部211と、色補正部212と、輝度ヒストグラム取得部213と、補正係数算出部214と、を有して成る。   As shown in the figure, the image processing unit 21 includes a luminance correction unit 211, a color correction unit 212, a luminance histogram acquisition unit 213, and a correction coefficient calculation unit 214.

輝度補正部211は、入力画像INの輝度成分Yに対して所定の補正処理(輝度ダイナミックレンジ補正処理)を施す手段である。   The luminance correction unit 211 is a unit that performs a predetermined correction process (luminance dynamic range correction process) on the luminance component Y of the input image IN.

色補正部212は、入力画像INの色差成分U(=B−Y)、V(=R−Y)に対して所定の補正処理を施す手段であり、図18の色補正部21aに対応するブロックである。   The color correction unit 212 is a unit that performs a predetermined correction process on the color difference components U (= BY) and V (= RY) of the input image IN, and corresponds to the color correction unit 21a of FIG. It is a block.

輝度ヒストグラム取得部213は、入力画像INの輝度ヒストグラム(各輝度範囲の頻度、すなわち、所定の輝度範囲毎に属する画素数の分布)を取得する手段である。   The luminance histogram acquisition unit 213 is a means for acquiring a luminance histogram (frequency of each luminance range, that is, distribution of the number of pixels belonging to each predetermined luminance range) of the input image IN.

補正係数算出部214は、輝度ヒストグラム取得部213で得られた輝度ヒストグラムに基づいて、輝度補正部211で用いる輝度補正係数α、並びに、色補正部212で用いる色補正係数βを各々算出する手段である。   The correction coefficient calculation unit 214 calculates the luminance correction coefficient α used by the luminance correction unit 211 and the color correction coefficient β used by the color correction unit 212 based on the luminance histogram obtained by the luminance histogram acquisition unit 213. It is.

輝度補正係数αの算出に関して説明すると、補正係数算出部214は、入力画像INの輝度ヒストグラムに基づき、入力画像IN(輝度成分Y)における各輝度範囲について、頻度の高いものほど出力画像OUT(輝度成分Y’)において、広い輝度範囲を割り当てるように、逆に、頻度の低いものほど出力画像OUT(輝度成分Y’)において、狭い輝度範囲を割り当てるように、輝度補正係数αを算出する。従って、上記の輝度補正係数αは、輝度毎に、或いは、所定の輝度範囲毎に、別個の値となる。   The calculation of the brightness correction coefficient α will be described. Based on the brightness histogram of the input image IN, the correction coefficient calculation unit 214 increases the frequency of the output image OUT (brightness) for each brightness range in the input image IN (brightness component Y). The luminance correction coefficient α is calculated so that a wider luminance range is assigned in the component Y ′), and conversely, the lower the frequency is, the narrower luminance range is assigned in the output image OUT (luminance component Y ′). Accordingly, the luminance correction coefficient α is a separate value for each luminance or for each predetermined luminance range.

これにより、入力画像INにおいて頻度の低い輝度範囲の部分については、よりコントラスト(輝度差)が曖昧となってしまうものの、逆に、入力画像INにおいて頻度の高い輝度範囲の部分については、よりコントラストが明瞭となる。そのため、画像全体として見てみると、入力時よりもコントラストを明瞭とすることが可能となる。   As a result, the contrast (brightness difference) becomes more ambiguous in the portion of the luminance range that is less frequent in the input image IN, but conversely, the portion of the luminance range that is frequent in the input image IN is more contrasted. Becomes clear. Therefore, when viewed as an entire image, the contrast can be made clearer than at the time of input.

一方、色補正係数βの算出に関して説明すると、補正係数算出部214は、輝度値が低く、かつ、輝度補正量が大きい部分(低輝度値の画素数が多い部分)について、色補正量を小さくするように、色補正係数βを算出する構成とされている。   On the other hand, the calculation of the color correction coefficient β will be described. The correction coefficient calculation unit 214 decreases the color correction amount for a portion with a low luminance value and a large luminance correction amount (a portion with a large number of pixels with low luminance values). Thus, the color correction coefficient β is calculated.

例えば、補正係数算出部214は、図20に示すように、明るい入力画像用の第1補正テーブル214aと、暗い入力画像用の第2補正テーブル214bと、を有して成り、入力画像INの輝度ヒストグラムに基づき、入力画像INが所定の閾値よりも明るければ、第1補正テーブル214aを用いて色補正係数βを算出する一方、入力画像INが所定の閾値よりも暗ければ、色補正量を小さくするように、第2補正テーブル214bを用いて色補正係数βを算出する構成とすればよい。   For example, as shown in FIG. 20, the correction coefficient calculation unit 214 includes a first correction table 214a for a bright input image and a second correction table 214b for a dark input image. If the input image IN is brighter than the predetermined threshold based on the luminance histogram, the color correction coefficient β is calculated using the first correction table 214a. If the input image IN is darker than the predetermined threshold, the color correction amount is calculated. The color correction coefficient β may be calculated by using the second correction table 214b so as to reduce the value.

若しくは、補正係数算出部214は、図21に示すように、基準補正テーブル214cと、調整係数算出部214dと、を有して成り、基準補正テーブル214cを用いて、基準補正係数γを算出しておき、これに入力画像INの輝度ヒストグラムに応じた調整係数δを掛け合わせて、色補正係数β(=γ×δ)を算出する構成としてもよい。   Alternatively, as shown in FIG. 21, the correction coefficient calculation unit 214 includes a reference correction table 214c and an adjustment coefficient calculation unit 214d, and calculates the reference correction coefficient γ using the reference correction table 214c. Alternatively, the color correction coefficient β (= γ × δ) may be calculated by multiplying this by the adjustment coefficient δ corresponding to the luminance histogram of the input image IN.

これにより、入力画像INの明暗補正処理が輝度補正処理と色補正処理から成り立っている場合に、輝度補正処理によって入力画像INの暗部を明るく補正する際には、色補正量を小さく抑えて、ノイズ(不要クロマ成分)を除去することができるので、自然な出力画像OUTを得ることが可能となり、延いては、周囲光の照度に依ることなく、出力画像OUTの視認性を高めることが可能となる。   Thereby, when the brightness correction processing of the input image IN is composed of the brightness correction processing and the color correction processing, when correcting the dark portion of the input image IN brightly by the brightness correction processing, the color correction amount is suppressed to be small, Since noise (unnecessary chroma components) can be removed, it is possible to obtain a natural output image OUT, and it is possible to improve the visibility of the output image OUT without depending on the illuminance of ambient light. It becomes.

なお、上記の第6実施形態では、照度センサ40の検出信号DETを画像処理IC20−2の色補正制御部22に直接的に入力する構成を例に挙げて説明を行ったが、本発明の構成はこれに限定されるものではなく、CPU[Central Processing Unit]などを介して間接的に入力する構成としても構わない。   In the sixth embodiment, the configuration in which the detection signal DET of the illuminance sensor 40 is directly input to the color correction control unit 22 of the image processing IC 20-2 has been described as an example. The configuration is not limited to this, and may be configured to be indirectly input via a CPU [Central Processing Unit] or the like.

次に、本発明に係る画像処理装置の第7実施形態について詳細に説明する。   Next, a seventh embodiment of the image processing apparatus according to the present invention will be described in detail.

図22は、本発明に係る画像処理装置の第7実施形態を示すブロック図である。本図に示したように、本実施形態の画像処理装置は、カメラモジュール10−3と、画像処理IC20−3と、制御部(CPUやDSPなど)30−3と、を有して成る。   FIG. 22 is a block diagram showing a seventh embodiment of the image processing apparatus according to the present invention. As shown in this figure, the image processing apparatus of this embodiment includes a camera module 10-3, an image processing IC 20-3, and a control unit (CPU, DSP, etc.) 30-3.

図23は、画像処理IC20−3の一構成例を示すブロック図である。本図に示したように、本構成例の画像処理IC20−3は、カラーコレクション部A1と、輝度判別部A2と、画像エンハンス部A3と、レジスタA4と、I2Cインターフェイス部A5と、エッジ強調・ガンマ補正部A6と、PWM信号発生コントロール部A7と、タイミング発生部A8と、を有して成る。   FIG. 23 is a block diagram illustrating a configuration example of the image processing IC 20-3. As shown in the figure, the image processing IC 20-3 of this configuration example includes a color correction unit A1, a luminance determination unit A2, an image enhancement unit A3, a register A4, an I2C interface unit A5, an edge enhancement / It includes a gamma correction unit A6, a PWM signal generation control unit A7, and a timing generation unit A8.

画像処理IC20−3は、制御部30−3からシリアル入力される制御信号(データ信号SDA、クロック信号SDC)に基づいて、カメラモジュール10−3からの入力信号(画像データ信号CAMDI[7:0]、水平同期信号CAMHSI、垂直同期信号CAMVSI、クロック信号CAMCKI)に所定の演算処理(輝度ダイナミックレンジ補正や色補正など)を施し、所望の出力信号(画像データ信号CAMDO[7:0]、水平同期信号CAMHSO、垂直同期信号CAMVSO、クロック信号CAMCKO)を生成して、これらを制御部30−3に出力する手段である。なお、画像処理IC20−3の適用対象としては、セキュリティ機器や車載カメラ/モニタを挙げることができる。   The image processing IC 20-3 receives an input signal (image data signal CAMDI [7: 0]) from the camera module 10-3 based on a control signal (data signal SDA, clock signal SDC) serially input from the control unit 30-3. ], The horizontal synchronization signal CAMHSI, the vertical synchronization signal CAMVSI, and the clock signal CAMMCI) are subjected to predetermined arithmetic processing (luminance dynamic range correction, color correction, etc.), and a desired output signal (image data signal CAMDO [7: 0], horizontal Synchronization signal CAMHSO, vertical synchronization signal CAMVSO, and clock signal CAMCKO), and outputs these to the control unit 30-3. Note that examples of the application target of the image processing IC 20-3 include a security device and an in-vehicle camera / monitor.

画像処理IC20−3の特徴について説明する。第1の特徴は、QCIFサイズ(176×144ピクセル)から最大WVGA+サイズ(886×480ピクセル)までの画像データに対応している点である。第2の特徴は、入出力データフォーマットとして、「ITU−R BT.656−4」、または、「同期信号付きYCbCr」に対応している点である。第3の特徴は、動作モードとして、画像エンハンスモード、スルーモード、スリープモードを具備している点である。第4の特徴は、2線式のシリアルインターフェイス(I2Cインターフェイス部A5)を介してレジスタ設定を行うことができる点である。第5の特徴は、画像に適応してLCDバックライトを制御するためのPWM信号を出力する機能部(PWM発生コントロール部A7)を備えている点である。第6の特徴は、出力画像にエッジ強調フィルタやガンマフィルタを施す機能部(エッジ強調・ガンマ補正部A6)を内蔵している点である。   The characteristics of the image processing IC 20-3 will be described. The first feature is that it corresponds to image data from a QCIF size (176 × 144 pixels) to a maximum WVGA + size (886 × 480 pixels). The second feature is that the input / output data format corresponds to “ITU-R BT.656-4” or “YCbCr with synchronization signal”. A third feature is that an image enhancement mode, a through mode, and a sleep mode are provided as operation modes. A fourth feature is that register setting can be performed via a two-wire serial interface (I2C interface unit A5). A fifth feature is that a function unit (PWM generation control unit A7) that outputs a PWM signal for controlling the LCD backlight in conformity with an image is provided. A sixth feature is that a function unit (edge enhancement / gamma correction unit A6) for applying an edge enhancement filter or a gamma filter to the output image is incorporated.

画像処理IC20−3の機能概要について説明する。画像処理IC20−3は、カメラインターフェイス用のアダプティブイメージエンハンサであり、図22に示すように、カメラインターフェイスに挿入して使用されるものである。画像処理IC20−3は、輝度判別部A2及び画像エンハンス部A3を用いた輝度ダイナミックレンジ補正処理により、入力された画像の暗い部分を明るく、明る過ぎる部分は明るさを抑えた画像に補正して出力する機能を具備している。また、画像処理IC20−3は、カラーコレクション部A1を用いた色補正処理によって、入力された画像をより鮮やかな画像に補正する機能も具備している。なお、上記の画像処理は、前フレームを解析して現フレームに反映させる形で実施される。   A functional overview of the image processing IC 20-3 will be described. The image processing IC 20-3 is an adaptive image enhancer for the camera interface, and is used by being inserted into the camera interface as shown in FIG. The image processing IC 20-3 corrects the dark portion of the input image to a bright image and the excessively bright portion by reducing the brightness by the luminance dynamic range correction processing using the luminance determination unit A2 and the image enhancement unit A3. It has a function to output. The image processing IC 20-3 also has a function of correcting an input image to a more vivid image by color correction processing using the color correction unit A1. Note that the above-described image processing is performed by analyzing the previous frame and reflecting it in the current frame.

また、画像処理IC20−3は、YUVフォーマットのデータ入力に対応しており、画像補正を行ったデータを同じフォーマットで出力する機能を具備している。また、画像処理IC20−3に内蔵されたレジスタA4は、I2Cインターフェイス部A5を介して、そのレジスタ値の設定が行われる。なお、画像処理IC20−3は、カメラモジュール10−3から入力されるクロック信号CAMCKIに基づいて動作する。また、画像処理IC20−3は、カメラモジュール10−3から入力される水平同期信号CAMHSI、垂直同期信号CAMVSI、及び、クロック信号CAMCKIに所定のタイミング調整処理を施し、これらを水平同期信号CAMHSO、垂直同期信号CAMVSO、及び、クロック信号CAMCKOとして、制御部30−3に送出する機能部(タイミング発生部A8)を備えている。また、画像処理IC20−3は、外部から入力されるモード選択信号MSEL0/1/2に応じて、自身に外部接続される入力機器(カメラや映像再生装置など)や出力機器(CPU、DSPなど)に適した動作モードを選択する機能も具備している。   The image processing IC 20-3 is compatible with YUV format data input, and has a function of outputting image-corrected data in the same format. The register value of the register A4 built in the image processing IC 20-3 is set through the I2C interface unit A5. The image processing IC 20-3 operates based on the clock signal CAMCKI input from the camera module 10-3. Further, the image processing IC 20-3 performs predetermined timing adjustment processing on the horizontal synchronization signal CAMHSI, the vertical synchronization signal CAMVSI, and the clock signal CAMCKI input from the camera module 10-3, and these are subjected to the horizontal synchronization signal CAMHSO and the vertical synchronization signal. As a synchronization signal CAMVSO and a clock signal CAMCKO, a functional unit (timing generation unit A8) for sending to the control unit 30-3 is provided. In addition, the image processing IC 20-3 receives an input device (such as a camera or a video reproduction device) or an output device (such as a CPU or DSP) that is externally connected to the image processing IC 20-3 in response to a mode selection signal MSEL0 / 1/2 that is input from the outside. ) Is also provided with a function for selecting a suitable operation mode.

図24及び図25は、いずれも画像処理IC20−3の端子機能表であり、ピン番号、端子名、入出力種類(In/Out)、アクティブレベル、リセット中のピン状態(Init)、及び、機能説明が記載されている。なお、アクティブレベル欄の”*”は、レジスタA4を用いて任意に設定変更が可能であることを示している。”*1”は、リセット中(初期状態)はサスペンドである端子を示している。”*2”及び”*3”は、GNDに接続すべき端子を示している。”*4”は、VDDIO(デジタルIO電源)に接続すべき端子を示している。”*5”は、オープンとすべき端子を示している。   24 and 25 are both terminal function tables of the image processing IC 20-3, and pin numbers, terminal names, input / output types (In / Out), active levels, pin states during reset (Init), and Function description is described. Note that “*” in the active level column indicates that the setting can be arbitrarily changed using the register A4. “* 1” indicates a terminal that is suspended during reset (initial state). “* 2” and “* 3” indicate terminals to be connected to GND. “* 4” indicates a terminal to be connected to VDDIO (digital IO power supply). “* 5” indicates a terminal to be opened.

次に、YUVインターフェイスタイミングについて、図26〜図30を参照しながら、概略を説明する。   Next, an outline of the YUV interface timing will be described with reference to FIGS.

図26は、「ITU−R BT.656」入力フォーマット(水平方向ボトム)を示すタイミングチャートである。図27は、NTSCでの「ITU−R BT.656」入力フォーマット(垂直方向)を示すタイミングチャートである。図28は、PALでの「ITU−R BT.656」入力フォーマット(垂直方向ボトム)を示すタイミングチャートである。なお、動作中には、クロック信号CAMCKIの周波数を変更すべきでない。   FIG. 26 is a timing chart showing the “ITU-R BT.656” input format (horizontal direction bottom). FIG. 27 is a timing chart showing the “ITU-R BT.656” input format (vertical direction) in NTSC. FIG. 28 is a timing chart showing an “ITU-R BT.656” input format (vertical bottom) in PAL. Note that the frequency of the clock signal CAMCKI should not be changed during operation.

図29は、「同期信号付きYCbCr」8ビット入力フォーマット(水平方向)を示すタイミングチャートである。図中の「YUV_XST」、「XSIZE×2」、「AIE_XST×2」、「AIE_XSIZE×2」は、いずれもレジスタA4を用いて設定することができるレジスタ値である。また、クロック信号CAMCKI、垂直同期信号CAMVSI、水平同期信号CAMHSIの極性については、いずれもPOLレジスタ(インデックスアドレス:E1h)の値を変更することで個別に設定することができる。なお、図29は、クロック信号CAMCKIの立ち下がりエッジでデータの取り込みを行う場合であって(CKPOL=1)、かつ、水平同期信号CAMHSIの極性は、ローアクティブ(HSPOL=0)の場合を示している。また、水平同期信号CAMHSIは、シンク区間(図29でCAMHSIがローレベルとされている区間)以外でローレベルとならないように留意すべきである。また、データ信号CAMDI0〜CAMDI7の入力中は、クロック信号CAMCKIの周波数を変更すべきでない。   FIG. 29 is a timing chart showing the “YCbCr with synchronization signal” 8-bit input format (horizontal direction). In the figure, “YUV_XST”, “XSIZE × 2”, “AIE_XST × 2”, and “AIE_XSIZE × 2” are all register values that can be set using the register A4. In addition, the polarities of the clock signal CAMCKI, the vertical synchronization signal CAMVSI, and the horizontal synchronization signal CAMHSI can be individually set by changing the value of the POL register (index address: E1h). FIG. 29 shows the case where data is captured at the falling edge of the clock signal CAMCKI (CKPOL = 1), and the polarity of the horizontal synchronization signal CAMHSI is low active (HSPOL = 0). ing. Also, it should be noted that the horizontal synchronization signal CAMHSI does not become low level except in the sync period (interval in which CAMHSI is low level in FIG. 29). Further, the frequency of the clock signal CAMCKI should not be changed while the data signals CAMDI0 to CAMDI7 are being input.

図30は、「同期信号付きYCbCr」8ビット入力フォーマット(垂直方向)を示すタイミングチャートである。図中の「YSIZE」、「AIE_YST」、「AIE_YSIZE」は、いずれもレジスタA4を用いて設定することができるレジスタ値である。なお、図30は、垂直同期信号CAMVSIと水平同期信号CAMHSIの極性がいずれもローアクティブ(VSPOL=0、HSPOL=0)の場合を示している。   FIG. 30 is a timing chart showing the “YCbCr with synchronization signal” 8-bit input format (vertical direction). “YSIZE”, “AIE_YST”, and “AIE_YSIZE” in the figure are register values that can be set using the register A4. FIG. 30 shows a case where the polarities of the vertical synchronization signal CAMVSI and the horizontal synchronization signal CAMHSI are both low active (VSPOL = 0, HSPOL = 0).

次に、I2Cインターフェイスについて、図31を参照しながら概略を説明する。   Next, an outline of the I2C interface will be described with reference to FIG.

図31は、I2Cインターフェイスフォーマット示す図である。なお、図中の符号Sはスタートコンディションを示しており、符号Pはストップコンディションを示している。また、符号A(S)はスレーブによるアクノリッジを示しており、符号A(M)はマスタによるアクノリッジを示している。また、A(S)バーはスレーブによる非アクノリッジを示しており、A(M)バーはマスタによる非アクノリッジを示している。スレーブアドレスは、I2CDEV0=0のときには42hであり、I2CDEV0=1のときには43hである。ライト/リード共に2回以上の連続アクセスを行った場合、サブアドレスは自動的にインクリメントされる。   FIG. 31 is a diagram showing an I2C interface format. In addition, the code | symbol S in a figure has shown the start condition, and the code | symbol P has shown the stop condition. Reference symbol A (S) indicates an acknowledge by the slave, and reference symbol A (M) indicates an acknowledge by the master. A (S) bar indicates non-acknowledgement by the slave, and A (M) bar indicates non-acknowledgement by the master. The slave address is 42h when I2CDEV0 = 0, and 43h when I2CDEV0 = 1. The sub address is automatically incremented when two or more consecutive accesses are performed for both writing and reading.

次に、レジスタA4の設定について詳細に説明する。   Next, the setting of the register A4 will be described in detail.

図32は、初期化レジスタSRSTの内容を示すマップである。初期化レジスタSRST(インデックスアドレス:FFh)は、ソフトウェアリセットに関するレジスタ値であり、1ビットのパラメータSRST(ビット番号0、ライト属性)を含んでいる。パラメータSRSTの初期値は「0」であり、パラメータSRSTに「1」を書き込むことで、画像処理IC20−3がソフトウェアリセットされる。ソフトウェアリセット後、100[ns]の間は、初期化レジスタSRSTに対してアクセスすべきでない。ハードウェアリセット後には、ソフトウェアリセットを行う必要はない。   FIG. 32 is a map showing the contents of the initialization register SRST. The initialization register SRST (index address: FFh) is a register value related to software reset, and includes a 1-bit parameter SRST (bit number 0, write attribute). The initial value of the parameter SRST is “0”, and writing “1” to the parameter SRST causes the image processing IC 20-3 to be software reset. After the software reset, the initialization register SRST should not be accessed for 100 [ns]. There is no need to perform a software reset after a hardware reset.

図33は、パラメータ更新レジスタPARAMSETの内容を示すマップである。パラメータ更新レジスタPARAMSET(インデックスアドレス:11h)は、パラメータ更新に関するレジスタ値であり、1ビットのパラメータPARAM_SET(ビット番号0、リード/ライト属性)のほか、2ビット分のリザーブビットRESERVED(ビット番号1、2)を含んでいる。パラメータPARAM_SETの初期値は「0」であり、パラメータPARAM_SETに「1」を書き込むことで、各種レジスタ値のパラメータ更新が行われる。より具体的に述べると、各種レジスタ値のパラメータ更新は、パラメータ更新レジスタPARAMSETが書き込まれた後のフレームの先頭で行われる。なお、パラメータ更新レジスタPARAMSETは、各種レジスタ値のパラメータが更新された後に自動でクリアされる。   FIG. 33 is a map showing the contents of the parameter update register PARAMSET. The parameter update register PARAMSET (index address: 11h) is a register value related to parameter update. In addition to the 1-bit parameter PARAM_SET (bit number 0, read / write attribute), the reserved bits RESERVED (bit number 1, 2). The initial value of the parameter PARAM_SET is “0”, and by writing “1” to the parameter PARAM_SET, the parameters of various register values are updated. More specifically, the parameter update of various register values is performed at the head of the frame after the parameter update register PARAMSET is written. The parameter update register PARAMSET is automatically cleared after the parameters of various register values are updated.

図34は、モードレジスタMODEの内容を示すマップである。モードレジスタMODE(インデックスアドレス:12h)は、画像処理IC20−3の各種動作モードの設定に関するレジスタ値であり、2ビットのパラメータMODE(ビット番号0〜1、リード/ライト属性)と、1ビットのパラメータTH_TYPE(ビット番号2、リード/ライト属性)と、1ビットのパラメータSUSP(ビット番号3、リード/ライト属性)と、を含んでいる。   FIG. 34 is a map showing the contents of the mode register MODE. The mode register MODE (index address: 12h) is a register value related to setting of various operation modes of the image processing IC 20-3, and includes a 2-bit parameter MODE (bit number 0 to 1, read / write attribute) and a 1-bit parameter. Parameter TH_TYPE (bit number 2, read / write attribute) and 1-bit parameter SUSP (bit number 3, read / write attribute) are included.

パラメータMODEは、スリープモード、スルーモード、及び、エンハンスモードの切替を行うためのパラメータであり、その初期値は「00b」である。この値を書き込むことで、動作モードがスリープモードになる。スリープモードでは、画像処理IC20−3がスリープ状態となる。パラメータMODEに「01b」を書き込むことで、動作モードがスルーモードになる。スルーモードでは、入力データに対する画像補正が行われず、入力データはそのまま出力データとなる。なお、動作モードをスルーモードに設定する前には、必ずパラメータTH_TYPEを「1」に設定する必要がある。パラメータMODEに「11b」を書き込むことで、動作モードがエンハンスモードになる。エンハンスモードでは、入力データに画像補正を施した結果が出力データとして出力される。なお、パラメータMODEに「10b」を書き込むことは禁止されている。図35は、パラメータMODEと動作モードとの関係を示す論理表である。   The parameter MODE is a parameter for switching between the sleep mode, the through mode, and the enhancement mode, and its initial value is “00b”. By writing this value, the operation mode becomes the sleep mode. In the sleep mode, the image processing IC 20-3 enters a sleep state. By writing “01b” in the parameter MODE, the operation mode becomes the through mode. In the through mode, image correction is not performed on the input data, and the input data becomes output data as it is. Note that the parameter TH_TYPE must be set to “1” before the operation mode is set to the through mode. By writing “11b” in the parameter MODE, the operation mode becomes the enhancement mode. In the enhanced mode, the result of performing image correction on input data is output as output data. Note that writing “10b” to the parameter MODE is prohibited. FIG. 35 is a logical table showing the relationship between the parameter MODE and the operation mode.

パラメータTH_TYPEは、スルーモードの動作タイプを設定するためのパラメータであり、その初期値は「0」である。パラメータTH_TYPEに「1」を書き込むことで、画像処理IC20−3は、スルーモードにおいてカメラモジュール10−3から入力されるデータと同期信号をエンハンスモードと同じサイクル数だけ遅延させて出力するようになる。なお、パラメータTH_TYPEに「0」を書き込むことは禁止されている。   The parameter TH_TYPE is a parameter for setting the operation type of the through mode, and its initial value is “0”. By writing “1” in the parameter TH_TYPE, the image processing IC 20-3 delays the data and the synchronization signal input from the camera module 10-3 in the through mode by the same number of cycles as in the enhancement mode, and outputs the delayed data. . Note that writing “0” to the parameter TH_TYPE is prohibited.

パラメータSUSPは、I/O[Input/Output]のサスペンドモードを設定するためのパラメータであり、その初期値は「1」である。パラメータSUSPに「0」を書き込むことで、サスペンドモードが解除され、パラメータSUSPに「1」を書き込むことで、サスペンドモードが設定される。   The parameter SUSP is a parameter for setting the suspend mode of I / O [Input / Output], and its initial value is “1”. Writing “0” to the parameter SUSP cancels the suspend mode, and writing “1” to the parameter SUSP sets the suspend mode.

図36は、カメラX方向画素サイズ設定レジスタDXSIZEの内容を示すマップである。カメラX方向画素サイズ設定レジスタDXSIZE(インデックスアドレス:14h及び15h)は、入力画像データのX方向の画素数を設定するためのレジスタ値であり、11ビットのパラメータXSIZE(アドレス14hのビット番号0〜7、及び、アドレス15hのビット番号0〜2、リード/ライト属性)を含んでいる。パラメータXSIZEの初期値は「010 1000 0000b」(640ピクセル)であり、144ピクセル〜1024ピクセルまで設定することができる。   FIG. 36 is a map showing the contents of the camera X direction pixel size setting register DXSIZE. The camera X direction pixel size setting register DXSIZE (index address: 14h and 15h) is a register value for setting the number of pixels in the X direction of input image data, and is an 11-bit parameter XSIZE (bit number 0 to address 14h). 7 and bit numbers 0 to 2 of the address 15h, read / write attributes). The initial value of the parameter XSIZE is “010 1000 0000b” (640 pixels), and can be set from 144 pixels to 1024 pixels.

図37は、カメラY方向画素サイズ設定レジスタDYSIZEの内容を示すマップである。カメラY方向画素サイズ設定レジスタDYSIZE(インデックスアドレス:16h及び17h)は、入力画像データのY方向の画素数を設定するためのレジスタ値であり、11ビットのパラメータYSIZE(アドレス16hのビット番号0〜7、及び、アドレス17hのビット番号0〜2、リード/ライト属性)を含んでいる。パラメータYSIZEの初期値は「001 1110 0000b」(480ピクセル)である。   FIG. 37 is a map showing the contents of the camera Y direction pixel size setting register DYSIZE. The camera Y direction pixel size setting register DYSIZE (index address: 16h and 17h) is a register value for setting the number of pixels in the Y direction of the input image data, and is an 11-bit parameter YSIZE (bit numbers 0 to 16 of the address 16h). 7 and bit numbers 0 to 2 of the address 17h, read / write attributes). The initial value of the parameter YSIZE is “001 1110 0000b” (480 pixels).

図38は、画像補正有効領域X方向スタート位置設定レジスタAIEXSTの内容を示すマップである。画像補正有効領域X方向スタート位置設定レジスタAIEXST(インデックスアドレス:18h及び19h)は、画像補正有効領域のX方向スタート位置を設定するためのレジスタ値であり、10ビットのパラメータAIEXST(アドレス18hのビット番号0〜7、及び、アドレス19hのビット番号0〜1、リード/ライト属性)を含んでいる。パラメータAIEXSTの初期値は「00 0000 0000b」であり、0〜(XSIZE−AIEXSIZE)まで設定することができる。   FIG. 38 is a map showing the contents of the image correction effective area X direction start position setting register AIEXST. The image correction effective area X-direction start position setting register AIEXST (index address: 18h and 19h) is a register value for setting the X-direction start position of the image correction effective area, and is a 10-bit parameter AIEXST (bit of address 18h). Number 0-7, bit number 0-1 of address 19h, read / write attribute). The initial value of the parameter AIEXST is “00 0000 0000b”, and can be set from 0 to (XSIZE−AIEXSIZE).

図39は、画像補正有効領域Y方向スタート位置設定レジスタAIEYSTの内容を示すマップである。画像補正有効領域Y方向スタート位置設定レジスタAIEYST(インデックスアドレス:1Ah及び1Bh)は、画像補正有効領域のY方向スタート位置を設定するためのレジスタ値であり、10ビットのパラメータAIEYST(アドレス1Ahのビット番号0〜7、及び、アドレス1Bhのビット番号0〜1、リード/ライト属性)を含んでいる。パラメータAIEYSTの初期値は「00 0000 0000b」であり、0〜(YSIZE−AIEYSIZE)まで設定することができる。   FIG. 39 is a map showing the contents of the image correction effective area Y-direction start position setting register AIEYST. The image correction effective area Y-direction start position setting register AIEYST (index addresses: 1Ah and 1Bh) is a register value for setting the Y-direction start position of the image correction effective area, and is a 10-bit parameter AIEYST (bit of address 1Ah). Number 0 to 7 and bit number 0 to 1 of address 1Bh, read / write attribute). The initial value of the parameter AIEYST is “00 0000 0000b”, and can be set from 0 to (YSIZE−AIEYSIZE).

図40は、画像補正有効領域X方向サイズ設定レジスタAIEXSIZEの内容を示すマップである。画像補正有効領域X方向サイズ設定レジスタAIEXSIZE(インデックスアドレス:1Ch及び1Dh)は、画像補正有効領域のX方向の画素数を設定するためのレジスタ値であり、11ビットのパラメータAIEXSIZE(アドレス1Chのビット番号0〜7、及び、アドレス1Dhのビット番号0〜2、リード/ライト属性)を含んでいる。パラメータAIEXSTの初期値は「010 1000 0000b」(640ピクセル)であり、144〜XSIZEまで設定することができる。   FIG. 40 is a map showing the contents of the image correction effective area X-direction size setting register AIEXSIZE. The image correction effective area X-direction size setting register AIEXSIZE (index address: 1Ch and 1Dh) is a register value for setting the number of pixels in the X direction of the image correction effective area, and is an 11-bit parameter AIEXSIZE (address 1Ch bit). Number 0 to 7 and bit number 0 to 2 of address 1Dh, read / write attribute). The initial value of the parameter AIEXST is “010 1000 0000b” (640 pixels), and can be set from 144 to XSIZE.

図41は、画像補正有効領域Y方向サイズ設定レジスタAIEYSIZEの内容を示すマップである。画像補正有効領域Y方向サイズ設定レジスタAIEYSIZE(インデックスアドレス:1Eh及び1Fh)は、画像補正有効領域のY方向の画素数を設定するためのレジスタ値であり、11ビットのパラメータAIEYSIZE(アドレス1Ehのビット番号0〜7、及び、アドレス1Fhのビット番号0〜2、リード/ライト属性)を含んでいる。パラメータAIEYSTの初期値は「001 1110 0000b」(480ピクセル)であり、144〜YSIZEまで設定することができる。   FIG. 41 is a map showing the contents of the image correction effective area Y-direction size setting register AIEYSIZE. The image correction effective area Y-direction size setting register AIEYSIZE (index address: 1Eh and 1Fh) is a register value for setting the number of pixels in the Y direction of the image correction effective area, and is an 11-bit parameter AIEYSIZE (address 1Eh bit). Number 0-7, bit number 0-2 of address 1Fh, read / write attribute). The initial value of the parameter AIEYST is “001 1110 0000b” (480 pixels), and can be set from 144 to YSIZE.

図42は、入力画像データの画像補正有効領域を模式的に示す図である。   FIG. 42 is a diagram schematically showing an image correction effective area of input image data.

図42で示したように、本実施形態の画像処理IC20−3は、入力画像全体を補正対象とするのではなく、任意の画像補正有効領域にのみ、画像補正処理を施す機能を備えている。すなわち、輝度判別部A2(他の実施形態で言えば、輝度変換係数算出部12に相当)は、図42に示された画像補正有効領域のみを複数のエリアに分割した上で、各エリア毎の輝度変換係数を算出し、画像エンハンス部A3(他の実施形態で言えば、輝度変換処理部11に相当)は、各エリアを構成する画素に対して、各エリア毎の輝度変換係数に応じた輝度変換処理を施す。なお、輝度変換係数の算出処理や輝度変換処理については、先述の第1実施形態と同様であるため、重複した説明は割愛する。   As shown in FIG. 42, the image processing IC 20-3 according to the present embodiment has a function of performing image correction processing only on an arbitrary image correction effective area, not the entire input image as a correction target. . That is, the luminance determination unit A2 (corresponding to the luminance conversion coefficient calculation unit 12 in other embodiments) divides only the image correction effective region shown in FIG. The image enhancement unit A3 (corresponding to the luminance conversion processing unit 11 in other embodiments) corresponds to the luminance conversion coefficient for each area with respect to the pixels constituting each area. The luminance conversion process is performed. Note that the luminance conversion coefficient calculation process and the luminance conversion process are the same as those in the first embodiment described above, and a duplicate description is omitted.

上記のように、本実施形態の画像処理IC20−3は、入力画像の補正有効領域を設定する補正有効領域設定部(図23の例では、レジスタA4及びI2Cインターフェイス部A5)と;前記入力画像のうち、前記補正有効領域のみを複数のエリアに分割した上で、各エリア毎の輝度変換係数を算出する輝度変換係数算出部(図23の例では、輝度判別部A2)と;各エリアを構成する画素に対して、各エリア毎の輝度変換係数に応じた輝度変換処理を施す輝度変換処理部(図23の例では、画像エンハンス部A3)と;を有して成る構成とされている。このような構成とすることにより、入力画像に含まれる任意の領域について、ユーザの意図した通りに、その画質や視認性を高めることが可能となる。   As described above, the image processing IC 20-3 of the present embodiment includes the correction effective area setting unit (in the example of FIG. 23, the register A4 and the I2C interface unit A5) that sets the correction effective area of the input image; A luminance conversion coefficient calculation unit (in the example of FIG. 23, luminance determination unit A2) that calculates a luminance conversion coefficient for each area after dividing only the effective correction area into a plurality of areas; A luminance conversion processing unit (image enhancement unit A3 in the example of FIG. 23) that performs a luminance conversion process according to the luminance conversion coefficient for each area on the constituent pixels. . With this configuration, it is possible to improve the image quality and visibility of an arbitrary area included in the input image as intended by the user.

図43は、輝度補正強度設定レジスタSTRENGTHの内容を示すマップである。輝度補正強度設定レジスタSTRENGTH(インデックスアドレス:21h)は、画像補正の強度(輝度変換処理の強度)を設定するためのレジスタ値であり、7ビットのパラメータSTR(ビット番号0〜6、リード/ライト属性)を含んでいる。パラメータSTRの初期値は「110 0000b」(96d)であり、0〜127dまで設定することができる。なお、輝度変換処理の強度を可変制御する構成については、先述の第5実施形態と同様であるため、重複した説明は割愛する。   FIG. 43 is a map showing the contents of the brightness correction strength setting register STRENGTH. The luminance correction strength setting register STRENGTH (index address: 21h) is a register value for setting the strength of image correction (luminance conversion processing strength), and is a 7-bit parameter STR (bit numbers 0 to 6, read / write). Attribute). The initial value of the parameter STR is “110 0000b” (96d), and can be set from 0 to 127d. Note that the configuration for variably controlling the intensity of the luminance conversion process is the same as that of the fifth embodiment described above, and therefore a duplicate description is omitted.

図44は、色差補正強度設定レジスタUV_STRENGTHの内容を示すマップである。色差補正強度設定レジスタUV_STRENGTH(インデックスアドレス22h)は、色差補正の強度(カラーコレクション処理の強度)を設定するためのレジスタ値であり、4ビットのパラメータUV_STR(ビット番号0〜3、リード/ライト属性)と、4ビットのパラメータV_ENHANCE(ビット番号4〜7、リード/ライト属性)を含んでいる。   FIG. 44 is a map showing the contents of the color difference correction intensity setting register UV_STRENGTH. The color difference correction intensity setting register UV_STRENGTH (index address 22h) is a register value for setting the intensity of color difference correction (intensity of color correction processing), and is a 4-bit parameter UV_STR (bit number 0 to 3, read / write attribute) ) And a 4-bit parameter V_ENHANCE (bit numbers 4 to 7, read / write attribute).

パラメータUV_STRの初期値は「0110b」(6d)であり、0〜13dまで設定することができる。なお、パラメータUV_STRの値が大きいほど発色が強くなる。また、パラメータUV_STRに「1110」、「1111」(14d、15d)を書き込むことは禁止されている。   The initial value of the parameter UV_STR is “0110b” (6d), and can be set from 0 to 13d. Note that the larger the value of the parameter UV_STR, the stronger the color development. Also, writing “1110”, “1111” (14d, 15d) to the parameter UV_STR is prohibited.

パラメータV_ENHANCEの初期値は「0000b」であり、0〜15dまで設定することができる。なお、パラメータV_ENHANCEの値が大きいほど赤みが強くなる。具体的には、+約3[%]×設定値だけ赤みが強調される。   The initial value of the parameter V_ENHANCE is “0000b” and can be set from 0 to 15d. Note that redness increases as the value of the parameter V_ENHANCE increases. Specifically, redness is emphasized by about +3 [%] × set value.

図45は、ノイズ抑制設定レジスタNOISE_SUPの内容を示すマップである。ノイズ抑制設定レジスタNOISE_SUP(インデックスアドレス:23h)は、ノイズ抑制値を設定するためのレジスタ値であって、7ビットのパラメータNOISE_SUP(ビット番号0〜6、リード/ライト属性)を含んでいる。パラメータNOISE_SUPの初期値は「110 0000b」(96d)であり、10d〜127dまで設定することができる。なお、パラメータNOISE_SUPの値が大きいほどノイズが抑制される。また、パラメータNOISE_SUPに「0000」〜「1001」(0〜9d)を書き込むことは禁止されている。ノイズ抑制値を可変制御する構成については、先述の第3実施形態と同様であるため、重複した説明は割愛する。   FIG. 45 is a map showing the contents of the noise suppression setting register NOISE_SUP. The noise suppression setting register NOISE_SUP (index address: 23h) is a register value for setting a noise suppression value, and includes a 7-bit parameter NOISE_SUP (bit numbers 0 to 6, read / write attributes). The initial value of the parameter NOISE_SUP is “110 0000b” (96d), and can be set from 10d to 127d. Note that noise is suppressed as the value of the parameter NOISE_SUP increases. In addition, it is prohibited to write “0000” to “1001” (0 to 9d) in the parameter NOISE_SUP. The configuration for variably controlling the noise suppression value is the same as that of the third embodiment described above, and thus a duplicate description is omitted.

図46はエッジ強調フィルタ設定レジスタEDG_CNTの内容を示すマップである。エッジ強調フィルタ設定レジスタEDG_CNT(インデックスアドレス:24h)は、エッジ強調フィルタの動作を制御するためのレジスタ値であり、4ビットのパラメータEDG_ST(ビット番号0〜3、リード/ライト属性)と、1ビットのパラメータEDG_EN(ビット番号7、リード/ライト属性)を含んでいる。   FIG. 46 is a map showing the contents of the edge enhancement filter setting register EDG_CNT. The edge emphasis filter setting register EDG_CNT (index address: 24h) is a register value for controlling the operation of the edge emphasis filter, and includes a 4-bit parameter EDG_ST (bit number 0 to 3, read / write attribute) and 1 bit. Parameter EDG_EN (bit number 7, read / write attribute).

パラメータEDG_STの初期値は「0000b」であり、0〜15dまで設定することができる。なお、パラメータEDG_STの値が大きいほどエッジ強調が強くなる。   The initial value of the parameter EDG_ST is “0000b” and can be set from 0 to 15d. Note that edge enhancement becomes stronger as the value of the parameter EDG_ST increases.

パラメータEDG_ENは、エッジ強調フィルタのイネーブルを設定するためのパラメータであり、その初期値は「0」である。パラメータEDG_ENに「0」を書き込むことで、エッジ強調フィルタがディセーブルとされ、パラメータEDG_ENに「1」を書き込むことで、エッジ強調フィルタがイネーブルとされる。エッジ強調フィルタは、ITU656フォーマット時のみ有効であり、その他の場合には、パラメータEDG_ENを「0」に設定すべきである。   The parameter EDG_EN is a parameter for setting enable of the edge enhancement filter, and its initial value is “0”. Writing “0” to the parameter EDG_EN disables the edge enhancement filter, and writing “1” to the parameter EDG_EN enables the edge enhancement filter. The edge enhancement filter is effective only in the ITU656 format, and in other cases, the parameter EDG_EN should be set to “0”.

なお、エッジ強調フィルタの強度を可変制御する構成については、先述の第4実施形態と同様であるため、重複した説明は割愛する。   Note that the configuration for variably controlling the strength of the edge enhancement filter is the same as that in the fourth embodiment described above, and therefore a duplicate description is omitted.

図47は、応答時間設定レジスタRESP_SETの内容を示すマップである。応答時間設定レジスタRESP_SET(インデックスアドレス:25h)は、画像補正効果の応答時間を設定するためのレジスタ値であって、4ビットのパラメータRESP_SET(ビット番号0〜3、リード/ライト属性)を含んでいる。パラメータRESP_SETの初期値は「0000b」であり、0〜15dまで設定することができる。なお、パラメータRESP_SETの値が大きいほど応答時間が長くなる。   FIG. 47 is a map showing the contents of the response time setting register RESP_SET. The response time setting register RESP_SET (index address: 25h) is a register value for setting the response time of the image correction effect, and includes a 4-bit parameter RESP_SET (bit number 0 to 3, read / write attribute). Yes. The initial value of the parameter RESP_SET is “0000b” and can be set from 0 to 15d. The response time becomes longer as the value of the parameter RESP_SET is larger.

図48は、ポストフィルタイネーブルレジスタPFLT_ENの内容を示すマップである。ポストフィルタイネーブルレジスタPFLT_EN(インデックスアドレス26h)は、出力ガンマフィルタのイネーブルを設定するためのレジスタ値であり、1ビットのパラメータPFLT_EN(ビット番号0、リード/ライト属性)を含んでいる。パラメータPFLT_ENの初期値は「0」である。パラメータPFLT_ENに「0」を書き込むことで出力ガンマフィルタがディセーブルとされ、パラメータPFLT_ENに「1」を書き込むことで、出力ガンマフィルタがイネーブルとされる。出力ガンマフィルタがイネーブルとされている場合、ポストフィルタ特性レジスタ(後述のPOFLT0〜POFLT8)で設定された特性を用いて、画像補正後の画像にガンマフィルタがかけられる。   FIG. 48 is a map showing the contents of the post filter enable register PFLT_EN. The post filter enable register PFLT_EN (index address 26h) is a register value for setting the output gamma filter enable, and includes a 1-bit parameter PFLT_EN (bit number 0, read / write attribute). The initial value of the parameter PFLT_EN is “0”. The output gamma filter is disabled by writing “0” to the parameter PFLT_EN, and the output gamma filter is enabled by writing “1” to the parameter PFLT_EN. When the output gamma filter is enabled, the gamma filter is applied to the image after image correction using the characteristics set in the post filter characteristics register (POFLT0 to POFLT8 described later).

図49は、出力ガンマ特性レジスタPOFLT0〜POFLT8の内容を示すマップである。出力ガンマ特性レジスタPOFLT0〜POFLT8(インデックスアドレス:27h〜2Fh)はいずれも出力ガンマ特性(図50を参照)の設定を行うためのレジスタ値であり、各々8ビットのパラメータPOFLT0〜POFLT8(ビット番号0〜7、リード/ライト属性)を含んでいる。パラメータPOFLT0の初期値は「0000 0000b」である。パラメータPOFLT1の初期値は「0001 1111b」(31d)である。パラメータPOFLT2の初期値は「0011 1111b」(63d)である。パラメータPOFLT3の初期値は「0101 1111b」(95d)である。パラメータPOFLT4の初期値は「0111 1111b」(127d)である。パラメータPOFLT5の初期値は「1001 1111b」(159d)である。パラメータPOFLT6の初期値は「1011 1111b」(191d)である。パラメータPOFLT7の初期値は「1101 1111b」(223d)である。パラメータPOFLT8の初期値は「1111 1111b」(255d)である。   FIG. 49 is a map showing the contents of the output gamma characteristic registers POFLT0 to POFLT8. The output gamma characteristic registers POFLT0 to POFLT8 (index addresses: 27h to 2Fh) are all register values for setting the output gamma characteristic (see FIG. 50). Each of the 8-bit parameters POFLT0 to POFLT8 (bit number 0) ~ 7, read / write attributes). The initial value of the parameter POFLT0 is “0000 0000b”. The initial value of the parameter POFLT1 is “0001 1111b” (31d). The initial value of the parameter POFLT2 is “0011 1111b” (63d). The initial value of the parameter POFLT3 is “0101 1111b” (95d). The initial value of the parameter POFLT4 is “0111 1111b” (127d). The initial value of the parameter POFLT5 is “1001 1111b” (159d). The initial value of the parameter POFLT6 is “1011 1111b” (191d). The initial value of the parameter POFLT7 is “1101 1111b” (223d). The initial value of the parameter POFLT8 is “1111 1111b” (255d).

図51は、輝度分布設定レジスタLFREQSETの内容を示すマップである。輝度分布設定レジスタLFREQSET(インデックスアドレス:30h)は、輝度値の度数取込み動作に関するレジスタ値であり、1ビットのパラメータLFREQST(ビット番号0、リード/ライト属性)と、1ビットのパラメータLFREQPOS(ビット番号1、リード/ライト属性)を含んでいる。   FIG. 51 is a map showing the contents of the luminance distribution setting register LFREQSET. The luminance distribution setting register LFREQSET (index address: 30h) is a register value related to the luminance value frequency fetch operation, and is a 1-bit parameter LFREQST (bit number 0, read / write attribute) and a 1-bit parameter LFREQPOS (bit number). 1, read / write attributes).

パラメータLFREQSTに「1」を書き込むと、次フレーム画像の輝度値の度数が取り込まれる。なお、パラメータLFREQSTの値が「1」に維持されている間は、輝度値の度数の取り込み処理が未完了の状態であり、後述の輝度分布レジスタLFREQ0〜7、及び、輝度分布母数レジスタLFREQ_TOTALのデータは無効となる。一方、パラメータLFREQSTの値が「0」に戻っていれば、輝度値の度数の取り込み処理が完了された状態であり、輝度分布レジスタLFREQ0〜7、及び、輝度分布母数レジスタLFREQ_TOTALのデータは有効となる。従って、パラメータLFREQSTに「1」を書き込んでから、その値が「0」に復帰した後、輝度分布レジスタLFREQ0〜7、及び、輝度分布母数レジスタLFREQ_TOTALを読み出すことができる。   When “1” is written in the parameter LFREQST, the frequency of the luminance value of the next frame image is captured. Note that while the value of the parameter LFREQST is maintained at “1”, the process of fetching the frequency of the brightness value is in an incomplete state, and the brightness distribution registers LFREQ0 to LFREQ and the brightness distribution parameter register LFREQ_TOTAL which will be described later. This data is invalid. On the other hand, if the value of the parameter LFREQST returns to “0”, it means that the process of fetching the luminance value frequency has been completed, and the data in the luminance distribution registers LFREQ0 to LFREQ and the luminance distribution parameter register LFREQ_TOTAL are valid. It becomes. Therefore, after writing “1” in the parameter LFREQST and returning the value to “0”, the luminance distribution registers LFREQ0 to LFREQ and the luminance distribution parameter register LFREQ_TOTAL can be read.

パラメータLFREQPOSは、輝度値の度数を取り込む画像を選択するためのパラメータであり、その初期値は「0」である。パラメータLFREQPOSに「1」を書き込むことで、出力画像(画像補正済み画像)の輝度値が取り込まれる形となり、パラメータFREQPOSに「0」を書き込むことで、入力画像の輝度値が取り込まれる形となる。   The parameter LFREQPOS is a parameter for selecting an image from which the luminance value frequency is taken, and its initial value is “0”. Writing “1” to the parameter LFREQPOS takes in the luminance value of the output image (image corrected image), and writing “0” into the parameter FREQPOS takes in the luminance value of the input image. .

図52は、輝度分布レジスタLFREQ0〜LFREQ7の内容を示すマップである。輝度分布レジスタLFREQ0〜LFREQ7(インデックスアドレス31h〜38h)は、いずれも画像の輝度値の度数を格納するためのレジスタ値であり、各々8ビットのパラメータLFREQ0〜LFREQ7(ビット番号0〜7、リード属性)を含んでいる。パラメータLFREQ0には、輝度値0〜31を有する画素数が格納される。パラメータLFREQ1には、輝度値32〜63を有する画素数が格納される。パラメータLFREQ2には、輝度値64〜95を有する画素数が格納される。パラメータLFREQ3には輝度値96〜127を有する画素数が格納される。パラメータLFREQ4には、輝度値128〜159を有する画素数が格納される。パラメータLFREQ5には、輝度値160〜191を有する画素数が格納される。パラメータLFREQ6には、輝度値192〜223を有する画素数が格納される。パラメータLFREQ7には、輝度値224〜255を有する画素数が格納される。   FIG. 52 is a map showing the contents of the luminance distribution registers LFREQ0 to LFREQ7. The luminance distribution registers LFREQ0 to LFREQ7 (index addresses 31h to 38h) are all register values for storing the frequency of the luminance value of the image. Each of the 8-bit parameters LFREQ0 to LFREQ7 (bit numbers 0 to 7, read attribute) ) Is included. The parameter LFREQ0 stores the number of pixels having luminance values 0 to 31. The parameter LFREQ1 stores the number of pixels having luminance values 32 to 63. The parameter LFREQ2 stores the number of pixels having luminance values of 64 to 95. The parameter LFREQ3 stores the number of pixels having luminance values of 96 to 127. The parameter LFREQ4 stores the number of pixels having luminance values 128 to 159. The parameter LFREQ5 stores the number of pixels having luminance values 160 to 191. The parameter LFREQ6 stores the number of pixels having luminance values 192 to 223. The parameter LFREQ7 stores the number of pixels having luminance values 224 to 255.

図53は、輝度分布母数レジスタLFREQ_TOTALの内容を示すマップである。輝度分布母数レジスタLFREQ_TOTAL(インデックスアドレス:39h)は、輝度分布母数(全画素数)を格納するためのレジスタ値であり、8ビットのパラメータLFREQ_TOTAL(ビット番号0〜7、リード属性)を含んでいる。なお、輝度分布母数レジスタは、アナリシス時、或いは、エンハンス時にのみ動作となる。   FIG. 53 is a map showing the contents of the luminance distribution parameter register LFREQ_TOTAL. The luminance distribution parameter register LFREQ_TOTAL (index address: 39h) is a register value for storing the luminance distribution parameter (total number of pixels), and includes an 8-bit parameter LFREQ_TOTAL (bit number 0 to 7, read attribute). It is out. Note that the luminance distribution parameter register operates only at the time of analysis or enhancement.

なお、輝度分布の取り込み動作については、先述の第5実施形態と同様であるため、重複した説明は割愛する。   Note that since the luminance distribution capturing operation is the same as that of the fifth embodiment described above, a duplicate description is omitted.

図54は、PWM制御レジスタの内容を示すマップである。PWM制御レジスタPWMCNT(インデックスアドレス:40h)は、PWM信号の出力制御を行うためのレジスタ値であって、2ビットのパラメータPWM_SEL(ビット番号0〜1、リード/ライト属性)と、1ビットのパラメータPWM_HOST(ビット番号6、リード/ライト属性)と、1ビットのパラメータPWM_EN(ビット番号7、リード/ライト属性)と、を含んでいる。   FIG. 54 is a map showing the contents of the PWM control register. The PWM control register PWMCNT (index address: 40h) is a register value for controlling the output of the PWM signal, and includes a 2-bit parameter PWM_SEL (bit number 0 to 1, read / write attribute) and a 1-bit parameter. PWM_HOST (bit number 6, read / write attribute) and 1-bit parameter PWM_EN (bit number 7, read / write attribute) are included.

パラメータPWM_SELは、PWM信号の出力端子を設定するためのパラメータであり、その初期値は「00b」である。パラメータPWM_SELに「00b」を書き込むことで、PWM信号は非出力状態となり、パラメータPWM_SELに「01b」を書き込むことで、PWM信号がPWMO端子を介して出力される状態となる。なお、パラメータPWM_SELに「10b」、「11b」を書き込むことは禁止されている。   The parameter PWM_SEL is a parameter for setting the output terminal of the PWM signal, and its initial value is “00b”. Writing "00b" to the parameter PWM_SEL makes the PWM signal non-output state, and writing "01b" to the parameter PWM_SEL makes the PWM signal output via the PWMO terminal. Note that writing “10b” and “11b” to the parameter PWM_SEL is prohibited.

パラメータPWM_HOSTは、PWM信号のデューティ制御方法を設定するためのパラメータであり、その初期値は「0」である。パラメータPWM_HOSTに「0」を書き込むことで、PWM信号のデューティを画像処理IC20−3が自動制御する状態となる。パラメータPWM_HOSTに「1」を書き込むことで、PWM信号のデューティが外部制御される状態となる。このとき、後述するPWMDUTY設定レジスタPWM_DUTYのレジスタ値が反映される。   The parameter PWM_HOST is a parameter for setting the duty control method of the PWM signal, and its initial value is “0”. By writing “0” in the parameter PWM_HOST, the image processing IC 20-3 automatically controls the duty of the PWM signal. By writing “1” to the parameter PWM_HOST, the duty of the PWM signal is controlled externally. At this time, a register value of a PWM DUTY setting register PWM_DUTY described later is reflected.

パラメータPWM_ENは、PWM制御のイネーブルを設定するためのパラメータであり、その初期値は「0」である。パラメータPWM_ENに「0」を書き込むことで、PWM制御がディセーブルとされ、パラメータPWM_ENに「1」を書き込むことで、PWM制御がイネーブルとされる。   The parameter PWM_EN is a parameter for setting the PWM control enable, and its initial value is “0”. Writing “0” to the parameter PWM_EN disables the PWM control, and writing “1” to the parameter PWM_EN enables the PWM control.

図55は、PWMクロック分周レジスタの内容を示すマップである。PWMクロック分周レジスタPWMCLK(インデックスアドレス:41h及び42h)は、PWM信号の生成用クロックの分周比(延いては、PWM信号の周波数T)を設定するためのレジスタ値であり、14ビットのパラメータPWMCLK(アドレス41hのビット番号0〜7、及び、アドレス42hのビット番号0〜5、リード/ライト属性)を含んでいる。なお、PWM信号の生成用クロックは、所定周波数の基準クロックを(PWMクロック分周レジスタで設定された値+1)分周することにより生成される。   FIG. 55 is a map showing the contents of the PWM clock divider register. The PWM clock frequency division register PWMCLK (index address: 41h and 42h) is a register value for setting the frequency division ratio of the PWM signal generation clock (and hence the frequency T of the PWM signal). It includes parameters PWMCLK (bit numbers 0-7 of address 41h and bit numbers 0-5 of address 42h, read / write attributes). The PWM signal generation clock is generated by frequency-dividing a reference clock having a predetermined frequency (value set by the PWM clock frequency division register + 1).

図56は、PWMスロープ制御レジスタの内容を示すマップである。PWMスロープ制御レジスタPWMSLOPE(インデックスアドレス:43h)は、PWMデューティのスロープ(PWMデューティを可変制御する際の変化度合い)を設定するためのレジスタ値であり、7ビットのパラメータSLOPE(ビット番号0〜6、リード/ライト属性)を含んでいる。   FIG. 56 is a map showing the contents of the PWM slope control register. The PWM slope control register PWMSLOPE (index address: 43h) is a register value for setting the slope of the PWM duty (degree of change when the PWM duty is variably controlled), and is a 7-bit parameter SLOPE (bit numbers 0-6). Read / write attribute).

図57は、SLOPE更新サイクルレジスタの内容を示すマップである。SLOPE更新サイクルレジスタSLOPE_CYCLE(インデックスアドレス:52h、53h)は、PWMデューティのスロープ更新サイクル数を設定するためのレジスタ値であり、16ビットのパラメータSLOPE_CYCLE(アドレス52hのビット番号0〜7、及び、アドレス53hのビット番号0〜7、リード/ライト属性)を含んでいる。   FIG. 57 is a map showing the contents of the SLOPE update cycle register. The SLOPE update cycle register SLOPE_CYCLE (index address: 52h, 53h) is a register value for setting the number of slope update cycles of the PWM duty, and the 16-bit parameter SLOPE_CYCLE (bit numbers 0 to 7 of the address 52h and the address 53h bit numbers 0 to 7 and read / write attributes).

すなわち、PWMデューティは、図58に示すように、SLOPE_CYCLE×PWMCLKで設定されるタイミング毎に、PWMSLOPEの設定値だけ変化されることになる。なお、PWMスロープ制御レジスタPWMSLOPEに「0」が書き込まれているときには、スロープ無しとなる。   That is, as shown in FIG. 58, the PWM duty is changed by the setting value of PWMSLOPE at every timing set by SLOPE_CYCLE × PWMCLK. When “0” is written in the PWM slope control register PWMSLOPE, there is no slope.

図59は、PWMデューティ設定レジスタの内容を示すマップである。PWMデューティ設定レジスタPWM_DUTY(インデックスアドレス:44h)は、外部制御時にPWMデューティ(ハイレベル区間の幅)を設定するためのレジスタ値であり、7ビットのパラメータPWM_DUTY(ビット番号0〜6、リード/ライト属性)を含んでいる。パラメータPWM_DUTYに「0」を書き込むことで、PWM信号は常時ロー出力となり、パラメータPWM_DUTYに「111 1111b」(127d)を書き込むことで、PWM信号は常時ハイ出力となる。その余のレジスタ値「V」を書き込んだ場合、1周期を127サイクルとして、Vサイクルだけハイレベルとなり、(127−V)サイクルだけローレベルとなる。なお、ここでの1サイクルは、PWM分周クロックレジスタPWMCLKで設定されたPWM信号生成用クロックの1クロックに相当する。また、PWMデューティ設定レジスタPWM_DUTYは、PWM制御レジスタPWMCNTに含まれるパラメータPWM_HOSTが「1」(PWMデューティが外部制御される状態)であるときにのみ有効となる。   FIG. 59 is a map showing the contents of the PWM duty setting register. The PWM duty setting register PWM_DUTY (index address: 44h) is a register value for setting the PWM duty (high level interval width) during external control, and is a 7-bit parameter PWM_DUTY (bit numbers 0 to 6, read / write). Attribute). By writing “0” in the parameter PWM_DUTY, the PWM signal is always low output, and by writing “111 1111b” (127d) in the parameter PWM_DUTY, the PWM signal is always high output. When the remaining register value “V” is written, one cycle is set to 127 cycles and is set to the high level only for V cycles, and is set to the low level for (127−V) cycles. Here, one cycle corresponds to one PWM signal generation clock set by the PWM frequency division clock register PWMCLK. The PWM duty setting register PWM_DUTY is only effective when the parameter PWM_HOST included in the PWM control register PWMCNT is “1” (a state in which the PWM duty is externally controlled).

図60は、PWMDUTYテーブルレジスタの内容を示すマップである。PWMDUTYテーブルレジスタPWM_DTBL0〜8(インデックスアドレス:45h〜4Dh)は、画像処理IC20−3がPWMデューティを自動制御する際のテーブル(右肩上がりの挙動を示すテーブル)を設定するものであり、それぞれ7ビットのパラメータPWM_DUTY_TABLE0〜8(ビット番号0〜6、リード/ライト属性)を含んでいる。   FIG. 60 is a map showing the contents of the PWMDUTY table register. The PWMDUTY table registers PWM_DTBL0 to 8 (index address: 45h to 4Dh) are tables for setting the PWM processing by the image processing IC 20-3 (a table showing a rising behavior). Bit parameters PWM_DUTY_TABLE0 to 8 (bit numbers 0 to 6, read / write attributes) are included.

図61は、PWM度数係数レジスタの内容を示すマップである。PWM度数係数レジスタPWM_HCOEF0〜3(インデックスアドレス:4Eh〜51h)は、画像処理IC20−3によるPWMデューティの自動制御に際して、輝度度数分布の重み付けに用いる係数を設定するためのレジスタ値である。   FIG. 61 is a map showing the contents of the PWM frequency coefficient register. The PWM frequency coefficient registers PWM_HCOEF0 to 3 (index address: 4Eh to 51h) are register values for setting coefficients used for weighting the luminance frequency distribution when the PWM duty is automatically controlled by the image processing IC 20-3.

PWM度数係数レジスタPWM_HCOEF0は、3ビットのパラメータPWM_HCOEF0(ビット番号0〜2、リード/ライト属性)と、3ビットのパラメータPWM_HCOEF1(ビット番号4〜6、リード/ライト属性)を含んでいる。PWM度数係数レジスタPWM_HCOEF1は、3ビットのパラメータPWM_HCOEF2(ビット番号0〜2、リード/ライト属性)と、3ビットのパラメータPWM_HCOEF3(ビット番号4〜6、リード/ライト属性)を含んでいる。PWM度数係数レジスタPWM_HCOEF2は、3ビットのパラメータPWM_HCOEF4(ビット番号0〜2、リード/ライト属性)と、3ビットのパラメータPWM_HCOEF5(ビット番号4〜6、リード/ライト属性)を含んでいる。PWM度数係数レジスタPWM_HCOEF3は、3ビットのパラメータPWM_HCOEF6(ビット番号0〜2、リード/ライト属性)と、3ビットのパラメータPWM_HCOEF7(ビット番号4〜6、リード/ライト属性)を含んでいる。   The PWM frequency coefficient register PWM_HCOEF0 includes a 3-bit parameter PWM_HCOEF0 (bit number 0 to 2, read / write attribute) and a 3-bit parameter PWM_HCOEF1 (bit number 4 to 6, read / write attribute). The PWM frequency coefficient register PWM_HCOEF1 includes a 3-bit parameter PWM_HCOEF2 (bit number 0 to 2, read / write attribute) and a 3-bit parameter PWM_HCOEF3 (bit number 4 to 6, read / write attribute). The PWM frequency coefficient register PWM_HCOEF2 includes a 3-bit parameter PWM_HCOEF4 (bit number 0 to 2, read / write attribute) and a 3-bit parameter PWM_HCOEF5 (bit number 4 to 6, read / write attribute). The PWM frequency coefficient register PWM_HCOEF3 includes a 3-bit parameter PWM_HCOEF6 (bit number 0 to 2, read / write attribute) and a 3-bit parameter PWM_HCOEF7 (bit number 4 to 6, read / write attribute).

パラメータPWM_HCOEF0〜7の各々に関して、「0」を書き込むことで、重み付け係数が「0倍」に設定される。また、「1」を書き込むことで、重み付け係数が「1倍」に設定される。同様に、「2」〜「7」を書き込むことで、それぞれ、重み付け係数が「1/2倍」、「1/4倍」、「1/8倍」、「1/16倍」、「1/32倍」、「1/64倍」に設定される。   By writing “0” for each of the parameters PWM_HCOEF0 to 7, the weighting coefficient is set to “0 times”. Further, by writing “1”, the weighting coefficient is set to “1 time”. Similarly, by writing “2” to “7”, the weighting coefficients are “1/2 times”, “1/4 times”, “1/8 times”, “1/16 times”, “1”, respectively. / 32 times "and" 1/64 times ".

なお、上記した輝度分布度数の重み付け処理については、先述の第5実施形態と同様であるため、重複した説明は割愛する。   Note that the above-described weighting process of the luminance distribution frequency is the same as that of the fifth embodiment described above, and thus a duplicate description is omitted.

図62は、極性設定レジスタの内容を示すマップである。極性設定レジスタPOL(インデックスアドレス:E1h)は、信号の極性を設定するためのレジスタ値であり、3ビット分のリザーブビットRESERVE(ビット番号2〜4)と、1ビットのパラメータCKPOL(ビット番号5、リード/ライト属性)と、1ビットのパラメータHSPOL(ビット番号6、リード/ライト属性)と、1ビットのパラメータVSPOL(ビット番号7、リード/ライト属性)と、を含んでいる。   FIG. 62 is a map showing the contents of the polarity setting register. The polarity setting register POL (index address: E1h) is a register value for setting the polarity of the signal. The reserved bits RESERVE (bit numbers 2 to 4) for 3 bits and the 1-bit parameter CKPOL (bit number 5) are set. , Read / write attribute), 1-bit parameter HSPOL (bit number 6, read / write attribute), and 1-bit parameter VSPOL (bit number 7, read / write attribute).

パラメータCKPOLは、カメラモジュール10−3から入力されるデータ信号CAMDIに対するクロック信号CAMCKIの極性を設定するためのパラメータであり、その初期値は「0」である。図63に示すように、パラメータCKPOLに「0」を書き込むことで、クロック信号CAMCKIの立ち下りエッジでデータ信号CAMDIが変化し、クロック信号CAMCKIの立ち上りエッジでデータ信号CAMDIが取り込まれる。   The parameter CKPOL is a parameter for setting the polarity of the clock signal CAMCKI with respect to the data signal CAMDI input from the camera module 10-3, and its initial value is “0”. As shown in FIG. 63, by writing “0” to the parameter CKPOL, the data signal CAMDI changes at the falling edge of the clock signal CAMCKI, and the data signal CAMDI is captured at the rising edge of the clock signal CAMCKI.

パラメータHSPOLは、水平同期信号CAMHSIの極性を設定するためのパラメータであり、初期値は「0」である。パラメータHSPOLに「0」を書き込むことで、ハイレベル区間が有効データ区間(ローレベル区間がシンク区間)となる。逆に、パラメータHSPOLに「1」を書き込むことで、ローレベル区間が有効データ区間(ハイレベル区間がシンク区間)となる。   The parameter HSPOL is a parameter for setting the polarity of the horizontal synchronization signal CAMHSI, and the initial value is “0”. By writing “0” in the parameter HSPOL, the high level section becomes the valid data section (the low level section becomes the sync section). Conversely, by writing “1” in the parameter HSPOL, the low level section becomes the valid data section (the high level section is the sync section).

パラメータVSPOLは、垂直同期信号CAMVSIの極性を設定するためのパラメータであり、初期値は「0」である。パラメータVSPOLに「0」を書き込むことで、ハイレベル区間が有効データ区間(ローレベル区間がシンク区間)となる。逆に、パラメータVSPOLに「1」を書き込むことで、ローレベル区間が有効データ区間(ハイレベル区間がシンク区間)となる。   The parameter VSPOL is a parameter for setting the polarity of the vertical synchronization signal CAMVSI, and its initial value is “0”. By writing “0” in the parameter VSPOL, the high level section becomes the valid data section (the low level section becomes the sync section). Conversely, by writing “1” in the parameter VSPOL, the low level section becomes the valid data section (the high level section is the sync section).

なお、リザーブビットRESERVEは、初期値から変更すべきではない。   Note that the reserve bit RESERVE should not be changed from the initial value.

図64は、入力インタフェイスフォーマット指定レジスタの内容を示すマップである。入力インターフェイスフォーマット指定レジスタYUVIFSET(インデックスアドレス:Efh)は、入力インターフェイスのフォーマットを指定するためのレジスタ値であり、1ビットのパラメータYUVIFEN(ビット番号0、リード/ライト属性)と、1ビットのパラメータITU656EN(ビット番号1、リード/ライト属性)と、1ビットのパラメータITU601R_I(ビット番号2、リード/ライト属性)と、1ビットのパラメータITU601R_O(ビット番号3、リード/ライト属性)と、2ビットのパラメータYUVORD(ビット番号4及び5、リード/ライト属性)と、2ビットのパラメータYUV_XST(ビット番号6及び7、リード/ライト属性)を含んでいる。   FIG. 64 is a map showing the contents of the input interface format designation register. The input interface format designation register YUVIFSET (index address: Efh) is a register value for designating the format of the input interface. The 1-bit parameter YUVIFEN (bit number 0, read / write attribute) and the 1-bit parameter ITU656EN (Bit number 1, read / write attribute), 1-bit parameter ITU601R_I (bit number 2, read / write attribute), 1-bit parameter ITU601R_O (bit number 3, read / write attribute), and 2-bit parameter YUVORD (bit numbers 4 and 5, read / write attribute) and 2-bit parameter YUV_XST (bit numbers 6 and 7, read / write attribute) are included.

パラメータYUVIFENは、YUVインターフェイスのイネーブル信号であり、その初期値は「0」である。パラメータYUVIFENに「0」を書き込むことで、YUVインターフェイスはディセーブルとなり、パラメータYUVIFENに「1」を書き込むことで、YUVインターフェイスはイネーブルとなる。   The parameter YUVIFEN is an enable signal for the YUV interface, and its initial value is “0”. Writing “0” to the parameter YUVIFEN disables the YUV interface, and writing “1” to the parameter YUVIFEN enables the YUV interface.

パラメータITU656ENは、入出力のデジタルインターフェイスを設定するためのパラメータであり、その初期値は「0」である。パラメータITU656ENに「0」を書き込むことで、入出力のデジタルインターフェイスは、同期信号付きYCbCrに対応したものとなり、パラメータITU656ENに「1」を書き込むことで、入出力のデジタルインターフェイスは、ITU656フォーマットに対応したものとなる。   The parameter ITU656EN is a parameter for setting an input / output digital interface, and its initial value is “0”. By writing “0” in the parameter ITU656EN, the input / output digital interface becomes compatible with YCbCr with a synchronization signal, and by writing “1” in the parameter ITU656EN, the input / output digital interface supports the ITU656 format. Will be.

パラメータITU601R_Iは、デジタル入力インターフェイスのレンジを設定するためのパラメータであり、その初期値は「0」である。パラメータITU601R_Iに「0」を書き込むことで、デジタル入力インターフェイスは、Y、Cb、Crがフルレンジとなる。一方、パラメータITU601R_Iに「1」を書き込むことで、デジタル入力インターフェイスは、ITU601のレンジとなる。   The parameter ITU601R_I is a parameter for setting the range of the digital input interface, and its initial value is “0”. By writing “0” in the parameter ITU601R_I, the digital input interface has full range of Y, Cb, and Cr. On the other hand, by writing “1” in the parameter ITU601R_I, the digital input interface becomes the range of the ITU601.

パラメータITU601R_Oは、デジタル出力インターフェイスのレンジを設定するためのパラメータであり、その初期値は「0」である。パラメータITU601R_Oに「0」を書き込むことで、デジタル出力インターフェイスは、Y、Cb、Crがフルレンジとなる。一方、パラメータITU601R_Oに「1」を書き込むことで、デジタル出力インターフェイスは、ITU601のレンジとなる。   The parameter ITU601R_O is a parameter for setting the range of the digital output interface, and its initial value is “0”. By writing “0” to the parameter ITU601R_O, Y, Cb, and Cr are in the full range in the digital output interface. On the other hand, by writing “1” in the parameter ITU601R_O, the digital output interface becomes the range of ITU601.

パラメータYUVORDは、Y、Cb、Crの入力フォーマットを設定するパラメータであり、その初期値は「00b」である。パラメータYUVORDに「00b」を書き込むことで、Y、Cb、Crの入力フォーマットは、「Y・Cb・Y・Cr」の順となる。パラメータYUVORDに「01b」を書き込むことで、Y、Cb、Crの入力フォーマットは、「Y・Cr・Y・Cb」の順となる。パラメータYUVORDに「10b」を書き込むことで、Y、Cb、Crの入力フォーマットは、「Cb・Y・Cr・Y」の順となる。パラメータYUVORDに「11b」を書き込むことで、Y、Cb、Crの入力フォーマットは、「Cr・Y・Cb・Y」の順となる。   The parameter YUVORD is a parameter for setting the input format of Y, Cb, and Cr, and its initial value is “00b”. By writing “00b” in the parameter YUVORD, the input formats of Y, Cb, and Cr are in the order of “Y · Cb · Y · Cr”. By writing “01b” in the parameter YUVORD, the input formats of Y, Cb, and Cr are in the order of “Y · Cr · Y · Cb”. By writing “10b” in the parameter YUVORD, the input formats of Y, Cb, and Cr are in the order of “Cb · Y · Cr · Y”. By writing “11b” in the parameter YUVORD, the input formats of Y, Cb, and Cr are in the order of “Cr · Y · Cb · Y”.

パラメータYUV_XSTは、水平同期信号CAMHSIが有効となってから、データ入力が有効となるまでのディレイを設定するためのパラメータである(図29を参照)。   The parameter YUV_XST is a parameter for setting a delay from when the horizontal synchronization signal CAMHSI becomes valid until the data input becomes valid (see FIG. 29).

図65は、データフォーマット設定レジスタの内容を示すマップである。データフォーマット設定レジスタCAMDFM(インデックスアドレス:E2h)は、データフォーマットを設定するためのレジスタ値であり、5ビットのパラメータDFM(ビット番号0〜4、リード/ライト属性)と、3ビット分のリザーブビットRESERVE(ビット番号5〜7)と、を含んでいる。   FIG. 65 is a map showing the contents of the data format setting register. The data format setting register CAMDFM (index address: E2h) is a register value for setting the data format, and includes a 5-bit parameter DFM (bit numbers 0 to 4, read / write attributes) and a reserve bit for 3 bits. RESERVE (bit numbers 5 to 7).

パラメータDFMは、データフォーマットを設定するためのパラメータであり、その初期値は「0」である。パラメータDFMに「0」を書き込むことで、データフォーマットは「ITU−R BT.656−4」に設定され、パラメータDFMに「1」を書き込むことで、データフォーマットは「同期信号付きYCbCr」に設定される。なお、パラメータDFMに上記以外の値を書き込むことは禁止されている。   The parameter DFM is a parameter for setting the data format, and its initial value is “0”. Writing “0” to the parameter DFM sets the data format to “ITU-R BT.656-4”, and writing “1” to the parameter DFM sets the data format to “YCbCr with sync signal”. Is done. Note that writing values other than those described above to the parameter DFM is prohibited.

なお、上記実施形態では、動画撮像により得られた各フレームの画像に対して輝度変換処理を行う画像処理装置に本発明を適用した場合を例に挙げて説明を行ったが、本発明の適用対象はこれに限定されるものではなく、テレビ放送の受信画像やDVDの再生画像、写真等の静止画像に対して輝度変換処理を施す画像処理装置など、入力画像に輝度換処理を施して所望の出力画像を生成する画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置全般に適用することが可能である。   In the above embodiment, the case where the present invention is applied to an image processing apparatus that performs luminance conversion processing on each frame image obtained by moving image capturing has been described as an example. The target is not limited to this, and the input image is subjected to luminance conversion processing, such as an image processing device that performs luminance conversion processing on a received image of a television broadcast, a playback image of a DVD, or a still image such as a photograph. The present invention can be applied to an image processing circuit that generates the output image, a semiconductor device formed by integrating the output processing circuit, and an image processing apparatus using the image processing circuit.

また、本発明の構成は、上記実施形態のほか、発明の主旨を逸脱しない範囲で種々の変更を加えることが可能である。   The configuration of the present invention can be variously modified within the scope of the present invention in addition to the above embodiment.

本発明は、入力画像に輝度変換処理を施して所望の出力画像を生成する画像処理回路、これを集積化して成る半導体装置、並びに、これを用いた画像処理装置において、出力画像の画質や視認性を高める上で有用な技術である。   The present invention relates to an image processing circuit that performs luminance conversion processing on an input image to generate a desired output image, a semiconductor device integrated with the image processing circuit, and an image processing device using the image processing circuit. This is a useful technique for improving the performance.

は、本発明に係る画像処理装置の第1実施形態を示すブロック図である。These are block diagrams which show 1st Embodiment of the image processing apparatus which concerns on this invention. は、画像処理の全体的な流れを説明するための図である。FIG. 4 is a diagram for explaining the overall flow of image processing. は、輝度変換係数の算出処理を説明するためのフローチャートである。These are the flowcharts for demonstrating the calculation process of a luminance conversion coefficient. は、エリア分割の態様を説明するための図である。These are the figures for demonstrating the aspect of area division. は、仮想エリアが設定された状態を説明するための図である。These are the figures for demonstrating the state by which the virtual area was set. は、ローパスフィルタの態様を説明するための図である。These are figures for demonstrating the aspect of a low-pass filter. は、バイリニア演算について説明するための図である。These are the figures for demonstrating bilinear calculation. は、本発明に係る画像処理装置の第2実施形態を示すブロック図である。These are block diagrams which show 2nd Embodiment of the image processing apparatus which concerns on this invention. は、本発明に係る画像処理装置の第3実施形態を示すブロック図である。These are block diagrams which show 3rd Embodiment of the image processing apparatus which concerns on this invention. は、輝度補正量とノイズ除去処理の強度との相関を示す模式図である。These are schematic diagrams showing the correlation between the luminance correction amount and the intensity of the noise removal processing. は、本発明に係る画像処理装置の第4実施形態を示すブロック図である。These are block diagrams which show 4th Embodiment of the image processing apparatus which concerns on this invention. は、輝度補正量とエッジ強調処理の強度との相関を示す模式図である。These are schematic diagrams showing the correlation between the luminance correction amount and the strength of the edge enhancement processing. は、本発明に係る画像処理装置の第5実施形態を示すブロック図である。These are block diagrams which show 5th Embodiment of the image processing apparatus which concerns on this invention. は、本発明に係るバックライト駆動装置の一構成例を示す図である。These are figures which show one structural example of the backlight drive device which concerns on this invention. は、入力画像の輝度ヒストグラムの一例を示す図である。These are figures which show an example of the brightness | luminance histogram of an input image. は、デューティ決定部204で用いられる変換テーブルを示す図である。These are figures which show the conversion table used by the duty determination part 204. FIG. は、バックライトのPWM駆動を説明するための図である。These are the figures for demonstrating the PWM drive of a backlight. は、本発明に係る画像処理装置の第6実施形態を示すブロック図である。These are block diagrams which show 6th Embodiment of the image processing apparatus which concerns on this invention. は、画像処理部21の一構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an image processing unit 21. は、補正係数算出部214の一構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of a correction coefficient calculation unit 214. は、補正係数算出部214の別の一構成例を示すブロック図である。FIG. 10 is a block diagram showing another configuration example of the correction coefficient calculation unit 214. は、本発明に係る画像処理装置の第7実施形態を示すブロック図である。These are block diagrams which show 7th Embodiment of the image processing apparatus which concerns on this invention. は、画像処理IC20−3の一構成例を示すブロック図である。These are block diagrams which show the example of 1 structure of image processing IC20-3. は、画像処理IC20−3の端子機能表である。These are terminal function tables of the image processing IC 20-3. は、画像処理IC20−3の端子機能表(続き)である。These are terminal function tables (continued) of the image processing IC 20-3. は、「ITU−R BT.656」入力フォーマット(水平方向ボトム)を示すタイミングチャートである。These are timing charts showing "ITU-R BT.656" input format (horizontal bottom). は、NTSCでの「ITU−R BT.656」入力フォーマット(垂直方向)を示すタイミングチャートである。These are timing charts showing the "ITU-R BT.656" input format (vertical direction) in NTSC. は、PALでの「ITU−R BT.656」入力フォーマット(垂直方向ボトム)を示すタイミングチャートである。These are timing charts showing the “ITU-R BT.656” input format (vertical bottom) in PAL. は、「同期信号付きYCbCr」8ビット入力フォーマット(水平方向)を示すタイミングチャートである。These are timing charts showing "YCbCr with synchronization signal" 8-bit input format (horizontal direction). は、「同期信号付きYCbCr」8ビット入力フォーマット(垂直方向)を示すタイミングチャートである。These are timing charts showing "YCbCr with synchronization signal" 8-bit input format (vertical direction). は、I2Cインターフェイスフォーマット示す図である。FIG. 4 is a diagram showing an I2C interface format. は、初期化レジスタSRSTの内容を示すマップである。These are maps showing the contents of the initialization register SRST. は、パラメタ更新レジスタPARAMSETの内容を示すマップである。Is a map showing the contents of the parameter update register PARAMSET. は、モードレジスタMODEの内容を示すマップである。Is a map showing the contents of the mode register MODE. は、パラメータMODEと動作モードとの関係を示す論理表である。These are logical tables showing the relationship between the parameter MODE and the operation mode. は、カメラX方向画素サイズ設定レジスタDXSIZEの内容を示すマップである。These are maps showing the contents of the camera X direction pixel size setting register DXSIZE. は、カメラY方向画素サイズ設定レジスタDYSIZEの内容を示すマップである。These are maps showing the contents of the camera Y direction pixel size setting register DYSIZE. は、画像補正有効領域X方向スタート位置設定レジスタAIEXSTの内容を示すマップである。These are maps showing the contents of the image correction effective area X-direction start position setting register AIEXST. は、画像補正有効領域Y方向スタート位置設定レジスタAIEYSTの内容を示すマップである。These are maps showing the contents of the image correction effective area Y-direction start position setting register AIEYST. は、画像補正有効領域X方向サイズ設定レジスタAIEXSIZEの内容を示すマップである。These are maps showing the contents of the image correction effective area X-direction size setting register AIEXSIZE. は、画像補正有効領域Y方向サイズ設定レジスタAIEYSIZEの内容を示すマップである。These are maps showing the contents of the image correction effective area Y-direction size setting register AIEYSIZE. は、入力画像データの画像補正有効領域を模式的に示す図である。FIG. 5 is a diagram schematically showing an image correction effective area of input image data. は、輝度補正強度設定レジスタSTRENGTHを示すマップである。These are maps showing the brightness correction strength setting register STRENGTH. は、色差補正強度設定レジスタUV_STRENGTHの内容を示すマップである。These are maps showing the contents of the color difference correction intensity setting register UV_STRENGTH. は、ノイズ抑制設定レジスタNOISE_SUPを示すマップである。These are maps showing the noise suppression setting register NOISE_SUP. は、エッジ強調フィルタ設定レジスタEDG_CNTの内容を示すマップである。These are maps showing the contents of the edge enhancement filter setting register EDG_CNT. は、応答時間設定レジスタRESP_SETの内容を示すマップである。Is a map showing the contents of the response time setting register RESP_SET. は、ポストフィルタイネーブルレジスタPFLT_ENの内容を示すマップである。These are maps showing the contents of the post filter enable register PFLT_EN. は、出力ガンマ特性レジスタPOFLT0〜POFLT8の内容を示すマップである。These are maps showing the contents of the output gamma characteristic registers POFLT0 to POFLT8. は、出力ガンマ特性を示す図である。FIG. 4 is a diagram showing an output gamma characteristic. は、輝度分布設定レジスタLFREQSETの内容を示すマップである。These are maps showing the contents of the luminance distribution setting register LFREQSET. は、輝度分布レジスタLFREQ0〜7の内容を示すマップである。These are maps showing the contents of the luminance distribution registers LFREQ0-7. は、輝度分布母数レジスタLFREQ_TOTALを示すマップである。Is a map showing a luminance distribution parameter register LFREQ_TOTAL. は、PWM制御レジスタの内容を示すマップである。These are maps showing the contents of the PWM control register. は、PWMクロック分周レジスタの内容を示すマップである。These are maps showing the contents of the PWM clock divider register. は、PWMスロープ制御レジスタの内容を示すマップである。These are maps showing the contents of the PWM slope control register. は、SLOPE更新サイクルレジスタの内容を示すマップである。Is a map showing the contents of the SLOPE update cycle register. は、PWMデューティの可変制御の様子を示す図である。These are figures which show the mode of the variable control of PWM duty. は、PWMデューティ設定レジスタの内容を示すマップである。These are maps showing the contents of the PWM duty setting register. は、PWMDUTYテーブルレジスタの内容を示すマップである。These are maps showing the contents of the PWMDUTY table register. は、PWM度数係数レジスタの内容を示すマップである。These are maps showing the contents of the PWM frequency coefficient register. は、極性設定レジスタの内容を示すマップである。FIG. 4 is a map showing the contents of a polarity setting register. は、パラメータCKPOLによる極性設定を説明するための図である。These are the figures for demonstrating the polarity setting by parameter CKPOL. は、入力インターフェイスフォーマット指定レジスタの内容を示すマップである。FIG. 4 is a map showing the contents of an input interface format designation register. は、データフォーマット設定レジスタの内容を示すマップである。FIG. 4 is a map showing the contents of a data format setting register.

符号の説明Explanation of symbols

1、1−2、1−3、1−4、1−5 画像処理装置
10 撮像部(撮像手段)
10−2 画像生成装置
10−3 カメラモジュール
11 輝度変換処理部
12 輝度変換係数算出部
13 輝度変換係数記憶部
14 出力部
14−2 画像出力装置(液晶ディスプレイ)
15、15−2 ノイズフィルタ処理部
16 ノイズフィルタ制御部
17、17−2 フィルタ係数設定部
18 エッジ強調処理部
19 輝度検出部
20、20−2、20−3 画像処理IC(半導体装置)
21 画像処理部
21a 色補正部
211 輝度補正部
212 色補正部
213 輝度ヒストグラム取得部
214 補正係数算出部
214a 第1補正テーブル
214b 第2補正テーブル
214c 基準補正テーブル
214d 調整係数算出部
22 色補正制御部
30、30−2 制御部(CPU)
40 照度センサ
100 輝度検出部
200 駆動部
201 第1加算器
202 乗算器
203 第2加算器
204 デューティ決定部
300 液晶ディスプレイ
A1 カラーコレクション部
A2 輝度判別部
A3 画像エンハンス部
A4 レジスタ
A5 I2Cインターフェイス部
A6 エッジ強調・ガンマ補正部
A7 PWM信号発生コントロール部
A8 タイミング発生部
DESCRIPTION OF SYMBOLS 1, 1-2, 1-3, 1-4, 1-5 Image processing apparatus 10 Imaging part (imaging means)
10-2 Image Generation Device 10-3 Camera Module 11 Luminance Conversion Processing Unit 12 Luminance Conversion Coefficient Calculation Unit 13 Luminance Conversion Coefficient Storage Unit 14 Output Unit 14-2 Image Output Device (Liquid Crystal Display)
15, 15-2 Noise filter processing unit 16 Noise filter control unit 17, 17-2 Filter coefficient setting unit 18 Edge enhancement processing unit 19 Luminance detection unit 20, 20-2, 20-3 Image processing IC (semiconductor device)
21 image processing unit 21a color correction unit 211 luminance correction unit 212 color correction unit 213 luminance histogram acquisition unit 214 correction coefficient calculation unit 214a first correction table 214b second correction table 214c reference correction table 214d adjustment coefficient calculation unit 22 color correction control unit 30, 30-2 Control unit (CPU)
40 Illuminance Sensor 100 Luminance Detection Unit 200 Drive Unit 201 First Adder 202 Multiplier 203 Second Adder 204 Duty Determination Unit 300 Liquid Crystal Display A1 Color Correction Unit A2 Brightness Discrimination Unit A3 Image Enhancement Unit A4 Register A5 I2C Interface Unit A6 Edge Emphasis / gamma correction part A7 PWM signal generation control part A8 Timing generation part

Claims (5)

入力画像の補正有効領域を設定する補正有効領域設定部と;
前記入力画像のうち、前記補正有効領域のみを複数のエリアに分割した上で、各エリア毎の輝度変換係数を算出する輝度変換係数算出部と;
各エリアを構成する画素に対して、各エリア毎の輝度変換係数に応じた輝度変換処理を施す輝度変換処理部と;
を有して成ることを特徴とする画像処理回路。
A correction effective area setting unit for setting a correction effective area of the input image;
A luminance conversion coefficient calculation unit that calculates a luminance conversion coefficient for each area after dividing only the correction effective area of the input image into a plurality of areas;
A luminance conversion processing unit that performs luminance conversion processing according to the luminance conversion coefficient for each area on the pixels constituting each area;
An image processing circuit comprising:
前記補正有効領域設定部は、前記補正有効領域を定めるための設定値を格納するレジスタを有して成ることを特徴とする請求項1に記載の画像処理回路。   The image processing circuit according to claim 1, wherein the correction effective area setting unit includes a register that stores a setting value for determining the correction effective area. 前記設定値には、前記補正有効領域のスタート位置を示すレジスタ値と、前記補正有効領域の画素サイズを示すレジスタ値が含まれていることを特徴とする請求項2に記載の画像処理回路。   3. The image processing circuit according to claim 2, wherein the set value includes a register value indicating a start position of the correction effective area and a register value indicating a pixel size of the correction effective area. 請求項1〜請求項3のいずれかに記載の画像処理回路を集積化して成る半導体装置。   A semiconductor device in which the image processing circuit according to claim 1 is integrated. 請求項4に記載の半導体装置と、前記半導体装置に前記入力画像を供給する画像入力源と、を有して成ることを特徴とする画像処理装置。   An image processing apparatus comprising: the semiconductor device according to claim 4; and an image input source that supplies the input image to the semiconductor device.
JP2008039557A 2008-02-21 2008-02-21 Image processing circuit, semiconductor device, and image processor Pending JP2009200762A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008039557A JP2009200762A (en) 2008-02-21 2008-02-21 Image processing circuit, semiconductor device, and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008039557A JP2009200762A (en) 2008-02-21 2008-02-21 Image processing circuit, semiconductor device, and image processor

Publications (1)

Publication Number Publication Date
JP2009200762A true JP2009200762A (en) 2009-09-03

Family

ID=41143801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008039557A Pending JP2009200762A (en) 2008-02-21 2008-02-21 Image processing circuit, semiconductor device, and image processor

Country Status (1)

Country Link
JP (1) JP2009200762A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013198124A (en) * 2012-03-22 2013-09-30 Toshiba Corp Image processing apparatus and image processing method
US9083898B2 (en) 2013-02-28 2015-07-14 Kabushiki Kaisha Toshiba Solid-state imaging device and camera module
JP2015216473A (en) * 2014-05-09 2015-12-03 オリンパス株式会社 Display controller

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09154044A (en) * 1995-09-25 1997-06-10 Matsushita Electric Ind Co Ltd Picture display method and its device
JP2006165828A (en) * 2004-12-06 2006-06-22 Mitsubishi Electric Corp Gradation correcting device
JP2006331172A (en) * 2005-05-27 2006-12-07 Mitsubishi Electric Corp Gradation correction apparatus
JP2007251849A (en) * 2006-03-17 2007-09-27 Ricoh Co Ltd Image processing system
WO2007142134A1 (en) * 2006-06-02 2007-12-13 Rohm Co., Ltd. Image processing circuit, semiconductor device, and image processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09154044A (en) * 1995-09-25 1997-06-10 Matsushita Electric Ind Co Ltd Picture display method and its device
JP2006165828A (en) * 2004-12-06 2006-06-22 Mitsubishi Electric Corp Gradation correcting device
JP2006331172A (en) * 2005-05-27 2006-12-07 Mitsubishi Electric Corp Gradation correction apparatus
JP2007251849A (en) * 2006-03-17 2007-09-27 Ricoh Co Ltd Image processing system
WO2007142134A1 (en) * 2006-06-02 2007-12-13 Rohm Co., Ltd. Image processing circuit, semiconductor device, and image processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013198124A (en) * 2012-03-22 2013-09-30 Toshiba Corp Image processing apparatus and image processing method
US9083898B2 (en) 2013-02-28 2015-07-14 Kabushiki Kaisha Toshiba Solid-state imaging device and camera module
JP2015216473A (en) * 2014-05-09 2015-12-03 オリンパス株式会社 Display controller

Similar Documents

Publication Publication Date Title
US20230276136A1 (en) Photographing method, electronic device, and storage medium
JP6186512B2 (en) Image tone adjustment using local tone curve calculation
JP5006568B2 (en) Register setting control device, register setting control method, program, and digital camera
JP6288816B2 (en) Image processing apparatus, image processing method, and program
US20150023594A1 (en) Transforming Wide Dynamic Range Images to Reduced Dynamic Range Images
JP3057055B2 (en) Computer, overlay processing apparatus, and overlay processing execution method
JP2008217785A (en) Display controller and image data converting method
CN110445986A (en) Image processing method, device, storage medium and electronic equipment
CN110198419A (en) Image processing method, device, storage medium and electronic equipment
JP4930154B2 (en) Imaging apparatus and computer program therefor
WO2020207427A1 (en) Method for image-processingand electronic device
JP2008125049A (en) Image processing ic, image processing apparatus and back light driving device
US8223225B2 (en) Image processing apparatus, method, and recording medium for reducing noise in an image
JP2009200762A (en) Image processing circuit, semiconductor device, and image processor
JP5232410B2 (en) Display device driving circuit, display device, and electronic apparatus
JP2012028997A (en) Image processing device and camera
US20120098988A1 (en) Image processor, electronic device including image processor, and image processing method
JP2012220717A (en) Image processing circuit, semiconductor device, and image processing device
JP2007052184A (en) Signal processing to improve blur of moving image
JP2008148296A (en) Image processing circuit, semiconductor device, and image processing apparatus
JP5462912B2 (en) Backlight drive device, image display device, and image processing device
KR100933171B1 (en) Non-memory semiconductor embodied graphic display function
JP2006243940A (en) Camera data transfer device
JP5518111B2 (en) Digital camera
CN110035233A (en) Image processing method, device, storage medium and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130312