JP2005004767A - Method and system for filtering noise adaptively to luminance change - Google Patents

Method and system for filtering noise adaptively to luminance change Download PDF

Info

Publication number
JP2005004767A
JP2005004767A JP2004172904A JP2004172904A JP2005004767A JP 2005004767 A JP2005004767 A JP 2005004767A JP 2004172904 A JP2004172904 A JP 2004172904A JP 2004172904 A JP2004172904 A JP 2004172904A JP 2005004767 A JP2005004767 A JP 2005004767A
Authority
JP
Japan
Prior art keywords
luminance
noise filtering
pixel data
pixel
adaptive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004172904A
Other languages
Japanese (ja)
Other versions
JP4748702B2 (en
Inventor
Hyung-Guen Lee
李亨根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR10-2003-0037268A external-priority patent/KR100510532B1/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2005004767A publication Critical patent/JP2005004767A/en
Application granted granted Critical
Publication of JP4748702B2 publication Critical patent/JP4748702B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and system for filtering noise adaptively to a luminance change. <P>SOLUTION: The luminance noise filtering system and method is used to determine virtual filtered luminance for a pixel position including a predetermined pixel data region received from an image sensor. For the purpose of eliminating the luminance noise, the pixel data region directly received from the image sensor is used to eliminate a frame memory. Further, in this adaptive noise filtering, the virtual filtered luminance is selected as final luminance for a dark image, and reference luminance is selected without virtual noise filtering for a light image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明はイメージピックアップ装置に係り、特にラインメモリ容量が最小化されるように、イメージセンサーから直接受けたピクセルデータの所定領域を利用してピクセルに対する輝度ノイズをフィルタリングする方法及びシステムに関する。   The present invention relates to an image pickup apparatus, and more particularly, to a method and system for filtering luminance noise for pixels using a predetermined area of pixel data received directly from an image sensor so that line memory capacity is minimized.

図1は、イメージセンサー104を含む従来のカメラシステムのようなイメージピックアップ装置102を説明するための図面である。前記イメージセンサー104は対物レンズ108を通じて投影された物体106のイメージに対するピクセルデータを生成する。例えば、前記イメージセンサー104は携帯電話及びPDAのような移動通信端末機に主に使われているCIS(CMOS Image Sensor)でありうる。   FIG. 1 is a view for explaining an image pickup apparatus 102 such as a conventional camera system including an image sensor 104. The image sensor 104 generates pixel data for an image of the object 106 projected through the objective lens 108. For example, the image sensor 104 may be a CIS (CMOS Image Sensor) mainly used in mobile communication terminals such as mobile phones and PDAs.

信号プロセッサ110は前記イメージセンサー104からピクセルデータを受け、ディスプレイ112に物体106のイメージを表示するか、イメージ認識システム114によってさらに処理されるようにするか、またはイメージがリモートディスプレイ118に表示されるように伝送システム116を通じてイメージを送られるように、データを処理する。図1及び図2を参照すれば、前記イメージセンサー104は前記イメージセンサー104上に置かれるバイヤーフィルタアレイ(Bayer Filter Array)形態のピクセルデータ120を生成する。   The signal processor 110 receives the pixel data from the image sensor 104 and displays the image of the object 106 on the display 112, for further processing by the image recognition system 114, or the image is displayed on the remote display 118. The data is processed so that the image can be sent through the transmission system 116. Referring to FIGS. 1 and 2, the image sensor 104 generates pixel data 120 in the form of a Bayer Filter Array placed on the image sensor 104.

前記イメージセンサー104は各ピクセル位置で該当カラーの感度信号(intensity signal)をバイヤーフィルタアレイ形態に生成する。”R”は赤色カラー成分の感度信号を生成する前記イメージセンサー104でのピクセル位置に該当する。”G”は緑色カラー成分の感度信号を生成する前記イメージセンサー104でのピクセル位置に該当する。”B”は青色カラー成分の感度信号を生成する前記イメージセンサー104でのピクセル位置に該当する。   The image sensor 104 generates an intensity signal of a corresponding color at each pixel position in the form of a Bayer filter array. “R” corresponds to a pixel position in the image sensor 104 that generates a red color component sensitivity signal. “G” corresponds to a pixel position in the image sensor 104 that generates a sensitivity signal of a green color component. “B” corresponds to a pixel position in the image sensor 104 that generates a sensitivity signal of a blue color component.

各ピクセル位置に対する補間されたRGBカラー成分の感度信号を決定するために、補間アルゴリズムが前記信号プロセッサ110で使われる。前記補間アルゴリズムは前記バイヤーフィルタアレイ120形態のピクセルデータを使用する。   An interpolation algorithm is used in the signal processor 110 to determine the sensitivity signal of the interpolated RGB color component for each pixel location. The interpolation algorithm uses pixel data in the form of the Bayer filter array 120.

前記補間アルゴリズムに対しては特許文献1、特許文献2、または特許文献3に開示されたように、この分野の当業者によく知られている。図3に示されたように、前記補間アルゴリズムでは、特定ピクセル位置124で補間されたカラー成分、R’、G’、B’を決定するために、ピクセル位置124周辺のピクセルデータ126の領域が使われる。   The interpolation algorithm is well known to those skilled in the art as disclosed in Patent Document 1, Patent Document 2, or Patent Document 3. As shown in FIG. 3, in the interpolation algorithm, in order to determine the color components R ′, G ′, and B ′ interpolated at a specific pixel position 124, the area of the pixel data 126 around the pixel position 124 is determined. used.

瞬間ノイズは前記イメージピックアップ装置102によって検出され、生成された物体イメージに対する品質に影響を及ぼす。前記イメージセンサー104に一定の光照射が行われるとしても、前記イメージセンサー104からの出力信号に現れる変化が瞬間ノイズである。前記瞬間ノイズは前記イメージセンサー104に具備される光素子での”shot”ノイズと1/fノイズによって生じうる。また、前記瞬間ノイズは前記イメージセンサー104内で使われるトランジスタ及び他の回路素子での”熱”ノイズによって生じるか、前記イメージセンサー104内で使われるアナログ−デジタル変換器の量子化エラーにによって生じうる。   Instantaneous noise is detected by the image pickup device 102 and affects the quality of the generated object image. Even if the image sensor 104 is irradiated with a certain amount of light, a change appearing in the output signal from the image sensor 104 is instantaneous noise. The instantaneous noise may be caused by “shot” noise and 1 / f noise in an optical element included in the image sensor 104. In addition, the instantaneous noise may be caused by “thermal” noise in transistors and other circuit elements used in the image sensor 104, or may be caused by quantization error of an analog-digital converter used in the image sensor 104. sell.

前記瞬間ノイズはイメージの明度によって増加する。しかし、イメージに現れる瞬間ノイズの影響は低い照度でさらに致命的であり、これはSNR(Signal to Noise Ratio:信号対雑音比)が照度減少によって減少するためである。実際に瞬間ノイズは暗い条件下で前記イメージセンサー104のダイナミックレンジの限界として作用する。   The instantaneous noise increases with the brightness of the image. However, the effect of instantaneous noise appearing in the image is more fatal at low illuminance, because the SNR (Signal to Noise Ratio) is reduced by the decrease in illuminance. Actually, instantaneous noise acts as a limit of the dynamic range of the image sensor 104 under dark conditions.

図4は、前記瞬間ノイズ除去を行う従来技術を説明するための図面である。前記ピクセルデータ120は前記イメージセンサー104でバイヤーフィルタアレイ形態に生成される。前記信号プロセッサ110は前記ピクセルデータ120を補間して、従来のフレームメモリ122に記憶される、それぞれ補間されたRGBカラー成分122A、122B、122Cを生成する。   FIG. 4 is a view for explaining a conventional technique for performing the instantaneous noise removal. The pixel data 120 is generated by the image sensor 104 in the form of a buyer filter array. The signal processor 110 interpolates the pixel data 120 to generate interpolated RGB color components 122A, 122B, and 122C, respectively, stored in a conventional frame memory 122.

従来技術では、n*nピクセルアレイに対する前記補間されたRGBカラー成分122A、122B、122Cが生成されて前記フレームメモリ装置122に記憶された後、ノイズ除去部132は瞬間ノイズの悪い影響を除去するために前記補間されたRGBカラー成分を利用する。前記補間されたRGBカラー成分122A、122B、122Cの3*3ピクセルアレイを使用する前記ノイズ除去部132が図4に示されている。しかし、瞬間ノイズを除去するために前記補間されたRGBカラー成分122A、122B、122Cの5*5、7*7、または他のn*nピクセルアレイを使用することもできる。   In the prior art, after the interpolated RGB color components 122A, 122B, and 122C for the n * n pixel array are generated and stored in the frame memory device 122, the noise removing unit 132 removes the bad influence of instantaneous noise. For this purpose, the interpolated RGB color components are used. The noise remover 132 using a 3 * 3 pixel array of the interpolated RGB color components 122A, 122B, 122C is shown in FIG. However, 5 * 5, 7 * 7, or other n * n pixel arrays of the interpolated RGB color components 122A, 122B, 122C may be used to remove instantaneous noise.

前記のような従来のノイズ除去技術では、前記ノイズ除去部132で使われるn*nアレイの前記補間されたRGBカラー成分を記憶するのに十分なフレームメモリ122が要求される。しかし、カメラシステム102が携帯電話またはPDAのような移動通信端末機に内蔵される時、前記のように相対的に大容量のメモリ122は不利である。したがって、カメラシステム102が移動通信端末機に内蔵される時、端末機サイズの縮少、消費電力の縮小、特にコスト減少のために、フレームメモリ122の除去が要求される。
米国特許第5,382,976号公報 米国特許第5,506,619号公報 米国特許第6,091,862号公報
The conventional noise removal technique as described above requires a frame memory 122 sufficient to store the interpolated RGB color components of the n * n array used in the noise removal unit 132. However, when the camera system 102 is built in a mobile communication terminal such as a mobile phone or a PDA, the relatively large memory 122 is disadvantageous as described above. Accordingly, when the camera system 102 is built in a mobile communication terminal, it is required to remove the frame memory 122 in order to reduce the size of the terminal, reduce power consumption, and particularly reduce cost.
US Pat. No. 5,382,976 US Pat. No. 5,506,619 US Pat. No. 6,091,862

本発明が解決しようとする技術的課題は、フレームメモリが除去されるように、イメージセンサーから直接受けたピクセルデータの相対的に小さな領域を利用してピクセルに対する輝度ノイズをフィルタリングする方法及びシステムを提供するところにある。   The technical problem to be solved by the present invention is to provide a method and system for filtering luminance noise for a pixel using a relatively small area of pixel data received directly from an image sensor so that the frame memory is eliminated. There is to offer.

前記の技術的課題を達成するための本発明の一面による、輝度ノイズフィルタリングのための方法またはシステムでは、イメージセンサーから受けたピクセルデータの所定領域が使われて、前記所定領域内のあるピクセルに対する仮想的にフィルタリングされた輝度を決定する。仮想的にフィルタリングされた輝度は前記領域の各ピクセルに対する重み付け係数を各ピクセルデータに乗算した値を平均することによって計算される。   According to one aspect of the present invention for achieving the above technical problem, in a method or system for luminance noise filtering, a predetermined region of pixel data received from an image sensor is used, and a certain pixel in the predetermined region is used. Determine virtually filtered luminance. The virtually filtered luminance is calculated by averaging each pixel data multiplied by a weighting factor for each pixel in the region.

前記の技術的課題を達成するための本発明の他の一面では、各ピクセルに対するカラー成分が前記領域のピクセルデータから決定される。   In another aspect of the invention for achieving the above technical problem, the color component for each pixel is determined from the pixel data of the region.

前記の技術的課題を達成するための本発明のさらに他の一面では、前記カラー成分から各ピクセルに対する基準輝度が決定される。各ピクセルの最終輝度はイメージ明るさを表す輝度によって仮想的にフィルタリングされた輝度及び基準輝度間で選択される。本発明は暗いイメージに対する最終輝度として前記仮想的にフィルタリングされた輝度を選択する適応ノイズフィルタリングを提供する。   In still another aspect of the present invention for achieving the above technical problem, a reference luminance for each pixel is determined from the color components. The final brightness of each pixel is selected between the brightness that is virtually filtered by the brightness representing the image brightness and the reference brightness. The present invention provides adaptive noise filtering that selects the virtually filtered luminance as the final luminance for a dark image.

このように、イメージセンサーから受けた所定領域のピクセルデータを使用して決定された仮想輝度を利用して各ピクセルに対するノイズフィルタリングが行われる。したがって、補間されたピクセルデータを記憶するフレームメモリが除去される。フレームメモリの除去は特に移動通信端末機に内蔵されるカメラシステムのサイズ縮少、消費電力の縮小、コスト減少に有利である。   In this manner, noise filtering is performed on each pixel using the virtual luminance determined using the pixel data of the predetermined area received from the image sensor. Accordingly, the frame memory for storing the interpolated pixel data is removed. The removal of the frame memory is particularly advantageous for reducing the size, power consumption, and cost of the camera system built in the mobile communication terminal.

本発明によるノイズ除去フィルタは、ラインメモリの追加なしに輝度の変化に対応してノイズを効果的に除去できる。したがって、このようなノイズ除去フィルタによるディスプレイの場合、DSCや携帯電話などの低コスト及び小型化の実現に適しており、ノイズがないように表示画面の画質を向上させうる。   The noise removal filter according to the present invention can effectively remove noise corresponding to a change in luminance without adding a line memory. Therefore, a display using such a noise removal filter is suitable for realizing low cost and downsizing of a DSC or a mobile phone, and can improve the image quality of the display screen so that there is no noise.

本発明と本発明の動作上の利点及び本発明の実施によって達成される目的を十分に理解するためには本発明の望ましい実施形態を例示する図面及び図面に記載された内容を参照せねばならない。   For a full understanding of the invention, its operational advantages, and the objectives achieved by the practice of the invention, reference should be made to the drawings illustrating the preferred embodiments of the invention and the contents described in the drawings. .

以下、図面を参照して本発明の望ましい実施形態をより詳細に説明する。各図面に提示された同じ参照符号は同じ部材を示す。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The same reference numerals provided in each drawing denote the same members.

図5及び図6を参照すれば、本発明の一面によるシステム200はイメージセンサー104から直接受けるピクセルデータの所定領域を利用してノイズフィルタリングを行う。その他にも、ノイズフィルタリングは前記領域内のあるピクセル位置に対する前記のような所定ピクセルデータ領域を使用して輝度を決定する間に使われる。図7は、図6のシステムの動作説明のためのフローチャートである。   Referring to FIGS. 5 and 6, the system 200 according to an aspect of the present invention performs noise filtering using a predetermined area of pixel data received directly from the image sensor 104. In addition, noise filtering is used while determining the luminance using the predetermined pixel data region as described above for a certain pixel position in the region. FIG. 7 is a flowchart for explaining the operation of the system of FIG.

前記システム200は前記イメージセンサー104から受けるピクセルデータを処理するために、通常は、信号プロセッサ110内で実現される。図6ないし図8を参照すれば、RGBマトリックス202はラインメモリ装置204を含む。前記メモリ装置204は前記イメージセンサー104からバイヤーカラーフィルタアレイ形態に生成される所定ピクセルデータ領域206を入力して記憶する(図7の302段階)。   The system 200 is typically implemented within the signal processor 110 to process pixel data received from the image sensor 104. 6 to 8, the RGB matrix 202 includes a line memory device 204. The memory device 204 receives and stores a predetermined pixel data area 206 generated in the form of a buyer color filter array from the image sensor 104 (step 302 in FIG. 7).

前記ラインメモリ装置204はデータ記憶装置の如何なる形態でも実現されうる。例えば、前記イメージセンサー104が一列(row by row)ずつ順にピクセルデータを出力する時、前記ラインメモリ装置204は4*Hピクセル位置に対するピクセルデータを記憶する。ここで、Hは前記イメージセンサー104でのピクセルカラム数(例えば、684カラム)である。   The line memory device 204 may be realized in any form of data storage device. For example, when the image sensor 104 sequentially outputs pixel data row by row, the line memory device 204 stores pixel data for 4 * H pixel positions. Here, H is the number of pixel columns in the image sensor 104 (for example, 684 columns).

前記RGBマトリックス202はまた、前記領域206内のあるピクセル位置210の補間されたカラー成分R’、B’、G’を決定する補間プロセッサ208を含む(図7の304段階)。図8を参照すれば、前記補間プロセッサ208は前記補間されたカラー成分R’、B’、G’を生成するために、前記ピクセルデータ領域206を補間する。前記補間されたカラー成分R’、B’、G’を生成するためのこのような補間アルゴリズムはこの分野の当業者によく知られている。   The RGB matrix 202 also includes an interpolation processor 208 that determines interpolated color components R ', B', G 'at a pixel location 210 in the region 206 (step 304 of FIG. 7). Referring to FIG. 8, the interpolation processor 208 interpolates the pixel data region 206 to generate the interpolated color components R ', B', G '. Such interpolation algorithms for generating the interpolated color components R ', B', G 'are well known to those skilled in the art.

その他にも、前記RGBマトリックス202は前記補間されたカラー成分R’、B’、G’から数式1のように基準輝度Y1Hを決定する(図7の304段階)。   In addition, the RGB matrix 202 determines a reference luminance Y1H from the interpolated color components R ′, B ′, and G ′ as shown in Equation 1 (step 304 in FIG. 7).

Y1H=(19R’+38G’+7B’)/64 (1)   Y1H = (19R '+ 38G' + 7B ') / 64 (1)

このような基準輝度Y1Hは、この分野の当業者によく知られているのように、輝度を計算する一般的な標準によって計算される。   Such reference luminance Y1H is calculated by a common standard for calculating luminance, as is well known to those skilled in the art.

また、前記RGBマトリックス202は仮想輝度アレイY0V、Y1V、Y2Vを決定する仮想輝度プロセッサ212を含む(図7の304段階)。図9Aを参照すれば、第1仮想輝度アレイ Y0V=[A、B、C]を構成するA、B、及びCそれぞれは前記ピクセルデータ領域206内のA、B、及びCで表示されたボックス中の4ピクセルの感度値の平均である。   The RGB matrix 202 includes a virtual luminance processor 212 that determines the virtual luminance arrays Y0V, Y1V, and Y2V (step 304 in FIG. 7). Referring to FIG. 9A, A, B, and C constituting the first virtual luminance array Y0V = [A, B, C] are boxes indicated by A, B, and C in the pixel data area 206, respectively. It is the average of the sensitivity values of the four pixels.

同様に、図9Bを参照すれば、第2仮想輝度アレイY1V=[D、E、F]を構成するD、E、及びFそれぞれは前記ピクセルデータ領域206内のD、E、及びFで表示されたボックス中の4ピクセルの感度値の平均である。また、図9Cを参照すれば、第3仮想輝度アレイ Y2V=[G、H、I]を構成するG、H、及びIそれぞれは前記ピクセルデータ領域206内のG、H、及びIで表示されたボックス中の4ピクセルの感度値の平均である。このような仮想輝度アレイY0V、Y1V、Y2Vは、前記ピクセル位置210に対する前記補間されたカラー成分R’、B’、G’を決定するピクセルデータ領域206を使用して、前記ピクセル位置210に対して決定される。   Similarly, referring to FIG. 9B, D, E, and F constituting the second virtual luminance array Y1V = [D, E, F] are respectively represented by D, E, and F in the pixel data area 206. Is the average of the sensitivity values of 4 pixels in the box. Referring to FIG. 9C, G, H, and I constituting the third virtual luminance array Y2V = [G, H, I] are displayed as G, H, and I in the pixel data area 206, respectively. The average of the sensitivity values of 4 pixels in the box. Such a virtual luminance array Y0V, Y1V, Y2V is used for the pixel location 210 using the pixel data region 206 that determines the interpolated color components R ′, B ′, G ′ for the pixel location 210. Determined.

図6で、前記RGBマトリックス202は、前記基準輝度Y1Hと前記仮想輝度アレイY0V、Y1V、Y2Vとをノイズフィルタ214に伝送する。その他にも、前記RGBマトリックス202は前記補間されたカラー成分R’、B’、G’をY/C(輝度/色差)プロセッサ216内の色差信号プロセッサ215に伝送する。また、前記RGBマトリックス202は、前記基準輝度Y1Hと前記補間されたカラー成分R’、B’、G’とをデータプロセッサ218に伝送する。   In FIG. 6, the RGB matrix 202 transmits the reference luminance Y1H and the virtual luminance arrays Y0V, Y1V, Y2V to the noise filter 214. In addition, the RGB matrix 202 transmits the interpolated color components R ′, B ′, and G ′ to a color difference signal processor 215 in a Y / C (luminance / color difference) processor 216. Also, the RGB matrix 202 transmits the reference luminance Y1H and the interpolated color components R ′, B ′, and G ′ to the data processor 218.

図10は、前記仮想輝度アレイY0V、Y1V、Y2Vから仮想フィルタリングされた輝度GOUTを決定する(図7の306段階)前記ノイズフィルタ214を表すブロック図である。前記ノイズフィルタ214は乗算及び加算部230内に乗算器222、224、226及び加算器228を含む。   FIG. 10 is a block diagram showing the noise filter 214 for determining the virtually filtered luminance GOUT from the virtual luminance arrays Y0V, Y1V, Y2V (step 306 in FIG. 7). The noise filter 214 includes multipliers 222, 224 and 226 and an adder 228 in the multiplication and addition unit 230.

前記第1乗算器222は数式2のように、前記第1輝度アレイY0Vと第1重み付け(weighted)係数アレイGAD0[39 63 39]とを乗算する。   The first multiplier 222 multiplies the first luminance array Y0V and the first weighted coefficient array GAD0 [39 63 39] as shown in Equation 2.

39*A+63*B+39*C (2)   39 * A + 63 * B + 39 * C (2)

同じく、前記第2乗算器224は数式3のように、前記第2輝度アレイY1Hと第2重み付け係数アレイGAD1[63 104 63]とを乗算する。   Similarly, the second multiplier 224 multiplies the second luminance array Y1H and the second weighting coefficient array GAD1 [63 104 63] as shown in Equation 3.

63*D+104*E+63*F (3)   63 * D + 104 * E + 63 * F (3)

また、前記第3乗算器226は数式4のように、前記第3輝度アレイY2Vと第3重み付け係数アレイGAD2[39 63 39]とを乗算する。   Also, the third multiplier 226 multiplies the third luminance array Y2V and the third weighting coefficient array GAD2 [39 63 39] as shown in Equation 4.

39*G+63*H+39*I (4)   39 * G + 63 * H + 39 * I (4)

前記加算器228は前記乗算器222、224、226で計算された結果値を全て加算する。明るさ制御部234内のシフター232は前記加算器228の計算結果を前記重み付け係数GAD0、GAD1及びGAD2のすべての加算値、すなわち、512で割る。前記明るさ制御部234内の第4乗算器236は、前記仮想フィルタリングされた輝度GOUTを生成するために、前記シフター232の計算結果と輝度補償係数αとを乗算する。   The adder 228 adds all the result values calculated by the multipliers 222, 224 and 226. The shifter 232 in the brightness control unit 234 divides the calculation result of the adder 228 by all the added values of the weighting coefficients GAD0, GAD1, and GAD2, that is, 512. The fourth multiplier 236 in the brightness control unit 234 multiplies the calculation result of the shifter 232 and the luminance compensation coefficient α to generate the virtual filtered luminance GOUT.

本発明で、前記輝度補償係数αと前記重み付け係数アレイGAD0、GAD1、GAD2とはガウス分布方程式の利用で最適のイメージ品質が出るように決定され、図6のデータレジスタ220に記憶される。このように、前記仮想フィルタリングされた輝度GOUTは前記領域206の各ピクセル位置に対する各重み付け係数を乗算したピクセルデータを平均して決定される。   In the present invention, the luminance compensation coefficient α and the weighting coefficient arrays GAD0, GAD1, and GAD2 are determined so as to obtain an optimal image quality by using a Gaussian distribution equation and stored in the data register 220 of FIG. Thus, the virtually filtered luminance GOUT is determined by averaging pixel data multiplied by each weighting factor for each pixel location in the region 206.

その他にも、図6を参照すれば、前記データプロセッサ218は閾値THVを決定する(図7の306段階)。図11を参照すれば、前記データプロセッサ218は図11のグラフ223に示されたように、適応輝度AYによって異なる閾値THVを決定する。前記適応輝度AYは、本発明の実施形態では、従前のイメージの全体明るさを表す。   In addition, referring to FIG. 6, the data processor 218 determines a threshold value THV (step 306 in FIG. 7). Referring to FIG. 11, the data processor 218 determines a threshold value THV that varies depending on the adaptive luminance AY, as shown in the graph 223 of FIG. In the embodiment of the present invention, the adaptive luminance AY represents the overall brightness of the previous image.

例えば、図12で、前記閾値THVは前記カメラシステム102で使われた自動輝度ゲインによって変わる他のグラフ225によって決定されうる。この分野の当業者によく知られているように、前記自動輝度ゲインは前記カメラシステム102内の前記イメージセンサー102によって検出されるイメージの明るさを表す。高い自動輝度ゲインは図12のグラフ225によって高い閾値THVのための暗いイメージを表す。この時、前記自動輝度ゲインは前記適応輝度AYを表す。   For example, in FIG. 12, the threshold value THV may be determined according to another graph 225 that varies depending on the automatic luminance gain used in the camera system 102. As is well known to those skilled in the art, the automatic luminance gain represents the brightness of an image detected by the image sensor 102 in the camera system 102. A high auto luminance gain represents a dark image for the high threshold THV by the graph 225 of FIG. At this time, the automatic luminance gain represents the adaptive luminance AY.

本発明の他の一面で、前記基準輝度Y1Hは図11で前記適応輝度AYを表すものと使われる。この時、前記閾値THVは各ピクセル位置に対する明るさレベルによって決定される。言い換えれば、前記適応輝度AYは所定ピクセルデータ領域に対する各基準輝度Y1Hの平均である。   In another aspect of the present invention, the reference luminance Y1H is used to represent the adaptive luminance AY in FIG. At this time, the threshold value THV is determined according to the brightness level for each pixel position. In other words, the adaptive luminance AY is an average of the reference luminances Y1H for a predetermined pixel data area.

図10で、比較部238は減算器24及び絶対値生成器242を含む。前記比較部238は前記仮想フィルタリングされた輝度GOUTと基準輝度Y1H間の差の絶対値DELTAを決定する(図7の308段階)。前記比較部238内の比較器224は前記絶対値DELTAと前記閾値THVとを比較する(図7の310段階)。   In FIG. 10, the comparison unit 238 includes a subtractor 24 and an absolute value generator 242. The comparison unit 238 determines an absolute value DELTA of the difference between the virtually filtered luminance GOUT and the reference luminance Y1H (step 308 in FIG. 7). The comparator 224 in the comparator 238 compares the absolute value DELTA with the threshold value THV (step 310 in FIG. 7).

図10で、MUX(multiplexer)246は、前記基準輝度Y1H及び前記仮想フィルタリングされた輝度GOUTが入力される。前記絶対値DELTAが前記閾値THVより小さいか同じ場合に、該当ピクセル位置210に対する最終輝度として前記仮想フィルタリングされた輝度GOUTを選択して出力するように、前記比較器224は前記MUX246をコントロールする(図7の312段階)。言い換えれば、前記絶対値DELTAが前記閾値THVより大きい場合には、該当ピクセル位置に対する最終輝度として前記基準輝度Y1Hを選択して出力するように、前記比較器224は前記MUX246をコントロールする(図7の314段階)。   In FIG. 10, a MUX (multiplexer) 246 receives the reference luminance Y1H and the virtual filtered luminance GOUT. When the absolute value DELTA is less than or equal to the threshold value THV, the comparator 224 controls the MUX 246 so as to select and output the virtually filtered luminance GOUT as the final luminance for the corresponding pixel position 210 ( Step 312 in FIG. In other words, when the absolute value DELTA is larger than the threshold value THV, the comparator 224 controls the MUX 246 to select and output the reference luminance Y1H as the final luminance for the corresponding pixel position (FIG. 7). 314 stage).

もし前記ピクセル位置210がイメージの最後のピクセル位置であれば(図7の316段階)、図7のフローチャートの動作は終了される。そうでなければ、段階302、304、306、308、310、312、314、及び316の動作は前記イメージセンサー104からの他のピクセルデータ領域に対して繰り返される。このような繰り返される段階は、前記イメージの各ピクセルデータ領域で各ピクセル位置に対する、輝度と補間されたカラー成分とを決定するために繰り返される。   If the pixel position 210 is the last pixel position of the image (step 316 of FIG. 7), the operation of the flowchart of FIG. 7 is terminated. Otherwise, the operations of steps 302, 304, 306, 308, 310, 312, 314, and 316 are repeated for other pixel data regions from the image sensor 104. Such repeated steps are repeated to determine the luminance and interpolated color components for each pixel location in each pixel data region of the image.

一般的に、この分野の当業者によく知られているように、小さな処理イメージのデータアレイを提供するために、それよりは大きいピクセルデータアレイが前記イメージセンサー104から生成される。前記イメージセンサー104の外側周辺方向に位置したピクセルデータは前記処理されたイメージの中心方向に位置した隣接ピクセルのイメージ信号処理のために使われる。しかし、この分野の当業者によく知られているように、あるピクセル位置周囲の余分のピクセルデータ領域は不要であるので、そのような外側周辺方向に位置したピクセルデータは前記処理されたイメージから除去される。図7の段階304、306、308、310、312、314、及び316の動作は前記処理されたイメージに対する各ピクセル位置に対して繰り返される。   In general, a larger pixel data array is generated from the image sensor 104 to provide a data array of small processed images, as is well known to those skilled in the art. Pixel data located in the outer peripheral direction of the image sensor 104 is used for image signal processing of adjacent pixels located in the center direction of the processed image. However, as is well known to those skilled in the art, extra pixel data regions around a pixel location are not required, so that pixel data located in such an outer peripheral direction is derived from the processed image. Removed. The operations of steps 304, 306, 308, 310, 312, 314, and 316 of FIG. 7 are repeated for each pixel location for the processed image.

このように、ノイズフィルタリングは、前記ピクセル位置210に対する最終輝度Y1H/GOUTを決定する間に、イメージセンサー104からのピクセルデータ領域206を使用してあるピクセル位置に対して行われる。前記ピクセルデータ領域206はまた、前記ピクセル位置210の補間されたカラー成分R’、G’、B’を決定するために使われる。ノイズフィルタリングはイメージセンサー104からのピクセルデータ領域206を使用して行われるので、補間されたピクセルデータを記憶するフレームメモリは本発明によって除去されうる。   Thus, noise filtering is performed on a pixel location using the pixel data region 206 from the image sensor 104 while determining the final luminance Y1H / GOUT for the pixel location 210. The pixel data area 206 is also used to determine the interpolated color components R ′, G ′, B ′ of the pixel location 210. Since noise filtering is performed using the pixel data region 206 from the image sensor 104, the frame memory storing the interpolated pixel data can be eliminated by the present invention.

したがって、前記輝度ノイズフィルタが前記ピクセル位置210の最終輝度Y1H/GOUTと補間されたカラー成分R’、G’、及びB’とを決定するために、前記イメージセンサーからのイメージデータを使用するので、前記イメージピックアップ装置に含まれたメモリ装置の容量は、最小化されうる。前記カメラシステムが移動通信端末機に内蔵される時、前記のように小さくなったメモリ容量は端末機サイズの縮少、消費電力の縮小、特にコスト減少に有利である。   Therefore, the luminance noise filter uses the image data from the image sensor to determine the final luminance Y1H / GOUT at the pixel location 210 and the interpolated color components R ′, G ′, and B ′. The capacity of the memory device included in the image pickup device can be minimized. When the camera system is built in the mobile communication terminal, the reduced memory capacity as described above is advantageous for reducing the size of the terminal, reducing the power consumption, and particularly reducing the cost.

その他にも、本発明はイメージ明るさによって閾値THVを可変させて適応ノイズフィルタリングを提供する。より明るいイメージに対しては、仮想フィルタリングされた輝度GOUTの代りに前記基準輝度Y1Hが最終輝度として選択される。ノイズフィルタリングはイメージに歪曲を起こし、これにより瞬間ノイズの効果がさらに明るいイメージに対しては小さく現れる。したがって、仮想ノイズフィルタリングによって歪曲のない基準輝度Y1Hがさらに明るいイメージに対して最終輝度として選択される。逆に、瞬間ノイズの否定的効果はさらに暗いイメージに対してさらに大きく現れる。したがって、さらに暗いイメージに対してはノイズフィルタリングを経た前記仮想フィルタリングされた輝度GOUTが最終輝度として選択される。   In addition, the present invention provides adaptive noise filtering by varying the threshold THV according to image brightness. For a brighter image, the reference brightness Y1H is selected as the final brightness instead of the virtually filtered brightness GOUT. Noise filtering distorts the image so that the effect of instantaneous noise appears smaller for brighter images. Accordingly, the reference luminance Y1H without distortion is selected as the final luminance for a brighter image by the virtual noise filtering. Conversely, the negative effects of instantaneous noise are even greater for darker images. Therefore, for a darker image, the virtual filtered luminance GOUT after noise filtering is selected as the final luminance.

図6で、Y/Cプロセッサ216内の輝度信号プロセッサ217はY/C(輝度/色差)フォーマッタ219に出力する輝度信号Yを生成するために、最終輝度Y1H/GOUTに対する輪郭補償処理を行う。前記Y/Cプロセッサ216内の色差信号プロセッサ215は補間されたカラー成分R’、G’、B’と前記データプロセッサ218からの自動ホワイトバランスデータ(AWBD:Auto White Balance Data)とを受信して、前記Y/Cフォーマッタ219に出力する色差信号R”−Y、B”−Yを生成する。ここで、R”は前記補間されたカラー成分R’が自動ホワイトバランスデータによって調節された感度を表し、B”は前記補間されたカラー成分B’が自動ホワイトバランスデータによって調節された感度を表す。   In FIG. 6, a luminance signal processor 217 in the Y / C processor 216 performs contour compensation processing on the final luminance Y1H / GOUT in order to generate a luminance signal Y to be output to a Y / C (luminance / color difference) formatter 219. The color difference signal processor 215 in the Y / C processor 216 receives the interpolated color components R ′, G ′, B ′ and automatic white balance data (AWBD: Auto White Balance Data) from the data processor 218. The color difference signals R ″ -Y and B ″ -Y to be output to the Y / C formatter 219 are generated. Here, R ″ represents the sensitivity of the interpolated color component R ′ adjusted by automatic white balance data, and B ″ represents the sensitivity of the interpolated color component B ′ adjusted by automatic white balance data. .

前記Y/Cフォーマッタ219は前記ディスプレイ112、前記イメージ認識システム116、または前記伝送システム116で要求される標準データ形式によって、輝度及び色差データY、Cb、Cr及びカラーデータR”’、G”’、及びB”’を生成する。前記Y/Cプロセッサ216及び前記Y/Cフォーマッタ219が出力する前記のような成分は、この分野の当業者によく知られている。前記データプロセッサ218は、また、よく知られているように、Y1H、R’、及びB’から自動輝度ゲインデータAEDを決定して、前記イメージピックアップ装置に出力する。   The Y / C formatter 219 has luminance and color difference data Y, Cb, Cr and color data R ″ ′, G ″ ′ according to a standard data format required by the display 112, the image recognition system 116, or the transmission system 116. And B ″ ′. The components output by the Y / C processor 216 and the Y / C formatter 219 are well known to those skilled in the art. Further, as is well known, automatic luminance gain data AED is determined from Y1H, R ′, and B ′, and is output to the image pickup device.

以上、図面と明細書で最適の実施形態が開示された。ここで特定な用語が使われたが、これはただ本発明を説明するための目的で使われたものであり、意味限定や特許請求の範囲に記載された本発明の範囲を制限するために使われたものではない。したがって、本技術分野の当業者であれば、これより多様な変形及び均等な他の実施形態が可能である点が理解できるであろう。例えば、本発明は移動通信端末機の一部でありうるカメラシステム102について記載された。しかし、本発明はイメージ信号処理を行う如何なる形態のイメージ化装置に対しても使われうる。その他にも、本発明の一実施形態による前記構成要素はハードウェア、ソフトウェア、または個別素子か集積回路装置などの多様な組合せによって実現されることもできる。また、ここで記載されたある数、すなわち、ピクセル個数などはただ例を挙げて表したものであって、特定数に限定されるものではない。したがって、本発明の技術的範囲は特許請求の範囲に記載に基づいて定められねばならない。   As mentioned above, the optimal embodiment was disclosed by drawing and the specification. Certain terminology has been used herein for the purpose of describing the invention only and is intended to limit the scope of the invention as defined in the meaning and claims. It was not used. Accordingly, those skilled in the art will appreciate that various modifications and equivalent other embodiments are possible. For example, the present invention has been described for a camera system 102 that can be part of a mobile communication terminal. However, the present invention can be used for any form of imaging device that performs image signal processing. In addition, the components according to an embodiment of the present invention may be realized by various combinations of hardware, software, or individual devices or integrated circuit devices. In addition, a certain number described here, that is, the number of pixels or the like is merely an example and is not limited to a specific number. Therefore, the technical scope of the present invention should be determined based on the description in the claims.

本発明によるノイズフィルタリング方法及びシステムは、携帯電話またはPDAのような移動通信端末機のカメラシステムに利用されうる。   The noise filtering method and system according to the present invention can be used in a camera system of a mobile communication terminal such as a mobile phone or a PDA.

従来のカメラシステムのようなイメージピックアップ装置を説明するための図面である。1 is a diagram for explaining an image pickup apparatus such as a conventional camera system. バイヤーカラーフィルタアレイ形態に生成されたピクセルデータをカラー成分で補間する従来技術を説明するための図面である。5 is a diagram for explaining a conventional technique for interpolating pixel data generated in a buyer color filter array form with color components; バイヤーカラーフィルタアレイ形態に生成されたピクセルデータの所定領域内のピクセルのカラー成分を決定する従来技術を説明するための図面である。6 is a diagram for explaining a conventional technique for determining a color component of a pixel in a predetermined area of pixel data generated in the form of a buyer color filter array. n*nアレイのカラー成分が決定された後でノイズ除去を行う従来技術を説明するための図面である。6 is a diagram for explaining a conventional technique for performing noise removal after color components of an n * n array are determined. あるピクセルでの輝度とカラー成分とを決定するために、ピクセルデータの所定領域を使用してノイズフィルタリングを行う本発明の一実施形態を表す図面である。6 is a diagram illustrating an embodiment of the present invention in which noise filtering is performed using a predetermined area of pixel data in order to determine luminance and color components at a pixel. フレームメモリが除去されるように、図5のようにノイズフィルタリングを行う本発明の一実施形態によるシステムのブロック図である。FIG. 6 is a block diagram of a system according to an embodiment of the present invention that performs noise filtering as in FIG. 5 such that the frame memory is removed. 図6のシステムの動作説明のためのフローチャートである。It is a flowchart for operation | movement description of the system of FIG. 図7でバイヤーカラーフィルタアレイ形態に生成されたピクセルデータの所定領域内のピクセルのカラー成分を決定する本発明の一実施形態を説明するための図面である。8 is a diagram for explaining an embodiment of the present invention for determining color components of pixels in a predetermined region of pixel data generated in the form of a buyer color filter array in FIG. 7. 多数の仮想輝度アレイを決定するための図8のピクセルデータの領域を表す図面である。FIG. 9 is a diagram representing a region of pixel data of FIG. 8 for determining a number of virtual luminance arrays. 多数の仮想輝度アレイを決定するための図8のピクセルデータの領域を表す図面である。FIG. 9 is a diagram representing a region of pixel data of FIG. 8 for determining a number of virtual luminance arrays. 多数の仮想輝度アレイを決定するための図8のピクセルデータの領域を表す図面である。FIG. 9 is a diagram representing a region of pixel data of FIG. 8 for determining a number of virtual luminance arrays. 図6のシステムのノイズフィルタを表すブロック図である。It is a block diagram showing the noise filter of the system of FIG. 輝度によって閾値を決定するための図6のシステムのデータプロセッサで使われたグラフの一例を表す図面である。FIG. 7 is a diagram illustrating an example of a graph used in a data processor of the system of FIG. 6 for determining a threshold value by luminance. カメラシステムの自動輝度ゲインによって閾値を決定するための図6のシステムのデータプロセッサで使われたグラフの他の例を表す図面である。7 is a diagram illustrating another example of a graph used in the data processor of the system of FIG. 6 for determining a threshold value according to an automatic luminance gain of a camera system.

符号の説明Explanation of symbols

200 システム
202 RGBマトリックス
204 ラインメモリ装置
208 補間プロセッサ
212 仮想輝度プロセッサ
214 ノイズフィルタ
215 色差信号プロセッサ
216 Y/C(輝度/色差)プロセッサ
217 輝度信号プロセッサ
218 データプロセッサ
219 Y/C(輝度/色差)フォーマッタ
220 データレジスタ
Y1H 基準輝度
Y0V、Y1V、Y2V 仮想輝度アレイ
GAD0 第1重み付け係数アレイ
GAD1 第2重み付け係数アレイ
GAD2 第3重み付け係数アレイ
Y1H/GOUT 最終輝度
THV 閾値
AED 自動輝度ゲインデータ
AWBD 自動ホワイトバランスデータ
Y、Cb、Cr 輝度及び色差
R’、B’、G’ カラー成分
200 System 202 RGB Matrix 204 Line Memory Device 208 Interpolation Processor 212 Virtual Luminance Processor 214 Noise Filter 215 Color Difference Signal Processor 216 Y / C (Luminance / Color Difference) Processor 217 Luminance Signal Processor 218 Data Processor 219 Y / C (Luminance / Color Difference) Formatter 220 Data register Y1H Reference luminance Y0V, Y1V, Y2V Virtual luminance array GAD0 First weighting coefficient array GAD1 Second weighting coefficient array GAD2 Third weighting coefficient array Y1H / GOUT Final luminance THV Threshold AED Automatic luminance gain data AWBD Automatic white balance data Y , Cb, Cr Luminance and color difference R ′, B ′, G ′ Color components

Claims (27)

イージセンサーからのピクセルデータの所定領域を入力する段階と、
前記所定領域内のあるピクセル位置に対するピクセルデータ領域から仮想フィルタリングされた輝度を決定する段階と、
を具備することを特徴とする輝度ノイズフィルタリング方法。
Inputting a predetermined area of pixel data from the easy sensor;
Determining a virtually filtered luminance from a pixel data region for a pixel location within the predetermined region;
A luminance noise filtering method comprising:
前記輝度ノイズフィルタリング方法は、前記ピクセルデータ領域から前記ピクセル位置に対する補間されたカラー成分を決定する段階をさらに具備する
ことを特徴とする請求項1に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 1, further comprising determining an interpolated color component for the pixel position from the pixel data region.
前記輝度ノイズフィルタリング方法は、前記補間されたカラー成分から前記ピクセル位置に対する基準輝度を決定する段階をさらに具備する
ことを特徴とする請求項2に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 2, wherein the luminance noise filtering method further comprises determining a reference luminance for the pixel position from the interpolated color component.
前記輝度ノイズフィルタリング方法は、適応輝度によって変わる前記ピクセル位置の最終輝度を前記仮想フィルタリングされた輝度と前記基準輝度間で選択する段階をさらに具備する
ことを特徴とする請求項3に記載の輝度ノイズフィルタリング方法。
The luminance noise according to claim 3, further comprising: selecting a final luminance of the pixel position that varies according to adaptive luminance between the virtual filtered luminance and the reference luminance. Filtering method.
前記輝度ノイズフィルタリング方法は、
前記適応輝度から閾値を決定する段階と、
前記仮想フィルタリングされた輝度と前記基準輝度間の差の絶対値が前記閾値より小さいか同じであれば、前記仮想フィルタリングされた輝度を選択する段階と、
前記仮想フィルタリングされた輝度と前記基準輝度間の差の絶対値が前記閾値より大きければ、前記基準輝度を選択する段階と、
をさらに具備することを特徴とする請求項4に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method includes:
Determining a threshold from the adaptive brightness;
If the absolute value of the difference between the virtual filtered luminance and the reference luminance is less than or equal to the threshold, selecting the virtual filtered luminance;
Selecting the reference brightness if the absolute value of the difference between the virtual filtered brightness and the reference brightness is greater than the threshold;
The luminance noise filtering method according to claim 4, further comprising:
前記適応輝度は、従前のイメージの全体明るさから決定される
ことを特徴とする請求項5に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 5, wherein the adaptive luminance is determined from the overall brightness of a previous image.
前記適応輝度は、所定ピクセルデータ領域に対する平均基準輝度から決定される
ことを特徴とする請求項5に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 5, wherein the adaptive luminance is determined from an average reference luminance for a predetermined pixel data area.
前記閾値は、前記適応輝度が小さい時にさらに大きい
ことを特徴とする請求項5に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 5, wherein the threshold value is larger when the adaptive luminance is small.
前記適応輝度は、前記イメージセンサーに対する自動輝度ゲインである
ことを特徴とする請求項4に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 4, wherein the adaptive luminance is an automatic luminance gain for the image sensor.
前記適応輝度は、前記基準輝度である
ことを特徴とする請求項4に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 4, wherein the adaptive luminance is the reference luminance.
前記仮想フィルタリングされた輝度は、前記領域の各ピクセル位置に対する重み付け係数と乗算したピクセルデータを平均して決定される
ことを特徴とする請求項1に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 1, wherein the virtual filtered luminance is determined by averaging pixel data multiplied by a weighting coefficient for each pixel position of the region.
前記イメージセンサーは、最小化されたラインメモリ容量を有する移動通信用イメージピックアップ装置に内蔵される
ことを特徴とする請求項1に記載の輝度ノイズフィルタリング方法。
The luminance noise filtering method according to claim 1, wherein the image sensor is built in an image pickup apparatus for mobile communication having a minimized line memory capacity.
イメージセンサーからのピクセルデータの所定領域を記憶するメモリと、
前記所定領域内のあるピクセル位置に対するピクセルデータ領域から仮想フィルタリングされた輝度を決定するノイズフィルタと、
を具備することを特徴とする輝度ノイズフィルタリングシステム。
A memory for storing a predetermined area of pixel data from the image sensor;
A noise filter that determines a virtual filtered luminance from a pixel data region for a pixel location within the predetermined region;
A luminance noise filtering system comprising:
前記輝度ノイズフィルタリングシステムは、前記ピクセルデータ領域から前記ピクセル位置に対する補間されたカラー成分を決定するマトリックスをさらに具備する
ことを特徴とする請求項13に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system of claim 13, further comprising a matrix that determines an interpolated color component for the pixel location from the pixel data region.
前記マトリックスは、前記補間されたカラー成分から前記ピクセル位置に対する基準輝度を決定する
ことを特徴とする請求項14に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 14, wherein the matrix determines a reference luminance for the pixel position from the interpolated color component.
前記ノイズフィルタは、適応輝度によって変わる前記ピクセル位置の最終輝度を前記仮想フィルタリングされた輝度と前記基準輝度間で選択する
ことを特徴とする請求項15に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 15, wherein the noise filter selects a final luminance of the pixel position that varies depending on adaptive luminance between the virtual filtered luminance and the reference luminance.
前記輝度ノイズフィルタリングシステムは、前記適応輝度から閾値を決定するデータプロセッサをさらに具備し、
前記ノイズフィルタは、前記仮想フィルタリングされた輝度と前記基準輝度間の差の絶対値が前記閾値より小さいか同じであれば、前記仮想フィルタリングされた輝度を選択し、前記仮想フィルタリングされた輝度と前記基準輝度間の差の絶対値が前記閾値より大きければ、前記基準輝度を選択する
ことを特徴とする請求項16に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system further comprises a data processor for determining a threshold value from the adaptive luminance,
The noise filter selects the virtual filtered luminance if the absolute value of the difference between the virtual filtered luminance and the reference luminance is less than or equal to the threshold, and the virtual filtered luminance and the virtual filtered luminance The luminance noise filtering system according to claim 16, wherein the reference luminance is selected if an absolute value of a difference between reference luminances is larger than the threshold value.
前記適応輝度は、従前のイメージの全体明るさから決定される
ことを特徴とする請求項17に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 17, wherein the adaptive luminance is determined from the overall brightness of a previous image.
前記適応輝度は、所定ピクセルデータ領域に対する平均基準輝度から決定される
ことを特徴とする請求項17に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 17, wherein the adaptive luminance is determined from an average reference luminance for a predetermined pixel data region.
前記閾値は、前記適応輝度が小さい時にさらに大きい
ことを特徴とする請求項17に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 17, wherein the threshold value is further increased when the adaptive luminance is small.
前記適応輝度は、前記イメージセンサーに対する自動輝度ゲインである
ことを特徴とする請求項16に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 16, wherein the adaptive luminance is an automatic luminance gain for the image sensor.
前記適応輝度は、前記基準輝度である
ことを特徴とする請求項16に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 16, wherein the adaptive luminance is the reference luminance.
前記仮想フィルタリングされた輝度は、前記領域の各ピクセル位置に対する重み付け係数と乗算したピクセルデータを平均して決定される
ことを特徴とする請求項13に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 13, wherein the virtual filtered luminance is determined by averaging pixel data multiplied by a weighting coefficient for each pixel position of the region.
前記イメージセンサーは、最小化されたラインメモリ容量を有する移動通信用イメージピックアップ装置に内蔵される
ことを特徴とする請求項13に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system according to claim 13, wherein the image sensor is incorporated in an image pickup device for mobile communication having a minimized line memory capacity.
イメージセンサーからのピクセルデータの所定領域を入力する手段と、
前記領域内のあるピクセル位置に対するピクセルデータ領域から仮想フィルタリングされた輝度を決定する手段と、
を具備することを特徴とする輝度ノイズフィルタリングシステム。
Means for inputting a predetermined area of pixel data from the image sensor;
Means for determining a virtual filtered luminance from a pixel data region for a pixel location within the region;
A luminance noise filtering system comprising:
前記輝度ノイズフィルタリングシステムは、前記ピクセルデータ領域から前記ピクセル位置に対する補間されたカラー成分を決定する手段をさらに具備する
ことを特徴とする請求項25に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system of claim 25, further comprising means for determining an interpolated color component for the pixel location from the pixel data region.
前記輝度ノイズフィルタリングシステムは、
前記補間されたカラー成分から前記ピクセル位置に対する基準輝度を決定する手段と、
適応輝度によって異なる前記ピクセル位置の最終輝度を前記仮想フィルタリングされた輝度と前記基準輝度間で選択する手段と、
をさらに具備することを特徴とする請求項26に記載の輝度ノイズフィルタリングシステム。
The luminance noise filtering system includes:
Means for determining a reference luminance for the pixel location from the interpolated color component;
Means for selecting between the virtual filtered luminance and the reference luminance a final luminance at the pixel location that varies depending on adaptive luminance;
The luminance noise filtering system according to claim 26, further comprising:
JP2004172904A 2003-06-10 2004-06-10 Luminance noise filtering method and luminance noise filtering system Active JP4748702B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2003-0037268A KR100510532B1 (en) 2003-06-10 2003-06-10 Adaptive noise reduction filter for Bayer pattern color signal, digital image signal processor having it, and method thereof
KR2003-037268 2003-06-10
US10/776447 2004-02-10
US10/776,447 US7538808B2 (en) 2003-06-10 2004-02-10 Method and system for luminance noise filtering

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010216117A Division JP4887546B2 (en) 2003-06-10 2010-09-27 Method and system for filtering noise in response to changes in brightness

Publications (2)

Publication Number Publication Date
JP2005004767A true JP2005004767A (en) 2005-01-06
JP4748702B2 JP4748702B2 (en) 2011-08-17

Family

ID=34107000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004172904A Active JP4748702B2 (en) 2003-06-10 2004-06-10 Luminance noise filtering method and luminance noise filtering system

Country Status (1)

Country Link
JP (1) JP4748702B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091794A (en) * 2018-10-24 2020-05-01 上海西门子医疗器械有限公司 Brightness adjusting method of medical equipment display device, storage medium and medical equipment

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02142292A (en) * 1988-11-22 1990-05-31 Canon Inc Chrominance signal processor
JPH0630308A (en) * 1992-07-13 1994-02-04 Matsushita Electric Ind Co Ltd Picture data processing unit
JPH0779372A (en) * 1993-06-30 1995-03-20 Sony Corp Electronic camera device
JPH08186761A (en) * 1994-12-30 1996-07-16 Sony Corp Video camera device and video camera exposure control method
JPH08202871A (en) * 1995-01-20 1996-08-09 Advantest Corp Picture information processor
JP2001045298A (en) * 1999-07-27 2001-02-16 Sharp Corp Method for processing picture, recording medium recording picture processing program and picture processor
US6269181B1 (en) * 1997-11-03 2001-07-31 Intel Corporation Efficient algorithm for color recovery from 8-bit to 24-bit color pixels
JP2001245141A (en) * 2000-02-29 2001-09-07 Canon Inc Image processing apparatus and method
JP2002010108A (en) * 2000-06-21 2002-01-11 Fuji Photo Film Co Ltd Device and method for processing image signal
JP2002354256A (en) * 2001-05-24 2002-12-06 Fujitsu Ltd Image processor, image processing method and image processing program
JP2003018432A (en) * 2001-07-03 2003-01-17 Fuji Photo Film Co Ltd Noise eliminating circuit

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02142292A (en) * 1988-11-22 1990-05-31 Canon Inc Chrominance signal processor
JPH0630308A (en) * 1992-07-13 1994-02-04 Matsushita Electric Ind Co Ltd Picture data processing unit
JPH0779372A (en) * 1993-06-30 1995-03-20 Sony Corp Electronic camera device
JPH08186761A (en) * 1994-12-30 1996-07-16 Sony Corp Video camera device and video camera exposure control method
JPH08202871A (en) * 1995-01-20 1996-08-09 Advantest Corp Picture information processor
US6269181B1 (en) * 1997-11-03 2001-07-31 Intel Corporation Efficient algorithm for color recovery from 8-bit to 24-bit color pixels
JP2001045298A (en) * 1999-07-27 2001-02-16 Sharp Corp Method for processing picture, recording medium recording picture processing program and picture processor
JP2001245141A (en) * 2000-02-29 2001-09-07 Canon Inc Image processing apparatus and method
JP2002010108A (en) * 2000-06-21 2002-01-11 Fuji Photo Film Co Ltd Device and method for processing image signal
JP2002354256A (en) * 2001-05-24 2002-12-06 Fujitsu Ltd Image processor, image processing method and image processing program
JP2003018432A (en) * 2001-07-03 2003-01-17 Fuji Photo Film Co Ltd Noise eliminating circuit

Also Published As

Publication number Publication date
JP4748702B2 (en) 2011-08-17

Similar Documents

Publication Publication Date Title
JP4887546B2 (en) Method and system for filtering noise in response to changes in brightness
JP4577621B2 (en) Image correction processing system and image correction processing method
KR101051604B1 (en) Image processing apparatus and method
JP5315158B2 (en) Image processing apparatus and image processing method
CN100366052C (en) Image processing device and method
JP4288623B2 (en) Imaging device, noise removal device, noise removal method, noise removal method program, and recording medium recording noise removal method program
JP4610930B2 (en) Image processing apparatus and image processing program
JP4946795B2 (en) Image processing apparatus and image processing method
JP2005102134A (en) Image processing apparatus and method, recording medium, and program
JP2008258909A (en) Signal processing circuit
JP2004363853A (en) Method and device for reducing noise of image signal
JP2014010776A (en) Image processing apparatus, image processing method, and program
JP2007180851A (en) Gray scale transformation device, program and method for raw image, and electronic camera
JP2005311962A (en) Image processing apparatus, image processing method, and image processing program
JP2004221645A (en) Image processing apparatus and method therefor, recording medium, and program
JP5631769B2 (en) Image processing device
JP2011024246A (en) Imaging apparatus
JP2021140663A (en) Image processing method, image processing device, image processing program, and recording medium
JP2017223823A (en) Image processor, image processing program, and image processing method
JP4748702B2 (en) Luminance noise filtering method and luminance noise filtering system
JP2009239608A (en) Image processing apparatus and digital camera
KR100727837B1 (en) An image signal processing device of the camera system
JP2004173060A (en) Noise elimination method, image pickup device, and noise elimination program
JP4385890B2 (en) Image processing method, frequency component compensation unit, image processing apparatus including the frequency component compensation unit, and image processing program
JP2010283888A (en) Image processing apparatus, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070604

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080207

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110513

R150 Certificate of patent or registration of utility model

Ref document number: 4748702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250