JP6115410B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6115410B2
JP6115410B2 JP2013179163A JP2013179163A JP6115410B2 JP 6115410 B2 JP6115410 B2 JP 6115410B2 JP 2013179163 A JP2013179163 A JP 2013179163A JP 2013179163 A JP2013179163 A JP 2013179163A JP 6115410 B2 JP6115410 B2 JP 6115410B2
Authority
JP
Japan
Prior art keywords
pixel data
data
correction
value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013179163A
Other languages
Japanese (ja)
Other versions
JP2015049567A (en
Inventor
武志 石
武志 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Priority to JP2013179163A priority Critical patent/JP6115410B2/en
Publication of JP2015049567A publication Critical patent/JP2015049567A/en
Application granted granted Critical
Publication of JP6115410B2 publication Critical patent/JP6115410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Description

画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

従来、撮像した画像のデジタルデータを記録可能なデジタルスチルカメラ等の撮像装置は、広く普及している。撮像装置は、被写体からの光の強さを測定(測光)し、露光量(撮像素子に光を当てる時間(シャッター速度)とその光の強さ(絞り値))を決定する。逆光等のような撮影条件の場合、適切な露光量を算出することが困難である。このような場合において得られる画像は、全体または特定の部分の輝度が不足又は過剰となりやすい。このため、画像処理装置は、画像データに対してコントラスト補正を行う(例えば、特許文献1,2参照)。   2. Description of the Related Art Conventionally, an imaging apparatus such as a digital still camera that can record digital data of a captured image has been widely used. The imaging device measures the intensity of light from the subject (photometry), and determines the exposure amount (time during which light is applied to the imaging element (shutter speed) and the intensity of the light (aperture value)). In the case of photographing conditions such as backlight, it is difficult to calculate an appropriate exposure amount. In the image obtained in such a case, the brightness of the whole or a specific part tends to be insufficient or excessive. For this reason, the image processing apparatus performs contrast correction on the image data (see, for example, Patent Documents 1 and 2).

特開2003−46859号公報JP 2003-46859 A 特開2008−124653号公報JP 2008-124653 A

ところが、コントラスト補正により階調飛び(トーンジャンプ)が生じる場合があり、画質が劣化する。   However, tone correction (tone jump) may occur due to contrast correction, and image quality deteriorates.

本発明の一観点によれば、複数の画素データが含まれる1画面の撮像データの輝度最大値及び輝度最小値に応じたゲイン値とオフセット値に基づいて前記画素データをコントラスト補正した第1の画素データと、前記入力画素データに所定値を加算した値を前記コントラスト補正した第2の画素データを生成するコントラスト補正部と、補正テーブルにしたがって前記第1の画素データをガンマ補正した第3の画素データと、前記補正テーブルにしたがって前記第2の画素データをガンマ補正した第4の画素データを生成するガンマ補正部と、前記第3の画素データ前記第4の画素データとの差分値に応じて前記第3の画素データ(P2a)を補正した第5の画素データを生成する階調補正部とを有する。   According to one aspect of the present invention, a first correction is performed by contrast-correcting the pixel data based on a gain value and an offset value corresponding to the luminance maximum value and luminance minimum value of imaging data of one screen including a plurality of pixel data. A pixel correction unit configured to generate pixel data, a second pixel data obtained by adding a predetermined value to the input pixel data, and a second pixel data obtained by performing the contrast correction; and a third correction unit that performs gamma correction on the first pixel data according to a correction table. According to a difference value between pixel data, a gamma correction unit that generates fourth pixel data obtained by performing gamma correction on the second pixel data according to the correction table, and the third pixel data. And a gradation correction unit for generating fifth pixel data obtained by correcting the third pixel data (P2a).

本発明の一観点によれば、画質の劣化を抑制することができる。   According to one aspect of the present invention, it is possible to suppress deterioration in image quality.

撮像装置の概略を示すブロック図である。It is a block diagram which shows the outline of an imaging device. (a)(b)は撮像データの説明図である。(A) (b) is explanatory drawing of imaging data. 画像処理部のブロック図である。It is a block diagram of an image processing part. (a)(b)は画像処理の説明図である。(A) and (b) are explanatory diagrams of image processing. γ補正部のブロック図である。It is a block diagram of a gamma correction part. γ補正カーブの説明図である。It is explanatory drawing of a gamma correction curve. コントラスト補正とγ補正の説明図である。It is explanatory drawing of contrast correction | amendment and (gamma) correction. 階調補正部のブロック図である。It is a block diagram of a gradation correction unit. (a)〜(c)は画素値のヒストグラムである。(A) to (c) are pixel value histograms.

以下、一実施形態を説明する。
図1に示す撮像装置は例えばデジタルスチルカメラ(DSC)であり、撮像部10、画像処理部(ISP:Image Signal Processor)20、操作部31、メモリ(記憶部)32、表示デバイス33を有している。
Hereinafter, an embodiment will be described.
1 is a digital still camera (DSC), for example, and includes an imaging unit 10, an image processing unit (ISP: Image Signal Processor) 20, an operation unit 31, a memory (storage unit) 32, and a display device 33. ing.

撮像部10は、被写体に基づく入射光に応じた画像データを出力する。画像処理部20は、既定の設定値または操作部31の操作による設定にしたがって、撮像部10から出力される画像データに対して各種画像処理を施す。そして、画像処理部20は、処理中または処理後の画像データをメモリ32に格納する。また、画像処理部20は、撮像部10から出力される画像データに基づく画像、またはメモリ32に格納された画像データに基づく画像を表示デバイス33に表示する。そして、画像処理部20は、メモリ32に格納された画像データを、例えば操作部31の操作にしたがってメモリカード35に格納する。   The imaging unit 10 outputs image data corresponding to incident light based on the subject. The image processing unit 20 performs various types of image processing on the image data output from the imaging unit 10 according to a predetermined set value or a setting by operating the operation unit 31. Then, the image processing unit 20 stores the image data being processed or after the processing in the memory 32. Further, the image processing unit 20 displays an image based on the image data output from the imaging unit 10 or an image based on the image data stored in the memory 32 on the display device 33. Then, the image processing unit 20 stores the image data stored in the memory 32 in the memory card 35 according to the operation of the operation unit 31, for example.

撮像部10は、撮像光学系11と、撮像素子部12を有している。
撮像光学系11は、被写体からの光を集光するレンズ(フォーカスレンズなど),レンズを通過した光の量を調整する絞り,等を含み、光学的な被写体像を撮像素子部12に導く。撮像素子部12は、例えば、ベイヤ(Bayer)配列のカラーフィルタと、撮像素子とを含む。撮像素子は、CCD(Charge Coupled Device)イメージセンサである。撮像素子は、カラーフィルタを介して入射する光の量に応じた撮像信号(アナログ信号)を出力する。また、撮像素子部12は、アナログの撮像信号をデジタルの撮像データに変換する。そして、撮像素子部12は、同期信号に従って変換後の撮像データを出力する。同期信号は、1つのフィールドの区切りを示す垂直同期信号と、1ラインの区切りを示す水平同期信号を含み、例えば画像処理部20から供給される。
The imaging unit 10 includes an imaging optical system 11 and an imaging element unit 12.
The imaging optical system 11 includes a lens (such as a focus lens) that collects light from a subject, a diaphragm that adjusts the amount of light that has passed through the lens, and the like, and guides an optical subject image to the imaging element unit 12. The image sensor unit 12 includes, for example, a Bayer array color filter and an image sensor. The imaging device is a CCD (Charge Coupled Device) image sensor. The imaging element outputs an imaging signal (analog signal) corresponding to the amount of light incident through the color filter. In addition, the imaging element unit 12 converts an analog imaging signal into digital imaging data. And the image pick-up element part 12 outputs the imaging data after conversion according to a synchronizing signal. The synchronization signal includes a vertical synchronization signal indicating one field break and a horizontal synchronization signal indicating one line break, and is supplied from, for example, the image processing unit 20.

画像処理部20は、センサインタフェース(センサI/F)21、画像処理部22,23、CPU24、メモリコントローラ25、メモリカードインタフェース(メモリカードI/F)26、表示インタフェース(表示I/F)27を有している。CPU24、センサI/F21、画像処理部22,23は、CPUデータバス28を介して互いに接続されている。センサI/F21、画像処理部22,23、メモリコントローラ25、メモリカードI/F26、表示I/F27は、画像データバス29を介して互いに接続されている。   The image processing unit 20 includes a sensor interface (sensor I / F) 21, image processing units 22 and 23, a CPU 24, a memory controller 25, a memory card interface (memory card I / F) 26, and a display interface (display I / F) 27. have. The CPU 24, the sensor I / F 21, and the image processing units 22 and 23 are connected to each other via a CPU data bus 28. The sensor I / F 21, the image processing units 22 and 23, the memory controller 25, the memory card I / F 26, and the display I / F 27 are connected to each other via an image data bus 29.

センサI/F21は、撮像部10から出力される撮像データを受け取り、メモリ32に格納する。したがって、メモリ32には、撮像部10から出力され画像処理が施されていない撮像データ(RAWデータ)が格納される。センサI/F21は、データ入力部の一例である。センサI/F21は、撮像データに含まれる複数の画素データに基づいて、最大の輝度値(最大値)と最小の輝度値(最小値)を検出し、輝度最大値及び輝度最小値をレジスタ21bに格納する。   The sensor I / F 21 receives imaging data output from the imaging unit 10 and stores it in the memory 32. Therefore, the memory 32 stores imaging data (RAW data) output from the imaging unit 10 and not subjected to image processing. The sensor I / F 21 is an example of a data input unit. The sensor I / F 21 detects the maximum luminance value (maximum value) and the minimum luminance value (minimum value) based on a plurality of pixel data included in the imaging data, and registers the maximum luminance value and the minimum luminance value in the register 21b. To store.

画像処理部22は、メモリ32に格納された撮像データを読み出し、その撮像データに対して、所定の画像処理を施し、処理後の画像データをメモリ32に格納する。画像処理部22における画像処理は、デモザイク処理、コントラスト補正、γ補正、階調補正を含む。   The image processing unit 22 reads the imaging data stored in the memory 32, performs predetermined image processing on the imaging data, and stores the processed image data in the memory 32. Image processing in the image processing unit 22 includes demosaic processing, contrast correction, γ correction, and gradation correction.

画像処理部23は、メモリ32に格納された撮像データを読み出し、その撮像データに対して、所定の画像処理を施し、処理後の画像データをメモリ32に格納する。画像処理部23における処理は、例えば、YCbCrタ変換、歪み補正、エンコード処理(JPEG化)を含む。なお、図1では、1つの画像処理部23として示しているが、各処理に応じた画像処理部を含む画像処理部20としてもよい。   The image processing unit 23 reads the image data stored in the memory 32, performs predetermined image processing on the image data, and stores the processed image data in the memory 32. The processing in the image processing unit 23 includes, for example, YCbCr data conversion, distortion correction, and encoding processing (JPEG conversion). In FIG. 1, one image processing unit 23 is shown, but the image processing unit 20 may include an image processing unit corresponding to each process.

メモリカードI/F26は、撮像装置に対して着脱可能なメモリカード35と電気的に接続される。メモリカードI/F26は、メモリ32に格納されたデータ(例えば圧縮された画像データ)をメモリカード35に格納する。   The memory card I / F 26 is electrically connected to a memory card 35 that can be attached to and detached from the imaging apparatus. The memory card I / F 26 stores data (for example, compressed image data) stored in the memory 32 in the memory card 35.

表示I/F27には、表示デバイス33が接続されている。表示デバイス33は、例えば液晶表示装置(LCD:Liquid Crystal Display)である。表示デバイス33は、撮影装置の駆動源であるバッテリの残量、撮影モード、撮影フレーム、記憶された画像データの表示、等に用いられる。例えば、表示I/F27は、メモリ32に格納された画像データを読み出し、その画像データを表示デバイス33に出力する。   A display device 33 is connected to the display I / F 27. The display device 33 is, for example, a liquid crystal display device (LCD: Liquid Crystal Display). The display device 33 is used for the remaining amount of a battery that is a driving source of the photographing apparatus, a photographing mode, a photographing frame, display of stored image data, and the like. For example, the display I / F 27 reads the image data stored in the memory 32 and outputs the image data to the display device 33.

センサI/F21,画像処理部22,23、メモリカードI/F26,表示I/F27は、それぞれメモリアクセスコントローラ(DMAC:Direct Memory Access Controller )21a〜23a,26a,27aを有している。センサI/F21は、メモリアクセスコントローラ21aを介してメモリ32に画像データを格納する。画像処理部22,23は、メモリアクセスコントローラ22a,23aを介して、メモリ32に対して画像データの入出力を行う。同様に、メモリカードI/F26は、メモリアクセスコントローラ26aを介して、メモリ32に対して画像データの入出力を行う。そして、表示I/F27は、メモリアクセスコントローラ27aを介してメモリ32から読み出した画像データを表示デバイス33に出力する。   The sensor I / F 21, the image processing units 22 and 23, the memory card I / F 26, and the display I / F 27 have memory access controllers (DMAC) 21a to 23a, 26a, and 27a, respectively. The sensor I / F 21 stores image data in the memory 32 via the memory access controller 21a. The image processing units 22 and 23 input and output image data to and from the memory 32 via the memory access controllers 22a and 23a. Similarly, the memory card I / F 26 inputs / outputs image data to / from the memory 32 via the memory access controller 26a. The display I / F 27 outputs the image data read from the memory 32 via the memory access controller 27a to the display device 33.

CPU24は、画像処理部20全体を統括制御する。CPU24は、処理に必要な情報の各処理部への設定及びデータの書き込み/読み出し制御等を行う。また、CPU24は、操作部31の操作に応じて動作モードや各処理において必要な情報(パラメータ)を設定する。操作部31は、ユーザにより操作されるシャッタボタンやメニューボタン等の各種スイッチ、タッチパネル等である。また、CPU24は、センサI/F21のレジスタ21bに格納された輝度最大値及び輝度最小値を読み出し、それらを画像処理部22のレジスタ22bに格納する。   The CPU 24 controls the entire image processing unit 20. The CPU 24 performs setting of information necessary for processing to each processing unit, data writing / reading control, and the like. Further, the CPU 24 sets information (parameters) necessary for the operation mode and each process according to the operation of the operation unit 31. The operation unit 31 includes various switches such as a shutter button and a menu button operated by a user, a touch panel, and the like. In addition, the CPU 24 reads the maximum luminance value and the minimum luminance value stored in the register 21 b of the sensor I / F 21 and stores them in the register 22 b of the image processing unit 22.

次に、センサI/F21における処理を説明する。
センサI/F21は、撮像データに基づいて、輝度最大値及び輝度最小値を得る。
図2(a)に示すように、1つのフレーム(1画面)の撮像データSFは、複数の画素データSGを含む。図2(a)において、左右方向に配列された画素データSGは、撮像素子の第1の方向(例えば水平方向)に配列された複数の受光部に対応し、図2(a)において上下方向に配列された画素データSGは、撮像素子の第1の方向と直交する第2の方向(例えば垂直方向)に配列された複数の受光部に対応する。各画素データSGは、対応する受光部がそれぞれ受ける光の量に応じた値(画素値)を含む。撮像素子の受光部は、所定配列(例えばベイヤ配列)のカラーフィルタを透過した光を受光する。従って、各画素データSGに含まれる画素値は、対応するカラーフィルタの配列及び色に応じた色情報を含む。
Next, processing in the sensor I / F 21 will be described.
The sensor I / F 21 obtains the maximum luminance value and the minimum luminance value based on the imaging data.
As shown in FIG. 2A, the imaging data SF of one frame (one screen) includes a plurality of pixel data SG. 2A, pixel data SG arranged in the left-right direction corresponds to a plurality of light receiving units arranged in a first direction (for example, the horizontal direction) of the image sensor, and in FIG. 2A, the vertical direction The pixel data SG arranged in (1) corresponds to a plurality of light receiving units arranged in a second direction (for example, a vertical direction) orthogonal to the first direction of the image sensor. Each pixel data SG includes a value (pixel value) corresponding to the amount of light received by the corresponding light receiving unit. The light receiving unit of the image sensor receives light that has passed through a color filter having a predetermined array (for example, a Bayer array). Accordingly, the pixel value included in each pixel data SG includes color information corresponding to the arrangement and color of the corresponding color filter.

例えば、各画素データを区別する場合、受光部の配列に応じて、SG(x,y)と表す。xは第1の方向の配列順序であり、yは第2の方向の配列順序である。例えば、図2(a)において、左上の画素データをSG(1,1)と表す。その画素データSG(1,1)の右隣の画素データをSG(2,1)と表し、画素データSG(1,1)の下側の画素データをSG(1,2)と表す。撮像部において第1の方向に配列された受光部の数をm、第2の方向に配列された受光部の数をnとし、図2(a)において右下の画素データをSG(m,n)と表す。   For example, when each pixel data is distinguished, it is expressed as SG (x, y) according to the arrangement of the light receiving parts. x is the arrangement order in the first direction, and y is the arrangement order in the second direction. For example, in FIG. 2A, the upper left pixel data is represented as SG (1, 1). The pixel data on the right side of the pixel data SG (1,1) is represented as SG (2,1), and the lower pixel data of the pixel data SG (1,1) is represented as SG (1,2). In the imaging unit, the number of the light receiving units arranged in the first direction is m, the number of the light receiving units arranged in the second direction is n, and the lower right pixel data in FIG. n).

各画素データSGは、対応するカラーフィルタの色に応じた色情報を含む。例えば、ベイヤ配列のカラーフィルタは、赤色(R)のフィルタと、緑色(G)のフィルタと、青色(B)のフィルタを含む。従って、撮像データSFは、複数の画素データSGを含み、各画素データSGは、それぞれ対応する1つの色の色情報を含む。   Each pixel data SG includes color information corresponding to the color of the corresponding color filter. For example, a Bayer array color filter includes a red (R) filter, a green (G) filter, and a blue (B) filter. Therefore, the imaging data SF includes a plurality of pixel data SG, and each pixel data SG includes color information of one corresponding color.

図2(b)は、各画素データに含まれる色情報と画素データの配列位置を示す。例えば、図2(a)に示す画素データSG(1,1)は、図2(b)に示すように緑色(G)の色情報を含む。同様に、画素データSG(2,1)は赤色(R)の色情報を含む。また、画素データSG(1,2)は青色(B)の色情報を含み、画素データSG(2,2)は緑色(G)の色情報を含む。なお、以下の説明において、各画素データを、色情報を用いて説明することがある。例えば、図2(a)に示す画素データSG(1,1)を、図2(b)に示す「G11」を用いて画素データG11として説明することがある。   FIG. 2B shows the color information included in each pixel data and the arrangement position of the pixel data. For example, the pixel data SG (1, 1) shown in FIG. 2A includes green (G) color information as shown in FIG. Similarly, the pixel data SG (2, 1) includes red (R) color information. The pixel data SG (1, 2) includes blue (B) color information, and the pixel data SG (2, 2) includes green (G) color information. In the following description, each pixel data may be described using color information. For example, pixel data SG (1, 1) shown in FIG. 2A may be described as pixel data G11 using “G11” shown in FIG.

図1に示すセンサI/F21は、複数のライン(例えば2ライン)の画素データに応じた記憶容量のメモリ(ラインメモリ)を含む。センサI/F21は、ラインメモリに、画素データSGを順次格納する。そして、センサI/F21は、ラインメモリに格納した各画素データSGに基づいて、各画素データにおける輝度値を算出する。そして、センサI/F21は、1フレームの撮像データにおける最大の輝度値(輝度最大値)と最小の輝度値(輝度最小値)をレジスタ21bに格納する。   A sensor I / F 21 illustrated in FIG. 1 includes a memory (line memory) having a storage capacity corresponding to pixel data of a plurality of lines (for example, two lines). The sensor I / F 21 sequentially stores the pixel data SG in the line memory. And sensor I / F21 calculates the luminance value in each pixel data based on each pixel data SG stored in the line memory. The sensor I / F 21 stores the maximum luminance value (luminance maximum value) and the minimum luminance value (luminance minimum value) in the image data of one frame in the register 21b.

上記のように、所定配列(ベイヤ配列)のカラーフィルタを含む撮像素子部12から出力される撮像データにおいて、各画素データはカラーフィルタの配列に応じた1つの色の情報を含む。つまり、各画素データの情報には、2つの色情報が不足している。このため、センサI/F21は、各画素データSGにおいて、不足する色情報を、周囲の画素データを参照し、着目する画素データSGにおける輝度値を算出する。   As described above, in the imaging data output from the imaging element unit 12 including the color filters having a predetermined arrangement (Bayer arrangement), each pixel data includes information of one color corresponding to the arrangement of the color filters. That is, two pieces of color information are lacking in the information of each pixel data. For this reason, the sensor I / F 21 calculates the luminance value in the pixel data SG of interest by referring to surrounding pixel data for insufficient color information in each pixel data SG.

例えば、センサI/F21は、図2(b)に示す画素データG11について、隣接する画素データR21の色情報と、画素データB12の色情報を参照し、画素データG11における輝度値Y11を、次式に基づいて算出する。
Y11=0.29891×R21+0.58661×G11+0.11448×B12・・・・・(1)
そして、センサI/F21は、各画素データの輝度値のうち、最大の輝度値(輝度最大値Ymax)と最小の輝度値(輝度最小値Ymin)を検出する。例えば、センサI/F21は、図2(a)に示す画素データSG(1,1)について算出した輝度値Y11と等しい輝度最大値Ymax及び輝度最小値Yminをレジスタ21bに格納する。次に、センサI/F21は、図2(a)に示す画素データSG(2,1)について算出した輝度値Y21を、レジスタ21bから読み出した輝度最大値Ymax及び輝度最小値Yminと比較する。例えば、輝度値Y21が輝度最大値Ymaxより大きい場合、センサI/F21は、輝度値Y21と等しい輝度最大値Ymaxをレジスタ22bに格納する。
For example, the sensor I / F 21 refers to the color information of the adjacent pixel data R21 and the color information of the pixel data B12 with respect to the pixel data G11 shown in FIG. Calculate based on the formula.
Y11 = 0.29891 × R21 + 0.58661 × G11 + 0.11448 × B12 (1)
The sensor I / F 21 detects the maximum luminance value (maximum luminance value Ymax) and the minimum luminance value (minimum luminance value Ymin) among the luminance values of each pixel data. For example, the sensor I / F 21 stores the maximum luminance value Ymax and the minimum luminance value Ymin that are equal to the luminance value Y11 calculated for the pixel data SG (1, 1) illustrated in FIG. 2A in the register 21b. Next, the sensor I / F 21 compares the luminance value Y21 calculated for the pixel data SG (2, 1) shown in FIG. 2A with the maximum luminance value Ymax and the minimum luminance value Ymin read from the register 21b. For example, when the luminance value Y21 is larger than the maximum luminance value Ymax, the sensor I / F 21 stores the maximum luminance value Ymax equal to the luminance value Y21 in the register 22b.

次に、画像処理部22における処理を説明する。
図3に示すように、画像処理部22は、デモザイク部41、コントラスト補正部42、ガンマ補正部(γ補正部)43、階調補正部44を有している。
Next, processing in the image processing unit 22 will be described.
As illustrated in FIG. 3, the image processing unit 22 includes a demosaic unit 41, a contrast correction unit 42, a gamma correction unit (γ correction unit) 43, and a gradation correction unit 44.

デモザイク部41には、図1に示すメモリ32から読み出された画素データ(RAWデータ)SRが入力される。デモザイク部41は、画素データSRを、各画素において3色の色情報を持つ画素データP0に変換する。   The demosaic unit 41 receives pixel data (RAW data) SR read from the memory 32 shown in FIG. The demosaic unit 41 converts the pixel data SR into pixel data P0 having color information of three colors in each pixel.

例えば、デモザイク部41は、画素データSRの各画素において、フィルタに応じた色情報に対して不足する色情報を、周囲の画素データに基づいて生成する。そして、デモザイク部41は、フィルタに応じた1色の色情報と生成した2色の色情報を含む画素データP0を出力する。   For example, the demosaic unit 41 generates, in each pixel of the pixel data SR, color information that is insufficient with respect to the color information corresponding to the filter based on the surrounding pixel data. Then, the demosaic unit 41 outputs pixel data P0 including color information of one color corresponding to the filter and generated color information of two colors.

デモザイク部41は、複数のライン(例えば5ライン)の画素データに応じた記憶容量のメモリ(ラインメモリ)を有している。デモザイク部41は、図1に示すメモリ32から読み出された画像データをラインメモリに格納する。そして、デモザイク部41は、画素データにおいて、不足する色情報を、周囲の画素データにより例えば補間によって生成する。例えば、図2(b)において、画素データG33は、緑色の色情報を持ち、赤色の色情報と青色の色情報が不足している。デモザイク部41は、画素データG33に隣接する画素データのうち、赤色の色情報を持つ画素データR23,R43の色情報に基づいて、例えば直線補間(内挿)により、画素データG33の位置に対応する赤色の色情報を生成する。同様に、デモザイク部41は、青色の色情報を持つ画素データB32,B34の色情報に基づいて、例えば直線補間により画素データG33の位置に対応する青色の色情報を生成する。   The demosaic unit 41 has a memory (line memory) having a storage capacity corresponding to pixel data of a plurality of lines (for example, 5 lines). The demosaic unit 41 stores the image data read from the memory 32 shown in FIG. 1 in the line memory. Then, the demosaic unit 41 generates insufficient color information in the pixel data by, for example, interpolation using surrounding pixel data. For example, in FIG. 2B, the pixel data G33 has green color information and lacks red color information and blue color information. The demosaic unit 41 corresponds to the position of the pixel data G33 by linear interpolation (interpolation), for example, based on the color information of the pixel data R23 and R43 having red color information among the pixel data adjacent to the pixel data G33. The red color information is generated. Similarly, the demosaic unit 41 generates blue color information corresponding to the position of the pixel data G33 by linear interpolation, for example, based on the color information of the pixel data B32 and B34 having blue color information.

また、デモザイク部41は、画素データSRに基づいて、各画素における凹凸度RFを算出する。デモザイク部41は、ラインメモリに格納した画素データに基づいて、所定数の画素データを含むカーネルを生成する。カーネルのサイズは、例えば5×5画素である。デモザイク部41は、カーネルの中心画素に着目し、その着目画素における凹凸度RFを、カーネルに含まれる他の画素データに基づいて算出する。凹凸度RFは、カーネルに含まれる画素データおける色のばらつきを示す値である。デモザイク部41は算出部の一例である。   In addition, the demosaic unit 41 calculates the degree of unevenness RF in each pixel based on the pixel data SR. The demosaic unit 41 generates a kernel including a predetermined number of pixel data based on the pixel data stored in the line memory. The size of the kernel is, for example, 5 × 5 pixels. The demosaic unit 41 pays attention to the center pixel of the kernel, and calculates the unevenness degree RF at the target pixel based on other pixel data included in the kernel. The unevenness RF is a value indicating the color variation in the pixel data included in the kernel. The demosaic unit 41 is an example of a calculation unit.

デモザイク部41は、カーネルに含まれる複数の画素データの色情報のうち、所定の色情報に基づいて、カーネル内の着目画素における凹凸度RFを算出する。例えば、デモザイク部41は、緑色(G)の色情報に基づいて、凹凸度RFを算出する。また、デモザイク部41は、着目画素の周囲の8個の色情報に基づいて、凹凸度RFを算出する。例えば、凹凸度RFは、8個の色情報の平均偏差である。   The demosaic unit 41 calculates the degree of unevenness RF at the target pixel in the kernel based on predetermined color information among the color information of the plurality of pixel data included in the kernel. For example, the demosaic unit 41 calculates the degree of unevenness RF based on the green (G) color information. Further, the demosaic unit 41 calculates the degree of unevenness RF based on the eight pieces of color information around the pixel of interest. For example, the unevenness degree RF is an average deviation of eight pieces of color information.

図4(a)に示すように、カーネルCUは5×5の画素データを含む。なお、図4(a)に示すカーネルCUは、中心画素(着目画素)の色が緑色(G)である。図4(a)では、着目画素G22と、緑色の色情報を持つ画素データを示している。   As shown in FIG. 4A, the kernel CU includes 5 × 5 pixel data. In the kernel CU shown in FIG. 4A, the color of the center pixel (target pixel) is green (G). FIG. 4A shows a pixel of interest G22 and pixel data having green color information.

このカーネルCUには、着目画素G22以外に、緑色の色情報を持つ12個の画素データを含む。デモザイク部41は、カーネルCUに含まれる画素データのうち、着目画素G22を囲む画素データG20,G11,G31,G02,G42,G13,G33,G24を参照する。そして、デモザイク部41は、参照する画素データを、8個の画素データG1〜G8に定義する。   This kernel CU includes twelve pixel data having green color information in addition to the target pixel G22. The demosaic unit 41 refers to pixel data G20, G11, G31, G02, G42, G13, G33, and G24 surrounding the target pixel G22 among the pixel data included in the kernel CU. Then, the demosaic unit 41 defines the pixel data to be referred to as eight pieces of pixel data G1 to G8.

例えば、デモザイク部41は、画素データの入力順序(ラスタ方向)に従って、必要な画像データを、{G1,G2,G3,G4,G5,G6,G7,G8}={G20,G11,G31,G02,G42,G13,G33,G24}と定義する。また、デモザイク部41は、画素データG1〜G8の平均値GAVEを算出する。   For example, the demosaic unit 41 converts the necessary image data into {G1, G2, G3, G4, G5, G6, G7, G8} = {G20, G11, G31, G02 according to the pixel data input order (raster direction). , G42, G13, G33, G24}. Further, the demosaic unit 41 calculates an average value GAVE of the pixel data G1 to G8.

そして、デモザイク部41は、次式(1)にしたがって、凹凸度RFを算出する。凹凸度RFは、0.0〜1.0の範囲の値にクリップされる。   Then, the demosaic unit 41 calculates the unevenness degree RF according to the following equation (1). The unevenness degree RF is clipped to a value in the range of 0.0 to 1.0.

なお、次式(2)のように、コアリング処理とスケーリング処理を行って凹凸度RFを算出してもよい。 As shown in the following equation (2), the corrugation degree RF may be calculated by performing a coring process and a scaling process.

コアリング処理は、平均値GAVEに対して所定の範囲の画素データを平坦(凹凸度RF=0.0)とするものである。CORは平坦と判定する範囲(しきい値)である。スケーリング処理は、平均偏差からコアリング処理された演算結果を拡大縮小するものである。SCLはスケーリングの係数(ゲイン値)である。上記と同様に、凹凸度RFは、0.0〜1.0の範囲の値にクリップされる。 In the coring process, pixel data in a predetermined range is flattened (unevenness degree RF = 0.0) with respect to the average value GAVE. COR is a range (threshold value) that is determined to be flat. The scaling process enlarges / reduces the calculation result subjected to the coring process from the average deviation. SCL is a scaling coefficient (gain value). Similar to the above, the unevenness degree RF is clipped to a value in the range of 0.0 to 1.0.

また、図4(b)に示すように、着目画素が赤色の色情報を持つ画素データR22であるカーネルCUは、緑色の色情報を持つ12個の画素データG10,G30,G01,G21,G41,G12,G32,G03,G23,G43,G14,G34を含む。デモザイク部41は、これら12個の画素データを以下のように8個の画素データG1〜G8に定義する。また、デモザイク部41は、画素データG1〜G8の平均値GAVEを算出する。
{G1,G2,G3,G4,G5,G6,G7,G8}={(G10+G01)/2,(G30+G41)/2,G21,G12,G32,(G03+G14)/2,G23,(G43+G34)/2}
そして、デモザイク部41は、画素データG1〜G8に基づいて、上記の式(1)または(2)にしたがって、凹凸度RFを算出する。
Further, as shown in FIG. 4B, the kernel CU, which is pixel data R22 in which the pixel of interest has red color information, has 12 pieces of pixel data G10, G30, G01, G21, G41 having green color information. , G12, G32, G03, G23, G43, G14, and G34. The demosaic unit 41 defines these 12 pieces of pixel data as 8 pieces of pixel data G1 to G8 as follows. Further, the demosaic unit 41 calculates an average value GAVE of the pixel data G1 to G8.
{G1, G2, G3, G4, G5, G6, G7, G8} = {(G10 + G01) / 2, (G30 + G41) / 2, G21, G12, G32, (G03 + G14) / 2, G23, (G43 + G34) / 2 }
Then, the demosaic unit 41 calculates the degree of unevenness RF according to the above formula (1) or (2) based on the pixel data G1 to G8.

2のべき数にかかる演算(乗算(×2,×4,×8),除算(1/2,1/4,1/8)の結果は、シフト動作により得られる。このため、この凹凸度を算出する処理において、画素データを8個の画素データG1〜G8に定義することで、演算回路の実装が容易になる。   The result of the operation (multiplication (x2, x4, x8), division (1/2, 1/4, 1/8)) that is a power of 2 is obtained by the shift operation. In the process of calculating, by defining the pixel data as eight pieces of pixel data G1 to G8, it becomes easy to mount an arithmetic circuit.

なお、上記の画素データG1〜G8の再定義は、着目画素を中心とする8方向(画素の配列に応じた直交する2つの軸に沿った方向(図4(a)における上下方向及び左右方向)と、斜め方向)における色情報を参照することに等しい。例えば、図4(a)では、着目画素G22に対し、上下方向の画素データG20,G24、左右方向の画素データG02,G42、斜め方向の画素データG11,G31,G13,G33を参照する。また、図4(b)では、着目画素R22に対し、上下方向の画素データG21,G23、左右方向の画素データG12,G32を参照する。また、周辺の画素データG10,G01,G20,G41,G03,G14,G43,G34により基づいて算出した斜め方向の位置における画素データ(色情報)を参照する。   The redefinition of the pixel data G1 to G8 includes eight directions centered on the pixel of interest (directions along two orthogonal axes according to the pixel arrangement (the vertical direction and the horizontal direction in FIG. 4A). ) And diagonal information). For example, in FIG. 4A, the pixel data G20 and G24 in the vertical direction, the pixel data G02 and G42 in the horizontal direction, and the pixel data G11, G31, G13, and G33 in the diagonal direction are referred to for the target pixel G22. In FIG. 4B, the vertical pixel data G21 and G23 and the horizontal pixel data G12 and G32 are referred to for the target pixel R22. Further, the pixel data (color information) at the position in the oblique direction calculated based on the peripheral pixel data G10, G01, G20, G41, G03, G14, G43, and G34 is referred to.

コントラスト補正部42は、レジスタ22bに格納された輝度最大値Ymax及び輝度最小値Yminに基づいて、デモザイク部41から出力される画素データP0のコントラストを補正した画素データP1aを出力する。また、コントラスト補正部42は、画素データP1aに応じて、階調落ちを補正するための補正用画素データP1bを生成する。画素データP1aは第1の画素データの一例、補正用画素データP1bは第2の画素データの一例である。   The contrast correction unit 42 outputs pixel data P1a obtained by correcting the contrast of the pixel data P0 output from the demosaic unit 41 based on the maximum luminance value Ymax and the minimum luminance value Ymin stored in the register 22b. In addition, the contrast correction unit 42 generates correction pixel data P1b for correcting gradation loss according to the pixel data P1a. The pixel data P1a is an example of first pixel data, and the correction pixel data P1b is an example of second pixel data.

例えば、コントラスト補正部42は、輝度最大値Ymaxと輝度最小値Yminに基づいて、ゲイン値Cgainとオフセット値Coffsetを以下の式により算出する。
Cgain=DR/(Ymax−Ymin)・・・・・(3)
Coffset=Ymin・・・・・(4)
なお、DRは、輝度の階調の値(例えば、256)である。
For example, the contrast correction unit 42 calculates the gain value Cgain and the offset value Coffset based on the maximum luminance value Ymax and the minimum luminance value Ymin using the following equations.
Cgain = DR / (Ymax-Ymin) (3)
Coffset = Ymin (4)
DR is a luminance gradation value (for example, 256).

そして、コントラスト補正部42は、以下の式にしたがって、ゲイン値Cgainとオフセット値Coffsetに基づいて、各画素データP0をコントラスト補正した画素データP1aを生成する。なお、画素データP0は、各色(R,G,B)の色情報を含む。コントラスト補正部42は、色毎にコントラスト補正を行い、画素データP1aを生成する。
P1a=P0×Cgain−Coffset・・・・・(5)
また、コントラスト補正部42は、以下の式にしたがって、入力する画素データP0に対して所定値(例えば「+1」)を加算した画素値をコントラスト補正して補正用画素データP1bを算出する。
P1b=(P0+1)×Cgain−Coffset・・・・・(6)
画素データP1aと補正用画素データP1bの差分は、コントラスト補正において生じる階調の差、つまり階調飛びの値を示す。
Then, the contrast correction unit 42 generates pixel data P1a in which each pixel data P0 is subjected to contrast correction based on the gain value Cgain and the offset value Coffset according to the following expression. The pixel data P0 includes color information of each color (R, G, B). The contrast correction unit 42 performs contrast correction for each color and generates pixel data P1a.
P1a = P0 × Cgain−Coffset (5)
Further, the contrast correction unit 42 calculates the correction pixel data P1b by performing contrast correction on a pixel value obtained by adding a predetermined value (for example, “+1”) to the input pixel data P0 according to the following equation.
P1b = (P0 + 1) × Cgain−Coffset (6)
The difference between the pixel data P1a and the correction pixel data P1b indicates a gradation difference that occurs in contrast correction, that is, a gradation skip value.

図7の左部分は、コントラスト補正における画素データP0と画素データP1a,P1bの関係を示す。なお、図7に示す値は、ゲイン値Cgain=1.5,オフセット値Coffset=0 の場合を示す。なお、画素データP1a,P1bの値は整数であるため、小数点以下を切り捨てとしている。   The left part of FIG. 7 shows the relationship between the pixel data P0 and the pixel data P1a and P1b in the contrast correction. The values shown in FIG. 7 indicate the case where the gain value Cgain = 1.5 and the offset value Coffset = 0. Since the values of the pixel data P1a and P1b are integers, the decimal part is rounded down.

例えば、画素データP0が「1」のとき、コントラスト補正部42は、「2」の画素データP1aを出力する。また、コントラスト補正部42は、画素データP0の値に「1」を加算した値「2」に応じた「3」の補正用画素データP1bを出力する。この場合、画素データP1aと補正用画素データP1bの差分である「2」が階調の差となる。   For example, when the pixel data P0 is “1”, the contrast correction unit 42 outputs the pixel data P1a of “2”. In addition, the contrast correction unit 42 outputs correction pixel data P1b of “3” corresponding to a value “2” obtained by adding “1” to the value of the pixel data P0. In this case, “2” which is the difference between the pixel data P1a and the correction pixel data P1b is the difference in gradation.

また、画素データP0が「3」のとき、コントラスト補正部42は、「4」の画素データP1aを出力する。また、コントラスト補正部42は、画素データP0の値に「1」を加算した値「4」に応じた「6」の補正用画素データP1bを出力する。この場合、画素データP1aと補正用画素データP1bの差分である「2」が階調の差となる。   Further, when the pixel data P0 is “3”, the contrast correction unit 42 outputs the pixel data P1a of “4”. Further, the contrast correction unit 42 outputs correction pixel data P1b of “6” corresponding to a value “4” obtained by adding “1” to the value of the pixel data P0. In this case, “2” which is the difference between the pixel data P1a and the correction pixel data P1b is the difference in gradation.

次に、γ補正部43を説明する。
図3に示すように、γ補正部43は、コントラスト補正部42から出力される画素データP1aに対して、画像の出力部の感度特性に応じて各色の色情報を補正するガンマ補正(γ補正)を施し、画素データP2aを生成する。また、γ補正部43は、コントラスト補正部から出力される補正用画素データP1bをγ補正して補正用画素データP2bを生成する。画素データP2aは第3の画素データの一例、補正用画素データP2bは第4の画素データの一例である。
Next, the γ correction unit 43 will be described.
As illustrated in FIG. 3, the γ correction unit 43 performs gamma correction (γ correction) that corrects color information of each color according to the sensitivity characteristics of the output unit of the image with respect to the pixel data P1a output from the contrast correction unit 42. ) To generate pixel data P2a. Further, the γ correction unit 43 generates γ correction pixel data P2b by γ correcting the correction pixel data P1b output from the contrast correction unit. The pixel data P2a is an example of third pixel data, and the correction pixel data P2b is an example of fourth pixel data.

なお、γ補正部43に供給される画素データP1a及び補正用画素データP1bは、3色(R,G,B)の色情報を持ち、各色の色情報は、例えば8ビットのデータである。各γ補正部43は、色情報について同じ処理を行う。このため、1色の色情報、例えば8ビットのデータに応じた回路及び動作を説明する。例えば、画素データP1aに含まれる1色の色情報を色データP1a、補正用画素データP1bに含まれる1色の色情報を補正用色データP1bとして説明する。   The pixel data P1a and the correction pixel data P1b supplied to the γ correction unit 43 have color information of three colors (R, G, B), and the color information of each color is, for example, 8-bit data. Each γ correction unit 43 performs the same process on the color information. Therefore, a circuit and operation corresponding to color information of one color, for example, 8-bit data will be described. For example, one color information included in the pixel data P1a will be described as color data P1a, and one color information included in the correction pixel data P1b will be described as correction color data P1b.

図5に示すように、γ補正部43は、補正テーブル51、比較部52、セレクタ53,54、演算部55を有している。
補正テーブル51には、γ補正における出力データが格納されている。補正テーブル51は、入力データである色データP1aに応じた領域に格納された出力データを出力する。
As shown in FIG. 5, the γ correction unit 43 includes a correction table 51, a comparison unit 52, selectors 53 and 54, and a calculation unit 55.
The correction table 51 stores output data for γ correction. The correction table 51 outputs output data stored in an area corresponding to the color data P1a that is input data.

図6は、γ補正曲線の一例を示す。なお、図6において、横軸は入力データの階調、縦軸は出力データの階調である。画像の出力部におけるγ値は例えば「2.2」である。図6に示すγ補正曲線は、画像の出力部に対応する階調の画素データを生成するため、γ値が例えば「0.45(≒1/2.2)」の曲線である。   FIG. 6 shows an example of a γ correction curve. In FIG. 6, the horizontal axis represents the gradation of the input data, and the vertical axis represents the gradation of the output data. The γ value at the image output unit is, for example, “2.2”. The γ correction curve shown in FIG. 6 is a curve having a γ value of, for example, “0.45 (≈1 / 2.2)” in order to generate pixel data having a gradation corresponding to the image output unit.

補正テーブル51は、色データP1a(入力データ)の階調に応じた複数の記憶領域を有している。記憶領域の数は、色データP1aの範囲(階調)に対応する。例えば、色データP1aを8ビットとするとき、補正テーブル51は256の記憶領域を有する。各記憶領域には、8ビットの出力データが格納される。画素データにより指定される記憶領域には、その画素データに対応する出力データが格納されている。補正テーブル51は、色データP1a(入力データ)に応じた出力データを出力する。同様に、また、補正テーブル51は、補正用色データP1b(入力データ)に応じた出力データを出力する。   The correction table 51 has a plurality of storage areas corresponding to the gradation of the color data P1a (input data). The number of storage areas corresponds to the range (gradation) of the color data P1a. For example, when the color data P1a is 8 bits, the correction table 51 has 256 storage areas. Each storage area stores 8-bit output data. Output data corresponding to the pixel data is stored in the storage area designated by the pixel data. The correction table 51 outputs output data corresponding to the color data P1a (input data). Similarly, the correction table 51 outputs output data corresponding to the correction color data P1b (input data).

補正テーブル51は、複数(図5では4個)のメモリM1〜M4を有している。各メモリM1〜M4の記憶容量は、互いに等しく設定されている。各メモリM1〜M4は、8ビット(256階調)の画素データに応じて、それぞれ64個の出力データを記憶する。   The correction table 51 has a plurality of (four in FIG. 5) memories M1 to M4. The storage capacities of the memories M1 to M4 are set equal to each other. Each of the memories M1 to M4 stores 64 output data according to 8-bit (256 gradations) pixel data.

例えば、第1のメモリM1には、色データP1aの階調値0,4,8,…,56,60に応じた出力データが記憶される。第2のメモリM2には、色データP1aの階調値1,5,9,…,57,61に応じた出力データが記憶される。第3のメモリM3には、色データP1aの階調値2,6,10,…,58,62に応じた出力データが記憶される。第4のメモリM4には、色データP1aの階調値3,7,11,…,59,63に応じた出力データが記憶される。   For example, the first memory M1 stores output data corresponding to the gradation values 0, 4, 8,..., 56, 60 of the color data P1a. The second memory M2 stores output data corresponding to the gradation values 1, 5, 9,... 57, 61 of the color data P1a. The third memory M3 stores output data corresponding to the gradation values 2, 6, 10,..., 58, 62 of the color data P1a. The fourth memory M4 stores output data corresponding to the gradation values 3, 7, 11,... 59, 63 of the color data P1a.

γ補正部43は、色データP1aをメモリM1〜M4に対するアドレス信号とし、そのアドレス信号にしたがってメモリM1〜M4から読み出されたデータに基づいて、γ補正後の色データP2aと出力する。また、γ補正部43は、補正用色データP1bをメモリM1〜M4に対するアドレス信号とし、そのアドレス信号にしたがってメモリM1〜M4から読み出されたデータに基づいて、γ補正後の補正用色データP2bを出力する。   The γ correction unit 43 uses the color data P1a as an address signal for the memories M1 to M4, and outputs the color data P2a after γ correction based on the data read from the memories M1 to M4 according to the address signal. Further, the γ correction unit 43 uses the correction color data P1b as an address signal for the memories M1 to M4, and based on the data read from the memories M1 to M4 according to the address signal, the correction color data after γ correction P2b is output.

例えば、γ補正部43は、8ビットの色データP1a[7:0]のうち、上位6ビットの画素データP1a[7:2]をロウアドレス信号RA1[5:0]とし、下位2ビットの色データP1a[1:0]をコラムアドレス信号CA1[1:0]とする。また、γ補正部43は、8ビットの補正用色データP1b[7:0]のうち、上位6ビットの補正用画素データP1b[7:2]をロウアドレス信号RA2[5:0]とし、下位2ビットの色データP1b[1:0]をコラムアドレス信号CA2[1:0]とする。括弧内の文字はそのデータ又は信号に含まれるビットの範囲を示す。例えば、[7:0]は、7ビット目から0ビット目までを含むことを示す。なお、図5ではビットの範囲を省略している。また、以下の説明において、ビットの範囲を省略する。   For example, the γ correction unit 43 uses the upper 6-bit pixel data P1a [7: 2] of the 8-bit color data P1a [7: 0] as the row address signal RA1 [5: 0], and uses the lower 2 bits. The color data P1a [1: 0] is the column address signal CA1 [1: 0]. The γ correction unit 43 sets the upper 6-bit correction pixel data P1b [7: 2] among the 8-bit correction color data P1b [7: 0] as the row address signal RA2 [5: 0]. The lower 2 bits of color data P1b [1: 0] is used as a column address signal CA2 [1: 0]. The characters in parentheses indicate the range of bits included in the data or signal. For example, [7: 0] indicates that the 7th to 0th bits are included. In FIG. 5, the bit range is omitted. In the following description, the bit range is omitted.

コラムアドレス信号CA1,CA2のビット数は、メモリM1〜M4の数に対応する。コラムアドレス信号CA1,CA2は、メモリM1〜M4を選択するために用いられる。ロウアドレス信号RA1,RA2のビット数は、メモリM1〜M4の記憶容量に対応する。ロウアドレス信号RA1,RA2は、各メモリM1〜M4の記憶領域を指定するために用いられる。   The number of bits of column address signals CA1 and CA2 corresponds to the number of memories M1 to M4. Column address signals CA1 and CA2 are used to select memories M1 to M4. The number of bits of the row address signals RA1 and RA2 corresponds to the storage capacity of the memories M1 to M4. Row address signals RA1 and RA2 are used for designating storage areas of the memories M1 to M4.

例えば、コラムアドレス信号CA1とロウアドレス信号RA1により、メモリM1〜M4に含まれる1つの記憶領域が選択される。この選択された記憶領域に記憶されたデータは、コラムアドレス信号CA1とロウアドレス信号RA1を含む画素データP1aをγ補正した出力データである。なお、図5において、各メモリM1〜M4の記憶領域(矩形にて示す)に示される文字は、色データP1aの値(階調値)と、それに対応する出力データ(括弧内の数値)である。   For example, one storage area included in the memories M1 to M4 is selected by the column address signal CA1 and the row address signal RA1. The data stored in the selected storage area is output data obtained by subjecting the pixel data P1a including the column address signal CA1 and the row address signal RA1 to γ correction. In FIG. 5, the characters shown in the storage areas (indicated by rectangles) of the memories M1 to M4 are the value of the color data P1a (gradation value) and the corresponding output data (numerical values in parentheses). is there.

比較部52は、コラムアドレス信号CA1とコラムアドレス信号CA2を互いに比較し、比較結果に応じた検出信号SCTを出力する。比較部52は、コラムアドレス信号CA2がコラムアドレス信号CA1と一致する場合に第1の所定値(例えば「1」)の検出信号SCTを出力し、コラムアドレス信号CA2がコラムアドレス信号CA1と一致しない場合に第2の所定値(例えば「0」)の検出信号SCTを出力する。   The comparison unit 52 compares the column address signal CA1 and the column address signal CA2 with each other, and outputs a detection signal SCT corresponding to the comparison result. The comparison unit 52 outputs a detection signal SCT having a first predetermined value (for example, “1”) when the column address signal CA2 matches the column address signal CA1, and the column address signal CA2 does not match the column address signal CA1. In this case, a detection signal SCT having a second predetermined value (for example, “0”) is output.

コラムアドレス信号CA1は、色データP1aに応じてアクセスするメモリを示す。コラムアドレス信号CA2は、補正用色データP1bに応じてアクセスするメモリを示す。したがって、比較部52は、色データP1aに応じたメモリと補正用色データP1bに応じたメモリとが一致するか否かを検出し、検出結果に応じた検出信号SCTを出力する。   The column address signal CA1 indicates a memory that is accessed according to the color data P1a. The column address signal CA2 indicates a memory that is accessed according to the correction color data P1b. Therefore, the comparison unit 52 detects whether or not the memory corresponding to the color data P1a matches the memory corresponding to the correction color data P1b, and outputs a detection signal SCT corresponding to the detection result.

補正テーブル51のアドレス変換部56は、ロウアドレス信号RA2、コラムアドレス信号CA2、検出信号SCTに基づいて、メモリM1〜M4をアクセスするためのロウアドレス信号RB2、コラムアドレス信号CB2を生成する。検出信号SCTは、色データP1aに基づくロウアドレス信号RA1と、色データP1aに基づくロウアドレス信号RA2が互いに一致するか否かを示す。メモリM1〜M4は、ロウアドレス信号RA1,RA2に基づいて選択される。つまり、検出信号SCTは、色データP1aに対応する補正データと、補正用色データP1bに対応する補正データが同一のメモリに格納されているか否かを示す。   The address conversion unit 56 of the correction table 51 generates a row address signal RB2 and a column address signal CB2 for accessing the memories M1 to M4 based on the row address signal RA2, the column address signal CA2, and the detection signal SCT. The detection signal SCT indicates whether or not the row address signal RA1 based on the color data P1a matches the row address signal RA2 based on the color data P1a. The memories M1 to M4 are selected based on the row address signals RA1 and RA2. That is, the detection signal SCT indicates whether the correction data corresponding to the color data P1a and the correction data corresponding to the correction color data P1b are stored in the same memory.

検出信号SCTが「0」の場合、色データP1aにより参照するメモリと、補正用色データP1bにより参照するメモリとが互いに異なる。この場合、アドレス変換部56は、CTが「0」の場合、ロウアドレス信号RA2と等しいロウアドレス信号RB2と、コラムアドレス信号CA2と等しいコラムアドレス信号CB2を出力する。これにより、補正用色データP1bに応じたメモリがアクセスされ、そのメモリに格納された補正データが出力される。   When the detection signal SCT is “0”, the memory referred to by the color data P1a and the memory referred to by the correction color data P1b are different from each other. In this case, when CT is “0”, the address conversion unit 56 outputs a row address signal RB2 equal to the row address signal RA2 and a column address signal CB2 equal to the column address signal CA2. As a result, the memory corresponding to the correction color data P1b is accessed, and the correction data stored in the memory is output.

検出信号SCTが「1」の場合、色データP1aにより参照するメモリと、補正用色データP1bにより参照するメモリとが一致する。この場合、アドレス変換部56は、補正用色データP1bによりアクセスする記憶領域に対して、アドレスにおいて前方に隣接する記憶領域と後方に隣接する記憶領域をアクセスするように、ロウアドレス信号RB2及びコラムアドレス信号CB2を生成する。アドレスにおける前方は、アドレスが小さくなる方向であり、アドレスにおける後方は、アドレスが大きくなる方向である。また、アドレスにおいて隣接する記憶領域とは、アドレスが「1」異なる記憶領域である。   When the detection signal SCT is “1”, the memory referred to by the color data P1a matches the memory referred to by the correction color data P1b. In this case, the address conversion unit 56 accesses the storage area accessed by the correction color data P1b so as to access the storage area adjacent to the front and the storage area adjacent to the rear in the address. An address signal CB2 is generated. The front in the address is the direction in which the address becomes smaller, and the rear in the address is the direction in which the address becomes larger. Further, the storage area adjacent in the address is a storage area having an address different by “1”.

したがって、検出信号SCTが「1」の場合、アドレス変換部56は、それぞれ2つのアドレスを含むロウアドレス信号RB2とコラムアドレス信号CB2を生成する。なお、説明上、これらを区別するために、前方のアドレスには「f」、後方のアドレスには「b」を付して説明する場合がある。例えば、ロウアドレス信号RB2は、前方のアドレス信号RB2fと後方のアドレス信号RB2bを含む。   Therefore, when the detection signal SCT is “1”, the address conversion unit 56 generates a row address signal RB2 and a column address signal CB2 each including two addresses. For the sake of explanation, in order to distinguish these, there are cases where the front address is denoted by “f” and the rear address is denoted by “b”. For example, the row address signal RB2 includes a front address signal RB2f and a rear address signal RB2b.

まず、前方に隣接する記憶領域のアドレス算出を説明する。
アドレス変換部56は、コラムアドレス信号CA2から「1」を減算してコラムアドレス信号CB2fを生成する。このとき、コラムアドレス信号CB2fが「−1」の場合、アドレス変換部56は、コラムアドレス信号CB2fを「3」とする。アドレス変換部56は、コラムアドレス信号CA2が「1」〜「3」の場合、ロウアドレス信号RA2と等しいロウアドレス信号RB2fを生成する。そして、アドレス変換部56は、コラムアドレス信号CA2が「0」の場合、ロウアドレス信号RA2から「1」を減算してロウアドレス信号RB2fとする。
First, the calculation of the address of the storage area adjacent to the front will be described.
The address conversion unit 56 subtracts “1” from the column address signal CA2 to generate a column address signal CB2f. At this time, when the column address signal CB2f is “−1”, the address conversion unit 56 sets the column address signal CB2f to “3”. The address conversion unit 56 generates a row address signal RB2f equal to the row address signal RA2 when the column address signal CA2 is “1” to “3”. When the column address signal CA2 is “0”, the address conversion unit 56 subtracts “1” from the row address signal RA2 to obtain the row address signal RB2f.

つぎに、後方に隣接する記憶領域のアドレス算出を説明する。
アドレス変換部56は、コラムアドレス信号CA2に「1」を加算してコラムアドレス信号CB2bを生成する。このとき、コラムアドレス信号CB2bが「4」の場合、アドレス変換部56は、コラムアドレス信号CB2bを「0」とする。アドレス変換部56は、コラムアドレス信号CA2が「0」〜「2」の場合、ロウアドレス信号RA2と等しいロウアドレス信号RB2bを生成する。そして、アドレス変換部56は、コラムアドレス信号CA2が「3」の場合、ロウアドレス信号RA2に「1」を加算してロウアドレス信号RB2bとする。
Next, address calculation of the storage area adjacent to the rear will be described.
The address conversion unit 56 adds “1” to the column address signal CA2 to generate the column address signal CB2b. At this time, when the column address signal CB2b is “4”, the address conversion unit 56 sets the column address signal CB2b to “0”. The address conversion unit 56 generates a row address signal RB2b equal to the row address signal RA2 when the column address signal CA2 is “0” to “2”. When the column address signal CA2 is “3”, the address conversion unit 56 adds “1” to the row address signal RA2 to obtain the row address signal RB2b.

例えば、補正テーブル51は、2ビットのコラムアドレス信号CA1[1:0]をデコードして各メモリM1〜M4に対する第1の選択信号を生成する。また、補正テーブル51は、2ビットのコラムアドレス信号CB2[1:0]をデコードして各メモリM1〜M4に対する第2の選択信号を生成する。そして、第1の選択信号と第2の選択信号を論理演算(論理和演算)してメモリM1〜M4のそれぞれに対する選択信号を生成する。ロウアドレス信号についても同様である。これにより、同時に複数のメモリを選択する。選択されたメモリは、ロウアドレス信号RA1,RB2に応じた記憶領域の補正データを読み出し、出力データD1〜D4を出力する。   For example, the correction table 51 decodes the 2-bit column address signal CA1 [1: 0] and generates a first selection signal for each of the memories M1 to M4. The correction table 51 decodes the 2-bit column address signal CB2 [1: 0] and generates a second selection signal for each of the memories M1 to M4. Then, the first selection signal and the second selection signal are subjected to a logical operation (logical sum operation) to generate a selection signal for each of the memories M1 to M4. The same applies to the row address signal. As a result, a plurality of memories are selected simultaneously. The selected memory reads correction data in the storage area corresponding to the row address signals RA1 and RB2, and outputs output data D1 to D4.

セレクタ53には、各メモリM1〜M4の出力データD1〜D4が供給される。また、セレクタ53には、コラムアドレス信号CA1が供給される。セレクタ53は、出力データD1〜D4のうち、コラムアドレス信号CA1に応じた出力データを選択し、その選択した出力データと等しい色データP1aを出力する。例えば、コラムアドレス信号CA1が「00」の場合、セレクタ53はメモリM1の出力データD1を選択し、その出力データD1と等しい色データP1aを出力する。セレクタ53における出力データD1〜D4は第1の補正データの一例である。   The selector 53 is supplied with output data D1 to D4 from the memories M1 to M4. The selector 53 is supplied with a column address signal CA1. The selector 53 selects output data corresponding to the column address signal CA1 from the output data D1 to D4, and outputs color data P1a equal to the selected output data. For example, when the column address signal CA1 is “00”, the selector 53 selects the output data D1 of the memory M1 and outputs color data P1a equal to the output data D1. The output data D1 to D4 in the selector 53 is an example of first correction data.

セレクタ54には、各メモリM1〜M4の出力データD1〜D4が供給される。また、セレクタ54には、コラムアドレス信号CA2と検出信号SCTが供給される。セレクタ54は、コラムアドレス信号CA2と検出信号SCTに基づいて、各メモリM1〜M4の出力データD1〜D4に応じた2つの出力データSD1,SD2を出力する。   The selector 54 is supplied with output data D1 to D4 from the memories M1 to M4. The selector 54 is supplied with a column address signal CA2 and a detection signal SCT. The selector 54 outputs two output data SD1 and SD2 corresponding to the output data D1 to D4 of the memories M1 to M4 based on the column address signal CA2 and the detection signal SCT.

セレクタ54は、検出信号SCTが「0」の場合、出力データD1〜D4のうち、コラムアドレス信号CA2に応じた1つの出力データを選択し、その選択データと等しい2つの出力データSD1,SD2を出力する。例えば、コラムアドレス信号CA2が「01」の場合、セレクタ54は、メモリM2の出力データD2を選択し、その出力データD2と等しい出力データSD1,SD2を出力する。セレクタ54における出力データD1〜D4は第2の補正データの一例である。   When the detection signal SCT is “0”, the selector 54 selects one output data corresponding to the column address signal CA2 from the output data D1 to D4, and selects two output data SD1 and SD2 equal to the selected data. Output. For example, when the column address signal CA2 is “01”, the selector 54 selects the output data D2 of the memory M2 and outputs output data SD1 and SD2 equal to the output data D2. Output data D1 to D4 in the selector 54 is an example of second correction data.

セレクタ54は、検出信号SCTが「1」の場合、コラムアドレス信号CA2に基づいて、出力データD1〜D4のうちの2つの出力データを選択し、選択した2つの出力データとそれぞれ等しい出力データSD1,SD2を出力する。このとき、セレクタ54が選択する2つの出力データは、上記の補正テーブル51において説明した前方のアドレスに応じた出力データと後方のアドレスに応じた出力データである。   When the detection signal SCT is “1”, the selector 54 selects two output data among the output data D1 to D4 based on the column address signal CA2, and the output data SD1 that is equal to the two selected output data, respectively. , SD2 is output. At this time, the two output data selected by the selector 54 are the output data corresponding to the front address and the output data corresponding to the rear address described in the correction table 51 described above.

セレクタ54は、コラムアドレス信号CA2から「1」を減算した結果の値を得る。このとき、セレクタ54は、結果の値が「−1」の場合、結果の値を「3」とする。そして、セレクタ54は、結果の値に応じたメモリの出力データを選択する。例えば、コラムアドレス信号CA2が「1」の場合、演算結果は「0」となる。セレクタ54は、結果に基づいて、「0」のコラムアドレス信号CA2に応じたメモリM1の出力データD1を選択する。同様に、演算結果が「1」〜「3」の場合、メモリM2〜M4の出力データD2〜D4を選択する。そして、セレクタ54は、選択したデータと等しい出力データSD1を出力する。   The selector 54 obtains a value obtained by subtracting “1” from the column address signal CA2. At this time, when the result value is “−1”, the selector 54 sets the result value to “3”. Then, the selector 54 selects memory output data corresponding to the result value. For example, when the column address signal CA2 is “1”, the calculation result is “0”. Based on the result, the selector 54 selects the output data D1 of the memory M1 according to the column address signal CA2 of “0”. Similarly, when the calculation results are “1” to “3”, the output data D2 to D4 of the memories M2 to M4 are selected. Then, the selector 54 outputs output data SD1 that is equal to the selected data.

また、セレクタ54は、コラムアドレス信号CA2に「1」を加算した結果の値を得る。このとき、セレクタ54は、結果の値が「4」の場合、結果の値を「0」とする。そして、セレクタ54は、結果の値に応じたメモリの出力データを選択する。そして、セレクタ54は、選択したデータと等しい出力データSD2を出力する。   The selector 54 obtains a value obtained by adding “1” to the column address signal CA2. At this time, when the result value is “4”, the selector 54 sets the result value to “0”. Then, the selector 54 selects memory output data corresponding to the result value. Then, the selector 54 outputs output data SD2 that is equal to the selected data.

演算部55は、セレクタ54から出力される出力データSD1,SD2を演算して補正用色データP2bを生成する。演算部55における演算は、例えば線形補間演算(平均演算)である。この線形補間演算は、次式により表される。
P2b=(SD1+SD2)/2・・・・・(7)
例えば、検出信号SCTが「0」の場合、セレクタ54は、コラムアドレス信号CA2に応じて選択した1つの出力データと等しい2つの出力データSD1,SD2を出力する。従って、上記の式(7)により算出される補正用色データP2bは、セレクタ54が選択した1つの出力データと等しくなる。つまり、コラムアドレス信号CA2に対応する補正データと等しい出力データが演算部55から出力される。
The calculation unit 55 calculates the output data SD1 and SD2 output from the selector 54 and generates correction color data P2b. The calculation in the calculation unit 55 is, for example, linear interpolation calculation (average calculation). This linear interpolation calculation is expressed by the following equation.
P2b = (SD1 + SD2) / 2 (7)
For example, when the detection signal SCT is “0”, the selector 54 outputs two output data SD1 and SD2 equal to one output data selected according to the column address signal CA2. Therefore, the correction color data P2b calculated by the above equation (7) is equal to one output data selected by the selector 54. That is, output data equal to the correction data corresponding to the column address signal CA2 is output from the arithmetic unit 55.

また、検出信号SCTが「1」の場合、補正用色データP1bに隣接する2つの補正データが補正テーブル51から出力される。演算部55は、この2つの補正データ(第2の補正データ)を線形補間して補正用色データP2bを生成する。この補正用色データP2bは、補正用色データP1bをγ補正した値と等しい値、または補正用色データP1bをγ補正した値に近い値となる。   When the detection signal SCT is “1”, two correction data adjacent to the correction color data P <b> 1 b are output from the correction table 51. The calculation unit 55 linearly interpolates these two correction data (second correction data) to generate correction color data P2b. The correction color data P2b is a value that is equal to a value obtained by γ-correcting the correction color data P1b or a value close to a value obtained by γ-correcting the correction color data P1b.

例えば、図7に示すように、色データP1aが「1」のとき、補正テーブル51は、その色データP1aに応じて「20」の出力データを出力する。図5に示すように、色データP1aはメモリM2を示す。補正用色データP1bが「3」のとき、この補正用色データP1bはメモリM4を示す。したがって、検出信号SCTは「0」であり、図7に示すように、補正テーブル51は、「33」の出力データを出力する。   For example, as shown in FIG. 7, when the color data P1a is “1”, the correction table 51 outputs output data “20” according to the color data P1a. As shown in FIG. 5, the color data P1a indicates the memory M2. When the correction color data P1b is “3”, the correction color data P1b indicates the memory M4. Therefore, the detection signal SCT is “0”, and the correction table 51 outputs “33” output data as shown in FIG.

別の例として、色データP1aが「1」、補正用色データP1bが「5」のとき、図5に示すように、色データP1aと補正用色データP1bはともにメモリM2を示す。したがって、検出信号SCTが「1」となる。このとき、補正テーブル51は、色データP1aに応じて「20」の出力データD2を出力する。また、補正テーブル51は、補正用色データP1bの前の「38」の出力データD1と、補正用色データP1bの後の「「38」の出力データD3を出力する。セレクタ54は、これらの出力データD1,D3を選択して出力データSD1,SD2を出力する。そして、演算部55は、出力データSD1,SD2に基づいて、「42」の補正用色データP2bを出力する。このとき、補正用色データP1bをγ補正した値は、「42」である。したがって、γ補正部43は、γ補正による値と等しい補正用色データP2bを生成する。   As another example, when the color data P1a is “1” and the correction color data P1b is “5”, the color data P1a and the correction color data P1b both indicate the memory M2, as shown in FIG. Therefore, the detection signal SCT is “1”. At this time, the correction table 51 outputs the output data D2 of “20” according to the color data P1a. The correction table 51 outputs “38” output data D1 before the correction color data P1b and “38” output data D3 after the correction color data P1b. The selector 54 selects the output data D1 and D3 and outputs the output data SD1 and SD2. Then, the computing unit 55 outputs the correction color data P2b of “42” based on the output data SD1 and SD2. At this time, the value obtained by performing γ correction on the correction color data P1b is “42”. Therefore, the γ correction unit 43 generates correction color data P2b that is equal to the value obtained by γ correction.

演算の別の例として、補正用色データP1bが「6」の場合を説明する。このとき、補正テーブル51は、補正用色データP1bの前の「42」の出力データD2と、補正用色データP1bの後の「49」の出力データD4を出力する。セレクタ54は、これらの出力データD2,D4を選択して出力データSD1,SD2を出力する。そして、演算部55は、出力データSD1,SD2に基づいて、「45」の補正用色データP2bを出力する。なお、小数点以下を切り捨てとする。このとき、補正用色データP1bをγ補正した値は、「46」である。したがって、γ補正部43は、γ補正による値に近い補正用色データP1bを生成する。   As another example of the calculation, a case where the correction color data P1b is “6” will be described. At this time, the correction table 51 outputs “42” output data D2 before the correction color data P1b and “49” output data D4 after the correction color data P1b. The selector 54 selects the output data D2 and D4 and outputs the output data SD1 and SD2. Then, the computing unit 55 outputs “45” correction color data P2b based on the output data SD1 and SD2. The fractional part is rounded down. At this time, the value obtained by performing γ correction on the correction color data P1b is “46”. Accordingly, the γ correction unit 43 generates correction color data P1b that is close to the value obtained by γ correction.

次に、階調補正部44を説明する。
図3に示すように、階調補正部44は、γ補正部43から出力される画素データP2aと補正用画素データP2bに基づいて、画素データP2aを補正用画素データP2bにより階調補正した画素データP3を生成する。画素データP3は、第5の画素データの一例である。また、階調補正部44は、デモザイク部41により生成された凹凸度RFに基づいて、画素データP2aを補正用画素データP2bにより階調補正した画素データP3を生成する。
Next, the gradation correction unit 44 will be described.
As shown in FIG. 3, the gradation correction unit 44 is a pixel obtained by performing gradation correction on the pixel data P2a with the correction pixel data P2b based on the pixel data P2a and the correction pixel data P2b output from the γ correction unit 43. Data P3 is generated. The pixel data P3 is an example of fifth pixel data. Further, the gradation correction unit 44 generates pixel data P3 obtained by performing gradation correction on the pixel data P2a with the correction pixel data P2b based on the unevenness degree RF generated by the demosaic unit 41.

図8に示すように、階調補正部44は、疑似乱数生成部61、補正演算部62を有している。
疑似乱数生成部61には、設定値Ssが供給される。設定値Ssは、例えば図3に示すレジスタ22bに格納されている。疑似乱数生成部61は、設定値Ssを基準値として、乱数RPを生成する。疑似乱数生成部61は、例えば混合合同法により乱数RPを生成する。乱数RPは、ほぼ均等な確率で所定範囲内の値となる。この範囲は、例えばコントラスト補正及びγ補正により生じる階調飛びの最大の値に応じて設定される。
As illustrated in FIG. 8, the gradation correction unit 44 includes a pseudo random number generation unit 61 and a correction calculation unit 62.
The pseudo random number generation unit 61 is supplied with the set value Ss. The set value Ss is stored, for example, in the register 22b shown in FIG. The pseudo random number generation unit 61 generates a random number RP using the set value Ss as a reference value. The pseudo-random number generator 61 generates a random number RP by, for example, a mixed congruential method. The random number RP becomes a value within a predetermined range with a substantially equal probability. This range is set in accordance with, for example, the maximum value of gradation skip caused by contrast correction and γ correction.

補正演算部62は、上記の画素データP2a,P2b、乱数RP、凹凸度RFに基づいて、画素データP3を生成する。例えば、補正演算部62は、画素データP2a,P2bの差分値ΔPを算出し、乱数RPを差分値ΔPにより剰余演算した結果の値を、画素データP2aに加算して画素データP3を生成する。つまり、
ΔP=P2b−P2a
P3=P2a+(RP%ΔP)・・・・・(8)
但し、%は剰余演算、
により、画素データP3を算出する。したがって、乱数RPと差分値ΔPによる剰余演算結果は、画素データP2aに対する補正量である。
The correction calculation unit 62 generates pixel data P3 based on the pixel data P2a and P2b, the random number RP, and the unevenness level RF. For example, the correction calculation unit 62 calculates the difference value ΔP between the pixel data P2a and P2b, and adds the value resulting from the remainder calculation of the random number RP using the difference value ΔP to the pixel data P2a to generate the pixel data P3. That means
ΔP = P2b−P2a
P3 = P2a + (RP% ΔP) (8)
Where% is the remainder operation,
Thus, the pixel data P3 is calculated. Therefore, the remainder calculation result by the random number RP and the difference value ΔP is a correction amount for the pixel data P2a.

また、補正演算部62は、凹凸度RFに基づいて、次式に基づいて画素データP3を生成してもよい。
P3=P2a+(R%ΔP)×(1.0−RF)・・・・・(9)
凹凸度RFは、画素データP2aに対して付加される値(=R%ΔP)に対して加味される。例えば、凹凸度RFが「0」の場合、乱数RPと差分値ΔPの剰余演算結果が画素データP2aに加算されて画素データP3が生成される。また、凹凸度RFが「1」の場合、画素データP2aと等しい画素データP3が生成される。つまり、凹凸度RFは、画素データP2aに対して付加する補正量の最大値を設定する。
Further, the correction calculation unit 62 may generate the pixel data P3 based on the following formula based on the unevenness degree RF.
P3 = P2a + (R% ΔP) × (1.0−RF) (9)
The unevenness level RF is added to the value (= R% ΔP) added to the pixel data P2a. For example, when the unevenness degree RF is “0”, the remainder calculation result of the random number RP and the difference value ΔP is added to the pixel data P2a to generate the pixel data P3. Further, when the unevenness level RF is “1”, pixel data P3 equal to the pixel data P2a is generated. That is, the unevenness level RF sets the maximum value of the correction amount added to the pixel data P2a.

例えば、空を撮影した部分の画像データの場合、凹凸度RFは「0」または「0」に近い値となる。このように、着目画素と周囲の画素の差が小さい平坦な部分では、階調飛びが目立つ。一方、着目画素と周囲の画素の差が大きな部分では、階調飛びは目立ち難い。したがって、凹凸度RFに応じて付加する補正量の最大値を設定することで、階調飛びの目立たない画像が得られる。   For example, in the case of image data of a portion obtained by photographing the sky, the unevenness level RF is “0” or a value close to “0”. As described above, the gradation skip is conspicuous in the flat portion where the difference between the target pixel and the surrounding pixels is small. On the other hand, in a portion where the difference between the pixel of interest and the surrounding pixels is large, the gradation skip is hardly noticeable. Therefore, by setting the maximum value of the correction amount to be added according to the unevenness level RF, an image with less noticeable gradation can be obtained.

次に、上記の撮像装置の作用を説明する。
図9(a)は、測光が上手くいかなかった撮像データにおける輝度値のヒストグラムを示す。図9(a)における縦軸は、各輝度値を持つ画素の数(画素数)である。
Next, the operation of the above imaging device will be described.
FIG. 9A shows a histogram of luminance values in the image data that did not perform photometry well. The vertical axis in FIG. 9A represents the number of pixels (number of pixels) having each luminance value.

このようなヒストグラムとなる撮像データでは、輝度値が小さなシャドー部分と、輝度値が大きなハイライト部分が使用されていない、メリハリの無い、所謂眠たい画像となる。このように、ダイナミックレンジが有効に使用されていない画像はコントラストが低く、見栄えのよい画像とは言えない。なお、シャドー部分が多くハイライト部分が使用されていない暗めの画像や、ハイライト部分が多くシャドー部分が使用されていない明るめの画像も同様である。   In the imaging data having such a histogram, a shadow portion having a small luminance value and a highlight portion having a large luminance value are not used, and a so-called sleepy image without sharpness is obtained. Thus, an image in which the dynamic range is not effectively used has a low contrast and cannot be said to be a good-looking image. The same applies to a dark image in which there are many shadow portions and no highlight portion is used, and a bright image in which there are many highlight portions and no shadow portion is used.

図9(b)は、コントラスト補正により得られる画素データにおける輝度値のヒストグラムである。図9(b)における縦軸は、各輝度値を持つ画素の数(画素数)である。このように、コントラスト補正におけるゲイン値Cgainに応じて、周期的に輝度値を持つ画素が存在しない櫛状のヒストグラムとなる。このような撮像データによる画像は、空や人物の肌のように輝度の変化が少ない部分で生じる縞模様が目立つ。   FIG. 9B is a histogram of luminance values in pixel data obtained by contrast correction. The vertical axis in FIG. 9B is the number of pixels having each luminance value (number of pixels). In this manner, a comb-like histogram in which pixels having luminance values periodically do not exist is obtained according to the gain value Cgain in contrast correction. In an image based on such imaged data, a striped pattern generated in a portion with a small change in luminance such as the sky or the skin of a person is conspicuous.

そして、γ補正では、図6に示すγ補正曲線のように、階調値が「0」から「50」の入力データ(P1a)を、階調値が「0」から「122」の出力データ(P2a)に補正する。したがって、階調値が「0」に近いシャドー部分では、入力データ(P1a)の階調差に対して、出力データ(P2a)の階調差が大きくなる。   In the γ correction, as in the γ correction curve shown in FIG. 6, the input data (P1a) whose gradation value is “0” to “50” and the output data whose gradation value is “0” to “122” are used. Correction to (P2a). Therefore, in the shadow portion where the gradation value is close to “0”, the gradation difference of the output data (P2a) is larger than the gradation difference of the input data (P1a).

図3に示すように、階調補正部44は、γ補正部43から出力される画素データP2aと補正用画素データP2bの差分値ΔPに応じてランダムに生成した補正量を画素データP2aに付加(加算)して画素データP3を生成する。その結果、図9(c)に示すように、階調補正後の画素データP3は、階調飛びの目立たないヒストグラムとなる。階調補正部44における演算処理はノイズの付加と同様の演算処理である。このため、補正前の画像に対して暫定的にざらついた感じとなるが、画像の平坦な部分で階調補正を行わない画像と比べて縞模様は気にならなくなる。このように、画質の劣化を抑制することができる。   As shown in FIG. 3, the gradation correction unit 44 adds a correction amount randomly generated according to the difference value ΔP between the pixel data P2a output from the γ correction unit 43 and the correction pixel data P2b to the pixel data P2a. (Addition) is performed to generate pixel data P3. As a result, as shown in FIG. 9C, the pixel data P3 after gradation correction is a histogram in which gradation skip is inconspicuous. The calculation process in the gradation correction unit 44 is the same calculation process as the addition of noise. For this reason, it feels tentatively rough with respect to the image before correction, but the striped pattern becomes less worrisome compared to an image where gradation correction is not performed on a flat portion of the image. In this way, deterioration of image quality can be suppressed.

以上記述したように、本実施形態によれば、以下の効果を奏する。
(1)コントラスト補正部42は、輝度最大値Ymax及び輝度最小値Yminに基づいて、画素データP0のコントラストを補正した画素データP1aと、画素データP0に所定値「1」を加算した画素データのコントラストを補正した補正用画素データP1bを生成する。γ補正部43は、画素データP1aに対して、画像の出力部の感度特性に応じて各色の色情報を補正するガンマ補正(γ補正)を施した画素データP2aと、補正用画素データP1bをγ補正して補正用画素データP2bを生成する。階調補正部44は、画素データP2aと補正用画素データP2bとの差分値ΔPに応じて、画素データP2aを階調補正した画素データP3を生成する。差分値ΔPは、コントラスト補正とγ補正により生じる階調飛びに対応する。この差分値ΔPに応じて、γ補正後の画素データP2aを階調補正することにより、画質の劣化を抑制することができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) The contrast correction unit 42 includes pixel data P1a obtained by correcting the contrast of the pixel data P0 based on the maximum luminance value Ymax and the minimum luminance value Ymin, and pixel data obtained by adding a predetermined value “1” to the pixel data P0. Correction pixel data P1b with corrected contrast is generated. The γ correction unit 43 performs pixel data P2a on which pixel data P1a is subjected to gamma correction (γ correction) for correcting color information of each color in accordance with sensitivity characteristics of an image output unit, and correction pixel data P1b. Correction pixel data P2b is generated by performing γ correction. The gradation correction unit 44 generates pixel data P3 obtained by performing gradation correction on the pixel data P2a according to the difference value ΔP between the pixel data P2a and the correction pixel data P2b. The difference value ΔP corresponds to a gradation skip caused by contrast correction and γ correction. By performing tone correction on the pixel data P2a after γ correction according to the difference value ΔP, it is possible to suppress deterioration in image quality.

(2)階調補正部44は、凹凸度RFに基づいて、画素データP2aを補正用画素データP2bにより階調補正した画素データP3を生成する。例えば、空を撮影した部分の画像データの場合、凹凸度RFは「0」または「0」に近い値となる。このように、着目画素と周囲の画素の差が小さい平坦な部分では、階調飛びが目立つ。一方、着目画素と周囲の画素の差が大きな部分では、階調飛びは目立ち難い。したがって、凹凸度RFに応じて付加する補正量の最大値を設定することで、階調飛びの目立たない画像を得ることができる。   (2) The gradation correction unit 44 generates pixel data P3 obtained by performing gradation correction on the pixel data P2a with the correction pixel data P2b based on the unevenness level RF. For example, in the case of image data of a portion obtained by photographing the sky, the unevenness level RF is “0” or a value close to “0”. As described above, the gradation skip is conspicuous in the flat portion where the difference between the target pixel and the surrounding pixels is small. On the other hand, in a portion where the difference between the pixel of interest and the surrounding pixels is large, the gradation skip is hardly noticeable. Therefore, by setting the maximum value of the correction amount to be added according to the unevenness level RF, it is possible to obtain an image in which gradation skip is not noticeable.

尚、上記各実施形態は、以下の態様で実施してもよい。
・各色に対応する3つの受光部が光の入射面に対して垂直方向に沿って形成された撮像センサを含む撮像光学系を用いて画像データ(RAWデータ)を生成するようにしてもよい。1つの画素に対応する画像データは、3色(R,G,B)の色情報を含む。このため、図1に示すセンサI/F21において、1つの画素データに含まれる3色の色情報に基づいて、その画素データにおける輝度値を算出する。この場合、図3に示すデモザイク部41におけるデモザイク処理を省略することができる。
In addition, you may implement each said embodiment in the following aspects.
-You may make it produce | generate image data (RAW data) using the imaging optical system containing the imaging sensor in which three light-receiving parts corresponding to each color were formed along the orthogonal | vertical direction with respect to the incident plane of light. Image data corresponding to one pixel includes color information of three colors (R, G, B). For this reason, the sensor I / F 21 shown in FIG. 1 calculates the luminance value in the pixel data based on the color information of the three colors included in one pixel data. In this case, the demosaic process in the demosaic unit 41 shown in FIG. 3 can be omitted.

・図3に示すデモザイク部41において、生成したRGBの色情報を含む画素データSRに基づいて凹凸度RFを算出するようにしてもよい。
また、図3に示すデモザイク部41において、分散演算や標準偏差など、平均からのばらつきを示すことが可能な演算を用いて凹凸度RFを算出するようにしてもよい。
In the demosaic unit 41 shown in FIG. 3, the unevenness degree RF may be calculated based on the generated pixel data SR including RGB color information.
Further, in the demosaic unit 41 illustrated in FIG. 3, the unevenness degree RF may be calculated using a calculation that can show a variation from the average, such as a dispersion calculation or a standard deviation.

・上記実施形態に対し、カーネルのサイズを、例えば、3×3、7×7、等のように、適宜変更してもよい。また、縦と横のサイズが異なるカーネル(例えば、5×7、7×5)を用いて凹凸度RFを算出するようにしてもよい。   -For the above embodiment, the kernel size may be changed as appropriate, for example, 3 × 3, 7 × 7, or the like. Alternatively, the unevenness degree RF may be calculated using kernels having different vertical and horizontal sizes (for example, 5 × 7, 7 × 5).

・図5に示すγ補正部43において、比較部52を省略し、補正用色データP1bに基づいて2つのメモリから読み出した補正データを演算部55にて演算して補正用色データP2bを生成するようにしてもよい。   In the γ correction unit 43 shown in FIG. 5, the comparison unit 52 is omitted, and the correction data read from the two memories is calculated by the calculation unit 55 based on the correction color data P1b to generate the correction color data P2b. You may make it do.

・図5に示す演算部55における演算を適宜変更してもよい。例えば、αブレンド演算を用いて、次式のように補正用色データP2bを生成するようにしてもよい。
P2b=SD1×α+SD2×(1−α)
αは係数であり、この係数αは、例えば図6に示すγ補正曲線に応じたデータを記憶した参照テーブル(LUT:Look Up Table)により得られる。参照テーブルのデータは、例えば、γ補正曲線を折れ線に近似した値をロジック回路により算出して格納することが可能である。γ補正曲線に応じた係数αを用いることで、高い精度により補正用色データP2bを得ることが可能となる。
-You may change suitably the calculation in the calculating part 55 shown in FIG. For example, the correction color data P2b may be generated using the α blend operation as in the following equation.
P2b = SD1 × α + SD2 × (1−α)
α is a coefficient, and this coefficient α is obtained by a lookup table (LUT: Look Up Table) that stores data corresponding to the γ correction curve shown in FIG. 6, for example. The data of the reference table can be calculated and stored by a logic circuit, for example, by approximating a γ correction curve to a polygonal line. By using the coefficient α corresponding to the γ correction curve, the correction color data P2b can be obtained with high accuracy.

・コントラスト補正部42において、補正用画素データP1bの画素値を、画素データP1aの画素値に「1」を加算した値を用いたが、「1」を減算した値を用いてもよい。このようにしても、コントラスト補正とγ補正において生じる階調飛びに応じた差分値ΔPを得ることができ、階調補正を行うことが可能となる。   In the contrast correction unit 42, the value obtained by adding “1” to the pixel value of the pixel data P1a is used as the pixel value of the correction pixel data P1b, but a value obtained by subtracting “1” may be used. Even in this way, it is possible to obtain the difference value ΔP corresponding to the gradation skip occurring in the contrast correction and the γ correction, and the gradation correction can be performed.

・階調補正部44において、凹凸度RFに応じて補正量の最大値を決定するようにした。凹凸度RFに基づいて、補正の要否を判定するようにしてもよい。例えば、凹凸度RFと所定のしきい値とを比較し、凹凸度RFがしきい値より大きいときに補正が行うようにしてもよい。しきい値は、凹凸度RFや階調値に応じて設定される。   In the gradation correction unit 44, the maximum correction amount is determined according to the degree of unevenness RF. The necessity of correction may be determined based on the unevenness level RF. For example, the unevenness degree RF may be compared with a predetermined threshold value, and correction may be performed when the unevenness degree RF is greater than the threshold value. The threshold value is set according to the unevenness level RF and the gradation value.

例えば、上記実施形態のように凹凸度RFが「0」〜「1」の場合、しきい値を例えば「0.5」に設定する。凹凸度RFがしきい値より小さい場合に、上記の式(8)または式(9)により画素データP3を生成する。一方、凹凸度RFがしきい値以上の場合に、画素データP2aと等しい値の画素データP3を生成する。このようにしても、平坦な部分における階調飛びを補正し、画質の劣化を抑制することができる。   For example, when the unevenness degree RF is “0” to “1” as in the above embodiment, the threshold value is set to “0.5”, for example. When the unevenness degree RF is smaller than the threshold value, the pixel data P3 is generated by the above formula (8) or formula (9). On the other hand, when the unevenness degree RF is equal to or greater than the threshold value, pixel data P3 having a value equal to the pixel data P2a is generated. Even in this way, it is possible to correct the gradation skip in the flat portion and suppress the deterioration of the image quality.

・画素データに含まれる各色の色情報のビット数を適宜変更してもよい。例えば、10ビット、12ビット、等とする。色情報のビット数は階調数に対応する。したがって、図5に示す補正テーブル51の記憶容量、ロウアドレス信号RA1,RA2,RB2のビット数が、色情報のビット数に応じて変更される。   -You may change suitably the bit number of the color information of each color contained in pixel data. For example, 10 bits, 12 bits, etc. The number of bits of color information corresponds to the number of gradations. Therefore, the storage capacity of the correction table 51 shown in FIG. 5 and the number of bits of the row address signals RA1, RA2, RB2 are changed according to the number of bits of color information.

・上記実施形態において、ベイヤ配列のカラーフィルタを含む撮像部10を用いたが、その他の配列カラーフィルタを含む撮像素子部を用いても良い。また、画素の配列方向は直交する2つの軸に限らない。更には、各色の画素がチップの深さ方向に形成された撮像素子を用いても良い。また、赤(R),青(B),緑(G)以外の色のフィルタを含む撮像素子部を用いてもよい。フィルタは、原色フィルタに限らず、補色フィルタを用いてもよい。   In the above embodiment, the imaging unit 10 including a Bayer array color filter is used, but an imaging element unit including another array color filter may be used. Further, the pixel arrangement direction is not limited to two orthogonal axes. Furthermore, an image sensor in which pixels of each color are formed in the depth direction of the chip may be used. Further, an imaging element unit including filters of colors other than red (R), blue (B), and green (G) may be used. The filter is not limited to the primary color filter, and a complementary color filter may be used.

21 センサインタフェース(センサI/F)
21b レジスタ
22 画像処理部
22b レジスタ
41 デモザイク部
42 コントラスト補正部
43 ガンマ補正部(γ補正部)
44 階調補正部
51 補正テーブル
52 比較部
53,54 セレクタ
55 演算部
56 アドレス変換部
61 疑似乱数生成部
62 補正演算部
M1〜M4 メモリ
D1〜D4 出力データ
SCT 検出信号
P1a,P2a 色データ(画素データ)
P1b,P2b 補正用色データ(補正用画素データ)
P3 出力画素データ
Cgain ゲイン値
Coffset オフセット値
RF 凹凸度
RP 乱数
Ymax 輝度最大値
Ymin 輝度最小値
21 Sensor interface (Sensor I / F)
21b register 22 image processing unit 22b register 41 demosaic unit 42 contrast correction unit 43 gamma correction unit (γ correction unit)
44 gradation correction unit 51 correction table 52 comparison unit 53, 54 selector 55 calculation unit 56 address conversion unit 61 pseudo random number generation unit 62 correction calculation unit M1-M4 memory D1-D4 output data SCT detection signal P1a, P2a color data (pixel) data)
P1b, P2b Correction color data (correction pixel data)
P3 Output pixel data Cgain Gain value Coffset Offset value RF Unevenness RP Random number Ymax Maximum luminance value Ymin Minimum luminance value

Claims (10)

複数の画素データが含まれる1画面の撮像データの輝度最大値及び輝度最小値に応じたゲイン値とオフセット値に基づいて前記画素データをコントラスト補正した第1の画素データと、前記画素データに所定値を加算した値を前記コントラスト補正した第2の画素データを生成するコントラスト補正部と、
補正テーブルにしたがって前記第1の画素データをガンマ補正した第3の画素データと、前記補正テーブルにしたがって前記第2の画素データをガンマ補正した第4の画素データを生成するガンマ補正部と、
前記第3の画素データと前記第4の画素データとの差分値(ΔP)に応じて前記第3の画素データを補正した第5の画素データを生成する階調補正部と、
を有する画像処理装置。
First pixel data obtained by contrast-correcting the pixel data based on a gain value and an offset value corresponding to a maximum luminance value and a minimum luminance value of imaging data of one screen including a plurality of pixel data, and a predetermined value for the pixel data A contrast correction unit that generates second pixel data in which the value obtained by adding the values is subjected to contrast correction;
A gamma correction unit that generates third pixel data obtained by gamma-correcting the first pixel data according to a correction table; and fourth pixel data obtained by gamma-correcting the second pixel data according to the correction table;
A gradation correction unit that generates fifth pixel data obtained by correcting the third pixel data according to a difference value (ΔP) between the third pixel data and the fourth pixel data;
An image processing apparatus.
前記階調補正部は、
乱数を生成する乱数生成部と、
前記乱数と前記差分値に基づいて算出した補正量を前記第3の画素データに加算して前記第5の画素データを生成する補正演算部とを含むこと、
を特徴とする請求項1に記載の画像処理装置。
The gradation correction unit
A random number generator for generating random numbers;
A correction calculation unit that adds the correction amount calculated based on the random number and the difference value to the third pixel data to generate the fifth pixel data;
The image processing apparatus according to claim 1.
着目画素の周囲の画素データに基づいて前記着目画素における凹凸度を算出する算出部を有し、
前記補正演算部は、前記凹凸度に応じて前記補正量に基づく値を前記第3の画素データに加算して前記第5の画素データを生成すること、
を特徴とする請求項2に記載の画像処理装置。
A calculation unit that calculates the degree of unevenness in the pixel of interest based on pixel data around the pixel of interest;
The correction calculation unit generates the fifth pixel data by adding a value based on the correction amount to the third pixel data according to the degree of unevenness;
The image processing apparatus according to claim 2.
前記ガンマ補正部は、
互いに異なる補正データを記憶した少なくとも3つのメモリを含み、
前記第1の画素データに応じた1つの前記メモリから読み出した第1の補正データに応じて前記第3の画素データを生成し、
前記第2の画素データに応じて前記第1の補正データを読み出した前記メモリと異なる2つの前記メモリからそれぞれ読み出した第2の補正データを演算して前記第4の画素データを生成すること、
を特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
The gamma correction unit is
Including at least three memories storing different correction data;
Generating the third pixel data according to the first correction data read from one of the memories according to the first pixel data;
Calculating the second correction data read from each of the two memories different from the memory from which the first correction data is read according to the second pixel data to generate the fourth pixel data;
The image processing apparatus according to any one of claims 1 to 3.
2つの前記メモリは、前記第2の画素データの前後の画素データに対応するメモリであること、
を特徴とする請求項4に記載の画像処理装置。
The two memories are memories corresponding to pixel data before and after the second pixel data;
The image processing apparatus according to claim 4.
前記ガンマ補正部は、
前記第1の画素データに応じたメモリと前記第2の画素データに応じたメモリが一致するか否かを判定し、一致する場合には、2つの前記メモリからそれぞれ読み出した前記第2の補正データを演算して前記第4の画素データを生成し、一致しない場合には前記第2の画素データに応じたメモリから読み出した前記第2の補正データに応じて前記第4の画素データを生成すること、
を特徴とする請求項4または5に記載の画像処理装置。
The gamma correction unit is
It is determined whether or not the memory corresponding to the first pixel data and the memory corresponding to the second pixel data match, and if they match, the second correction read from each of the two memories Calculate the data to generate the fourth pixel data, and if they do not match, generate the fourth pixel data according to the second correction data read from the memory according to the second pixel data To do,
The image processing apparatus according to claim 4, wherein:
撮像部から出力される画像データをメモリに格納するとともに、前記画像データにおける輝度最大値と輝度最小値を検出するデータ入力部を有し、
前記コントラスト補正部は、前記メモリから読み出した画像データに基づいて前記第1の画素データと前記第2の画素データを生成すること、
を特徴とする請求項1〜6の何れか一項に記載の画像処理装置。
The image data output from the imaging unit is stored in a memory, and has a data input unit that detects a luminance maximum value and a luminance minimum value in the image data,
The contrast correction unit generates the first pixel data and the second pixel data based on image data read from the memory;
The image processing apparatus according to claim 1, wherein:
複数の色のうち撮像部に含まれるカラーフィルタに応じた色情報を含む画素データを、着目画素に含まれない色情報を周辺の画素に含まれる色情報に基づいて生成して複数の色情報を含む画素データを生成するデモザイク部を含むこと、
を特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
Pixel data including color information corresponding to the color filter included in the imaging unit among a plurality of colors is generated based on the color information included in the surrounding pixels. Including a demosaic unit that generates pixel data including
The image processing apparatus according to claim 1, wherein:
前記デモザイク部は、前記1つの色の色情報を含む前記画素データに基づいて凹凸度を生成すること、を特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the demosaic unit generates a degree of unevenness based on the pixel data including color information of the one color. メモリから読み出した複数の画素データを処理する画像処理装置が実行する画像処理方法であって、
複数の前記画素データの輝度最大値及び輝度最小値に応じたゲイン値とオフセット値に基づいて前記画素データをコントラスト補正した第1の画素データと、前記画素データに所定値を加算した値を前記コントラスト補正した第2の画素データを生成し、
補正テーブルにしたがって前記第1の画素データをガンマ補正した第3の画素データと、前記補正テーブルにしたがって前記第2の画素データをガンマ補正した第4の画素データを生成し、
前記第3の画素データと前記第4の画素データとの差分値(ΔP)に応じて前記第3の画素データを補正した第5の画素データを生成すること、
を特徴とする画像処理方法。
An image processing method executed by an image processing apparatus that processes a plurality of pixel data read from a memory,
A first pixel data obtained by contrast-correcting the pixel data based on a gain value and an offset value corresponding to a maximum luminance value and a minimum luminance value of the plurality of pixel data, and a value obtained by adding a predetermined value to the pixel data. Generating second pixel data with contrast correction;
Generating third pixel data in which the first pixel data is gamma-corrected according to the correction table, and fourth pixel data in which the second pixel data is gamma-corrected according to the correction table;
Generating fifth pixel data obtained by correcting the third pixel data according to a difference value (ΔP) between the third pixel data and the fourth pixel data;
An image processing method characterized by the above.
JP2013179163A 2013-08-30 2013-08-30 Image processing apparatus and image processing method Active JP6115410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013179163A JP6115410B2 (en) 2013-08-30 2013-08-30 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013179163A JP6115410B2 (en) 2013-08-30 2013-08-30 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2015049567A JP2015049567A (en) 2015-03-16
JP6115410B2 true JP6115410B2 (en) 2017-04-19

Family

ID=52699576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013179163A Active JP6115410B2 (en) 2013-08-30 2013-08-30 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6115410B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018207259A (en) * 2017-06-01 2018-12-27 マクセル株式会社 Stereo imaging apparatus
KR20230022984A (en) * 2020-07-07 2023-02-16 구글 엘엘씨 Predictive Gamma Algorithm for Multiple Display Refresh Rates

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4030560B2 (en) * 2005-12-14 2008-01-09 三菱電機株式会社 Image processing apparatus and image display apparatus
JP2008270859A (en) * 2007-04-16 2008-11-06 Matsushita Electric Ind Co Ltd Gradation correction processing apparatus
JP4807401B2 (en) * 2008-10-24 2011-11-02 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and program

Also Published As

Publication number Publication date
JP2015049567A (en) 2015-03-16

Similar Documents

Publication Publication Date Title
US10805537B2 (en) Imaging control method, imaging device, and computer readable storage medium
JP4322781B2 (en) Imaging device
JP3752448B2 (en) Image display system
US20150086119A1 (en) Image processing apparatus, image processing method and recording medium
JPWO2006137361A1 (en) Image processing apparatus, image processing method, image processing program product, and imaging apparatus
EP3328076A1 (en) Image processing method and apparatus, and electronic device
JP2011040088A (en) Method and system for luminance change-adaptive noise filtering
CN108419022A (en) Control method, control device, computer readable storage medium and computer equipment
JP4066803B2 (en) Image processing apparatus, image processing program, image processing method, and electronic camera
JP5524133B2 (en) Image processing device
JP6789904B2 (en) Dynamic range compression device and image processing device
CN114240782A (en) Image correction method and system and electronic equipment
JP6115410B2 (en) Image processing apparatus and image processing method
JP2005012479A (en) Data processor, image processor, camera, and data processing method
EP1045594A2 (en) Programmable real-time image processing
KR100690171B1 (en) Image correction circuit and image correction method
CN115942128B (en) ISP system design and implementation method based on heterogeneous platform
KR20060022574A (en) Method for color interpolation of image sensor
JP5299159B2 (en) Imaging apparatus and program
US20060007339A1 (en) Frame processing and frame processing method
JP4919723B2 (en) Image signal noise reduction method and apparatus
JP4105942B2 (en) Image processing device
JP2003101884A (en) Shading correcting device and method
JP3748446B2 (en) Image processing circuit of image input device
CN107591142B (en) Method and device for regulating and controlling picture display quality and storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170306

R150 Certificate of patent or registration of utility model

Ref document number: 6115410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150