JP2007281812A - Imaging apparatus, video signal processing circuit, video signal processing method, and computer program - Google Patents

Imaging apparatus, video signal processing circuit, video signal processing method, and computer program Download PDF

Info

Publication number
JP2007281812A
JP2007281812A JP2006104496A JP2006104496A JP2007281812A JP 2007281812 A JP2007281812 A JP 2007281812A JP 2006104496 A JP2006104496 A JP 2006104496A JP 2006104496 A JP2006104496 A JP 2006104496A JP 2007281812 A JP2007281812 A JP 2007281812A
Authority
JP
Japan
Prior art keywords
correction
pixel
video signal
signal processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006104496A
Other languages
Japanese (ja)
Inventor
Yoshiaki Nishide
義章 西出
Hiromasa Ikeyama
裕政 池山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006104496A priority Critical patent/JP2007281812A/en
Publication of JP2007281812A publication Critical patent/JP2007281812A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology of realizing correction of a drop in peripheral light quantity by using a computational expression wherein the computational complexity is suppressed. <P>SOLUTION: In the case of applying the correction of a drop in the peripheral light quantity to image data obtained by imaging an optical image passing through an optical system including a lens and an aperture section and made incident on an imaging section, a correction gain of a pixel value of an optional pixel of the image data is calculated by using a correction formula that is expressed by only terms proportional to an even-ordered distance from an optical center of the optical system to the pixel depending on an aperture position of the aperture section, and the pixel value of the pixel is corrected by the calculated correction gain. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、レンズや絞り部などを含む光学系において光学中心からの距離に応じて生じる画像データ周辺部の光量減少を補正する映像信号処理回路、撮像装置、映像信号処理方法、並びにコンピュータプログラムに関する。   The present invention relates to a video signal processing circuit, an imaging device, a video signal processing method, and a computer program that correct a decrease in the amount of light at a peripheral portion of image data that occurs according to a distance from the optical center in an optical system including a lens and a diaphragm. .

従来、ビデオカメラ等に用いるレンズや絞り部などの光学系において、光学中心からの距離に応じて生じる周辺部の光量減少が問題となっている。特に、絞り部の絞り位置(絞り量)に応じて光量の変化量が大きく、絞り部が開放になればなるほど目立つため、例えば暗い室内においてカメラの絞り部を開放端にして使う場合に画質の劣化を招いていた。   2. Description of the Related Art Conventionally, in an optical system such as a lens and a diaphragm used in a video camera or the like, a reduction in the amount of light in the peripheral portion that occurs according to the distance from the optical center has been a problem. In particular, the amount of change in the amount of light is large depending on the aperture position (aperture amount) of the aperture section, and the more the aperture section is opened, the more conspicuous the image quality becomes. It was causing deterioration.

この問題を解決するため、周辺部光量落ちを補正する種々の方法が考えられている。これまでに実現されてきた方法としては、光学中心からイメージセンサの特定画素までの距離を正確に求めてその距離に応じて周辺部の光量落ちを補正する方法の他に、例えば画面中心部から中心までの距離を多角形近似して求める方法や、画面上の適当な間隔に所定のゲインを与えるパターン化などがある。   In order to solve this problem, various methods for correcting the peripheral light amount drop have been considered. As a method that has been realized so far, in addition to a method of accurately obtaining the distance from the optical center to a specific pixel of the image sensor and correcting the light loss in the peripheral part according to the distance, for example, from the center of the screen There are a method of obtaining the distance to the center by approximating the polygon, and a patterning for giving a predetermined gain to an appropriate interval on the screen.

特許文献1には、撮像した画像データのレンズによる周辺減光特性を補正するため、像高(受光面中心からの距離)に関する、2次、3次、もしくは4次式を用いて周辺減光補正を行う画像処理方法が記載されている。
特開平11−164194号公報
In Patent Document 1, in order to correct the peripheral dimming characteristics of the captured image data by the lens, the peripheral dimming is performed using a quadratic, cubic, or quaternary expression relating to the image height (distance from the center of the light receiving surface). An image processing method for performing correction is described.
JP 11-164194 A

しかしながら、光学中心からの距離を正確に求める場合は最も精度よく補正できる反面、開平演算が必要となるなど、回路規模が大きくなる傾向がある。一方、多角形近時ではゲインの変換点が画像に表れた場合、多角形の角が認知されてしまうなどの問題がある。またゲインを与える領域をパターン化した場合は、ゲインが与えられた領域の間をスムーズにつなぐことが難しいという問題がある。   However, when the distance from the optical center is accurately obtained, correction can be performed with the highest accuracy, but on the other hand, the circuit scale tends to increase because square root calculation is required. On the other hand, near the polygon, there is a problem that when the gain conversion point appears in the image, the corner of the polygon is recognized. In addition, when the area to which gain is applied is patterned, there is a problem that it is difficult to smoothly connect the areas to which gain is applied.

本発明は斯かる点に鑑みてなされたものであり、演算量を抑えた計算式により、周辺光量落ち補正を実現することを目的とする。   The present invention has been made in view of such a point, and an object of the present invention is to realize peripheral light amount drop correction by a calculation formula that suppresses the calculation amount.

上記課題を解決するため、本発明は、レンズ及び絞り部を含む光学系を通り撮像部に入射した光学像を撮像して得られる画像データについて周辺光量落ち補正を行う際に、前記画像データの任意の画素における画素値を、前記絞り部の絞り位置に応じて、前記光学系の光学中心から前記画素までの距離の偶数次に比例する項のみで表される補正式を用いて補正することを特徴とする。
上記絞り位置に加え、さらにレンズのズーム値を考慮して補正式を設定するとより好適である。
In order to solve the above-described problems, the present invention is configured to correct the peripheral light amount drop for image data obtained by capturing an optical image incident on the imaging unit through an optical system including a lens and a diaphragm unit. A pixel value in an arbitrary pixel is corrected by using a correction formula expressed only by a term proportional to an even-numbered distance from the optical center of the optical system to the pixel in accordance with the stop position of the stop portion. It is characterized by.
It is more preferable to set a correction formula in consideration of the zoom value of the lens in addition to the aperture position.

上記構成によれば、絞り部での絞りの大きさ(ズーム値)に基づいて、補正対象の画素の画素値に光学中心からの距離に応じた補正をかけることにより、開平演算をすることなく周辺光量落ち補正が行える。   According to the above configuration, the square root calculation is performed without applying the correction according to the distance from the optical center to the pixel value of the pixel to be corrected based on the size (zoom value) of the stop at the stop. Peripheral light loss correction can be performed.

本発明によれば、絞り位置に応じて、開平演算をすることがなく、演算量を抑えた簡単な計算式を用いて周辺光量落ち補正が実現できるので、開平演算を伴う場合と比較して回路規模が数分の1に抑えられるとともに、処理時間も数分の1に短縮することができる。さらにズーム値も考慮された補正式を用いることによって、より精度の高い周辺光量落ち補正処理が行える。   According to the present invention, since the square root calculation is not performed according to the aperture position, and the peripheral light amount drop correction can be realized using a simple calculation formula with a small calculation amount, compared with the case involving the square root calculation. The circuit scale can be reduced to a fraction, and the processing time can be reduced to a fraction. Further, by using a correction formula that also takes into account the zoom value, a more accurate peripheral light amount drop correction process can be performed.

以下、本発明の実施形態の例について、添付図面を参照しながら説明する。図1は、本発明の撮像装置を適用したビデオカメラの基本的な構成例のブロック図を示すものである。   Hereinafter, examples of embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram showing a basic configuration example of a video camera to which an imaging apparatus of the present invention is applied.

図1に示すビデオカメラは、所定のズーム位置にて光線(光学像)が入射するレンズ1a及び絞りを調節する絞り部1bなどを含むレンズ光学系と、赤色(R),緑色(G),青色(B)に対応して設けられ、各色ごとに光電変換を行うイメージセンサ1,2,3からなる撮像手段が光軸(光学中心)に沿って配置されている。イメージセンサ1,2,3の前面には、光学像の色情報を赤色,緑色,青色に分離する図示せぬ色分離光学系(フィルタ)が配置されている。このビデオカメラは、さらに、イメージセンサからの信号が入力されるビデオアンプ4,5,6と、A/D変換器7,8,9と、所定の信号処理を行う映像信号処理部16と、マイクロコンピュータ17と、操作部18を有する。   The video camera shown in FIG. 1 includes a lens optical system including a lens 1a on which a light beam (optical image) is incident at a predetermined zoom position, a diaphragm unit 1b for adjusting a diaphragm, and the like, red (R), green (G), Image pickup means including image sensors 1, 2, and 3 that are provided corresponding to blue (B) and perform photoelectric conversion for each color are arranged along the optical axis (optical center). A color separation optical system (filter) (not shown) that separates color information of an optical image into red, green, and blue is disposed on the front surface of the image sensors 1, 2, and 3. The video camera further includes video amplifiers 4, 5, 6 to which signals from the image sensor are input, A / D converters 7, 8, 9, a video signal processing unit 16 that performs predetermined signal processing, A microcomputer 17 and an operation unit 18 are provided.

レンズ1aのズーム位置及び絞り部1bの絞り羽根の絞り位置は、それぞれ図示せぬズーム位置検出装置及び絞り位置検出装置によって検出され、これら検出された信号は、マイクロコンピュータ17へ出力される。また、レンズ1a及び絞り部1bは、それぞれ図示せぬレンズ駆動装置及び絞り部駆動装置によって駆動される。レンズ駆動装置及び絞り部駆動装置は、マイクロコンピュータ17からの制御信号によって、駆動制御される。   The zoom position of the lens 1 a and the stop position of the stop blades of the stop 1 b are detected by a zoom position detection device and a stop position detection device (not shown), respectively, and these detected signals are output to the microcomputer 17. The lens 1a and the diaphragm unit 1b are driven by a lens driving device and a diaphragm unit driving device (not shown), respectively. The lens driving device and the diaphragm driving device are driven and controlled by a control signal from the microcomputer 17.

なお、図1において、レンズ1a及び絞り部1bは赤色用のイメージセンサ1に対してのみ作用するような記載になっているが、実際にはイメージセンサ2,3と共用であるので、レンズ1a及び絞り部1bはイメージセンサ1,2,3の全てに対して同様に作用する。また本例では、赤色用、緑色用、青色用の色分離光学系及びイメージセンサを備えているが、例えば4色分の色分離光学系及びイメージセンサを備えていてもよく、この例に限るものではない。   In FIG. 1, the lens 1a and the diaphragm 1b are described so as to act only on the image sensor 1 for red. However, the lens 1a is actually shared with the image sensors 2 and 3, and therefore the lens 1a. The diaphragm portion 1b acts in the same manner on all the image sensors 1, 2, and 3. In this example, the color separation optical system and the image sensor for red, green, and blue are provided. However, for example, a color separation optical system and an image sensor for four colors may be provided. It is not a thing.

一般にイメージセンサ(撮像部)は、該イメージセンサ上に配置された色分離光学系の前面に、レンズ光学系からの光線が入射される不図示のマイクロレンズが画素ごとに設けられている。このマイクロレンズに入射した光線が、色分離光学系を介してイメージセンサ1,2,3で受光される。イメージセンサ1,2,3は、CCD(Charge Coupled Device)等を用いた撮像素子により構成され、色分離光学系を介して入射されたR,G,B各色の原色画像から光電変換によりR,G,Bの原色信号(R信号,G信号,B信号)を各々生成し、それら3色の原色信号をそれぞれビデオアンプ4,5,6に供給する。なお、上記映像信号は、動画のみならず静止画にも適用可能である。   In general, an image sensor (imaging unit) is provided with a micro lens (not shown) for each pixel on which light rays from a lens optical system are incident on the front surface of a color separation optical system arranged on the image sensor. Light rays incident on the microlens are received by the image sensors 1, 2, and 3 via the color separation optical system. The image sensors 1, 2, and 3 are configured by an image pickup device using a CCD (Charge Coupled Device) or the like, and R, G, and B primary color images incident through a color separation optical system are photoelectrically converted to R, G, and B. G and B primary color signals (R signal, G signal, and B signal) are generated, and these three primary color signals are supplied to video amplifiers 4, 5, and 6, respectively. The video signal can be applied not only to moving images but also to still images.

ビデオアンプ4,5,6は利得調整手段であり、一例としてAGC(Automatic Gain Control)回路などを適用することができる。ビデオアンプ4,5,6は、原色信号のゲインを調整し、そのゲインが調整された原色信号をそれぞれA/D変換器7,8,9に供給する。A/D変換器7,8,9は、入力されたアナログ信号をデジタル信号に変換し、映像信号処理部16に供給する。   The video amplifiers 4, 5, and 6 are gain adjusting means, and an AGC (Automatic Gain Control) circuit or the like can be applied as an example. The video amplifiers 4, 5, 6 adjust the gains of the primary color signals and supply the primary color signals whose gains have been adjusted to the A / D converters 7, 8, 9, respectively. The A / D converters 7, 8, 9 convert the input analog signals into digital signals and supply them to the video signal processing unit 16.

本例の映像信号処理部16は、補正回路10、ゲイン調整回路11、色調整回路12、輝度調整回路13、ガンマ補正回路14、出力信号生成回路15から構成されており、上記ビデオアンプ4,5,6、A/D変換器7,8,9によって適切なレベルに調節され、量子化されたR,G,Bの原色信号は、まず映像信号処理部16の補正回路10に入力される。   The video signal processing unit 16 of this example includes a correction circuit 10, a gain adjustment circuit 11, a color adjustment circuit 12, a luminance adjustment circuit 13, a gamma correction circuit 14, and an output signal generation circuit 15, and the video amplifier 4, 5, 6, the R, G, B primary color signals that are adjusted to an appropriate level by the A / D converters 7, 8, 9 and quantized are first input to the correction circuit 10 of the video signal processing unit 16. .

補正回路10は、特許請求の範囲に記載した映像信号処理回路の一例であり、入力された3色の原色信号に対して、各々画像データの周辺光量落ちの補正処理を行い、ゲイン調整回路11に供給する。なお、この補正回路10において、上記周辺光量落ちの補正処理に加え、所定の補間処理、それに伴うフィルタ処理、シェーディング処理などの信号処理を行い、さらに画質の向上を図るようにしてもよい。   The correction circuit 10 is an example of the video signal processing circuit described in the claims. The correction circuit 10 performs a correction process of a decrease in the amount of peripheral light in the image data with respect to the input three primary color signals, and the gain adjustment circuit 11. To supply. In this correction circuit 10, signal processing such as predetermined interpolation processing, accompanying filter processing, and shading processing may be performed in addition to the above-described peripheral light amount drop correction processing to further improve the image quality.

ゲイン調整回路11は、補正回路10から入力される3色の原色信号が適切なレベルとなるようゲインを調整して、色調整回路12に供給する。   The gain adjustment circuit 11 adjusts the gain so that the three primary color signals input from the correction circuit 10 are at appropriate levels, and supplies the gain to the color adjustment circuit 12.

色調整回路12は、ゲイン調整回路11から入力される3色の原色信号の色調を、要求される色調に調整(補正)して、輝度調整回路13に供給する。   The color adjustment circuit 12 adjusts (corrects) the color tones of the three primary color signals input from the gain adjustment circuit 11 to a required color tone and supplies the adjusted color tone to the luminance adjustment circuit 13.

輝度調整回路13は、映像信号を規定の範囲内に収めるために、色調整回路12より入力される各原色信号から輝度信号を抽出し、その輝度信号の高輝度域の振幅特性を抑えることによりイメージセンサ出力のダイナミックレンジを圧縮し、ガンマ補正回路14へ供給する。   The luminance adjustment circuit 13 extracts a luminance signal from each primary color signal input from the color adjustment circuit 12 in order to keep the video signal within a specified range, and suppresses the amplitude characteristic of the luminance signal in the high luminance region. The dynamic range of the image sensor output is compressed and supplied to the gamma correction circuit 14.

ガンマ補正回路14は、輝度調整回路13から入力される3色の原色信号の各々について、CRT(Cathode Ray Tube)などのモニタ(受像機)のガンマ特性に合わせて補正を行い、ガンマ補正した各原色信号を出力信号生成回路15に供給する。   The gamma correction circuit 14 corrects each of the three primary color signals input from the luminance adjustment circuit 13 according to the gamma characteristics of a monitor (receiver) such as a CRT (Cathode Ray Tube), and each gamma corrected The primary color signal is supplied to the output signal generation circuit 15.

出力信号生成回路15は、ガンマ補正回路14から入力される3色の原色信号を最終的な映像信号出力形式に変換し、外部へ出力する。一例として、出力信号生成回路15は、NTSC(National Television System Committee)又はPAL(Phase Alternating Line)等の信号規格に沿うように、3色の原色信号を色差信号に変換し、図示せぬサブキャリア信号を用いて変調するエンコーダ回路としての機能を有する。さらに、出力すべき映像信号がアナログ信号である場合には、上記エンコーダ回路が出力した量子化された色差信号をアナログ信号に変換するD/A変換器を備えた構成とする。   The output signal generation circuit 15 converts the three primary color signals input from the gamma correction circuit 14 into a final video signal output format and outputs it to the outside. As an example, the output signal generation circuit 15 converts primary color signals of three colors into color difference signals so as to comply with a signal standard such as NTSC (National Television System Committee) or PAL (Phase Alternating Line), and subcarriers (not shown). It functions as an encoder circuit that modulates using a signal. Furthermore, when the video signal to be output is an analog signal, a D / A converter is provided that converts the quantized color difference signal output from the encoder circuit into an analog signal.

マイクロコンピュータ17は、制御部の一例であり、レンズ1aのズーム位置及び絞り部1bの絞り位置の検出信号を受信し、該検出信号に基づく周辺光量落ち補正を行う。さらに、マイクロコンピュータ17は、映像信号処理部16を構成する各回路を制御するとともに、レンズ1a及び絞り部1b等の光学系、ビデオアンプ4,5,6等の各部の動作を制御する。このマイクロコンピュータ17は、内蔵のROM(Read Only Memory)等の不揮発性記憶部に記録されているコンピュータプログラムに従い、所定の演算及び各回路に対する制御を行う。   The microcomputer 17 is an example of a control unit, receives detection signals of the zoom position of the lens 1a and the stop position of the stop 1b, and performs peripheral light amount drop correction based on the detection signals. Further, the microcomputer 17 controls each circuit constituting the video signal processing unit 16, and controls the operation of each unit such as the optical system such as the lens 1a and the diaphragm unit 1b, and the video amplifiers 4, 5, and 6. The microcomputer 17 performs a predetermined calculation and control of each circuit in accordance with a computer program recorded in a nonvolatile storage unit such as a built-in ROM (Read Only Memory).

さらに、マイクロコンピュータ17には、必要に応じて、図示せぬドライブ回路が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてマイクロコンピュータ17に内蔵されるRAM等にインストールされるようにしてもよい。   Further, a drive circuit (not shown) is connected to the microcomputer 17 as necessary, and a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read from them is If necessary, it may be installed in a RAM or the like built in the microcomputer 17.

操作部18は、ビデオカメラに配設されたボタンキーや当該ビデオカメラに搭載されたモニタの画面に表示されるアイコンに割り当てられたソフトキー等からなり、利用者の操作に応じた操作信号が操作部18から図示せぬインターフェースを介してマイクロコンピュータ17に入力される。   The operation unit 18 includes button keys arranged on the video camera, soft keys assigned to icons displayed on a monitor screen mounted on the video camera, and the like, and an operation signal corresponding to a user operation is received. Input from the operation unit 18 to the microcomputer 17 via an interface (not shown).

上述のように構成されるビデオカメラにおいて、被写体像がイメージセンサ1,2,3で光電変換されて赤色(R)、緑色(G)、青色(B)の原色信号が生成され、次いで、ビデオアンプ4,5,6とA/D変換器7,8,9によって適切なレベルのアナログ信号に調節され、量子化されてデジタル信号に変換される。量子化された各原色信号(画像データ)は補正回路10、ゲイン調整回路11によって周辺部光量落ち補正やゲイン調整処理等がなされた後、色調整回路12に入力される。色調整回路12に入力された各原色信号は、マイクロコンピュータ17からの指示に基づき所望の色調に調整されて輝度調整回路13に入力される。そして、輝度調整回路13で適切な輝度圧縮処理がなされた後、ガンマ補正回路14に入力され、ガンマ補正された各原色信号が出力信号生成回路15によって最終的な映像信号出力形式に変換されて出力される。   In the video camera configured as described above, the subject image is photoelectrically converted by the image sensors 1, 2, and 3 to generate primary color signals of red (R), green (G), and blue (B), and then the video The amplifiers 4, 5 and 6 and the A / D converters 7, 8 and 9 adjust the analog signals to appropriate levels, quantize them and convert them into digital signals. The quantized primary color signals (image data) are subjected to peripheral light amount drop correction and gain adjustment processing by the correction circuit 10 and gain adjustment circuit 11 and then input to the color adjustment circuit 12. Each primary color signal input to the color adjustment circuit 12 is adjusted to a desired color tone based on an instruction from the microcomputer 17 and input to the luminance adjustment circuit 13. Then, after appropriate luminance compression processing is performed by the luminance adjustment circuit 13, each primary color signal that is input to the gamma correction circuit 14 and is gamma corrected is converted into a final video signal output format by the output signal generation circuit 15. Is output.

ここで、絞りの大きさとイメージセンサに配置されている画素の光取り込み量との関係について説明する。なお、イメージセンサ2,3についても同様である。   Here, the relationship between the size of the diaphragm and the light capture amount of the pixels arranged in the image sensor will be described. The same applies to the image sensors 2 and 3.

図2は、絞り部1b及びイメージセンサ1において、絞りと画素に入射する光の関係を示す図である。図中、絞り部1bの開口部21を通過した光線22が、イメージセンサ1の受光面に入射している。イメージセンサ1の受光面において光学中心とイメージセンサ1との交点をO点、イメージセンサ1に配置されている任意の画素の位置をO点とする。破線で示された領域23は、O点の画素において光線が入射可能な範囲、また実線で示された領域24は、絞り部1bの開口部21からO点に入射する光線の範囲を表している。 FIG. 2 is a diagram illustrating the relationship between the diaphragm and the light incident on the pixels in the diaphragm unit 1b and the image sensor 1. In the drawing, the light beam 22 that has passed through the opening 21 of the diaphragm 1 b is incident on the light receiving surface of the image sensor 1. On the light receiving surface of the image sensor 1, the intersection of the optical center and the image sensor 1 is defined as O 1 point, and the position of an arbitrary pixel arranged in the image sensor 1 is defined as O 2 point. A region 23 indicated by a broken line indicates a range in which a light beam can be incident on the pixel at the O 2 point, and a region 24 indicated by a solid line indicates a range of light rays incident on the O 2 point from the opening 21 of the aperture 1b. Represents.

図3は、絞りと画素の関係による取り込み光量の説明に供する図である。図3において、絞り部1aの絞り(開口部21)によりO点を中心として形成される円25の半径26をr1、O点の画素の光取り込み可能範囲が作る円27を絞り部1bの位置に投影した場合の半径28をr2、光学中心から画素までの距離29をd、2つの円25,27の2つの交点をそれぞれA,Bとする。このとき、O点に位置する画素に入射する入射光量(二つの円25,27の重なり)Sは、以下のようにして求められる。 FIG. 3 is a diagram for explaining the amount of light taken in according to the relationship between the aperture and the pixel. In FIG. 3, the radius 26 of the circle 25 formed around the O 1 point by the aperture (opening 21) of the aperture 1a is set to r 1 , and the circle 27 formed by the light capturing range of the pixel at the O 2 point is set as the aperture. Assume that the radius 28 when projected onto the position 1b is r 2 , the distance 29 from the optical center to the pixel is d, and the two intersections of the two circles 25 and 27 are A and B, respectively. At this time, the amount of incident light (overlap of the two circles 25 and 27) S incident on the pixel located at the point O 2 is obtained as follows.

円25,27の重なっている領域の面積は、円25における扇形OABから三角形OABを引いた面積と、円27における扇形OABから三角形OABを引いた面積を加算したものである。すなわち、
S = (πr1 2×θ1 / π- r1 2sinθ1cosθ1) + (πr2 2×θ2 / π- r2 2sinθ2cosθ2)
= (r1 2θ1 - r1 2sinθ1cosθ1) + (r2 2θ2 - r2 2sinθ2cosθ2) ・・・・(1)式
The area of the overlapping region of circle 25 and 27, the area obtained by subtracting the triangle O 1 AB from sector O 1 AB in circle 25, the sum of the area obtained by subtracting the triangle O 2 AB from sector O 2 AB in circle 27 Is. That is,
S = (πr 1 2 × θ 1 / π- r 1 2 sinθ 1 cosθ 1 ) + (πr 2 2 × θ 2 / π- r 2 2 sinθ 2 cosθ 2 )
= (R 1 2 θ 1 - r 1 2 sinθ 1 cosθ 1) + (r 2 2 θ 2 - r 2 2 sinθ 2 cosθ 2) ···· (1) formula

一方、三角関数の公式より、
d = r1 cosθ1+ r2 cosθ2 ・・・・(2)式
r2 sinθ2 = r1 sinθ1 ・・・・(3)式
また、
sin2θ1 + cos2θ1= 1 ・・・・(4)式
sin2θ2 + cos2θ2= 1 ・・・・(5)式
On the other hand, from the trigonometric formula,
d = r 1 cosθ 1 + r 2 cosθ 2 ··· Equation (2)
r 2 sinθ 2 = r 1 sinθ 1 ··· Equation (3) Also,
sin 2 θ 1 + cos 2 θ 1 = 1 (4)
sin 2 θ 2 + cos 2 θ 2 = 1 (5)

(2),(3),(4),(5)式を解くと、
cosθ1 = (r1 2 + d2 - r2 2) / 2r1d ・・・・(6)式
sinθ1= √[1 - {(r1 2 + d2 - r2 2) / 2r1d}2] ・・・・(7)式
cosθ2 = (r2 2 + d2- r1 2) / 2r2d ・・・・(8)式
sinθ2 = √[1 - {(r2 2+ d2 - r1 2) / 2r2d}2] ・・・・(9)式
である。
Solving equations (2), (3), (4), (5)
cosθ 1 = (r 1 2 + d 2 -r 2 2 ) / 2r 1 d (6)
sinθ 1 = √ [1-{(r 1 2 + d 2 -r 2 2 ) / 2r 1 d} 2 ] (7)
cosθ 2 = (r 2 2 + d 2 -r 1 2 ) / 2r 2 d (8)
sinθ 2 = √ [1 − {(r 2 2 + d 2 −r 1 2 ) / 2r 2 d} 2 ] (9)

よって、入射光量Sは、
S = [r1 2×arccos{(r1 2+ d2 - r2 2) / 2r1d} - r1 2×√[1 - {(r1 2 + d2 - r2 2) / 2r1d}2]
×{(r1 2 + d2 - r2 2) / 2r1d}]
+[r2 2×arccos{(r2 2+ d2 - r1 2) / 2r2d} - r2 2×√[1 - {(r2 2 + d2 - r1 2) / 2r2d}2]
×{(r2 2 + d2 - r1 2) / 2r2d}] ・・・・(10)式
となる。
Therefore, the incident light quantity S is
S = (r 1 2 × arccos {(r 1 2 + d 2 -r 2 2 ) / 2r 1 d}-r 1 2 × √ (1-((r 1 2 + d 2 -r 2 2 ) / 2r 1 d} 2 ]
× {(r 1 2 + d 2 -r 2 2 ) / 2r 1 d}]
+ [R 2 2 × arccos {(r 2 2 + d 2 -r 1 2 ) / 2r 2 d}-r 2 2 × √ [1-((r 2 2 + d 2 -r 1 2 ) / 2r 2 d} 2 ]
× {(r 2 2 + d 2 -r 1 2 ) / 2r 2 d}]... (10)

ここで、
F = (r1 2 + d2 - r2 2) / 2r1d ・・・・(11)式
L = (r2 2 + d2 - r1 2) / 2r2d ・・・・(12)式
とする。
here,
F = (r 1 2 + d 2 -r 2 2 ) / 2r 1 d (11)
L = (r 2 2 + d 2 -r 1 2 ) / 2r 2 d (12)

(11),(12)式の置き換え式を用いると、入射光量Sは最終的に次のように表すことができる。
S = [r1 2×arccosF - r1 2×√(1 - F2)×F] + (r2 2×arccosL- r2 2×√(1 - L2)×L)
・・・・(13)式
If the replacement formulas (11) and (12) are used, the incident light quantity S can be finally expressed as follows.
S = [r 1 2 × arccosF-r 1 2 × √ (1-F 2 ) × F] + (r 2 2 × arccosL- r 2 2 × √ (1-L 2 ) × L)
.... (13) Formula

ここで、画像データのある画素において、絞り(開口部21)の半径r1に対する入射光量Sの変化は図4に示すグラフのようになる。図中、横軸は画面中心(光学中心)から画素までの距離dを示し、縦軸は入射光量Sを示す。画素の光取り込み可能範囲による半径r2を「1」に固定し、絞りの半径r1を「1」,「3/4」,「1/2」,「1/4」,「1/8」の5段階に設定した。そして各設定ごとに光学中心から画素までの距離dと入射光量Sとの関係を測定し、特性曲線31,32,33,34,35が得られた。 Here, in a pixel having image data, the change in the amount of incident light S with respect to the radius r 1 of the stop (opening 21) is as shown in the graph of FIG. In the figure, the horizontal axis indicates the distance d from the screen center (optical center) to the pixel, and the vertical axis indicates the incident light quantity S. The radius r 2 depending on the light capturing range of the pixel is fixed to “1”, and the radius r 1 of the diaphragm is set to “1”, “3/4”, “1/2”, “1/4”, “1/8”. "5 levels." For each setting, the relationship between the distance d from the optical center to the pixel and the amount of incident light S was measured, and characteristic curves 31, 32, 33, 34, and 35 were obtained.

この結果を見てわかるように、光学中心からの距離dに応じた入射光量Sの変化は絞りの大きさ(半径r1)に依存し、特にr1=1のとき、つまり絞りが大きく開いている場合(開放端)で最も大きな落ち込みを見せる。 As can be seen from this result, the change in the amount of incident light S according to the distance d from the optical center depends on the size of the diaphragm (radius r 1 ), and in particular when r 1 = 1, that is, the diaphragm opens wide. If it is (open end), show the biggest drop.

このような周辺光量落ち現象を補正するため、本出願人は、絞りの大きさに応じて光学中心からの距離に応じた補正をかける方法を提案する。ただし、実際に光学中心からの距離を求めるには開平演算が必要になるなど、回路としては負担が大きい。   In order to correct such a peripheral light amount drop phenomenon, the present applicant proposes a method of applying a correction according to the distance from the optical center according to the size of the stop. However, in order to actually obtain the distance from the optical center, a square root calculation is required, and the burden on the circuit is large.

開平演算は、有理数で表せない正の実数の平方根の小数による近似値を求めるアルゴリズムであり、近似展開又は多項式展開を用い、一度計算した結果を用いて再計算を反復演算する。通常、無限に続く項を適切なところで打ち切り、計算する。計算結果はメモリなどに一時保存し、随時出力していく。画像処理においては、マイクロコンピュータ17等の演算処理装置のクロック同期に従って、処理能力の限界に近いところで演算処理しているケースが多く、リアルタイム性に欠けることがある。反復演算にかかる時間が、予め規定された一画素の計算時間を越えると、リアルタイム性を維持することができない。   The square root operation is an algorithm for obtaining an approximate value by a square root fraction of a positive real number that cannot be represented by a rational number, and recalculates iteratively using a result calculated once using approximate expansion or polynomial expansion. Usually, infinite terms are truncated at the appropriate point and calculated. The calculation results are temporarily stored in a memory and output at any time. In image processing, there are many cases where arithmetic processing is performed near the limit of processing capacity in accordance with clock synchronization of an arithmetic processing device such as the microcomputer 17, and real-time performance may be lacking. If the time required for the iterative calculation exceeds a predetermined calculation time for one pixel, the real-time property cannot be maintained.

そこで、画面上の全画素について画面中心(光学中心)からの距離の2乗に比例するような式で補正することを考える。例えば、画面データ(もしくはイメージセンサ)上の任意の画素における入射光量の補正後の値は、補正前の画素データをDin、補正後の画素データをDoutとして、以下のような式で表される。この画素データは、輝度値で表現されたデータである。 Therefore, it is considered that all pixels on the screen are corrected by an expression that is proportional to the square of the distance from the screen center (optical center). For example, the corrected value of the amount of incident light at any pixel on the screen data (or image sensor) is expressed by the following equation, where Din is the pixel data before correction and Dout is the pixel data after correction. . This pixel data is data expressed by luminance values.

Dout = {a(d2 - c) + 1} × Din (d2 > c)
= Din (d2 <= c)
ここで、
d:画面中心(光学中心)からの距離
a:補正係数
c:画面中心から補正がかからない(ゲインが1倍の)半径
である。
Dout = {a (d 2 -c) + 1} × Din (d 2 > c)
= Din (d 2 <= c)
here,
d: Distance from the screen center (optical center)
a: Correction coefficient
c: Radius that is not corrected from the center of the screen (gain is 1 time).

上記補正係数a及びcは、レンズ1aの絞り位置(絞り量)及びズーム位置に大きく影響を受けるパラメータである。cは、例えば図4で示すところの入射光量Sが一定値(平坦)である距離を考慮して決定される係数である。光学中心から補正がかからない(ゲインが1倍の)半径に関する補正係数を設定しているので、光学中心からの距離に応じて精度よく補正ゲインが設定され、より精度の高い補正が可能になる。   The correction coefficients a and c are parameters that are greatly influenced by the aperture position (aperture amount) and zoom position of the lens 1a. For example, c is a coefficient determined in consideration of a distance where the incident light amount S shown in FIG. 4 is a constant value (flat). Since the correction coefficient related to the radius that is not corrected from the optical center (gain is 1 time) is set, the correction gain is set with high accuracy according to the distance from the optical center, and correction with higher accuracy is possible.

上記補正式を用いた場合、例えば、レンズ1aの特性を事前に測定しておき、撮影時に、マイクロコンピュータ17がレンズ1aの絞り位置及びズーム位置の情報を取得し、絞り位置やズーム位置に連動して適切な値を設定することで、イメージセンサ周辺部での光量落ちをリアルタイムに補正することが可能になる。   When the above correction formula is used, for example, the characteristics of the lens 1a are measured in advance, and at the time of shooting, the microcomputer 17 acquires information on the aperture position and zoom position of the lens 1a and interlocks with the aperture position and zoom position. Then, by setting an appropriate value, it is possible to correct the light amount drop at the periphery of the image sensor in real time.

本例において、絞り位置に加え、ズーム位置を考慮して補正係数a,cを決定するのは、次の理由による。レンズのズーム位置を変更すると画角が変わり、レンズを透過した光線のイメージセンサに対する入射角度が変化する。そうすると、絞り部において取り込まれる光が形成する円が小さくなり、光取り込み量が減少する。したがって、好適な実施形態として、絞り位置に加えてズーム位置を考慮した場合、より精度の高い周辺光量落ち補正が実現される。   In this example, the correction coefficients a and c are determined in consideration of the zoom position in addition to the aperture position for the following reason. When the zoom position of the lens is changed, the angle of view changes, and the incident angle of the light beam transmitted through the lens with respect to the image sensor changes. If it does so, the circle which the light taken in in a stop part forms will become small, and the amount of light taking in will decrease. Therefore, as a preferred embodiment, when the zoom position is taken into consideration in addition to the aperture position, more accurate peripheral light amount drop correction is realized.

なお、画像データの光学中心近傍の画素が明るい場合、すなわち輝度値が所定のしきい値より大きいような場合は、補正係数aを負として、補正後の輝度値を補正前の輝度値より小さくして当該画素を暗くするようにしてもよい。   When the pixel near the optical center of the image data is bright, that is, when the luminance value is larger than a predetermined threshold value, the correction coefficient a is negative, and the corrected luminance value is smaller than the luminance value before correction. Then, the pixel may be darkened.

ここで、図4のグラフにおける距離dの2乗を横軸にとり、各特性曲線の入射光量の最大値(最大ゲイン)を1倍に正規化したものを縦軸にとったグラフを図5に示す。図中、特性曲線41,42,42,44,45は、それぞれ絞り(開口部21)の半径r1が「1」,「3/4」,「1/2」,「1/4」,「1/8」のときの周辺光量落ち特性を示したものである。このグラフの各特性曲線の逆数が、理想的な補正ゲインとなる。 Here, a graph in which the square of the distance d in the graph of FIG. 4 is taken on the horizontal axis and the maximum value (maximum gain) of the incident light amount of each characteristic curve is normalized to 1 time is plotted on the vertical axis in FIG. Show. In the figure, characteristic curve 41,42,42,44,45 the radius r 1 of the aperture respectively (opening 21) is "1", "3/4", "1/2", "1/4", The peripheral light amount drop characteristic at “1/8” is shown. The reciprocal of each characteristic curve in this graph is an ideal correction gain.

図6は、図5の周辺光量落ち特性に対する理想的な補正ゲインを示すものである。図中、横軸は画面中心(光学中心)から任意の画素までの距離dの2乗を示し、縦軸は補正ゲインを示す。すなわち、図5に示す正規化された特性曲線と図6に示す補正ゲイン特性曲線をかけ合わせると「1」になる。   FIG. 6 shows an ideal correction gain for the peripheral light amount drop characteristic of FIG. In the figure, the horizontal axis indicates the square of the distance d from the screen center (optical center) to an arbitrary pixel, and the vertical axis indicates the correction gain. That is, when the normalized characteristic curve shown in FIG. 5 is multiplied by the correction gain characteristic curve shown in FIG. 6, “1” is obtained.

このグラフからわかるように、補正ゲインはほぼ単調増加な曲線で近似される。しかし、上記のような単純な画面中心からの距離dの2乗の項に関する補正だけでは、補正後の値と理想とする値との誤差が大きくなってしまうことも考えられる。そこで、距離dの2乗に比例する項だけでなく、距離dの4乗に比例する項も利用した補正を考える。これはある画素における補正前の画素データをDin、補正後の画素データをDoutとして、以下のような式で表される。この画素データは、輝度値で表現されたデータである。   As can be seen from this graph, the correction gain is approximated by a substantially monotonically increasing curve. However, it is conceivable that the error between the corrected value and the ideal value increases only by the correction related to the square term of the distance d from the center of the screen as described above. Accordingly, correction using not only a term proportional to the square of the distance d but also a term proportional to the fourth power of the distance d is considered. This is expressed by the following equation, where Din is pixel data before correction in a pixel and Dout is pixel data after correction. This pixel data is data expressed by luminance values.

Dout = {a(d2 - ca)2+ b(d2 - cb) + 1} × Din (d2> ca,cb)
= {a(d2 - ca)2+ 1} × Din (d2 > ca,d2< cb)
= {b(d2 - cb) + 1} × Din (d2 > cb,d2 < ca)
= Din (d2 <= ca,cb)
ここで、
d:画面中心(光学中心)からの距離
b:補正係数
ca:4乗の項において光学中心から補正がかからない(ゲインが1倍の)半径
cb:2乗の項において光学中心から補正がかからない(ゲインが1倍の)半径
である。
Dout = {a (d 2 -c a ) 2 + b (d 2 -c b ) + 1} × Din (d 2 > c a , c b )
= {a (d 2 -c a ) 2 + 1} × Din (d 2 > c a , d 2 <c b )
= {b (d 2 -c b ) + 1} × Din (d 2 > c b , d 2 <c a )
= Din (d 2 <= c a , c b )
here,
d: Distance from the screen center (optical center)
b: Correction coefficient
c a : Radius that is not corrected from the optical center in the fourth power term (gain is 1 time)
c b : Radius that is not corrected from the optical center in the squared term (gain is 1 time).

上記補正式により、開平演算などの回路規模の大きな計算をすることなく、補正曲線をより理想的なものに近づけることが可能となる。補正係数a,b,ca,cについては、前述の図6に示すような補正曲線を絞り位置及びズーム位置に応じて何パターンか事前に測定しておき、それぞれの場合の補正係数の値を最小2乗法などの近似計算で求めてROMに記憶しておく。そして、撮影時にマイクロコンピュータ17が絞り位置に応じた適切な係数を選択し、補正回路10はマイクロコンピュータ17に指示された係数を用いた補正式により画面データの任意の画素における画素値を補正する、といった方法が考えられる。なお、a及びbは、絞り位置及びズーム位置による周辺光量落ち特性の形態によっては正だけでなく負の値も取りうる。また、同様に周辺光量落ち特性によっては、ca,cbが同一の値であってもよい。 With the above correction equation, the correction curve can be made closer to an ideal one without performing a large circuit scale calculation such as square root extraction. For the correction coefficients a, b, c a , and c b , the correction curve as shown in FIG. 6 is measured in advance according to the aperture position and the zoom position, and the correction coefficient in each case is measured. The value is obtained by approximate calculation such as the least square method and stored in the ROM. Then, the microcomputer 17 selects an appropriate coefficient corresponding to the aperture position at the time of shooting, and the correction circuit 10 corrects the pixel value at an arbitrary pixel of the screen data by a correction formula using the coefficient instructed to the microcomputer 17. , Etc. can be considered. It should be noted that a and b can take not only positive values but also negative values depending on the peripheral light amount drop characteristics depending on the aperture position and zoom position. Similarly, c a and c b may be the same value depending on the peripheral light amount drop characteristic.

この周辺光量落ち補正処理を実現する補正回路10の回路構成の例を図7に示す。本例では、加算器及び乗算器を組み合わせて周辺光量落ち補正回路を構成している。   FIG. 7 shows an example of the circuit configuration of the correction circuit 10 that realizes the peripheral light amount drop correction process. In this example, the peripheral light amount drop correction circuit is configured by combining an adder and a multiplier.

図7の補正回路において、加算器61は、入力された補正対象の画素の水平アドレス値を示すデータと、画面の水平センター値の符号を反転させた値を示すデータを加算する。つまり画素の水平アドレス値から画面の水平センター値を減算する処理を行う。次に、乗算器63において加算器61で算出された値を2乗し、加算器65へ供給する。   In the correction circuit of FIG. 7, the adder 61 adds the data indicating the input horizontal address value of the pixel to be corrected and the data indicating the value obtained by inverting the sign of the horizontal center value of the screen. That is, a process of subtracting the horizontal center value of the screen from the horizontal address value of the pixel is performed. Next, the multiplier 63 squares the value calculated by the adder 61 and supplies it to the adder 65.

同様に、加算器62は、入力された補正対象の画素の垂直アドレス値を示すデータと、画面の垂直センター値の符号を反転させた値を示すデータを加算する。つまり画素の垂直アドレス値から画面の垂直センター値を減算する処理を行う。次に、乗算器64において加算器62で算出された計算値を2乗し、加算器65へ供給する。   Similarly, the adder 62 adds the input data indicating the vertical address value of the pixel to be corrected and the data indicating the value obtained by inverting the sign of the vertical center value of the screen. That is, a process of subtracting the vertical center value of the screen from the vertical address value of the pixel is performed. Next, the multiplier 64 squares the calculated value calculated by the adder 62 and supplies it to the adder 65.

加算器65は、乗算器63及び64から出力されるデータを加算し、その結果を加算器66及び67のそれぞれに出力する。   The adder 65 adds the data output from the multipliers 63 and 64, and outputs the result to the adders 66 and 67, respectively.

加算器66では、加算器65から供給されたデータに対し、マイクロコンピュータ17が選択した、4乗の項において画面中心から補正がかからない(ゲインが1倍の)半径caを示すデータを減算し、クリップ処理部66aへ出力する。 In the adder 66, to data supplied from the adder 65, the microcomputer 17 selects, is not applied correction from the center in the fourth power term (gain 1 times) subtracts the data indicating the radius c a And output to the clip processing unit 66a.

クリップ処理部66aは、クリップレベル0でクリップ動作するように設定されている。入力データの値が0より大きい場合には入力データをそのまま乗算器68へ出力し、入力データが0以下の場合には切り捨てて0を乗算器68へ出力する。   The clip processing unit 66a is set to perform a clip operation at the clip level 0. When the value of the input data is greater than 0, the input data is output to the multiplier 68 as it is, and when the input data is 0 or less, it is discarded and 0 is output to the multiplier 68.

次に乗算器68において、クリップ処理部66aから出力されたデータの値を2乗し、乗算器69へ出力する。続いて、乗算器69において乗算器68の出力に対しマイクロコンピュータ17が選択した所定の補正係数aを乗算し、加算器71へ出力する。   Next, in the multiplier 68, the value of the data output from the clip processing unit 66 a is squared and output to the multiplier 69. Subsequently, the multiplier 69 multiplies the output of the multiplier 68 by a predetermined correction coefficient a selected by the microcomputer 17 and outputs the result to the adder 71.

他方、加算器67では、加算器65から供給されたデータに対し、マイクロコンピュータ17が選択した、2乗の項において画面中心から補正がかからない(ゲインが1倍の)半径cbを示すデータを減算し、クリップ処理部67aへ出力する。 On the other hand, in the adder 67, the data supplied from the adder 65 is data indicating the radius c b that is not corrected from the center of the screen in the square term selected by the microcomputer 17 (gain is 1 time). Subtract and output to the clip processing unit 67a.

クリップ処理部67aは、上記クリップ処理部66aと同様に、クリップレベル0でクリップ動作するように設定されている。入力データの値が0より大きい場合には入力データをそのまま乗算器70へ出力し、入力データが0以下の場合には切り捨てて0を乗算器70へ出力する。   The clip processing unit 67a is set to perform the clip operation at the clip level 0, similarly to the clip processing unit 66a. When the value of the input data is greater than 0, the input data is output to the multiplier 70 as it is, and when the input data is 0 or less, it is discarded and 0 is output to the multiplier 70.

次に乗算器70において、クリップ処理部67aの出力に対しマイクロコンピュータ17が選択した所定の補正係数bを乗算し、加算器71へ出力する。   Next, the multiplier 70 multiplies the output of the clip processing unit 67 a by a predetermined correction coefficient b selected by the microcomputer 17 and outputs the result to the adder 71.

加算器71は、乗算器69及び70から出力されるデータを加算し、その結果を加算器72に出力する。加算器72では、加算器71の出力に1倍ゲインを表す値の定数、例えば1を加えて乗算器73へ供給する。乗算器73では、補正対象画素の画素値を表す画素データDinに対して、加算器72から出力されるデータを乗算し、丸め演算部74に供給する。そして、丸め演算部74が、丸め演算コードに基づいて量子化されたデータの所定の桁数について丸め演算を実施した後、周辺光量落ち補正処理が実施された画素データDoutを外部へ出力する。なお、画素値は、一例として輝度レベルを8ビットの情報により0〜255の256階調で表現される。   The adder 71 adds the data output from the multipliers 69 and 70 and outputs the result to the adder 72. In the adder 72, a constant of a value representing a 1 × gain, for example, 1 is added to the output of the adder 71 and supplied to the multiplier 73. The multiplier 73 multiplies the pixel data Din representing the pixel value of the correction target pixel by the data output from the adder 72 and supplies the result to the rounding operation unit 74. Then, the rounding calculation unit 74 performs rounding calculation for a predetermined number of digits of the quantized data based on the rounding calculation code, and then outputs the pixel data Dout subjected to the peripheral light amount drop correction processing to the outside. As an example, the pixel value is expressed in 256 gradations from 0 to 255 based on 8-bit information.

以上のような構成の周辺光量落ち補正回路の動作について、図8を参照しながら説明する。図8において、画像データ(イメージセンサ)の左上隅を原点O(0,0)とする座標系において、画面のセンターの座標を(C,C)、補正対象の画素の座標を(X,Y)とする。 The operation of the peripheral light amount drop correction circuit having the above configuration will be described with reference to FIG. In FIG. 8, in the coordinate system in which the upper left corner of the image data (image sensor) is the origin O (0, 0), the coordinates of the center of the screen are (C H , C V ), and the coordinates of the pixel to be corrected are (X H, and Y V).

まず、補正対象とする画素の画素データDinとともに座標データが補正回路10の加算器61及び62に入力されると、画素の水平アドレス値X及び垂直アドレス値Xから、画面の水平センター値C及び垂直アドレス値Cがそれぞれ除算される。次に、乗算器63及び64により加算器61及び62で算出されたデータ「(X−C)」及び「(X−C)」が、乗算器63及び64にてそれぞれ2乗された後、加算器65で2つのデータが加算されて「(X−C+(X−C」が得られる。(X−C+(X−C=dである。そして、加算器65で算出されたデータ「d」が加算器66及び67にそれぞれ出力される。 First, the coordinate data with the pixel data Din of the pixel to be corrected is input to the adder 61 and 62 of the correction circuit 10, a horizontal address values X H and the vertical address value X V pixels, the horizontal center value of the window C H and vertical address value C V are respectively divided. Next, the data “(X H −C H )” and “(X V −C V )” calculated by the adders 61 and 62 by the multipliers 63 and 64 are squared by the multipliers 63 and 64, respectively. Then, the adder 65 adds the two data to obtain “(X H −C H ) 2 + (X V −C V ) 2 ”. (X H -C H) 2 + (X V -C V) is a 2 = d 2. Then, the data “d 2 ” calculated by the adder 65 is output to the adders 66 and 67, respectively.

加算器66に入力された「d」のデータは、マイクロコンピュータ17により選択された、4乗の項において画面中心から補正がかからない(ゲインが1倍の)半径を示すデータcが減算され、乗算器68へ出力される。そして、乗算器68にて「(d−c)」を2乗する計算が行われ、その計算結果が乗算器69に出力される。乗算器69では、「(d−c」に対しマイクロコンピュータ17により選択された補正係数aが乗算され、加算器71に出力される。 The data “d 2 ” input to the adder 66 is subtracted from the data c a selected by the microcomputer 17 and indicating a radius that is not corrected from the center of the screen in the fourth power term (gain is 1 time). , Output to the multiplier 68. Then, the multiplier 68 performs a calculation of squaring “(d 2 −c a )”, and the calculation result is output to the multiplier 69. In the multiplier 69, “(d 2 −c a ) 2 ” is multiplied by the correction coefficient a selected by the microcomputer 17 and output to the adder 71.

他方、加算器67に供給されたデータ「d」は、マイクロコンピュータ17により選択された、2条の項において画面中心から補正がかからない(ゲインが1倍の)半径を示すデータcが減算される。その計算結果「(d−c)」は乗算器70へ出力され、マイクロコンピュータ17により選択された補正係数bが乗算されて、加算器71に出力される。 On the other hand, the data “d 2 ” supplied to the adder 67 is subtracted by the data c b selected by the microcomputer 17 and indicating the radius that is not corrected from the center of the screen in item 2 (the gain is 1). Is done. The calculation result “(d 2 −c b )” is output to the multiplier 70, multiplied by the correction coefficient b selected by the microcomputer 17, and output to the adder 71.

加算器71において、乗算器69から供給された「a(d−c」と、乗算器70から供給された「b(d−c)」が加算されて、その結果が加算器72に供給される。そして、加算器72にて1倍ゲインを表す値の定数、例えば1が加算されて、「a(d−c+b(d−c)+1」が得られる。この計算結果は乗算器73に出力されて画素データDinと乗算され、丸め演算部74にて所定の丸め演算が行われた後、画素データDoutとして出力される。上述式にて示したように、(d−c)、(d−c)の値に応じてクリップ処理部66a,67bがクリップ動作し、画素データDoutの計算値が異なってくる。この補正処理を、各原色信号による画像データの全画素について行う。 In the adder 71, “a (d 2 −c a ) 2 ” supplied from the multiplier 69 and “b (d 2 −c b )” supplied from the multiplier 70 are added, and the result is obtained. It is supplied to the adder 72. Then, a constant of a value representing a 1 × gain, for example, 1 is added by the adder 72 to obtain “a (d 2 −c a ) 2 + b (d 2 −c b ) +1”. This calculation result is output to the multiplier 73, multiplied by the pixel data Din, subjected to a predetermined rounding operation by the rounding operation unit 74, and then output as pixel data Dout. As shown in the above formula, the clip processing units 66a and 67b perform the clip operation according to the values of (d 2 −c a ) and (d 2 −c b ), and the calculated value of the pixel data Dout differs. . This correction processing is performed for all the pixels of the image data based on each primary color signal.

同様に、6乗の項((d2-c)の3乗)、8乗の項((d2-c)の4乗)といったより高次の偶数次項を追加していくことで、より理想的な補正曲線に近づけることも可能である。なお、3乗(d3)などの奇数の項を用いることでさらに自由度の高い補正が可能だが、開平演算が必要であるなど回路規模とのトレードオフの関係であり、本発明では用いない。 Similarly, by adding higher-order even-order terms such as the 6th power term ((d 2 -c) to the 3rd power) and 8th power terms ((d 2 -c) to the 4th power) It is also possible to approach an ideal correction curve. Although correction with a higher degree of freedom is possible by using an odd-numbered term such as the third power (d 3 ), it is a trade-off relationship with circuit scale such as the need for square root calculation, and is not used in the present invention. .

以上説明した周辺光量落ち補正処理によれば、画像データの任意の画素における画素値に、絞り位置(ズーム位置)に基づき、光学中心からの距離に応じた補正をかけることにより、開平演算をすることなく、簡単な計算式を用いて周辺光量落ち補正が可能となる。   According to the peripheral light amount drop correction process described above, square root calculation is performed by applying correction according to the distance from the optical center based on the aperture position (zoom position) on the pixel value in an arbitrary pixel of the image data. Therefore, the peripheral light amount drop correction can be performed using a simple calculation formula.

また、画面中心(光学中心)からの距離の2乗に比例する項だけでなく、距離の4乗などの高次の偶数次項に比例する項も用いることで、より精度の高い周辺光量落ち補正が可能である。距離の偶数次の項だけで近似することで、精度の高い周辺光量落ち補正が簡便な回路構成(ロジック)で実現可能である。開平演算を伴う場合と比較して回路規模が数分の1に抑えられるとともに、処理時間も数分の1に短縮することができる。   In addition to the term proportional to the square of the distance from the center of the screen (optical center), a term proportional to a higher-order even-order term such as the fourth power of the distance is used, so that the peripheral light amount drop correction can be performed with higher accuracy. Is possible. By approximating only the even-order term of the distance, highly accurate peripheral light amount drop correction can be realized with a simple circuit configuration (logic). Compared to the case involving square root extraction, the circuit scale can be reduced to a fraction, and the processing time can be reduced to a fraction.

さらに、絞り位置のみならず、ズーム値が考慮された補正式を用いることによって、より精度の高い周辺光量落ち補正処理が行える。   Furthermore, by using a correction formula that takes into account not only the aperture position but also the zoom value, a more accurate peripheral light amount drop correction process can be performed.

なお、上述した実施形態では、画面中心と光学中心が一致するものとして説明したが、画面中心と光学中心は必ずしも一致していなくてもよくて、その場合は光学中心が画面上のどの位置(座標)に対応するかを求め、その座標から補正対象画素までの距離を用いて周辺光量落ち補正処理を行う。また、絞り部1bの開口部21及びイメージセンサ1,2,3の受光部の形状を円として説明したが、これが矩形などであっても本発明の映像信号処理方法が適用でき、同様の効果を得ることができる。   In the above-described embodiment, the screen center and the optical center have been described as being coincident. However, the screen center and the optical center are not necessarily coincident, and in this case, the optical center is located at any position ( The peripheral light amount drop correction process is performed using the distance from the coordinate to the correction target pixel. Further, the shape of the aperture 21 of the aperture 1b and the light receiving portions of the image sensors 1, 2, and 3 has been described as a circle. However, even if this is a rectangle or the like, the video signal processing method of the present invention can be applied, and the same effect Can be obtained.

また、補正回路10が、絞り位置(及びズーム位置)と該絞り位置(及びズーム位置)に応じた係数からなる補正式が対応付けられて記憶されるROM等の記憶部と、絞り位置(及びズーム位置)に応じてパターン(補正式)を選択する制御部を備えていてもよい。この場合、補正回路10は、マイクロコンピュータ17から絞り位置(及びズーム位置)に関する情報を入手し、その情報に基づいて適切な補正式を読み出し、読み出した補正式を用いて画面データの各画素の周辺光量落ち補正を実行するようにしてもよい。   In addition, the correction circuit 10 includes a storage unit such as a ROM that stores a diaphragm position (and zoom position) and a correction expression including a coefficient corresponding to the diaphragm position (and zoom position), and a diaphragm position (and You may provide the control part which selects a pattern (correction formula) according to a zoom position. In this case, the correction circuit 10 obtains information related to the aperture position (and zoom position) from the microcomputer 17, reads an appropriate correction formula based on the information, and uses the read correction formula for each pixel of the screen data. You may make it perform peripheral light amount fall correction | amendment.

上述した補正回路10を含む映像信号処理部16(図1参照)の処理は、ハードウェアにより実行することができるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムコードを、マイクロコンピュータ17に内蔵するROM等の記憶部に格納する。特に、本発明による映像信号処理(周辺光量落ち補正処理)をソフトウェアにより実行させる場合は、それらの処理を実行するためのプログラムコードを新たに記憶部にインストールすることで、映像信号処理部16に対して本発明による周辺光量落ち補正機能を拡張することができる。   The processing of the video signal processing unit 16 (see FIG. 1) including the correction circuit 10 described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, program codes constituting the software are stored in a storage unit such as a ROM built in the microcomputer 17. In particular, when the video signal processing (peripheral light intensity drop correction processing) according to the present invention is executed by software, a program code for executing the processing is newly installed in the storage unit, so that the video signal processing unit 16 On the other hand, the peripheral light amount drop correction function according to the present invention can be expanded.

本発明は、上述した実施形態例の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(演算処理装置)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。   According to the present invention, a recording medium recording software program codes for realizing the functions of the above-described exemplary embodiments is supplied to a system or apparatus, and a computer (arithmetic processing unit) of the system or apparatus is stored in the recording medium. Needless to say, this can also be achieved by reading and executing the program code.

この場合のプログラムコードを供給するための記録媒体としては、例えば、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   As a recording medium for supplying the program code in this case, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. Can do.

また、コンピュータが読み出したプログラムコードを実行することにより、上述した実施の形態の例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の例の機能が実現される場合も含まれる。   Further, by executing the program code read out by the computer, not only the functions of the above-described embodiment example are realized, but also an OS running on the computer is actually executed based on the instruction of the program code. This includes a case where part or all of the processing is performed and the functions of the above-described exemplary embodiments are realized by the processing.

また、上述した実施形態において、本発明による撮像装置をビデオカメラに適用した例を説明したが、これに限らず、例えば、デジタルスチルカメラ、同等の機能を有するその他の装置等であってもよく、様々な装置に広く適用可能である。さらには、撮像装置から映像信号を受信する受像機が本発明の映像信号処理機能を備え、受像機側でこの映像信号処理、すなわち周辺光量落ち補正処理を行うようにしてもよい。   In the above-described embodiment, the example in which the imaging device according to the present invention is applied to a video camera has been described. However, the present invention is not limited to this, and may be, for example, a digital still camera or another device having an equivalent function. It can be widely applied to various devices. Furthermore, a receiver that receives a video signal from the imaging apparatus may be provided with the video signal processing function of the present invention, and this video signal processing, that is, peripheral light amount drop correction processing may be performed on the receiver side.

本発明の一実施形態に係るビデオカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the video camera which concerns on one Embodiment of this invention. 絞り部の位置と画素に入射する光の関係を説明する図である。It is a figure explaining the relationship between the position of a stop part, and the light which injects into a pixel. 絞りと画素の関係による取り込み光量を説明する図である。It is a figure explaining the taking-in light quantity by the relationship between an aperture stop and a pixel. 本発明の一実施形態に係る絞り半径と入射光量の関係を示す線図である。It is a diagram which shows the relationship between the aperture radius and incident light quantity which concern on one Embodiment of this invention. 本発明の一実施形態に係る距離の2乗と入射光量の関係(正規化後)を示す線図である。It is a diagram which shows the relationship (after normalization) of the square of the distance and incident light quantity which concern on one Embodiment of this invention. 本発明の一実施形態に係る距離の2乗と周辺光量落ち補正ゲインの関係を示す線図である。It is a diagram which shows the relationship between the square of the distance which concerns on one Embodiment of this invention, and a peripheral light quantity fall correction gain. 本発明の一実施形態に係る周辺光量落ち補正回路の例を示す図である。It is a figure which shows the example of the peripheral light amount fall correction | amendment circuit which concerns on one Embodiment of this invention. 画素の座標の説明に供する図である。It is a figure where it uses for description of the coordinate of a pixel.

符号の説明Explanation of symbols

1a…レンズ、1b…絞り部、1,2,3…イメージセンサ、10…補正回路、17…マイクロコンピュータ、18…操作部、61,62,65,66,67,71,72…加算器、63,64,68,69,70,73…乗算器、66a,67a…クリップ処理部、74…丸め演算部   DESCRIPTION OF SYMBOLS 1a ... Lens, 1b ... Aperture part, 1, 2, 3 ... Image sensor, 10 ... Correction circuit, 17 ... Microcomputer, 18 ... Operation part, 61, 62, 65, 66, 67, 71, 72 ... Adder, 63, 64, 68, 69, 70, 73... Multiplier, 66a, 67a... Clip processing unit, 74.

Claims (8)

レンズ及び絞り部を含む光学系と撮像部を有し、前記撮像部で得られた画像データについて周辺光量落ち補正を行う撮像装置において、
前記画像データの任意の画素における画素値を、前記絞り部の絞り位置に応じて、前記光学系の光学中心から前記画素までの距離の偶数次に比例する項のみで表される補正式を用いて補正する映像信号処理回路
を備えることを特徴とする撮像装置。
In an imaging apparatus that has an optical system including a lens and a diaphragm and an imaging unit, and performs peripheral light amount drop correction for image data obtained by the imaging unit,
Using a correction formula that represents a pixel value at an arbitrary pixel of the image data only by a term proportional to an even order of the distance from the optical center of the optical system to the pixel in accordance with the stop position of the stop portion. An image pickup apparatus comprising: a video signal processing circuit for correcting the image signal.
前記映像信号処理回路は、前記絞り部の絞り位置に応じて、絞り位置と前記補正式が対応付けられて記憶されている記憶部から適切な補正式を選択し、該選択した補正式に基づいて前記画素の画素値を補正する
ことを特徴とする請求項1に記載の撮像装置。
The video signal processing circuit selects an appropriate correction formula from a storage unit in which the stop position and the correction formula are stored in association with each other according to the stop position of the stop portion, and based on the selected correction formula The imaging apparatus according to claim 1, wherein the pixel value of the pixel is corrected.
前記映像信号処理回路に入力される画像データの任意の画素における補正前の画素値をDin、補正後の画素値をDoutとするとき、前記補正式は、
Dout = {a(d2 - c) + 1} × Din (d2> c)
= Din (d2 <= c)
ただし、
d:光学中心から当該画素までの距離
a:絞り位置に応じて決定される補正係数
c:光学中心から補正がかからない半径
で表されることを特徴とする請求項1に記載の撮像装置。
When the pixel value before correction in any pixel of the image data input to the video signal processing circuit is Din, and the pixel value after correction is Dout, the correction formula is
Dout = {a (d 2 -c) + 1} × Din (d 2 > c)
= Din (d 2 <= c)
However,
d: Distance from the optical center to the pixel
a: Correction coefficient determined according to the aperture position
The imaging apparatus according to claim 1, wherein c is expressed by a radius that is not corrected from the optical center.
前記映像信号処理回路に入力される画像データの任意の画素における補正前の画素値をDin、補正後の画素値をDoutとするとき、前記補正式は、
Dout = {a(d2 - ca)2+ b(d2 - cb) + 1} × Din (d2> ca,cb)
= {a(d2 - ca)2+ 1} × Din (d2> ca,d2 < cb)
= {b(d2 - cb) + 1} × Din (d2 > cb,d2 < ca)
= Din (d2 <= ca,cb)
ただし、
d:光学中心から当該画素までの距離
a,b:絞り位置に応じて決定される補正係数
ca:4乗の項において光学中心から補正がかからない半径
cb:2乗の項において光学中心から補正がかからない半径
で表されることを特徴とする請求項1に記載の撮像装置。
When the pixel value before correction in any pixel of the image data input to the video signal processing circuit is Din, and the pixel value after correction is Dout, the correction formula is
Dout = {a (d 2 -c a ) 2 + b (d 2 -c b ) + 1} × Din (d 2 > c a , c b )
= {a (d 2 -c a ) 2 + 1} × Din (d 2 > c a , d 2 <c b )
= {b (d 2 -c b ) + 1} × Din (d 2 > c b , d 2 <c a )
= Din (d 2 <= c a , c b )
However,
d: Distance from the optical center to the pixel
a, b: Correction factors determined according to the aperture position
c a : Radius that is not corrected from the optical center in the fourth power term
The imaging apparatus according to claim 1, wherein the imaging device is represented by a radius that is not corrected from the optical center in the term of c b : square.
前記画像データの任意の画素における画素値の補正を、前記絞り部の絞り位置に加え、さらに前記レンズのズーム位置に応じて行う
ことを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein correction of a pixel value in an arbitrary pixel of the image data is performed in accordance with a zoom position of the lens, in addition to a diaphragm position of the diaphragm unit.
レンズ及び絞り部を含む光学系を通り撮像部に入射した光学像を撮像して得られる画像データについて周辺光量落ち補正を行う映像信号処理回路において、
前記映像信号処理回路は、前記画像データの任意の画素における画素値を、前記絞り部の絞り位置に応じて、前記光学系の光学中心から前記画素までの距離の偶数次に比例する項のみで表される補正式を用いて補正する
ことを特徴とする映像信号処理回路。
In a video signal processing circuit that performs peripheral light amount drop correction on image data obtained by imaging an optical image incident on an imaging unit through an optical system including a lens and a diaphragm unit,
The video signal processing circuit is a term in which a pixel value in an arbitrary pixel of the image data is proportional to an even order of a distance from the optical center of the optical system to the pixel according to a stop position of the stop portion. A video signal processing circuit characterized in that correction is performed using a correction formula represented.
レンズ及び絞り部を含む光学系を通り撮像部に入射した光学像を撮像して得られる画像データについて周辺光量落ち補正を行う映像信号処理方法において、
前記絞り部の絞り位置を検出するステップと、
検出された絞り位置に応じて、絞り位置と補正式が対応付けられて記憶されている記憶部から適切な補正式を選択するステップと、
該選択した補正式を用いて前記画像データの任意の画素における画素値を補正するステップとを有し、
前記補正式が、前記光学系の光学中心から前記画素までの距離の偶数次に比例する項のみで表される
ことを特徴とする映像信号処理方法。
In a video signal processing method for performing peripheral light amount drop correction on image data obtained by imaging an optical image incident on an imaging unit through an optical system including a lens and a diaphragm unit,
Detecting the aperture position of the aperture section;
Selecting an appropriate correction formula from the storage unit that stores the aperture position and the correction formula in association with each other according to the detected aperture position;
Correcting a pixel value at an arbitrary pixel of the image data using the selected correction formula,
The video signal processing method, wherein the correction formula is expressed only by a term proportional to an even order of the distance from the optical center of the optical system to the pixel.
レンズ及び絞り部を含む光学系を通り撮像部に入射した光学像を撮像して得られる画像データについて周辺光量落ち補正処理をコンピュータに実行させるコンピュータプログラムにおいて、
前記絞り部の絞り位置を検出する処理と、
検出された絞り位置に応じて、絞り位置と補正式が対応付けられて記憶されている記憶部から適切な補正式を選択する処理と、
該選択した補正式を用いて前記画像データの任意の画素における画素値を補正する処理とを有し、
前記補正式が、前記光学系の光学中心から前記画素までの距離の偶数次に比例する項のみで表される
ことを特徴とするコンピュータプログラム。
In a computer program for causing a computer to perform a peripheral light amount drop correction process on image data obtained by imaging an optical image incident on an imaging unit through an optical system including a lens and a diaphragm unit,
A process for detecting a diaphragm position of the diaphragm unit;
In accordance with the detected aperture position, a process for selecting an appropriate correction formula from the storage unit that stores the aperture position and the correction formula in association with each other;
Processing to correct a pixel value in an arbitrary pixel of the image data using the selected correction formula,
The computer program according to claim 1, wherein the correction formula is expressed only by a term proportional to an even order of a distance from the optical center of the optical system to the pixel.
JP2006104496A 2006-04-05 2006-04-05 Imaging apparatus, video signal processing circuit, video signal processing method, and computer program Pending JP2007281812A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006104496A JP2007281812A (en) 2006-04-05 2006-04-05 Imaging apparatus, video signal processing circuit, video signal processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006104496A JP2007281812A (en) 2006-04-05 2006-04-05 Imaging apparatus, video signal processing circuit, video signal processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2007281812A true JP2007281812A (en) 2007-10-25

Family

ID=38682816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006104496A Pending JP2007281812A (en) 2006-04-05 2006-04-05 Imaging apparatus, video signal processing circuit, video signal processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2007281812A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106920257A (en) * 2015-12-25 2017-07-04 北京展讯高科通信技术有限公司 The method of estimation and device of radius in digital picture

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150681A (en) * 1997-11-17 1999-06-02 Nikon Corp Information processing device and method, information processing system and recording medium
JP2000196953A (en) * 1998-12-25 2000-07-14 Olympus Optical Co Ltd Camera system
JP2000324505A (en) * 1999-05-11 2000-11-24 Nikon Corp Image input device and lens for exchange
JP2003333422A (en) * 2002-05-16 2003-11-21 Fuji Photo Film Co Ltd Shading correction method and digital camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150681A (en) * 1997-11-17 1999-06-02 Nikon Corp Information processing device and method, information processing system and recording medium
JP2000196953A (en) * 1998-12-25 2000-07-14 Olympus Optical Co Ltd Camera system
JP2000324505A (en) * 1999-05-11 2000-11-24 Nikon Corp Image input device and lens for exchange
JP2003333422A (en) * 2002-05-16 2003-11-21 Fuji Photo Film Co Ltd Shading correction method and digital camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106920257A (en) * 2015-12-25 2017-07-04 北京展讯高科通信技术有限公司 The method of estimation and device of radius in digital picture

Similar Documents

Publication Publication Date Title
JP4104571B2 (en) Distortion correction apparatus and imaging apparatus provided with the distortion correction apparatus
US8488029B2 (en) Imaging apparatus, imaging method, integrated circuit, and storage medium
US8199229B2 (en) Color filter, image processing apparatus, image processing method, image-capture apparatus, image-capture method, program and recording medium
US8749661B2 (en) Imaging compositions of multiple images having different image ranges
US8970722B2 (en) Image processing apparatus and method of controlling the same
US7873221B2 (en) Image processing apparatus, image processing method, program for image processing method, and recording medium which records program for image processing method
JP5347707B2 (en) Imaging apparatus and imaging method
CN102474628B (en) Image processing method and device
JP4433883B2 (en) White balance correction device, white balance correction method, program, and electronic camera device
JP5135953B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP3997786B2 (en) Imaging device, display device, image recording device, and image quality correction method
JP2009200743A (en) Image processor, image processing method, image processing program and imaging apparatus
JP5173664B2 (en) Image processing apparatus and image processing method
JP4581633B2 (en) Color signal correction method, apparatus and program
JP4994158B2 (en) Image correction device
JP4024284B1 (en) Imaging apparatus and imaging method
JPH11164194A (en) Image processing method and image input device
JP2007281812A (en) Imaging apparatus, video signal processing circuit, video signal processing method, and computer program
JP2001292325A (en) Edge enhancement device, edge enhancement method and recording medium
JP5972057B2 (en) Image processing apparatus, imaging apparatus, and image processing method
CN105191284A (en) Image capture device and control method thereof
JP2008219230A (en) Imaging apparatus, and image processing method
JP2005277618A (en) Photography taking apparatus and device and method for correcting shading
JP2787781B2 (en) Digital electronic still camera
JP2006157344A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110405