JP2007195122A - Imaging apparatus, image processor and image processing method - Google Patents

Imaging apparatus, image processor and image processing method Download PDF

Info

Publication number
JP2007195122A
JP2007195122A JP2006013848A JP2006013848A JP2007195122A JP 2007195122 A JP2007195122 A JP 2007195122A JP 2006013848 A JP2006013848 A JP 2006013848A JP 2006013848 A JP2006013848 A JP 2006013848A JP 2007195122 A JP2007195122 A JP 2007195122A
Authority
JP
Japan
Prior art keywords
edge
image
density
signal
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006013848A
Other languages
Japanese (ja)
Inventor
Hiroaki Kubo
広明 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2006013848A priority Critical patent/JP2007195122A/en
Publication of JP2007195122A publication Critical patent/JP2007195122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus for effectively suppressing coloring due to chromatic aberration. <P>SOLUTION: An edge of an image acquired by an imaging device is detected and a position of the edge in the image is specified. Then, generation of useless color fading is prevented since density of a color signal near the edge is reduced according to a density reduction rule depending on the position of the edge in the image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮像装置または画像処理装置等における画像処理技術に関する。   The present invention relates to an image processing technique in an imaging apparatus or an image processing apparatus.

デジタルカメラ等の撮像装置においては、被写体からの光像が撮影光学系(撮影レンズ)を介して単板式CCD(Charge Coupled Device)等の撮像素子に導かれるように構成されている。   An imaging apparatus such as a digital camera is configured such that a light image from a subject is guided to an imaging element such as a single-plate CCD (Charge Coupled Device) via a photographing optical system (photographing lens).

このような撮像装置よって撮影された画像には、被写体の輪郭(エッジ)部等において偽色および色収差等の色つきが発生する。   In an image photographed by such an imaging device, coloring such as false color and chromatic aberration occurs in the contour (edge) portion of the subject.

偽色は、撮像素子の各画素位置において、R(赤)、G(緑)B(青)全ての色成分の信号を得るために行われる画素補間処理によって発生し、これを低減する技術としては、信号値を推定することによって偽色を有効に低減する技術(特許文献1)等が提案されている。   As a technique for reducing false colors, false colors are generated by pixel interpolation processing performed to obtain signals of all color components of R (red), G (green), and B (blue) at each pixel position of the image sensor. Has proposed a technique (Patent Document 1) that effectively reduces false colors by estimating signal values.

一方、色収差は、光の色種によって波長が異なるという光学要因によって発生し、撮影レンズの特性、焦点距離等によって画像に現れる色収差の程度、範囲等が変動する。   On the other hand, chromatic aberration occurs due to an optical factor that the wavelength varies depending on the color type of light, and the degree, range, etc. of chromatic aberration appearing in an image vary depending on characteristics of the photographing lens, focal length, and the like.

また、近年、撮像素子の高画素化によって、撮像レンズ系の光軸から離れるに従って次第に大きくなる倍率色収差(以下、誤解を生じないと思われる箇所では単に「色収差」とも称する)が特に目立つようになってきている。   In recent years, with the increase in the number of pixels of the image sensor, lateral chromatic aberration that gradually increases as the distance from the optical axis of the image pickup lens system (hereinafter, simply referred to as “chromatic aberration” in a place where no misunderstanding occurs) is particularly noticeable. It has become to.

特開2001−292454号公報JP 2001-292454 A

倍率色収差は、画素間の補間によって1画素、2画素単位で発生する偽色と異なり、光学要因によって発生するため、数画素単位(例えば10画素程度)で幅広く発生することもある。したがって、倍率色収差に対しては、周りの画素を利用した補正処理等によっては十分に対処できないため、色つき部分の色を抑圧して色つきを目立たなくする措置が有効となる。   The chromatic aberration of magnification is different from a false color generated in units of one pixel or two pixels due to interpolation between pixels, and is generated due to an optical factor, and may occur widely in units of several pixels (for example, about 10 pixels). Accordingly, since the chromatic aberration of magnification cannot be sufficiently dealt with by correction processing using surrounding pixels, a measure for suppressing the coloring of the colored portion and making the coloring inconspicuous is effective.

しかしながら、上述のように数画素単位で幅広く発生することもある倍率色収差に対して、無条件に色つき部分の色を抑圧するとかえって「色抜け」が目立つようになるという問題がある。「色抜け」とは、色が抑圧された部分において色が抜けてしまう現象(色彩が失われてしまう現象)である。   However, as described above, there is a problem that “color loss” becomes conspicuous if the color of the colored portion is unconditionally suppressed with respect to the chromatic aberration of magnification that may occur widely in units of several pixels. “Color loss” is a phenomenon in which a color is lost in a portion where the color is suppressed (a phenomenon in which color is lost).

そこで、本発明は上記課題に鑑みてなされたものであり、倍率色収差による色つきを効果的に目立たないように低減することが可能な技術を提供することを課題とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of effectively reducing coloring due to lateral chromatic aberration so as not to be noticeable.

上記の課題を解決するため、請求項1の発明は、撮像装置であって、撮像素子と、前記撮像素子によって取得された画像中のエッジを検出するエッジ検出手段と、前記画像における前記エッジの位置を特定するエッジ位置特定手段と、前記エッジの位置に応じた濃度低減化規則に従って、前記エッジ近傍の色信号の濃度を低減する濃度低減手段とを備えることを特徴とする。   In order to solve the above-described problem, the invention of claim 1 is an imaging apparatus, wherein the imaging device, edge detection means for detecting an edge in the image acquired by the imaging device, and the edge of the image are detected. Edge position specifying means for specifying a position, and density reducing means for reducing the density of a color signal in the vicinity of the edge in accordance with a density reduction rule corresponding to the position of the edge.

また、請求項2の発明は、請求項1の発明に係る撮像装置において、前記濃度低減手段は、前記エッジ位置特定手段において、前記画像における撮像レンズ系の光軸位置もしくは画像の画面中心位置から所定距離内に存在すると判断されたエッジについては、当該エッジ近傍の色信号を低減しないことを特徴とする。   According to a second aspect of the present invention, in the imaging apparatus according to the first aspect of the invention, the density reduction means is the edge position specifying means based on the optical axis position of the imaging lens system in the image or the screen center position of the image. For an edge determined to exist within a predetermined distance, the color signal in the vicinity of the edge is not reduced.

また、請求項3の発明は、請求項1の発明に係る撮像装置において、前記エッジ検出手段は、前記画像における撮像レンズ系の光軸位置もしくは画像の画面中心位置から所定距離内では、前記エッジの検出を実行しないことを特徴とする。   According to a third aspect of the present invention, in the imaging apparatus according to the first aspect of the present invention, the edge detection means is configured such that the edge is within a predetermined distance from the optical axis position of the imaging lens system in the image or the screen center position of the image. It is characterized in that no detection is performed.

また、請求項4の発明は、請求項1から請求項3のいずれかの発明に係る撮像装置において、前記エッジにおいて濃度変化が生じている空間的方向を判定する方向判定手段、をさらに備え、前記濃度低減手段は、前記エッジにおける濃度変化の空間的方向に応じて、前記エッジ近傍の色信号の濃度を選択的に低減することを特徴とする。   The invention of claim 4 further includes direction determination means for determining a spatial direction in which a density change occurs at the edge in the imaging apparatus according to any one of claims 1 to 3, The density reducing means selectively reduces the density of the color signal in the vicinity of the edge according to the spatial direction of density change at the edge.

また、請求項5の発明は、請求項1から請求項4のいずれかの発明に係る撮像装置において、前記濃度低減手段は、前記画像中における撮像レンズ系の光軸位置と前記エッジとの距離に応じて、当該エッジ近傍における色信号の濃度の低減範囲を段階的に変更することを特徴とする。   According to a fifth aspect of the present invention, in the imaging apparatus according to any one of the first to fourth aspects, the density reducing means is a distance between the optical axis position of the imaging lens system in the image and the edge. Accordingly, the reduction range of the color signal density in the vicinity of the edge is changed stepwise.

また、請求項6の発明は、請求項1から請求項5のいずれかの発明に係る撮像装置において、撮影時の撮影条件に基づいて、前記濃度低減手段による色信号の濃度低減量を調整する調整手段、をさらに備えることを特徴とする。   According to a sixth aspect of the present invention, in the imaging apparatus according to any one of the first to fifth aspects, the density reduction amount of the color signal by the density reducing means is adjusted based on the photographing conditions at the time of photographing. And adjusting means.

また、請求項7の発明は、請求項6の発明に係る撮像装置において、前記撮影条件は、焦点距離情報を含み、前記調整手段は、前記焦点距離情報に基づいて前記色信号の濃度低減量を調整することを特徴とする。   According to a seventh aspect of the present invention, in the imaging apparatus according to the sixth aspect of the invention, the photographing condition includes focal length information, and the adjusting means is configured to reduce the density of the color signal based on the focal length information. It is characterized by adjusting.

また、請求項8の発明は、請求項6または請求項7の発明に係る撮像装置において、前記撮影条件は、撮影距離情報を含み、前記調整手段は、前記撮影距離情報に基づいて前記色信号の濃度低減量を調整することを特徴とする。   According to an eighth aspect of the present invention, in the imaging apparatus according to the sixth or seventh aspect of the present invention, the photographing condition includes photographing distance information, and the adjusting means is configured to use the color signal based on the photographing distance information. The amount of density reduction is adjusted.

また、請求項9の発明は、請求項6から請求項8のいずれかの発明に係る撮像装置において、前記撮影条件は、絞り値を含み、前記調整手段は、前記絞り値に基づいて前記色信号の濃度低減量を調整することを特徴とする。   According to a ninth aspect of the present invention, in the imaging apparatus according to any one of the sixth to eighth aspects, the photographing condition includes an aperture value, and the adjusting means is configured to adjust the color based on the aperture value. It is characterized by adjusting the amount of signal density reduction.

また、請求項10の発明は、請求項6から請求項9のいずれかの発明に係る撮像装置において、撮影時の撮影レンズ情報に基づいて、前記濃度低減手段による色信号の濃度低減量を調整する調整手段、をさらに備えることを特徴とする。   According to a tenth aspect of the present invention, in the image pickup apparatus according to any of the sixth to ninth aspects, the density reduction amount of the color signal by the density reducing means is adjusted based on photographing lens information at the time of photographing. Adjusting means for further comprising.

また、請求項11の発明は、撮像素子によって取得された画像に所定の画像処理を施す画像処理装置であって、前記画像中のエッジを検出するエッジ検出手段と、前記画像における前記エッジの位置を特定するエッジ位置特定手段と、前記エッジの位置に応じた濃度低減化規則に従って、前記エッジ近傍の色信号の濃度を低減する濃度低減手段とを備えることを特徴とする。   The invention according to claim 11 is an image processing apparatus that performs predetermined image processing on an image acquired by an image sensor, and includes an edge detection unit that detects an edge in the image, and a position of the edge in the image. Edge position specifying means for specifying the color density, and density reducing means for reducing the density of the color signal in the vicinity of the edge in accordance with a density reduction rule corresponding to the edge position.

また、請求項12の発明は、撮像素子によって取得された画像に所定の画像処理を施す画像処理方法であって、前記画像中のエッジを検出するエッジ検出工程と、前記画像における前記エッジの位置を特定するエッジ位置特定工程と、前記エッジの位置に応じた濃度低減化規則に従って、前記エッジ近傍の色信号の濃度を低減する濃度低減工程とを備えることを特徴とする。   The invention according to claim 12 is an image processing method for performing predetermined image processing on an image acquired by an image sensor, wherein an edge detection step of detecting an edge in the image, and the position of the edge in the image An edge position specifying step for specifying the color density, and a density reduction step for reducing the density of the color signal in the vicinity of the edge in accordance with a density reduction rule corresponding to the position of the edge.

請求項1から請求項12に記載の発明によれば、撮像素子によって取得された画像中のエッジを検出し、画像における当該エッジの位置を特定し、エッジの位置に応じた濃度低減化規則に従ってエッジ近傍の色信号の濃度を低減するので、無駄な色抜けの発生を防止することが可能となる。   According to the first to twelfth aspects of the present invention, the edge in the image acquired by the image sensor is detected, the position of the edge in the image is specified, and the density reduction rule according to the edge position is determined. Since the density of the color signal near the edge is reduced, it is possible to prevent the occurrence of useless color loss.

また特に、請求項3に記載の発明によれば、画像における撮像レンズ系の光軸位置もしくは画像の画面中心位置から所定距離内では、エッジの検出を実行しないので、抑圧処理を実行しない領域に対する無駄な処理を回避することができる。   In particular, according to the invention described in claim 3, since the edge detection is not performed within a predetermined distance from the optical axis position of the imaging lens system in the image or the screen center position of the image, the region for which the suppression process is not performed is performed. Useless processing can be avoided.

また特に、請求項4に記載の発明によれば、エッジの空間的な濃度変化の方向を判定するるとともに、エッジの濃度変化の空間的方向に応じてエッジ近傍の色信号の濃度を選択的に低減するので、抑圧対象とする色収差による色つきを特定して、抑圧処理を実行することが可能となる。   In particular, according to the fourth aspect of the invention, the direction of the spatial density change of the edge is determined, and the density of the color signal in the vicinity of the edge is selectively determined according to the spatial direction of the edge density change. Therefore, it is possible to specify the coloring due to the chromatic aberration to be suppressed and execute the suppression process.

また特に、請求項5に記載の発明によれば、画像中における撮像レンズ系の光軸位置とエッジとの距離に応じて、当該エッジ近傍における色信号の濃度の低減範囲を段階的に変更することができるので、色収差の色つき幅に合わせた適切な抑圧処理が可能となる。   In particular, according to the fifth aspect of the present invention, the reduction range of the color signal density in the vicinity of the edge is changed stepwise in accordance with the distance between the optical axis position of the imaging lens system in the image and the edge. Therefore, it is possible to perform appropriate suppression processing in accordance with the colored width of chromatic aberration.

また特に、請求項6に記載の発明によれば、撮影時の撮影条件に基づいて、色信号の濃度低減量を調整することができるので、取得された画像に対して最適な抑圧処理が可能となる。   In particular, according to the sixth aspect of the present invention, since the amount of color signal density reduction can be adjusted based on the shooting conditions at the time of shooting, optimum suppression processing can be performed on the acquired image. It becomes.

また特に、請求項10に記載の発明によれば、撮影レンズ情報に基づいて色信号の濃度低減量を調整することができるので、レンズの特性に合致した抑圧処理が可能となる。   In particular, according to the tenth aspect of the present invention, since the amount of color signal density reduction can be adjusted based on the photographing lens information, it is possible to perform suppression processing that matches the lens characteristics.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.第1実施形態>
<撮像装置の概要>
図1は、本発明の実施形態に係る撮像装置1Aの要部構成を示す図である。ここで、図1(a)〜(c)は、それぞれ撮像装置1Aの正面図、背面図および上面図に相当する。
<1. First Embodiment>
<Outline of imaging device>
FIG. 1 is a diagram illustrating a main configuration of an imaging apparatus 1A according to an embodiment of the present invention. Here, FIGS. 1A to 1C correspond to a front view, a rear view, and a top view of the imaging apparatus 1A, respectively.

撮像装置1Aは、デジタルカメラとして構成されており、撮影レンズ10を備えている。   The imaging device 1 </ b> A is configured as a digital camera and includes a photographing lens 10.

撮像装置1Aは、その上面に撮影モード切替スイッチ12とシャッターボタン13と電源ボタン100とが設けられている。   The imaging apparatus 1A is provided with a shooting mode changeover switch 12, a shutter button 13, and a power button 100 on the top surface.

撮影モード切替スイッチ12は、被写体を撮像してその静止画を記録する静止画撮影モード(RECモード)と、メモリカード9(図2参照)に記録された画像を再生する再生モード(PLAYモード)とを切替えるためのスイッチである。   The shooting mode change-over switch 12 has a still image shooting mode (REC mode) that captures an image of a subject and records the still image, and a playback mode (PLAY mode) that plays back an image recorded on the memory card 9 (see FIG. 2). It is a switch for switching between.

シャッターボタン13は、半押し状態(S1オン)と、さらに押し込まれた全押し状態(S2オン)とを検出可能な2段階スイッチになっている。上記のRECモードにおいてシャッターボタン13が半押しされると、フォーカスモータドライバ47(図2参照)が駆動されて、合焦位置に撮影レンズ10を移動させる動作(AF動作)が行われる。なお、S1オンとなると、カメラ制御部40(図2参照)による露出制御も併せて行われる。   The shutter button 13 is a two-stage switch that can detect a half-pressed state (S1 on) and a fully pressed state (S2 on). When the shutter button 13 is half-pressed in the REC mode, the focus motor driver 47 (see FIG. 2) is driven to perform an operation (AF operation) for moving the photographing lens 10 to the in-focus position. When S1 is turned on, exposure control by the camera control unit 40 (see FIG. 2) is also performed.

更に、RECモードにおいてシャッターボタン13が全押しされると、本撮影動作、つまり記録用の撮影動作が行われる。   Further, when the shutter button 13 is fully pressed in the REC mode, a main photographing operation, that is, a recording photographing operation is performed.

電源ボタン100は、撮像装置1Aの電源をON/OFFするボタンである。この電源ボタン100を押下することで、撮像装置1Aの電源を交互にON、OFFすることができる。   The power button 100 is a button for turning on / off the power of the imaging apparatus 1A. By pressing the power button 100, the power supply of the image pickup apparatus 1A can be turned ON and OFF alternately.

撮像装置1Aの背面には、撮影された画像などを表示するLCD(Liquid Crystal Display)モニタ42と、電子ビューファインダー(EVF)43と、コマ送り・ズームスイッチ15とが設けられている。   An LCD (Liquid Crystal Display) monitor 42 that displays a captured image, an electronic viewfinder (EVF) 43, and a frame advance / zoom switch 15 are provided on the back surface of the imaging apparatus 1A.

コマ送り・ズームスイッチ15は、4つのボタンで構成され、再生モードにおける記録画像のコマ送りや、撮影時のズーミングを指示するためのスイッチである。このコマ送り・ズームスイッチ15の操作により、フォーカスモータドライバ47が駆動されて、撮影レンズ10に関する焦点距離を変更できる。   The frame advance / zoom switch 15 is composed of four buttons, and is a switch for instructing frame advance of a recorded image in playback mode and zooming at the time of shooting. By operating the frame advance / zoom switch 15, the focus motor driver 47 is driven, and the focal length related to the photographing lens 10 can be changed.

また、RECモードにおいては、コマ送り・ズームスイッチ15の左右方向のボタンの押下操作により、1フレームの静止画を取得するモード(通常撮影モード)と、高速のフレームレートで連写を行うモード(高速連写モード)との間で、モードを切り替えることができる。   In the REC mode, a mode for acquiring a still image of one frame (normal shooting mode) and a mode for performing continuous shooting at a high frame rate (pressing the left / right button of the frame advance / zoom switch 15) The mode can be switched between the high-speed continuous shooting mode).

また、撮像装置1Aでは、RECモードになると、まず、記録用の撮影画像を取得する撮影(本撮影)前の撮影待機状態となる。この撮影待機状態では、LCDモニタ42やEVF43において、プレビュー用となる撮影画像データ(ライブビュー)が動画的な態様で可視的に出力される。よって、RECモードにおける撮影待機状態では、ライブビューを取得するモード(ライブビューモード)に設定されているものとみなすことができる。   Further, when the imaging apparatus 1A enters the REC mode, first, the imaging apparatus 1A enters a shooting standby state before shooting (main shooting) for acquiring a recorded image for recording. In this shooting standby state, on the LCD monitor 42 and the EVF 43, the shot image data (live view) for preview is visually output in a moving image manner. Therefore, in the shooting standby state in the REC mode, it can be considered that the mode is set to a live view acquisition mode (live view mode).

つまり、撮像装置1Aでは、RECモードの中に、通常撮影モードと高速連写モードとが存在し、更に、通常撮影モードと高速連写モードの中に、ライブビューモードが存在する。   That is, in the imaging apparatus 1A, the normal shooting mode and the high-speed continuous shooting mode exist in the REC mode, and the live view mode exists in the normal shooting mode and the high-speed continuous shooting mode.

<撮像装置の機能構成>
次に、撮像装置1Aの機能について説明する。図2は、撮像装置1Aの機能ブロックを示す図である。
<Functional configuration of imaging device>
Next, functions of the image pickup apparatus 1A will be described. FIG. 2 is a diagram illustrating functional blocks of the imaging apparatus 1A.

図2に示されるように、撮像装置1Aは、撮像素子16と、撮像素子16にデータ伝送可能に接続する信号処理部2と、信号処理部2に接続する画像処理部3と、画像処理部3に接続するカメラ制御部40とを備えている。   As illustrated in FIG. 2, the imaging device 1A includes an imaging device 16, a signal processing unit 2 connected to the imaging device 16 so as to be able to transmit data, an image processing unit 3 connected to the signal processing unit 2, and an image processing unit. 3 is connected to the camera control unit 40.

撮像素子(CCD)16は、複数種類の色成分であるR(赤)、G(緑)、B(青)の原色透過フィルターがピクセル単位に市松状に配列(ベイヤー配列)されたエリアセンサ(撮像素子)として構成されている。   The image pickup device (CCD) 16 is an area sensor (Bayer array) in which R (red), G (green), and B (blue) primary color transmission filters, which are a plurality of types of color components, are arranged in a checkered pattern on a pixel basis. Image pickup device).

そして、撮像素子16において露光によって電荷の蓄積が完了すると、光電変換された電荷信号は、遮光された撮像素子16内の垂直・水平転送路へとシフトされ、ここからバッファを介し画像信号として出力される。つまり、撮像素子16は、被写体に係る画像信号(画像)を取得する撮像手段として機能する。   When charge accumulation is completed by exposure in the image sensor 16, the photoelectrically converted charge signal is shifted to the vertical / horizontal transfer path in the image sensor 16 which is shielded from light, and is output as an image signal from here through the buffer. Is done. That is, the imaging element 16 functions as an imaging unit that acquires an image signal (image) related to the subject.

信号処理部2は、CDS21とAGC22とA/D変換部23とを有しており、いわゆるアナログフロントエンドとして機能する。   The signal processing unit 2 includes a CDS 21, an AGC 22, and an A / D conversion unit 23, and functions as a so-called analog front end.

撮像素子16から出力されたアナログ画像信号は、CDS21でサンプリングされノイズが除去された後、AGC22により撮影感度に相当するアナログゲインが乗算されて感度補正が行われる。   The analog image signal output from the image sensor 16 is sampled by the CDS 21 and noise is removed, and then the AGC 22 multiplies the analog gain corresponding to the imaging sensitivity to perform sensitivity correction.

A/D変換部23は、14ビットの変換器として構成されており、AGC22で正規化されたアナログ信号をデジタル信号に変換し、画像処理部3に出力する。   The A / D conversion unit 23 is configured as a 14-bit converter, converts the analog signal normalized by the AGC 22 into a digital signal, and outputs the digital signal to the image processing unit 3.

画像処理部3に出力される画像信号は、各画素がRGB3原色のうちのいずれかの色成分の情報を有するとともに、撮影光学系による色収差を含む画像信号となっている。   The image signal output to the image processing unit 3 is an image signal in which each pixel has information on any one of the RGB primary colors and includes chromatic aberration due to the photographing optical system.

一般に、光学要因によって撮影光学系において生ずる倍率色収差は、撮像素子16の受光面において光軸Lから離れる程、大きくなる。図3は、撮影光学系が、或る撮影条件における倍率色収差を示す図であり、画像における中心(光軸L)からの距離rと、G成分の光の結像位置に対するR成分の光の結像位置のずれ量(Δr)との関係を示している。図3に示されるように、R成分光の色収差101は、R成分の光のG成分に対する画像上の光軸中心を基準とする半径方向のずれとして光学シミュレーションや実測から求められるものであり、色収差101は光軸Lから離れる程(換言すれば光軸Lからの距離が大きくなる程)、大きくなる。すなわち、被写体の同一位置からの光であっても、G成分の結像位置とR成分の結像位置が同一にならず、そのずれ量は画像周辺部に向かうに従って大きくなる。   In general, the chromatic aberration of magnification that occurs in the photographing optical system due to optical factors increases as the distance from the optical axis L increases on the light receiving surface of the image sensor 16. FIG. 3 is a diagram showing the chromatic aberration of magnification under a certain photographing condition by the photographing optical system. The distance r from the center (optical axis L) in the image and the R component light with respect to the imaging position of the G component light. The relationship with the shift amount (Δr) of the imaging position is shown. As shown in FIG. 3, the chromatic aberration 101 of the R component light is obtained from an optical simulation or actual measurement as a deviation in the radial direction with respect to the center of the optical axis on the image with respect to the G component of the R component light. The chromatic aberration 101 increases as the distance from the optical axis L increases (in other words, the distance from the optical axis L increases). That is, even if the light is from the same position of the subject, the G component imaging position and the R component imaging position are not the same, and the amount of deviation increases toward the periphery of the image.

また、B成分の光についても同様である。一般に、G成分を基準とすると、B成分の光の収差は、R成分の光の収差の反対側(すなわち、図3では−Δr側)に現れ、R成分と同様に、光軸Lから離れる程(換言すれば光軸Lからの距離が大きくなる程)、大きくなる。   The same applies to the B component light. In general, when the G component is used as a reference, the aberration of the B component light appears on the opposite side of the R component light aberration (that is, on the −Δr side in FIG. 3), and is separated from the optical axis L as in the R component. (In other words, the greater the distance from the optical axis L), the greater.

以上のように、撮影光学系において生ずる倍率色収差は、光軸Lを基準にして軸対称に発生するとともに、光軸Lからの距離が大きくなるにしたがって、その色つき幅が大きくなる。図4は、撮像装置1Aによって取得された画像における色収差の色つきの様子を示す図である。例えば、撮像装置1Aでは、R成分の光が光軸L(画像の画面中心CP)方向にずれると仮定すると、図4のようなエッジパターンの画像においては、エッジに隣接して中心に近づく方向にマゼンダ系の色つきMaが発生し、中心から遠ざかる方向にシアン系の色つきCyが発生する。なお、レンズの設計等により、マゼンダ系の色つきMaとシアン系の色つきCyとが、相互に入れ替わって生じる場合もある。   As described above, the lateral chromatic aberration generated in the photographing optical system is generated symmetrically with respect to the optical axis L, and the colored width increases as the distance from the optical axis L increases. FIG. 4 is a diagram illustrating the coloring of chromatic aberration in the image acquired by the imaging apparatus 1A. For example, in the imaging apparatus 1A, assuming that the R component light is shifted in the direction of the optical axis L (image center CP), in the edge pattern image as shown in FIG. A magenta colored Ma is generated at the center, and a cyan colored Cy is generated in a direction away from the center. Depending on the design of the lens, the magenta colored Ma and the cyan colored Cy may be interchanged.

画像処理部3では、このような特性を有する色収差を有効に低減(抑圧)できるように構成される。ただし、画像処理部3では、後述するように、色収差低減処理だけでなく、その他各種画像処理が行われるように構成される。   The image processing unit 3 is configured to effectively reduce (suppress) chromatic aberration having such characteristics. However, as will be described later, the image processing unit 3 is configured to perform not only chromatic aberration reduction processing but also various other image processing.

画像処理部3は、デジタル処理部3a、画像圧縮部36、クロマサプレス部37、メモリカードドライバ38およびビデオエンコーダ39を備えている。   The image processing unit 3 includes a digital processing unit 3a, an image compression unit 36, a chroma suppress unit 37, a memory card driver 38, and a video encoder 39.

デジタル処理部3aは、画素補間部31と解像度変換部32とホワイトバランス制御部33とガンマ補正部34とを有している。   The digital processing unit 3 a includes a pixel interpolation unit 31, a resolution conversion unit 32, a white balance control unit 33, and a gamma correction unit 34.

画像処理部3に入力された画像データは、撮像素子16の読出しに同期し、例えばSDRAMで構成される画像メモリ41に書込まれる。以後、この画像メモリ41に格納された画像データにアクセスし、デジタル処理部3aで各種の処理が行われる。   The image data input to the image processing unit 3 is written in the image memory 41 configured by, for example, SDRAM in synchronization with the reading of the image sensor 16. Thereafter, the image data stored in the image memory 41 is accessed, and various processes are performed by the digital processing unit 3a.

画像メモリ41内の画像データは、まずホワイトバランス制御部33によりRGB各画素が独立にゲイン補正され、RGBのホワイトバランス補正が行われる。このホワイトバランス補正では、撮影被写体から本来白色となる部分を輝度や彩度データ等から推測し、その部分のR、G、Bそれぞれの平均値とG/R比およびG/B比とを求め、これらの情報に基づいてRおよびBの補正ゲインとして制御される。   In the image data in the image memory 41, first, the white balance control unit 33 performs gain correction of RGB pixels independently, and RGB white balance correction is performed. In this white balance correction, a portion that is originally white from a photographic subject is estimated from brightness, saturation data, and the like, and an average value, a G / R ratio, and a G / B ratio for each of R, G, and B are obtained. Based on these pieces of information, the R and B correction gains are controlled.

次に、画素補間部31では、RGB各画素をそれぞれのフィルターパターンでマスキングした後、高帯域まで画素値を有するG画素については、例えば、注目画素に対する周辺12画素のコントラストパターンに基づき画素値の空間的な変化を推定し、周囲4画素のデータに基づき被写体のパターンに最適な画素値を算出して割り当てる。一方、R画素およびB画素に関しては、周囲の8画素の同色画素値に基づいて補間する。   Next, the pixel interpolating unit 31 masks each RGB pixel with a respective filter pattern, and for G pixels having pixel values up to a high band, for example, based on the contrast pattern of 12 pixels surrounding the pixel of interest, A spatial change is estimated, and an optimal pixel value is calculated and assigned to the subject pattern based on the data of the surrounding four pixels. On the other hand, the R pixel and the B pixel are interpolated based on the same color pixel values of the surrounding eight pixels.

画素補間された画像データは、ガンマ補正部34で各出力機器に合った非線形変換が行われた後、マトリクス演算によりRGBの原色成分をもつ色空間が、輝度成分(Y)(以下、輝度信号Yとも称する)と色差成分(Cr、Cb)(以下、色差信号Cr,Cbとも称する)とをもつ色空間に変換される。   The pixel-interpolated image data is subjected to non-linear conversion suitable for each output device by the gamma correction unit 34, and then a color space having RGB primary color components by a matrix calculation is converted into a luminance component (Y) (hereinafter, luminance signal). Y) and color difference components (Cr, Cb) (hereinafter also referred to as color difference signals Cr, Cb).

クロマサプレス部37では、輝度信号Yを用いて色収差低減信号(以下、「クロマ抑圧信号」とも称する)が生成され、色差信号Cr,Cbに色収差低減処理が実行される。なお、詳細は後述する。   The chroma suppression unit 37 generates a chromatic aberration reduction signal (hereinafter also referred to as “chroma suppression signal”) using the luminance signal Y, and performs chromatic aberration reduction processing on the color difference signals Cr and Cb. Details will be described later.

輝度信号Yと色収差低減処理が施された色差信号Cr,Cbとからなる画像信号は、画像メモリ41に格納される。   An image signal composed of the luminance signal Y and the color difference signals Cr and Cb subjected to the chromatic aberration reduction process is stored in the image memory 41.

そして、画像メモリ41に格納された画像データは、解像度変換部32で設定された画素数に水平垂直の縮小または間引きが行われ、画像圧縮部36で圧縮処理を行った後、メモリカードドライバ38にセットされるメモリカード9に記録される。この画像記録時には、指定された解像度の撮影画像が記録される。また、解像度変換部32では、画像表示(プレビュー)時についても画素間引きを行って、LCDモニタ42やEVF43に表示するための低解像度画像を作成する。プレビュー時には、画像メモリ41から読出された640×240画素の低解像度画像がビデオエンコーダ38でNTSC/PALにエンコードされ、これをフィールド画像としてLCDモニタ42やEVF43で画像再生が行われる。   Then, the image data stored in the image memory 41 is horizontally or vertically reduced or thinned to the number of pixels set by the resolution conversion unit 32, and after compression processing by the image compression unit 36, the memory card driver 38. Is recorded in the memory card 9 set in At the time of this image recording, a photographed image having a designated resolution is recorded. The resolution conversion unit 32 also performs pixel thinning during image display (preview), and creates a low-resolution image to be displayed on the LCD monitor 42 or the EVF 43. At the time of preview, a low resolution image of 640 × 240 pixels read out from the image memory 41 is encoded into NTSC / PAL by the video encoder 38, and this is reproduced as a field image on the LCD monitor 42 or the EVF 43.

カメラ制御部40は、CPU、ROM、及びRAM等を備え、撮像装置1Aの各部を統括的に制御する部位である。カメラ制御部40による各種制御や機能は、ROM内に格納された所定のプログラムがCPUに読み込まれて実行されることで実現される。   The camera control unit 40 includes a CPU, a ROM, a RAM, and the like, and is a part that comprehensively controls each unit of the imaging apparatus 1A. Various controls and functions by the camera control unit 40 are realized by reading and executing a predetermined program stored in the ROM into the CPU.

具体的には、上記のモード切替スイッチ12やシャッターボタン13やコマ送り・ズームスイッチ15などを有するカメラ操作部50に対して撮影者が行う操作入力を処理する。また、カメラ制御部40は、撮影者による撮影モード切替スイッチ12の操作により、被写体を撮像してその画像データを記録する静止画撮影モードと撮影した画像データを再生する再生モードとの切替えを行う。更に、静止画撮影モードにおいては、撮影者によるコマ送り・ズームスイッチ15の操作に応答して、通常撮影モードおよび高速連写モードのうちの一方を選択的に設定する。更に、撮影待機状態では、カメラ制御部40による制御下で、ライブビューモードに設定される。   Specifically, an operation input performed by the photographer is processed with respect to the camera operation unit 50 having the mode switch 12, the shutter button 13, the frame advance / zoom switch 15, and the like. In addition, the camera control unit 40 switches between a still image shooting mode for capturing an image of a subject and recording the image data and a playback mode for reproducing the captured image data by operating the shooting mode switching switch 12 by the photographer. . Furthermore, in the still image shooting mode, one of the normal shooting mode and the high-speed continuous shooting mode is selectively set in response to the operation of the frame advance / zoom switch 15 by the photographer. Further, in the shooting standby state, the live view mode is set under the control of the camera control unit 40.

撮像装置1Aは、本撮影前の撮影待機状態において被写体を動画的態様でLCDモニタ42に表示するプレビュー表示(ライブビュー表示)時には、絞り44の光学絞りが絞りドライバ45によって開放固定となる。また、シャッタースピード(SS)に相当する撮像素子16の電荷蓄積時間(露光時間)に関しては、撮像素子16で取得したライブビューに基づき、カメラ制御部40が露出制御データを演算する。そして、算出された露出制御データに基づいて予め設定されたプログラム線図により、撮像素子16の露光時間が適正となるようにタイミングジェネレーターセンサドライバ46に対するフィードバック制御が行われる。   In the imaging apparatus 1 </ b> A, the optical aperture of the aperture 44 is fixed open by the aperture driver 45 during preview display (live view display) in which the subject is displayed on the LCD monitor 42 in a moving image mode in the imaging standby state before the actual imaging. As for the charge accumulation time (exposure time) of the image sensor 16 corresponding to the shutter speed (SS), the camera control unit 40 calculates the exposure control data based on the live view acquired by the image sensor 16. Then, feedback control is performed on the timing generator sensor driver 46 so that the exposure time of the image sensor 16 is appropriate based on a program diagram set in advance based on the calculated exposure control data.

そして、本撮影時では、カメラ制御部40の機能により、撮像素子16で取得したライブビューを用いて測光された光量データに基づいて予め設定されたプログラム線図によって絞りドライバ45とタイミングジェネレータセンサードライバ46とで撮像素子16への露光量が制御されるAE制御が実行される。   At the time of actual shooting, the aperture driver 45 and the timing generator sensor driver are set according to a program diagram set in advance based on the light amount data measured using the live view acquired by the image sensor 16 by the function of the camera control unit 40. 46, the AE control for controlling the exposure amount to the image sensor 16 is executed.

また、撮影レンズ10によるオートフォーカス(AF)動作に関しては、カメラ制御部40の機能により、撮像素子16で取得したライブビューを用いて、いわゆるコントラスト方式のAF制御が行われる。具体的には、カメラ制御部40で、ライブビューに基づいて、主要な被写体(主被写体)におけるコントラストが最も高くなる撮影レンズ10の位置を、主被写体に合焦するレンズ位置(合焦レンズ位置)として算出する。そして、フォーカスモータードライバ47によって、合焦レンズ位置まで撮影レンズ10内のフォーカスレンズを移動させる。   As for the autofocus (AF) operation by the photographing lens 10, so-called contrast AF control is performed using the live view acquired by the image sensor 16 by the function of the camera control unit 40. Specifically, in the camera control unit 40, based on the live view, the position of the photographing lens 10 having the highest contrast in the main subject (main subject) is determined as the lens position (focusing lens position) that focuses on the main subject. ). The focus motor driver 47 moves the focus lens in the photographing lens 10 to the focus lens position.

<クロマ抑圧信号の生成>
次に、クロマサプレス部37で実行される処理について詳述する。
<Generation of chroma suppression signal>
Next, the process executed by the chroma suppress unit 37 will be described in detail.

クロマサブレス部37では、輝度信号Yを用いて色収差低減信号(以下、「クロマ抑圧信号」とも称する)が生成され、生成された色収差低減信号(クロマ抑圧信号)に基づいてクロマ抑圧度が決定される。そして、クロマ抑圧度に応じて色差信号(色信号)Cr,Cbの抑圧処理(「色信号の濃度(階調値)低減処理」とも称する)を実行することにより色収差低減処理が実行される。   In the chroma sub-respons part 37, a chromatic aberration reduction signal (hereinafter also referred to as “chroma suppression signal”) is generated using the luminance signal Y, and a chroma suppression degree is determined based on the generated chromatic aberration reduction signal (chroma suppression signal). . Then, chromatic aberration reduction processing is executed by executing suppression processing of color difference signals (color signals) Cr and Cb (also referred to as “color signal density (tone value) reduction processing)” according to the degree of chroma suppression.

まず、クロマ抑圧度決定処理について説明する。図5は、色収差低減処理が実行される画像PIを示す図である。図6は、クロマ抑圧度決定回路の機能ブロック図である。図7は、各処理部を通過した信号を示す図である。   First, the chroma suppression degree determination process will be described. FIG. 5 is a diagram illustrating an image PI on which chromatic aberration reduction processing is executed. FIG. 6 is a functional block diagram of the chroma suppression degree determination circuit. FIG. 7 is a diagram illustrating a signal that has passed through each processing unit.

図5に示される画像PIの画像データからマトリクス演算によって算出された各画素の輝度信号Yは、HPF(ハイパスフィルタ)51aに入力される(図6参照)。   The luminance signal Y of each pixel calculated by matrix calculation from the image data of the image PI shown in FIG. 5 is input to an HPF (High Pass Filter) 51a (see FIG. 6).

図6に示されるHPF51aでは、入力された各画素の輝度信号Y(一般的にはグレー成分信号)にフィルタリング処理を行うことによってエッジ抽出処理が行われる。詳細には、本実施形態におけるHPF51aが式(1)に示されるような3行3列の行列形式で表されているとすると、対象画素(注目画素)の輝度信号Yおよび対象画素に隣接する8つの画素の輝度信号Yを用いてエッジ抽出処理が行われる。   In the HPF 51a shown in FIG. 6, edge extraction processing is performed by performing filtering processing on the input luminance signal Y (generally a gray component signal) of each pixel. Specifically, assuming that the HPF 51a in the present embodiment is expressed in a matrix form of 3 rows and 3 columns as shown in Expression (1), the luminance signal Y of the target pixel (target pixel) and the target pixel are adjacent to each other. Edge extraction processing is performed using the luminance signals Y of the eight pixels.

Figure 2007195122
Figure 2007195122

HPF51aからの出力値は、各画素位置において高周波成分がどの程度含まれているか、すなわち高周波成分の含有程度(換言すれば、エッジ成分の検出レベル)を表している。また、HPF51aからの出力値は、コントラストの大きさを表しているとも表現できる。   The output value from the HPF 51a represents how much high-frequency components are included in each pixel position, that is, the content of high-frequency components (in other words, the detection level of edge components). The output value from the HPF 51a can also be expressed as representing the magnitude of contrast.

例えば、画像PIを構成する各画素の輝度値(画素値)を用いて表現された画像を座標(h,v)の画素が輝度値f(h,v)の高さを持つ空間とみなし、この空間においてh方向の断面に相当する一次元の関数f(h)が輝度信号Yとして入力される場合を考える(図7の信号SY参照)。ただし、h,vはそれぞれCCDセル配列における水平方向、垂直方向に相当する。   For example, an image expressed using the luminance value (pixel value) of each pixel constituting the image PI is regarded as a space in which the pixel at coordinates (h, v) has the height of the luminance value f (h, v). Consider a case where a one-dimensional function f (h) corresponding to a cross section in the h direction is input as the luminance signal Y in this space (see the signal SY in FIG. 7). However, h and v correspond to the horizontal direction and the vertical direction in the CCD cell array, respectively.

この場合、HPF51aから出力される信号は、図7に示されるような信号SAとなり、位置X1および位置X2においてそれぞれ正負両方向のパルスが隣接した信号AX1,AX2が検出される。   In this case, the signal output from the HPF 51a is a signal SA as shown in FIG. 7, and signals AX1 and AX2 in which pulses in both positive and negative directions are adjacent at positions X1 and X2 are detected.

次に、HPF51aからの出力信号は、負信号クリップ52に入力される。負信号クリップ52では、入力された信号のうち負成分の信号が取り除かれる。   Next, the output signal from the HPF 51 a is input to the negative signal clip 52. The negative signal clip 52 removes the negative component signal from the input signal.

例えば、図7の信号SAが負信号クリップ52に入力されると負成分の信号が取り除かれ、正成分の信号のみを含んだ信号SBが出力される。   For example, when the signal SA in FIG. 7 is input to the negative signal clip 52, the negative component signal is removed, and the signal SB including only the positive component signal is output.

ここで、HPF51aは、エッジの中央位置を基準にして輝度値の大きい領域(以下、「明るい領域」、「階調値の大きい領域」とも称する)については、正成分の信号を出力するとともに、輝度値の小さい領域(以下、「暗い領域」、「階調値の小さい領域」とも称する)については、負成分の信号を出力する特性を有している。   Here, the HPF 51a outputs a positive component signal for a region having a large luminance value (hereinafter also referred to as “bright region” or “region having a large gradation value”) with reference to the center position of the edge, and A region having a small luminance value (hereinafter also referred to as “dark region” or “region having a small gradation value”) has a characteristic of outputting a negative component signal.

したがって、HPF51aから出力された信号を負信号クリップ52に入力して、負成分の信号を除去することによって、エッジ近傍において輝度値の大きい領域を特定することが可能となる。   Therefore, by inputting the signal output from the HPF 51a to the negative signal clip 52 and removing the negative component signal, it is possible to specify a region having a large luminance value in the vicinity of the edge.

負信号クリップ52から出力された信号は、ベースクリップ53において所定値以上の高周波成分のみが検出された後、アンプ56aに入力される。   The signal output from the negative signal clip 52 is input to the amplifier 56a after only a high frequency component equal to or greater than a predetermined value is detected in the base clip 53.

アンプ56aでは、現在処理している注目画素の画像における位置に基づいて、クロマ抑圧信号の出力制御が行われる。図8は、注目画像位置に応じた抑圧制御の様子を示す図である。   In the amplifier 56a, output control of the chroma suppression signal is performed based on the position of the pixel of interest currently being processed in the image. FIG. 8 is a diagram illustrating a state of suppression control according to the target image position.

具体的には、ピクセルカウンター54により現在処理している注目画素の画像における位置情報(画素座標値)が取得され、エリア判定部55において当該位置情報と制御エリアテーブル81(図8参照)とに基づいてアンプ制御信号が生成される。より詳細には、注目画素が画像の画面中心CPから所定距離L1の略円形領域(範囲)CR1内に存在する場合には、クロマ抑圧を実行しない旨のアンプ制御信号が出力される。一方、注目画素が画像の中心CPから所定距離L1の領域(範囲)CR1外に存在する場合には、クロマ抑圧を実行する旨のアンプ制御信号が出力される。そして、アンプ56aでは、エリア判定部55から出力されるアンプ制御信号をゲート信号としてクロマ制御信号の出力制御が行われる。   Specifically, the position information (pixel coordinate value) in the image of the pixel of interest currently being processed is acquired by the pixel counter 54, and the area determination unit 55 stores the position information and the control area table 81 (see FIG. 8). Based on this, an amplifier control signal is generated. More specifically, when the target pixel is present in a substantially circular region (range) CR1 at a predetermined distance L1 from the screen center CP of the image, an amplifier control signal indicating that chroma suppression is not executed is output. On the other hand, if the pixel of interest is outside the region (range) CR1 of the predetermined distance L1 from the center CP of the image, an amplifier control signal for executing chroma suppression is output. In the amplifier 56a, the output control of the chroma control signal is performed using the amplifier control signal output from the area determination unit 55 as a gate signal.

例えば、図7における位置X1が領域CR1外であり、位置X2が領域CR1内である場合には、アンプ56aから出力されるクロマ抑圧信号は、図7の信号SCのようになる。すなわち、位置X1ではクロマ抑圧信号が出力され、位置X2ではクロマ抑圧信号が出力されない。   For example, when the position X1 in FIG. 7 is outside the region CR1, and the position X2 is in the region CR1, the chroma suppression signal output from the amplifier 56a is as a signal SC in FIG. That is, the chroma suppression signal is output at position X1, and the chroma suppression signal is not output at position X2.

次に、抑圧度決定部57では、アンプ56aから出力された信号を基に、色差信号Cr,Cbの抑圧度が決定される。具体的には、アンプ56aから出力された信号のエッジ信号振幅をもとに抑圧度設定LUT(Lookup Table)を参照して色差信号Cr,Cbの抑圧度を決定する。この抑圧度設定LUTは予め作成されてROM内に記憶されている。   Next, the suppression degree determination unit 57 determines the suppression degrees of the color difference signals Cr and Cb based on the signal output from the amplifier 56a. Specifically, the suppression degree of the color difference signals Cr and Cb is determined with reference to the suppression degree setting LUT (Lookup Table) based on the edge signal amplitude of the signal output from the amplifier 56a. The suppression degree setting LUT is created in advance and stored in the ROM.

図9は、抑圧度設定LUTの設定内容を抑圧度曲線LCとしてグラフ化して示した図である。図中、横軸は、エッジ信号振幅を示し、縦軸は、抑圧度を示している。つまり、エッジ信号振幅が高い画素程、高い抑圧をかけるような抑圧制御を行うのである。   FIG. 9 is a graph showing the setting contents of the suppression degree setting LUT as a suppression degree curve LC. In the figure, the horizontal axis indicates the edge signal amplitude, and the vertical axis indicates the degree of suppression. That is, suppression control is performed such that a higher suppression is applied to a pixel having a higher edge signal amplitude.

たとえば、画素nにおけるエッジ信号振幅がAnである場合には、画素n近傍における色差成分には20%程度の抑圧を行うのである。また、画素mにおけるエッジ信号振幅がAmである場合には、画素m近傍における色差成分には60%程度の抑圧を行うのである。このように、エッジ信号振幅が比較的高い画素m近傍については、エッジ信号振幅が比較的低い画素n近傍よりも大きな抑圧を行うようにする。これによれば、エッジ信号振幅に応じて、画素の色成分の信号値の抑圧の程度(すなわち抑圧制御の程度)を変更しているので、出力画像に不自然さが残らないような抑圧処理が可能となる。   For example, when the edge signal amplitude at the pixel n is An, the color difference component near the pixel n is suppressed by about 20%. When the edge signal amplitude at the pixel m is Am, the color difference component in the vicinity of the pixel m is suppressed by about 60%. As described above, the vicinity of the pixel m having a relatively high edge signal amplitude is suppressed more than the vicinity of the pixel n having a relatively low edge signal amplitude. According to this, since the degree of suppression of the signal value of the color component of the pixel (that is, the degree of suppression control) is changed according to the edge signal amplitude, the suppression process that does not leave unnaturalness in the output image. Is possible.

ただし、ノイズ成分を除去するため、エッジ信号振幅が小さいときには抑圧度を低めの値に設定し、抑圧度が過度に大きくならないようにすることが好ましい。たとえば、図9に示すように、エッジ信号振幅がAnよりも小さいときには、抑圧度曲線LCが仮想的な正比例直線LLよりも下側に存在するようにしたS字カーブとすることが好ましい。   However, in order to remove noise components, it is preferable to set the degree of suppression to a lower value when the edge signal amplitude is small so that the degree of suppression does not become excessively large. For example, as shown in FIG. 9, when the edge signal amplitude is smaller than An, it is preferable that the suppression curve LC is an S-shaped curve that exists below the virtual direct proportional line LL.

そして、上述のように決定されたクロマ抑圧度に応じて色信号としての色差信号Cr,Cbの抑圧処理を実行する。   Then, suppression processing of the color difference signals Cr and Cb as color signals is executed according to the chroma suppression degree determined as described above.

以上の処理により、本実施形態に係るクロマサプレス部37からは、抑圧処理された色差信号Cr,Cbが出力されることになる。出力された色差信号Cr,Cbは、輝度信号Yとともに、画像メモリ41に記録される。   Through the above processing, the chroma suppression unit 37 according to the present embodiment outputs the color difference signals Cr and Cb subjected to the suppression processing. The output color difference signals Cr and Cb are recorded in the image memory 41 together with the luminance signal Y.

以上のように、本実施形態においては、エッジの両側の領域のうち明るい領域として抽出された画素に対してのみ、抑圧処理を実行することができるので、エッジ近傍の両側の画素に対して抑圧処理を一律に実行することによる問題を解消することができる。   As described above, in the present embodiment, since the suppression process can be executed only for pixels extracted as bright areas among the areas on both sides of the edge, the pixels on both sides near the edge are suppressed. Problems caused by executing processing uniformly can be solved.

従来は、エッジ近傍の両側の画素の色差信号Cr,Cbを抑圧していたため、色収差による色つきの抑圧には効果が得られるが、その一方で、暗い領域側で色抜けが発生してしまうという問題があった。本実施形態によれば、色つきが目立ちやすい明るい領域を特定して、色収差による色つきを抑圧することができるため、目立つ色抜けが無く自然な画像を取得することが可能となる。   Conventionally, since the color difference signals Cr and Cb of the pixels on both sides near the edge are suppressed, it is effective for suppressing coloring due to chromatic aberration, but color loss occurs on the dark region side. There was a problem. According to the present embodiment, it is possible to identify a bright region in which coloring is conspicuous and suppress coloring due to chromatic aberration. Therefore, it is possible to acquire a natural image without noticeable color loss.

また、本実施形態においては、上記のような濃度低減化規則を用いることにより、現在処理している注目画素の画像における位置に応じて抑圧処理を実行するか否かを判断することができるので、色収差による色つきが発生していない画素に対して抑圧処理を実行することによる問題を解消することができる。   Further, in the present embodiment, by using the density reduction rule as described above, it is possible to determine whether or not to execute the suppression process according to the position of the target pixel currently being processed in the image. Thus, it is possible to solve the problem caused by executing the suppression process on the pixels in which coloring due to chromatic aberration has not occurred.

具体的には、図4に示されるように撮影光学系において生ずる色収差は、光軸Lを基準にして軸対称に発生するとともに、光軸Lからの距離が大きくなるにしたがって、その色つき幅が大きくなる。一方、光軸Lから所定距離内の画像の中心付近においては、色収差による色つきが目立つほど発生ないという特性を有している。   Specifically, as shown in FIG. 4, the chromatic aberration generated in the photographing optical system is generated symmetrically with respect to the optical axis L, and the colored width increases as the distance from the optical axis L increases. Becomes larger. On the other hand, in the vicinity of the center of the image within a predetermined distance from the optical axis L, there is a characteristic that coloring due to chromatic aberration is not so noticeable.

したがって、本実施形態に係るクロマサプレス部37のように、現在処理している注目画素の画像における位置を特定し、注目画素が画像の中心CPから所定距離L1の領域(範囲)CR1内に存在する場合には抑圧処理を実行しないようにすることで、無駄な色抜けの発生を防止することが可能となる。換言すれば、検出されたエッジの画像における位置を特定し、当該位置に基づいてエッジ近傍の色信号の濃度(階調値)を低減することで、無駄な色抜けの発生を防止し、効果的な抑圧処理が可能となる。   Therefore, as in the chroma suppression unit 37 according to the present embodiment, the position of the pixel of interest currently being processed is specified in the image, and the pixel of interest exists within the region (range) CR1 at a predetermined distance L1 from the center CP of the image. In this case, by preventing the suppression process from being performed, it is possible to prevent the occurrence of useless color loss. In other words, the position of the detected edge in the image is specified, and the density (tone value) of the color signal in the vicinity of the edge is reduced based on the position, thereby preventing the occurrence of useless color loss. Suppression processing is possible.

<2.第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態における撮像装置1Bの構成は、下記の点を除いて第1実施形態において説明したものと同様であり、また、第1実施形態と同様の機能を有する要素については同一符号を付してその説明を省略する。
<2. Second Embodiment>
Next, a second embodiment will be described. The configuration of the imaging apparatus 1B in the second embodiment is the same as that described in the first embodiment except for the following points, and elements having the same functions as those in the first embodiment are denoted by the same reference numerals. The description is omitted.

<クロマ抑圧信号の生成>
本実施形態におけるクロマサプレス部37では、抑圧処理を行う色種を特定して抑圧処理が実行される。
<Generation of chroma suppression signal>
In the chroma suppress unit 37 according to the present embodiment, the color type to be subjected to the suppression process is specified and the suppression process is executed.

上述のように、撮影光学系において生ずる倍率色収差は、光軸Lを基準にして軸対称に発生する。また、G成分(エッジ)を基準にすると、B成分の光の収差は、R成分の光の収差に対して反対側に発生する。   As described above, the lateral chromatic aberration generated in the photographing optical system is generated symmetrically with respect to the optical axis L. When the G component (edge) is used as a reference, the B component light aberration occurs on the opposite side of the R component light aberration.

本実施形態では、撮像装置1Bにおいても図4に示されるような色収差による色つきが発生すると仮定して、マゼンダ系の色つきMaを特定して抑圧する場合について例示する。   In the present embodiment, the case where the imaging device 1B also specifies and suppresses magenta colored Ma is assumed on the assumption that coloring due to chromatic aberration as shown in FIG. 4 occurs.

以下、本実施形態におけるクロマサプレス部37で実行される処理について詳述する。図10は、本実施形態に係るクロマ抑圧度決定回路の機能ブロック図である。図11は、各処理部を通過した信号を示す図である。   Hereinafter, the process performed in the chroma suppress part 37 in this embodiment is explained in full detail. FIG. 10 is a functional block diagram of the chroma suppression degree determination circuit according to the present embodiment. FIG. 11 is a diagram illustrating a signal that has passed through each processing unit.

まず、図10に示されるように、画像PI(図5参照)の画像データからマトリクス演算によって算出された各画素の輝度信号Yが、HPF(ハイパスフィルタ)51a、H方向(水平方向)の一次微分フィルタ51bおよびV方向(垂直方向)の一次微分フィルタ51cに入力される。   First, as shown in FIG. 10, the luminance signal Y of each pixel calculated by matrix calculation from the image data of the image PI (see FIG. 5) is an HPF (high-pass filter) 51a in the H direction (horizontal direction). It is input to the differential filter 51b and the primary differential filter 51c in the V direction (vertical direction).

HPF51aでは、入力された各画素の輝度信号Yにフィルタリング処理を行うことによってエッジ抽出処理が行われる。   The HPF 51a performs edge extraction processing by performing filtering processing on the input luminance signal Y of each pixel.

水平方向(H方向)の一次微分フィルタ(以下、「H微分フィルタ」とも称する)51bでは、対象画素(注目画素)の近傍におけるH方向の輝度信号Yの空間的な変化量(「濃度変化量」とも称する)が検出される。例えば、本実施形態におけるH微分フィルタ51bが式(2)に示されるような3行3列の行列形式で表されているとすると、対象画素(注目画素)の輝度信号Yおよび対象画素に隣接する8つの画素の輝度信号Yを用いて対象画素におけるH方向の輝度信号Yの変化量の検出処理が行われる。なお、ここでは、濃度が高いときに輝度値が大きいものとして表現している。   In a primary differential filter (hereinafter also referred to as “H differential filter”) 51b in the horizontal direction (H direction), a spatial change amount (“density change amount”) of the luminance signal Y in the H direction in the vicinity of the target pixel (target pixel). Is also detected). For example, if the H differential filter 51b in the present embodiment is expressed in a matrix form of 3 rows and 3 columns as shown in Expression (2), it is adjacent to the luminance signal Y of the target pixel (target pixel) and the target pixel. The process of detecting the amount of change in the luminance signal Y in the H direction at the target pixel is performed using the luminance signals Y of the eight pixels. Here, it is expressed that the luminance value is large when the density is high.

Figure 2007195122
Figure 2007195122

H微分フィルタ51bの出力値は、対応するエッジ(HPF51aの出力信号)のH方向に対する濃度変化(輝度変化)の方向性を示している。具体的には、H微分フィルタ51bの出力信号が正成分の信号であった場合には、HPF51aによって検出されたエッジはH方向に対して暗い領域から明るい領域へと変化する立ち上がりのエッジであると表現できる。逆に、H微分フィルタ51bの出力信号が負成分の信号であった場合には、HPF51aによって検出されたエッジはH方向に対して明るい領域から暗い領域へと変化する立ち下がりのエッジであると表現できる。   The output value of the H differential filter 51b indicates the directionality of the density change (luminance change) with respect to the H direction of the corresponding edge (output signal of the HPF 51a). Specifically, when the output signal of the H differential filter 51b is a positive component signal, the edge detected by the HPF 51a is a rising edge that changes from a dark region to a bright region with respect to the H direction. Can be expressed. Conversely, when the output signal of the H differential filter 51b is a negative component signal, the edge detected by the HPF 51a is a falling edge that changes from a bright region to a dark region with respect to the H direction. Can express.

また、垂直方向(V方向)の一次微分フィルタ(以下、「V微分フィルタ」とも称する)51cでは、対象画素(注目画素)の近傍におけるV方向の輝度信号Yの空間的な変化量(濃度変化量)が検出される。例えば、本実施形態におけるV微分フィルタ51cが式(3)に示されるような3行3列の行列形式で表されているとすると、対象画素(注目画素)の輝度信号Yおよび対象画素に隣接する8つの画素の輝度信号Yを用いて対象画素におけるV方向の輝度信号Yの変化量の検出処理が行われる。   Further, in the primary differential filter (hereinafter also referred to as “V differential filter”) 51c in the vertical direction (V direction), the spatial change amount (density change) of the luminance signal Y in the V direction in the vicinity of the target pixel (target pixel). Amount) is detected. For example, if the V differential filter 51c in the present embodiment is expressed in a matrix form of 3 rows and 3 columns as shown in Expression (3), it is adjacent to the luminance signal Y of the target pixel (target pixel) and the target pixel. The process of detecting the amount of change in the luminance signal Y in the V direction at the target pixel is performed using the luminance signals Y of the eight pixels.

Figure 2007195122
Figure 2007195122

V微分フィルタ51cの出力値は、対応するエッジ(HPF51aの出力信号)のV方向に対する濃度変化の方向性を示している。具体的には、V微分フィルタ51cの出力信号が正成分の信号であった場合には、HPF51aによって検出されたエッジはV方向に対して暗い領域から明るい領域へと変化する立ち上がりのエッジであると表現できる。逆に、V微分フィルタ51cの出力信号が負成分の信号であった場合には、HPF51aによって検出されたエッジはV方向に対して明るい領域から暗い領域へと変化する立ち下がりのエッジであると表現できる。   The output value of the V differential filter 51c indicates the directionality of the density change with respect to the V direction of the corresponding edge (output signal of the HPF 51a). Specifically, when the output signal of the V differential filter 51c is a positive component signal, the edge detected by the HPF 51a is a rising edge that changes from a dark region to a bright region in the V direction. Can be expressed. Conversely, when the output signal of the V differential filter 51c is a negative component signal, the edge detected by the HPF 51a is a falling edge that changes from a bright region to a dark region with respect to the V direction. Can express.

以上のように、HPF51aによって検出されたエッジのH方向に対する方向性は、H微分フィルタ51bの出力値によって特定することができるとともに、HPF51aによって検出されたエッジのV方向に対する方向性は、V微分フィルタ51cの出力値によって特定することができる。   As described above, the directionality of the edge detected by the HPF 51a with respect to the H direction can be specified by the output value of the H differential filter 51b, and the directionality of the edge detected by the HPF 51a with respect to the V direction is determined by the V differential. It can be specified by the output value of the filter 51c.

例えば、上記第1実施形態と同じ信号SYが、輝度信号Yとしてクロマ抑圧度決定回路に入力される場合を考える。なお、この場合、説明を簡単にするためにV微分フィルタ51cから出力される信号SFは考慮しないものとする。   For example, consider a case where the same signal SY as in the first embodiment is input to the chroma suppression degree determination circuit as the luminance signal Y. In this case, in order to simplify the explanation, the signal SF output from the V differential filter 51c is not considered.

信号SYが入力された場合、HPF51aから出力される信号は、図11に示されるような信号SDとなり、位置X1および位置X2においてそれぞれ正負両方向の信号DX1,DX2が検出される。   When the signal SY is input, the signal output from the HPF 51a is a signal SD as shown in FIG. 11, and signals DX1 and DX2 in both positive and negative directions are detected at the positions X1 and X2, respectively.

また、H微分フィルタ51bから出力される信号は、図11に示されるような信号SEとなり、位置X1、X2においてそれぞれ正成分の信号EX1と負成分の信号EX2とが
検出される。
The signal output from the H differential filter 51b is a signal SE as shown in FIG. 11, and a positive component signal EX1 and a negative component signal EX2 are detected at positions X1 and X2, respectively.

信号EX1は、HPF51aの出力信号DX1に対応する信号であり、また、当該信号EX1は正成分の信号であることから、対応するHPF51aの出力信号DX1はH方向に対して立ち上がりのエッジを検出して出力されたものと分かる。一方、信号EX2は、HPF51aの出力信号DX2に対応する信号であり、また、当該信号EX2は負成分の信号であることから、対応するHPF51aの出力信号DX2はH方向に対して立ち下がりのエッジを検出して出力されたものと分かる。   The signal EX1 is a signal corresponding to the output signal DX1 of the HPF 51a. Since the signal EX1 is a positive component signal, the corresponding output signal DX1 of the HPF 51a detects a rising edge in the H direction. It can be seen that it was output. On the other hand, the signal EX2 is a signal corresponding to the output signal DX2 of the HPF 51a, and since the signal EX2 is a negative component signal, the corresponding output signal DX2 of the HPF 51a falls on the falling edge in the H direction. Is detected and output.

次に、上記各フィルタから出力された信号は、極性判定部61に入力される。極性判定部61では、抑圧処理を施す画素の特定処理が実行される。図12は、注目画素位置に応じた抑圧対象とするエッジの方向性を示す図である。   Next, signals output from the filters are input to the polarity determination unit 61. In the polarity determination unit 61, a process for specifying a pixel to be subjected to the suppression process is executed. FIG. 12 is a diagram illustrating the directionality of the edge to be suppressed according to the target pixel position.

具体的には、ピクセルカウンター54により現在処理している注目画素の画像における位置情報(画素座標値)が取得され、エリア判定部55において当該位置情報と制御エリアテーブル81(図8参照)とに基づいて抑圧処理を施す画素の特定処理が行われる。より詳細には、注目画素が画像の中心CPから所定距離L1の略円形領域(範囲)CR1内に存在する場合には、当該注目画素にはクロマ抑圧を実行しない旨の信号を出力する。一方、注目画素が画像の中心CPから所定距離L1の領域(範囲)CR1外に存在する場合には、当該注目画素にクロマ抑圧を実行する旨の信号と当該注目画素の位置情報とを出力する。   Specifically, the position information (pixel coordinate value) in the image of the pixel of interest currently being processed is acquired by the pixel counter 54, and the area determination unit 55 stores the position information and the control area table 81 (see FIG. 8). Based on this, a process for specifying a pixel to be subjected to the suppression process is performed. More specifically, when the target pixel is present in a substantially circular area (range) CR1 at a predetermined distance L1 from the center CP of the image, a signal indicating that chroma suppression is not performed is output to the target pixel. On the other hand, if the pixel of interest exists outside the region (range) CR1 at a predetermined distance L1 from the center CP of the image, a signal indicating that the pixel of interest is subjected to chroma suppression and position information of the pixel of interest are output. .

そして、極性判定部61では、エリア判定部55からの信号と各フィルタから出力された信号とに基づいて、現在処理中の注目画素に抑圧処理を実行するか否かが判断される。 具体的には、エリア判定部55からの信号がクロマ抑圧を実行しない旨の信号であった場合には、現在処理中の注目画素については抑圧信号を出力しない。   Then, the polarity determination unit 61 determines whether or not to perform the suppression process on the pixel of interest currently being processed based on the signal from the area determination unit 55 and the signal output from each filter. Specifically, when the signal from the area determination unit 55 is a signal indicating that chroma suppression is not performed, no suppression signal is output for the target pixel currently being processed.

一方、エリア判定部55からの信号がクロマ抑圧を実行する旨の信号であった場合には、図12に概念的に示される方向性判定テーブル82を参照してH微分フィルタ51bの出力信号およびV微分フィルタ51cの出力信号の極性(正負)に基づいてHPF51aからの出力信号を制御する。ここで、方向性判定テーブル82は、画像の中心(光軸)を原点OとしてH方向をx軸、−V方向をy軸とした場合の4つの象限における抑圧処理の実行条件すなわち濃度低減化規則を示している。   On the other hand, when the signal from the area determination unit 55 is a signal to execute chroma suppression, the output signal of the H differential filter 51b and the direction determination table 82 conceptually shown in FIG. The output signal from the HPF 51a is controlled based on the polarity (positive / negative) of the output signal of the V differential filter 51c. Here, the directionality determination table 82 is a condition for executing suppression processing in four quadrants, that is, density reduction when the center (optical axis) of the image is the origin O, the H direction is the x axis, and the -V direction is the y axis. Shows the rules.

詳細には、注目画素の位置が第1象限R1であった場合には、当該注目画素におけるHPF51aの出力信号に対応するH微分フィルタ51bの出力信号が負成分の信号であり、かつ、V微分フィルタ51cの出力信号が正成分の信号であるときに、当該注目画素におけるHPF51aの出力信号をそのまま出力する。換言すれば、第1象限R1では、H方向に対して立ち下がりの方向性を有するとともに、V方向に対して立ち上がりの方向性を有しているエッジを抑圧処理の対象とみなす処理が実行される。   Specifically, when the position of the target pixel is in the first quadrant R1, the output signal of the H differential filter 51b corresponding to the output signal of the HPF 51a in the target pixel is a negative component signal, and the V differential When the output signal of the filter 51c is a positive component signal, the output signal of the HPF 51a at the target pixel is output as it is. In other words, in the first quadrant R1, a process is performed in which an edge having a falling direction with respect to the H direction and a rising direction with respect to the V direction is regarded as a target of the suppression process. The

また、注目画素の位置が第2象限R2であった場合には、当該注目画素におけるHPF51aの出力信号に対応するH微分フィルタ51bの出力信号が正成分の信号であり、かつ、V微分フィルタ51cの出力信号が正成分の信号であるときに、当該注目画素におけるHPF51aの出力信号をそのまま出力する。換言すれば、第2象限R2では、H方向に対して立ち上がりの方向性を有するとともに、V方向に対して立ち上がりの方向性を有しているエッジを抑圧処理の対象とみなす処理が実行される。   If the position of the target pixel is in the second quadrant R2, the output signal of the H differential filter 51b corresponding to the output signal of the HPF 51a in the target pixel is a positive component signal, and the V differential filter 51c. The output signal of the HPF 51a at the target pixel is output as it is. In other words, in the second quadrant R2, a process is executed in which an edge having a rising direction with respect to the H direction and a rising direction with respect to the V direction is regarded as a target of the suppression process. .

また、注目画素の位置が第3象限R3であった場合には、当該注目画素におけるHPF51aの出力信号に対応するH微分フィルタ51bの出力信号が正成分の信号であり、かつ、V微分フィルタ51cの出力信号が負成分の信号であるときに、当該注目画素におけるHPF51aの出力信号をそのまま出力する。換言すれば、第3象限R3では、H方向に対して立ち上がりの方向性を有するとともに、V方向に対して立ち下がりの方向性を有しているエッジを抑圧処理の対象とみなす処理が実行される。   When the position of the target pixel is in the third quadrant R3, the output signal of the H differential filter 51b corresponding to the output signal of the HPF 51a in the target pixel is a positive component signal, and the V differential filter 51c. Output signal of the HPF 51a in the target pixel is output as it is. In other words, in the third quadrant R3, processing is performed in which an edge having a rising direction with respect to the H direction and a falling direction with respect to the V direction is regarded as a target of the suppression process. The

また、注目画素の位置が第4象限R4であった場合には、当該注目画素におけるHPF51aの出力信号に対応するH微分フィルタ51bの出力信号が負成分の信号であり、かつ、V微分フィルタ51cの出力信号が負成分の信号であるときに、当該注目画素におけるHPF51aの出力信号をそのまま出力する。換言すれば、第4象限R4では、H方向に対して立ち下がりの方向性を有するとともに、V方向に対して立ち下がりの方向性を有しているエッジを抑圧処理の対象とみなす処理が実行される。   When the position of the target pixel is in the fourth quadrant R4, the output signal of the H differential filter 51b corresponding to the output signal of the HPF 51a in the target pixel is a negative component signal, and the V differential filter 51c. Output signal of the HPF 51a in the target pixel is output as it is. In other words, in the fourth quadrant R4, processing is performed in which an edge having a falling directionality with respect to the H direction and a falling directionality with respect to the V direction is regarded as a target of the suppression process. Is done.

例えば、図11において位置X1,X2がともに第2象限R2であった場合には、H方向に対して立ち上がりの方向性(すなわち、H微分フィルタ51bの出力信号SEにおいて正成分)を有するエッジが抑圧処理の対象と判断される。したがって、極性判定部61から出力される信号SGは、図11に示されるように、位置X1の信号DX1を含み、位置X2の信号DX2を除去した信号となる。なお、本例示では、説明を簡単にするためにV微分フィルタ51cの出力信号SFを考慮していない。   For example, when both the positions X1 and X2 are in the second quadrant R2 in FIG. 11, an edge having a rising directionality with respect to the H direction (that is, a positive component in the output signal SE of the H differential filter 51b) is detected. It is determined that it is the target of suppression processing. Therefore, as shown in FIG. 11, the signal SG output from the polarity determination unit 61 is a signal including the signal DX1 at the position X1 and removing the signal DX2 at the position X2. In this example, the output signal SF of the V differential filter 51c is not taken into consideration for the sake of simplicity.

このように、極性判定部61において、方向性判定テーブル82に適合した方向性を有するエッジ以外の信号を処理対象外とすることによって、明るい領域にマゼンダ系の色つきMaが発生するエッジを特定することができる。   In this manner, the polarity determination unit 61 specifies an edge where a magenta colored Ma is generated in a bright area by excluding signals other than edges having directionality suitable for the directionality determination table 82. can do.

以上のように、H方向に対する濃度変化の方向性とV方向に対する濃度変化の方向性と注目画素の画像における位置情報(画素座標値)とを取得し、方向性判定テーブル82を参照することによって抑圧処理の対象とするエッジを特定することができる。   As described above, the directionality of the density change with respect to the H direction, the directionality of the density change with respect to the V direction, and the position information (pixel coordinate value) in the image of the target pixel are obtained, and the directionality determination table 82 is referred to. It is possible to specify an edge to be subjected to suppression processing.

また、極性判定部61において実行される抑圧対象エッジの特定処理は、画像における中心(光軸)方向に対する濃度変化(輝度変化)の空間的な方向性を判別し、光軸方向に対して所定の方向性(ここでは、立ち上がりの方向性)を有しているエッジを特定する処理であると一般化することができる。   Further, the suppression target edge specifying process executed in the polarity determination unit 61 determines the spatial directionality of the density change (luminance change) with respect to the center (optical axis) direction in the image, and is predetermined for the optical axis direction. It can be generalized to be a process for specifying an edge having a directivity (here, a rising directivity).

次に、極性判定部61の出力信号は、負信号クリップ52に入力される。負信号クリップ52では、入力された信号のうち負成分の信号が取り除かれる。   Next, the output signal of the polarity determination unit 61 is input to the negative signal clip 52. The negative signal clip 52 removes the negative component signal from the input signal.

例えば、図11の信号SGが負信号クリップ52に入力されると負成分の信号が取り除かれ、正成分の信号のみを含んだ信号SHが出力される。   For example, when the signal SG of FIG. 11 is input to the negative signal clip 52, the negative component signal is removed, and the signal SH including only the positive component signal is output.

これにより、エッジの両側の領域のうち明るい領域を特定することが可能となる。   This makes it possible to specify a bright area among the areas on both sides of the edge.

負信号クリップ52から出力された信号は、ベースクリップ53において所定値以上の高周波成分のみが検出され、アンプ56bにおいて増幅された後、クロマ抑圧信号として出力される。   In the signal output from the negative signal clip 52, only a high frequency component equal to or higher than a predetermined value is detected in the base clip 53, amplified by the amplifier 56b, and then output as a chroma suppression signal.

次に、抑圧度決定部57では、アンプ56bから出力された信号を基に、色差信号Cr,Cbの抑圧度が決定される。具体的には、アンプ56bから出力された信号のエッジ信号振幅をもとに抑圧度設定LUT(Lookup Table)(図9参照)を参照して色差信号Cr,Cbの抑圧度を決定する。   Next, the suppression degree determination unit 57 determines the suppression degrees of the color difference signals Cr and Cb based on the signal output from the amplifier 56b. Specifically, the degree of suppression of the color difference signals Cr and Cb is determined with reference to the degree-of-suppression setting LUT (Lookup Table) (see FIG. 9) based on the edge signal amplitude of the signal output from the amplifier 56b.

そして、クロマ抑圧度に応じて色差信号Cr,Cbの抑圧処理を実行する。   Then, the color difference signals Cr and Cb are suppressed according to the degree of chroma suppression.

以上の処理により、本実施形態に係るクロマサプレス部37からは、抑圧処理された色差信号Cr,Cbが出力されることになる。出力された色差信号Cr,Cbは、輝度信号Yとともに、画像メモリ41に記録される。   Through the above processing, the chroma suppression unit 37 according to the present embodiment outputs the color difference signals Cr and Cb subjected to the suppression processing. The output color difference signals Cr and Cb are recorded in the image memory 41 together with the luminance signal Y.

以上のように、本実施形態においては、極性判定部61による抑圧対象エッジの特定処理と負信号クリップ52による抑圧対象領域の限定処理とを組み合わせることによって、明るい領域にあるマゼンダ系の色つきMaを選択(特定)して抑圧することが可能となる。   As described above, in this embodiment, the combination of the suppression target edge specifying process by the polarity determination unit 61 and the suppression target area limiting process by the negative signal clip 52 combines the magenta colored Ma in the bright area. Can be selected (specified) and suppressed.

具体的には、極性判定部61において、エッジの位置とエッジの濃度変化の空間的な方向性とに応じた濃度低減化規則によって、明るい領域にマゼンダ系の色つきMaが発生するエッジを特定するとともに、負信号クリップ52において暗い領域に抑圧処理を実行しないようにすることで、マゼンダ系の色つきMaを発生している明るい領域に対してのみ抑圧処理を実行することが可能となる。   Specifically, the polarity determination unit 61 identifies an edge where a magenta colored Ma occurs in a bright region by a density reduction rule according to the position of the edge and the spatial directionality of the edge density change. In addition, by preventing the negative signal clip 52 from performing the suppression process on the dark area, the suppression process can be performed only on the bright area where the magenta colored Ma is generated.

これにより、マゼンダ系の目立つ色つきを抑圧することが可能になるとともに、目立つ色抜けが発生しない自然な画像を取得することが可能となる。   As a result, it is possible to suppress the noticeable coloring of the magenta system, and it is possible to acquire a natural image that does not cause noticeable color loss.

<3.変形例>
以上、この発明の実施の形態について説明したが、この発明は、上記に説明した内容に限定されるものではない。
<3. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

例えば、上記各実施形態において用いたHPF51a、H微分フィルタ51bおよびV微分フィルタ51cのフィルタの係数はこれに限定されない。例えば、式(1)に示されるようなHPF51aの各係数を定数倍することによって、色信号の抑圧レベルを変更することができる。   For example, the filter coefficients of the HPF 51a, the H differential filter 51b, and the V differential filter 51c used in the above embodiments are not limited to this. For example, the suppression level of the color signal can be changed by multiplying each coefficient of the HPF 51a as shown in Expression (1) by a constant.

また、上記各実施形態においては、HPF51aの処理対象画素数に相当するスケールパラメータを常に一定としていたが、これに限定されない。例えば、以下の各要素(PT1〜PT3)をパラメータにしてHPF51aのスケールパラメータを変更してもよい。   In each of the above embodiments, the scale parameter corresponding to the number of pixels to be processed by the HPF 51a is always constant. However, the present invention is not limited to this. For example, the scale parameter of the HPF 51a may be changed using the following elements (PT1 to PT3) as parameters.

◎PT1:中心CP(光軸Lに相当する画素位置)からの距離
上述のように倍率色収差は、光軸Lを基準にして軸対称に発生するとともに、光軸Lからの距離が大きくなるにしたがって、その色つき幅が大きくなるので、現在処理中の注目画素の画像中心からの距離に応じてHPF51aのスケールパラメータを段階的に変更してもよい。図13は、注目画素位置に応じたHPF51aのスケールパラメータの変更を示す図である。
◎ PT1: Distance from the center CP (pixel position corresponding to the optical axis L) As described above, the lateral chromatic aberration occurs symmetrically with respect to the optical axis L, and the distance from the optical axis L increases. Therefore, since the colored width becomes large, the scale parameter of the HPF 51a may be changed stepwise in accordance with the distance from the image center of the target pixel currently being processed. FIG. 13 is a diagram illustrating the change of the scale parameter of the HPF 51a in accordance with the target pixel position.

例えば、図13のように、注目画素の位置が、中心CPから所定距離L2の領域CR2では、3行3列の行列形式で表されるHPF51a、中心CPから所定距離L3内であって領域CR2を含まない領域CR3では、5行5列の行列形式で表されるHPF51a、そして、中心CPから所定距離L3内の領域に含まれない領域CR4では、7行7列の行列形式で表されるHPF51aを用いるようにすればよい。ただし、L2<L3である。   For example, as shown in FIG. 13, in the region CR2 where the target pixel is located at a predetermined distance L2 from the center CP, the HPF 51a represented in a matrix form of 3 rows and 3 columns is located within the predetermined distance L3 from the center CP and the region CR2. In the region CR3 not including the HPF 51a expressed in a matrix format of 5 rows and 5 columns, and in the region CR4 not included in the region within the predetermined distance L3 from the center CP, expressed in a matrix format of 7 rows and 7 columns. The HPF 51a may be used. However, L2 <L3.

このように、画像における光軸位置と注目画素の位置との距離に応じて、HPF51aのスケールパラメータを段階的に変更することによって、抑圧処理の実行対象領域(濃度低減範囲)を段階的に変更することが可能となるので、色収差の色つき幅に合わせた適切な抑圧処理が可能となる。   In this way, by changing the scale parameter of the HPF 51a stepwise according to the distance between the optical axis position in the image and the position of the target pixel, the suppression target execution region (density reduction range) is changed stepwise. Therefore, it is possible to perform appropriate suppression processing according to the colored width of chromatic aberration.

◎PT2:撮影条件
倍率色収差による色つき幅は、焦点距離、撮影距離および絞り等の撮影条件の影響を受けるので、これらの情報に基づいてHPF51aのスケールパラメータを変更してもよい。
◎ PT2: Shooting condition Since the colored width due to chromatic aberration of magnification is affected by shooting conditions such as the focal length, shooting distance, and aperture, the scale parameter of the HPF 51a may be changed based on such information.

例えば、近接撮影では、色収差の色つき幅が大きくなるので、撮影距離が小さくなるとともに、HPF51aのスケールパラメータを多くしてもよい。また、焦点距離が大きくなると色収差の色つき幅が大きくなるので、焦点距離が大きくなるとともにHPF51aのスケールパラメータを多くしてもよい。また、開放絞りでは、色収差の色つき幅が大きくなるので、絞り値(F値)が小さくなるとともに、HPF51aのスケールパラメータを多くしてもよい。   For example, in close-up shooting, the colored width of chromatic aberration increases, so the shooting distance may be reduced and the scale parameter of the HPF 51a may be increased. Further, since the colored width of the chromatic aberration increases as the focal length increases, the focal length may be increased and the scale parameter of the HPF 51a may be increased. In addition, since the full aperture of the chromatic aberration is increased in the open aperture, the aperture value (F value) may be decreased and the scale parameter of the HPF 51a may be increased.

これによれば、撮影条件PT2に基づいてHPF51aのスケールパラメータを適切に変更できるので、取得された画像に対して最適な抑圧処理が可能となる。   According to this, since the scale parameter of the HPF 51a can be appropriately changed based on the imaging condition PT2, it is possible to perform an optimal suppression process on the acquired image.

◎PT3:撮影レンズの特性
図14は、撮像システム200を光軸LXを含む平面で切断したときの断面を示す概念図である。
FIG. 14 is a conceptual diagram showing a cross section when the imaging system 200 is cut along a plane including the optical axis LX.

倍率色収差は、撮影レンズの特性によっても変動するので、例えば、図14に示されるようなレンズ交換可能な撮像システム200では、装着される撮影レンズのレンズ情報を取得するようにして、カメラ制御部40内のROM等に格納されている撮影レンズの色収差特性テーブルに基づいて、HPF51aのスケールパラメータを変更してもよい。   Since the chromatic aberration of magnification varies depending on the characteristics of the photographing lens, for example, in an imaging system 200 with interchangeable lenses as shown in FIG. 14, the camera control unit is configured to acquire lens information of the photographing lens to be mounted. The scale parameter of the HPF 51a may be changed based on the chromatic aberration characteristic table of the taking lens stored in the ROM or the like in the 40.

また、上記各要素(PT1〜PT3)を組み合わせて用いるようにして、HPF51aのスケールパラメータを変更してもよい。   Further, the scale parameters of the HPF 51a may be changed by using the elements (PT1 to PT3) in combination.

これによれば、撮影レンズの特性PT3に基づいてHPF51aのスケールパラメータを適切に変更できるので、レンズの特性に合致した抑圧処理が可能となる。   According to this, since the scale parameter of the HPF 51a can be appropriately changed based on the characteristic PT3 of the photographing lens, it is possible to perform a suppression process that matches the characteristic of the lens.

図14の撮像システム200は、カメラ本体(カメラボディ)201と、このカメラ本体201の正面略中央に着脱可能に装着される交換レンズ202とを備えた一眼レフレックス型デジタルスチルカメラ(デジタル一眼レフカメラ)として構成されている。   An imaging system 200 in FIG. 14 includes a single-lens reflex digital still camera (digital single-lens reflex camera) including a camera body (camera body) 201 and an interchangeable lens 202 that is detachably mounted at the front center of the camera body 201. Camera).

また、図14に示されるように、マウント部Mtには、装着された交換レンズ202内のCPU211との電気的接続を行うためのコネクタECと機械的接続を行うためのカプラMCとが設けられている。   Further, as shown in FIG. 14, the mount portion Mt is provided with a connector EC for electrical connection with the CPU 211 in the attached interchangeable lens 202 and a coupler MC for mechanical connection. ing.

コネクタECは、CPU211を介し、交換レンズ202に内蔵されたレンズROM(リードオンリメモリ)213から当該レンズに関する型式や型番などのレンズ情報をカメラ本体201内のカメラ制御部40に送信したり、レンズ位置検出部212によって検出されたフォーカスレンズ203等のレンズ位置をカメラ制御部40に送出したりするためのものである。   The connector EC sends lens information such as a model and model number regarding the lens from the lens ROM (read only memory) 213 built in the interchangeable lens 202 to the camera control unit 40 in the camera body 201 via the CPU 211, For example, the position of the focus lens 203 or the like detected by the position detection unit 212 is sent to the camera control unit 40.

カプラMCは、カメラ本体201内に設けられたフォーカスレンズ駆動用のモータM1の駆動力を交換レンズ202内のレンズ駆動機構204に伝達するもので、レンズ駆動機構204によりフォーカスレンズ203が光軸方向LXに移動することとなる。   The coupler MC transmits the driving force of the focus lens driving motor M1 provided in the camera body 201 to the lens driving mechanism 204 in the interchangeable lens 202. The lens driving mechanism 204 causes the focus lens 203 to move in the optical axis direction. It will move to LX.

また、制御エリアテーブル81の候補を複数準備しておき、上記要素(撮影条件PT2,撮影レンズの特性PT3)に応じて、図8に示される制御エリアテーブル81を選択してもよい。   Alternatively, a plurality of candidates for the control area table 81 may be prepared, and the control area table 81 shown in FIG. 8 may be selected according to the above elements (shooting condition PT2, shooting lens characteristic PT3).

例えば、近接撮影では、色収差の色つき幅が大きくなるので、撮影距離が小さくなるとともに、画像の中心CPから所定距離L1を小さくして抑圧処理を実行しない領域(範囲)CR1を狭くしてもよい。また、焦点距離が大きくなると色収差の色つき幅が大きくなるので、焦点距離が大きくなるとともに画像の中心CPから所定距離L1を小さくして抑圧処理を実行しない領域(範囲)CR1を狭くしてもよい。。また、開放絞りでは、色収差の色つき幅が大きくなるので、絞り値(F値)が小さくなるとともに、画像の中心CPから所定距離L1を小さくして抑圧処理を実行しない領域(範囲)CR1を狭くしてもよい。これによれば、撮影条件PT2に応じて色信号の濃度低減量を適切に調整できるので、取得された画像に対して最適な抑圧処理が可能となる。   For example, in close-up photography, since the colored width of chromatic aberration increases, the photographing distance becomes small, and even if the region (range) CR1 in which the suppression process is not performed is narrowed by reducing the predetermined distance L1 from the center CP of the image. Good. Further, since the colored width of chromatic aberration increases as the focal length increases, the focal length increases and the region (range) CR1 in which the suppression process is not performed is reduced by reducing the predetermined distance L1 from the center CP of the image. Good. . In addition, since the coloration width of the chromatic aberration is increased in the open aperture, the aperture value (F value) is decreased, and the region (range) CR1 in which the suppression process is not performed by decreasing the predetermined distance L1 from the center CP of the image. It may be narrowed. According to this, the density reduction amount of the color signal can be appropriately adjusted according to the photographing condition PT2, and thus it is possible to perform an optimal suppression process for the acquired image.

また、例えば、撮像システム200では、装着される撮影レンズのレンズ情報を取得するようにして、カメラ制御部40内のROM等に格納されている撮影レンズの色収差特性テーブルに基づいて、画像の中心CPから所定距離L1を小さくして抑圧処理を実行しない領域(範囲)CR1を狭くしてもよい。   Further, for example, in the imaging system 200, the lens information of the photographic lens to be mounted is acquired, and the center of the image is obtained based on the chromatic aberration characteristic table of the photographic lens stored in the ROM or the like in the camera control unit 40. The region (range) CR1 where the suppression process is not performed may be narrowed by reducing the predetermined distance L1 from the CP.

これによれば、撮影レンズの特性PT3に基づいて色信号の濃度低減量を適切に調整できるので、レンズの特性に合致した抑圧処理が可能となる。   According to this, since the density reduction amount of the color signal can be appropriately adjusted based on the characteristic PT3 of the photographing lens, it is possible to perform a suppression process that matches the characteristic of the lens.

また、上記第2実施形態において用いた方向性判定テーブル82(図12)は、抑圧処理対象とする色つきの位置に応じて変更してもよい。   Further, the directionality determination table 82 (FIG. 12) used in the second embodiment may be changed according to a colored position to be a suppression processing target.

例えば、撮影レンズの種類等によって、図4に示されるマゼンダ系の色つきMaとシアン系の色つきCyとが、相互に入れ替わって生じる場合において、マゼンダ系の色つきMaを抑圧するには、図15に示されるような方向性判定テーブル83を用いればよい。   For example, in order to suppress the magenta colored Ma in the case where the magenta colored Ma and the cyan colored Cy shown in FIG. A directionality determination table 83 as shown in FIG. 15 may be used.

これによれば、抑圧対象とする色収差による色つきを特定して、抑圧処理を実行することが可能となる。   According to this, it is possible to specify the coloring due to the chromatic aberration to be suppressed and execute the suppression process.

また、上記各実施形態では、全ての画素についてHPF51aによるエッジ抽出処理を実行していたがこれに限定されない。具体的には、図16に示されるように、HPF51aに輝度信号Yが入力されるとともに、これから処理する注目画素の位置をエリア判定部55において予め特定するようにして、当該注目画素の位置が中心CPから所定距離L1の領域(範囲)CR1内であった場合(図8参照)には、HPF51aによるエッジ抽出処理を実行しないようにしてもよい。   In each of the above embodiments, the edge extraction processing by the HPF 51a is executed for all pixels, but the present invention is not limited to this. Specifically, as shown in FIG. 16, the luminance signal Y is input to the HPF 51a, and the position of the target pixel to be processed is specified in advance in the area determination unit 55, so that the position of the target pixel is determined. When it is within the region (range) CR1 of the predetermined distance L1 from the center CP (see FIG. 8), the edge extraction process by the HPF 51a may not be executed.

これによれば、抑圧処理を実行しない領域に対する無駄な処理を回避することができる。   According to this, it is possible to avoid useless processing for an area where no suppression processing is performed.

また、上記第2実施形態では、H方向に対する濃度変化の方向性とV方向に対する濃度変化の方向性とを用いて抑圧処理を施すエッジを特定していたがこれに限定されない。例えば、画像における中心(光軸)方向に対する濃度変化(輝度変化)の方向性を検出するようにして、光軸方向に対して所定の方向性(例えば、立ち上がりの方向性)を有しているエッジを抑圧処理の対象エッジと特定してもよい。   In the second embodiment, the edge to be subjected to the suppression process is specified using the direction of density change with respect to the H direction and the direction of density change with respect to the V direction. However, the present invention is not limited to this. For example, the directionality of the density change (luminance change) with respect to the center (optical axis) direction in the image is detected to have a predetermined directionality (for example, rising directionality) with respect to the optical axis direction. The edge may be specified as the target edge of the suppression process.

また、上記各実施形態では、画像中心CPを基準として濃度低減化規則を設定していたが、光軸Lを基準として設定した方が正確である。また、レンズの組み立て誤差による変動を予め考慮しておいてもよい。   In each of the above embodiments, the density reduction rule is set based on the image center CP. However, it is more accurate to set the rule based on the optical axis L. Further, variation due to lens assembly errors may be taken into consideration in advance.

本発明の第1実施形態に係る撮像装置1Aの要部構成を示す図である。It is a figure which shows the principal part structure of 1 A of imaging devices which concern on 1st Embodiment of this invention. 撮像装置1Aの機能ブロックを示す図である。It is a figure which shows the functional block of 1 A of imaging devices. 撮影光学系が、或る撮影条件における倍率色収差を示す図である。FIG. 6 is a diagram illustrating chromatic aberration of magnification under a certain shooting condition by the shooting optical system. 撮像装置1Aによって取得された画像における色収差の色つきの様子を示す図である。It is a figure which shows the mode of coloring of the chromatic aberration in the image acquired by 1 A of imaging devices. ある撮像条件における撮影光学系の倍率色収差図である。It is a chromatic aberration diagram of magnification of a photographing optical system under a certain imaging condition. クロマ抑圧度決定回路の機能ブロック図である。It is a functional block diagram of a chroma suppression degree determination circuit. 各処理部を通過した信号を示す図である。It is a figure which shows the signal which passed each process part. 注目画像位置に応じた抑圧制御の様子を示す図である。It is a figure which shows the mode of the suppression control according to an attention image position. 抑圧度設定LUTの設定内容を抑圧度曲線LCとしてグラフ化して示した図である。It is the figure which showed the setting content of the suppression degree setting LUT as a graph as the suppression degree curve LC. 第2実施形態に係るクロマ抑圧度決定回路の機能ブロック図である。It is a functional block diagram of a chroma suppression degree determination circuit according to the second embodiment. 各処理部を通過した信号を示す図である。It is a figure which shows the signal which passed each process part. 注目画素位置に応じた抑圧対象とするエッジの方向性を示す図である。It is a figure which shows the directionality of the edge used as the suppression object according to an attention pixel position. 注目画素位置に応じたHPF51aのスケールパラメータの変更を示す図である。It is a figure which shows the change of the scale parameter of HPF51a according to an attention pixel position. 撮像システム200を光軸LXを含む平面で切断したときの断面を示す概念図である。It is a conceptual diagram which shows a cross section when the imaging system 200 is cut | disconnected by the plane containing the optical axis LX. 注目画素位置に応じた抑圧対象とするエッジの方向性を示す図である。It is a figure which shows the directionality of the edge used as the suppression object according to an attention pixel position. クロマ抑圧度決定回路の機能ブロック図である。It is a functional block diagram of a chroma suppression degree determination circuit.

符号の説明Explanation of symbols

101 R成分光の色収差
Ma マゼンダ系の色つき
Cy シアン系の色つき
LC 抑圧度曲線
LL 正比例直線
R1 第1象限
R2 第2象限
R3 第3象限
R4 第4象限
101 Chromatic aberration of R component light Ma Magenta coloring Cy Cyan coloring LC Suppression curve LL Direct proportional line R1 First quadrant R2 Second quadrant R3 Third quadrant R4 Fourth quadrant

Claims (12)

撮像装置であって、
撮像素子と、
前記撮像素子によって取得された画像中のエッジを検出するエッジ検出手段と、
前記画像における前記エッジの位置を特定するエッジ位置特定手段と、
前記エッジの位置に応じた濃度低減化規則に従って、前記エッジ近傍の色信号の濃度を低減する濃度低減手段と、
を備えることを特徴とする撮像装置。
An imaging device,
An image sensor;
Edge detection means for detecting an edge in an image acquired by the image sensor;
Edge position specifying means for specifying the position of the edge in the image;
Density reducing means for reducing the density of the color signal in the vicinity of the edge according to a density reduction rule corresponding to the position of the edge;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記濃度低減手段は、前記エッジ位置特定手段において、前記画像における撮像レンズ系の光軸位置もしくは画像の画面中心位置から所定距離内に存在すると判断されたエッジについては、当該エッジ近傍の色信号を低減しないことを特徴とする撮像装置。
The imaging device according to claim 1,
The density reducing means, for the edge determined by the edge position specifying means to be within a predetermined distance from the optical axis position of the imaging lens system in the image or the screen center position of the image, outputs a color signal in the vicinity of the edge An imaging device characterized by not being reduced.
請求項1に記載の撮像装置において、
前記エッジ検出手段は、前記画像における撮像レンズ系の光軸位置もしくは画像の画面中心位置から所定距離内では、前記エッジの検出を実行しないことを特徴とする撮像装置。
The imaging device according to claim 1,
The imaging apparatus according to claim 1, wherein the edge detection means does not detect the edge within a predetermined distance from an optical axis position of an imaging lens system in the image or a screen center position of the image.
請求項1から請求項3のいずれかに記載の撮像装置において、
前記エッジにおいて濃度変化が生じている空間的方向を判定する方向判定手段、
をさらに備え、
前記濃度低減手段は、前記エッジにおける濃度変化の空間的方向に応じて、前記エッジ近傍の色信号の濃度を選択的に低減することを特徴とする撮像装置。
In the imaging device in any one of Claims 1-3,
Direction determination means for determining a spatial direction in which a density change occurs at the edge;
Further comprising
The imaging apparatus according to claim 1, wherein the density reducing unit selectively reduces the density of a color signal in the vicinity of the edge according to a spatial direction of density change at the edge.
請求項1から請求項4のいずれかに記載の撮像装置において、
前記濃度低減手段は、前記画像中における撮像レンズ系の光軸位置と前記エッジとの距離に応じて、当該エッジ近傍における色信号の濃度の低減範囲を段階的に変更することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
The density reduction means changes the density reduction range of the color signal in the vicinity of the edge stepwise in accordance with the distance between the optical axis position of the imaging lens system in the image and the edge. apparatus.
請求項1から請求項5のいずれかに記載の撮像装置において、
撮影時の撮影条件に基づいて、前記濃度低減手段による色信号の濃度低減量を調整する調整手段、
をさらに備えることを特徴とする撮像装置。
In the imaging device in any one of Claims 1-5,
Adjusting means for adjusting the density reduction amount of the color signal by the density reducing means based on the shooting conditions at the time of shooting;
An image pickup apparatus further comprising:
請求項6に記載の撮像装置において、
前記撮影条件は、焦点距離情報を含み、
前記調整手段は、前記焦点距離情報に基づいて前記色信号の濃度低減量を調整することを特徴とする撮像装置。
The imaging device according to claim 6,
The shooting conditions include focal length information,
The image pickup apparatus, wherein the adjustment unit adjusts a density reduction amount of the color signal based on the focal length information.
請求項6または請求項7に記載の撮像装置において、
前記撮影条件は、撮影距離情報を含み、
前記調整手段は、前記撮影距離情報に基づいて前記色信号の濃度低減量を調整することを特徴とする撮像装置。
In the imaging device according to claim 6 or 7,
The shooting condition includes shooting distance information,
The image pickup apparatus, wherein the adjustment unit adjusts a density reduction amount of the color signal based on the shooting distance information.
請求項6から請求項8のいずれかに記載の撮像装置において、
前記撮影条件は、絞り値を含み、
前記調整手段は、前記絞り値に基づいて前記色信号の濃度低減量を調整することを特徴とする撮像装置。
In the imaging device in any one of Claims 6-8,
The shooting conditions include an aperture value,
The image pickup apparatus, wherein the adjustment unit adjusts a density reduction amount of the color signal based on the aperture value.
請求項6から請求項9のいずれかに記載の撮像装置において、
撮影時の撮影レンズ情報に基づいて、前記濃度低減手段による色信号の濃度低減量を調整する調整手段、
をさらに備えることを特徴とする撮像装置。
In the imaging device in any one of Claims 6-9,
Adjusting means for adjusting the density reduction amount of the color signal by the density reducing means based on photographing lens information at the time of photographing;
An image pickup apparatus further comprising:
撮像素子によって取得された画像に所定の画像処理を施す画像処理装置であって、
前記画像中のエッジを検出するエッジ検出手段と、
前記画像における前記エッジの位置を特定するエッジ位置特定手段と、
前記エッジの位置に応じた濃度低減化規則に従って、前記エッジ近傍の色信号の濃度を低減する濃度低減手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that performs predetermined image processing on an image acquired by an imaging element,
Edge detection means for detecting edges in the image;
Edge position specifying means for specifying the position of the edge in the image;
Density reducing means for reducing the density of the color signal in the vicinity of the edge according to a density reduction rule according to the position of the edge;
An image processing apparatus comprising:
撮像素子によって取得された画像に所定の画像処理を施す画像処理方法であって、
前記画像中のエッジを検出するエッジ検出工程と、
前記画像における前記エッジの位置を特定するエッジ位置特定工程と、
前記エッジの位置に応じた濃度低減化規則に従って、前記エッジ近傍の色信号の濃度を低減する濃度低減工程と、
を備えることを特徴とする画像処理方法。
An image processing method for performing predetermined image processing on an image acquired by an image sensor,
An edge detection step of detecting edges in the image;
An edge position specifying step for specifying the position of the edge in the image;
A density reduction step of reducing the density of the color signal in the vicinity of the edge according to a density reduction rule according to the position of the edge;
An image processing method comprising:
JP2006013848A 2006-01-23 2006-01-23 Imaging apparatus, image processor and image processing method Pending JP2007195122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006013848A JP2007195122A (en) 2006-01-23 2006-01-23 Imaging apparatus, image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006013848A JP2007195122A (en) 2006-01-23 2006-01-23 Imaging apparatus, image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2007195122A true JP2007195122A (en) 2007-08-02

Family

ID=38450425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006013848A Pending JP2007195122A (en) 2006-01-23 2006-01-23 Imaging apparatus, image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2007195122A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010068464A (en) * 2008-09-12 2010-03-25 Canon Inc Image processing apparatus, image processing method, and imaging apparatus
WO2010116923A1 (en) 2009-04-07 2010-10-14 コニカミノルタオプト株式会社 Image input device
WO2010122214A1 (en) * 2009-04-23 2010-10-28 Nokia Corporation Imaging unit, apparatus comprising an imaging unit, a system, and methods for calibrating an imaging apparatus
CN101909136A (en) * 2009-06-03 2010-12-08 佳能株式会社 Image processing equipment and image processing method
JP2012044243A (en) * 2010-08-12 2012-03-01 Nikon Corp Image processing apparatus, imaging apparatus and image processing program
US8155440B2 (en) 2008-12-26 2012-04-10 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010068464A (en) * 2008-09-12 2010-03-25 Canon Inc Image processing apparatus, image processing method, and imaging apparatus
US8155440B2 (en) 2008-12-26 2012-04-10 Canon Kabushiki Kaisha Image processing apparatus and image processing method
WO2010116923A1 (en) 2009-04-07 2010-10-14 コニカミノルタオプト株式会社 Image input device
WO2010122214A1 (en) * 2009-04-23 2010-10-28 Nokia Corporation Imaging unit, apparatus comprising an imaging unit, a system, and methods for calibrating an imaging apparatus
CN101909136A (en) * 2009-06-03 2010-12-08 佳能株式会社 Image processing equipment and image processing method
CN101909136B (en) * 2009-06-03 2012-10-31 佳能株式会社 Image processing apparatus and image data processing method
US8314851B2 (en) 2009-06-03 2012-11-20 Canon Kabushiki Kaisha Image processing apparatus, method for processing image, and storage medium
JP2012044243A (en) * 2010-08-12 2012-03-01 Nikon Corp Image processing apparatus, imaging apparatus and image processing program

Similar Documents

Publication Publication Date Title
JP2006121612A (en) Image pickup device
JP2005102134A (en) Image processing apparatus and method, recording medium, and program
JP2010074813A (en) Imaging apparatus and imaging method
JP3760943B2 (en) Imaging apparatus and moving image noise processing method
JP3912404B2 (en) Imaging device
JP2009044367A (en) Imaging method and imaging apparatus
JPH10248068A (en) Image pickup device and image processor
JP2009201094A (en) Imaging apparatus and imaging method
US20060197854A1 (en) Image capturing apparatus and computer software product
JP2007195122A (en) Imaging apparatus, image processor and image processing method
JP5272699B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
JP2006129175A (en) Imaging device
JP2008289036A (en) Imaging apparatus and control method thereof
JP2005269130A (en) Imaging device with camera shake correcting function
JP2005303731A (en) Signal processor, signal processing method and digital camera
JP2009141538A (en) Imaging apparatus, image playback device, and program for them
JP5948997B2 (en) Imaging apparatus and imaging method
JP5091781B2 (en) Imaging apparatus and imaging method
JP2006253970A (en) Imaging apparatus, shading correction data generating method, and program
JP2004328606A (en) Imaging device
JP4581633B2 (en) Color signal correction method, apparatus and program
JP2004088408A (en) Digital camera
JP2007201780A (en) Imaging apparatus, image processing apparatus and method
KR101612853B1 (en) Photographing apparatus, controlling method of photographing apparatus, and recording medium storing program to implement the controlling method
JP2010068331A (en) Imaging device and imaging method