JP5034665B2 - Image input processing device, pixel signal processing circuit, and edge detection method - Google Patents

Image input processing device, pixel signal processing circuit, and edge detection method Download PDF

Info

Publication number
JP5034665B2
JP5034665B2 JP2007126863A JP2007126863A JP5034665B2 JP 5034665 B2 JP5034665 B2 JP 5034665B2 JP 2007126863 A JP2007126863 A JP 2007126863A JP 2007126863 A JP2007126863 A JP 2007126863A JP 5034665 B2 JP5034665 B2 JP 5034665B2
Authority
JP
Japan
Prior art keywords
pixel
edge
difference
unit
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007126863A
Other languages
Japanese (ja)
Other versions
JP2008283541A (en
Inventor
肇 沼田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007126863A priority Critical patent/JP5034665B2/en
Publication of JP2008283541A publication Critical patent/JP2008283541A/en
Application granted granted Critical
Publication of JP5034665B2 publication Critical patent/JP5034665B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、被写体を撮像し、発生した画素信号に基づいて、画像のノイズ成分低減あるいはエッジ強調等をフィルタ処理により実行する画像入力処理装置と、画素信号処理回路、および、エッジ検出方法に関する。   The present invention relates to an image input processing device, a pixel signal processing circuit, and an edge detection method for capturing a subject and executing noise reduction or edge enhancement of an image by filter processing based on a generated pixel signal.

動画や静止画を撮影するカメラ装置において、例えばISO感度を上げて撮像すると、自動露光機能が働いて、センサ(撮像デバイス)の露光時間が短くなり、且つ、センサから出力される信号が大きな増幅度(ゲイン)で増幅されるため、センサ自身や周辺ICの発するノイズの影響を大きく受け、信号対ノイズ比(S/N比)が低いノイズィな画になる。
ノイズはセンサ自身の要因、さらには、周辺ICの動作周波数など、さまざまな周辺から受ける影響により発生する。また信号源(センサ)自体の特性変化や時間変化のばらつきなどもあって、低周波から高周波まで様々なノイズパターンが画に影響を及ぼす。
ノイズを低減または抑圧するためにカメラ装置が内部で行う信号処理では、タップ数の大きなフィルタを使ったノイズ低減(Noise Reduction)のための回路を用いたものが知られ、当該回路の処理によって表示画像のS/N比向上を図っている。
In a camera device that captures moving images and still images, for example, when the ISO sensitivity is increased and the image is taken, the automatic exposure function works, the exposure time of the sensor (imaging device) is shortened, and the signal output from the sensor is greatly amplified. Since it is amplified at a degree (gain), it is greatly affected by noise generated by the sensor itself and peripheral IC, resulting in a noisy image with a low signal-to-noise ratio (S / N ratio).
Noise is generated due to influences from various surroundings such as the sensor's own factors and the operating frequency of the peripheral IC. There are also variations in the characteristics of the signal source (sensor) itself and variations in time, and various noise patterns from low frequency to high frequency affect the image.
Signal processing performed internally by the camera device to reduce or suppress noise is known to use a noise reduction circuit that uses a filter with a large number of taps. The S / N ratio of the image is improved.

しかし、タップ数の大きな通常のローパスフィルタ(例えばガウシアンフィルタ)で処理を行うと、これに伴ってエッジ情報が拡散してしまうため、エッジの急峻性が低下し、解像感が低くなった画が出力されてしまう。これを解決するためカメラ信号処理において、入力画像に対して解像度を維持しながらフィルタ処理を施して、S/N比を良くするノイズ低減(NR)手法が必要である。   However, if processing is performed with a normal low-pass filter (for example, a Gaussian filter) having a large number of taps, the edge information is diffused accordingly, so that the sharpness of the edge is lowered and the resolution is lowered. Will be output. In order to solve this problem, in the camera signal processing, a noise reduction (NR) technique for improving the S / N ratio by performing filter processing on the input image while maintaining the resolution is required.

ノイズ低減(NR)のアプローチの一つとして、不可視光の、特に近赤外線領域をカットするIR(Infrared Radiation)カットフィルタを通った被写体からの光を、赤(R),緑(G),青(B)等の所定のカラーフィルタを備える撮像デバイスで受光し、当該撮像デバイスから出力される色再現性が高い画像以外に、より情報量が多い画像としてIRカットフィルタを通さないで同一被写体を撮像した画像を取得し、当該IRカットフィルタを通さないことで多い情報量が維持された画像でエッジ情報を検出する手法が知られている(例えば、特許文献1参照)。   As one of the approaches to noise reduction (NR), invisible light, especially light from an object that has passed an IR (Infrared Radiation) cut filter that cuts the near-infrared region, is converted into red (R), green (G), blue (B) Other than an image having a high color reproducibility that is received by an imaging device including a predetermined color filter and output from the imaging device, the same subject is not passed through the IR cut filter as an image having a larger amount of information. A technique is known in which edge information is detected from an image obtained by acquiring a captured image and maintaining a large amount of information by not passing through the IR cut filter (see, for example, Patent Document 1).

上記特許文献1において、エッジ情報を取得するための画像は不可視光画像(実施例では赤外光画像)と称され、IRカットフィルタを通す前の、低域から高域までの幅広い周波数成分を含む画像情報を保持している。   In Patent Document 1, an image for acquiring edge information is called an invisible light image (infrared light image in the embodiment), and a wide range of frequency components from a low frequency to a high frequency before passing through an IR cut filter are obtained. Contains image information.

上記特許文献1では、不可視光画像(赤外光画像)をハイパスフィルタに通すことにより高周波成分を抽出する一方、可視光画像、即ちIRフィルタを通して撮像した色再現性が高い画像をゲイン調整した後、ローパスフィルタを通してノイズを除去する。ただし、ローパスフィルタを通すと解像度情報が拡散し、エッジの急峻性が低下する。よって、上記特許文献1では、このローパスフィルタリング後の可視光画像と、エッジ情報を含む上記ハイパスフィルタ後の赤外光画像とを合成している。これにより、ノイズ低減とエッジ情報拡散(エッジの急峻性低下)の防止とを両立させている。   In Patent Document 1, high-frequency components are extracted by passing an invisible light image (infrared light image) through a high-pass filter, while gain adjustment is performed on a visible light image, that is, an image with high color reproducibility captured through an IR filter. Remove noise through a low-pass filter. However, when the low-pass filter is passed, the resolution information is diffused and the sharpness of the edge is lowered. Therefore, in the said patent document 1, the visible light image after this low-pass filtering and the infrared light image after the said high-pass filter containing edge information are synthesize | combined. This achieves both noise reduction and prevention of edge information diffusion (edge sharpness reduction).

IRフィルタに関し、単一の撮像デバイスのカラーフィルタ層に、赤外光成分を透過する、遮断することを選択する機能を持たせることができる。
例えば特許文献2には、赤(R),緑(G),青(B)の3原色の透過フィルタと、赤外領域に感度を持ち、赤外光を透過する赤外通過フィルタとから、繰り返し最小単位(画素ユニット)が構成されているカラーフィルタが開示されている。そして、特許文献2には、赤外通過フィルタは白(W)のフィルタであってよいことが記載されている。
With respect to the IR filter, the color filter layer of a single imaging device can have a function of selecting whether to transmit or block infrared light components.
For example, Patent Document 2 includes a transmission filter of three primary colors of red (R), green (G), and blue (B), and an infrared pass filter that has sensitivity in the infrared region and transmits infrared light. A color filter in which a repetitive minimum unit (pixel unit) is configured is disclosed. Patent Document 2 describes that the infrared pass filter may be a white (W) filter.

ところで、赤外光成分があると色の再現性が悪くなり、画像を全体的に白っぽくさせてしまうため、通常は、撮像デバイスとは別に光学部品としてIRカットフィルタを設けるか、上述の特許文献2のように、原色信号を発生する画素自体にIRカットフィルタの機能を持つ色透過フィルタを設ける必要がある。
特開2006−180269号公報 特開2005−006066号公報
By the way, if there is an infrared light component, the color reproducibility deteriorates and the image is generally whitish. Usually, an IR cut filter is provided as an optical component separately from the imaging device, or the above-mentioned patent document. As shown in FIG. 2, it is necessary to provide a color transmission filter having an IR cut filter function on the pixel itself that generates the primary color signal.
JP 2006-180269 A JP-A-2005-006066

例えば特許文献2に示す撮像デバイスのように、赤(R),緑(G),青(B)および白(W)のカラーフィルタを有する画素を2×2の配列として、この配列を2次元で繰り返し配置し、そのうち白(W)の画素のみに赤外光(IR)を通過する赤外通過フィルタを設けることが可能である。これにより、R/G/Bの可視光画像と、(W+IR)の赤外光画像とを1つの撮像デバイスから出力可能である。   For example, a pixel having red (R), green (G), blue (B), and white (W) color filters is arranged in a 2 × 2 array as in the imaging device shown in Patent Document 2, and this array is two-dimensional. It is possible to provide an infrared pass filter that passes infrared light (IR) only in the white (W) pixels. Accordingly, an R / G / B visible light image and a (W + IR) infrared light image can be output from one imaging device.

図13に、特許文献1に記載された画像処理部の構成を示す。
図解した画像処理部100は、ゲイン調整部101、NR処理部としてのローパスフィルタ102、ハイパスフィルタ103、および、画像合成部104を有する。
FIG. 13 shows the configuration of the image processing unit described in Patent Document 1.
The illustrated image processing unit 100 includes a gain adjustment unit 101, a low-pass filter 102 as an NR processing unit, a high-pass filter 103, and an image synthesis unit 104.

ゲイン調整部101は、入力される可視光画像(Visible)のゲインを調整する。これにより、露出不足で暗く撮像された可視光画像(Visible)の画素ごとの階調値(画素値)を増大し、適正露出で撮像した画像に近い画素値とする。ゲインの調整方法としては、可視光画像(Visible)の画素値を定数倍する方法や指数関数に基づくガンマ補正、多項式関数等に基づく任意のゲイン調整方法などがある。   The gain adjustment unit 101 adjusts the gain of the input visible light image (Visible). Thereby, the gradation value (pixel value) for each pixel of the visible light image (Visible) imaged darkly due to insufficient exposure is increased to a pixel value close to the image imaged with appropriate exposure. As a gain adjustment method, there are a method of multiplying a pixel value of a visible light image (Visible) by a constant, a gamma correction based on an exponential function, an arbitrary gain adjustment method based on a polynomial function, and the like.

ローパスフィルタ102は、エッジ検出部を含んでおり、当該エッジ検出部で、より情報量が多い赤外光画像(infr)からエッジを検出する。ノイズ低減部としてのローパスフィルタ102は、検出したエッジで情報を保存しつつローパスフィルタ処理を行うことにより、可視光画像(Visible)からノイズを除去し、基礎画像(Base)を画像合成部104に出力する。
一方、ハイパスフィルタ103は、入力される赤外光画像(infr)からエッジ及び詳細部分を抽出し、得られた詳細画像(Edge)を画像合成部104に出力する。
画像合成部104は、ローパスフィルタ102からの基礎画像(Base)と、ハイパスフィルタ103からの詳細画像(Edge)を合成し、出力画像(OUT)を得る。
The low-pass filter 102 includes an edge detection unit, and the edge detection unit detects an edge from an infrared light image (infr) having a larger amount of information. The low-pass filter 102 serving as a noise reduction unit removes noise from the visible light image (Visible) by performing low-pass filter processing while storing information at the detected edge, and the basic image (Base) is transferred to the image composition unit 104. Output.
On the other hand, the high-pass filter 103 extracts edges and details from the input infrared light image (infr), and outputs the obtained details image (Edge) to the image composition unit 104.
The image synthesis unit 104 synthesizes the basic image (Base) from the low-pass filter 102 and the detailed image (Edge) from the high-pass filter 103 to obtain an output image (OUT).

このように、特許文献1に記載された技術は、例えば特許文献2に記載された撮像デバイスからの画素信号から得られた可視光画像(Visible)と赤外光画像(infr)を用いて、可視光画像(Visible)に対するNR処理を行うことが可能である。   Thus, the technique described in Patent Document 1 uses, for example, a visible light image (Visible) and an infrared light image (infr) obtained from a pixel signal from the imaging device described in Patent Document 2, It is possible to perform NR processing on a visible light image (Visible).

しかしながら、赤外光画像(infr)は情報量が多いため概ねエッジ判定が容易である一方、光源の色温度や被写体の条件(赤外光の反射率等)によっては、エッジ判定に適さない場合が存在する。これは、赤外光画像(infr)に含まれる可視光成分の、エッジを境界とする色の組み合わせがエッジを不鮮明にさせるためである。   However, the infrared light image (infr) has a large amount of information, so it is generally easy to determine the edge. On the other hand, depending on the color temperature of the light source and subject conditions (infrared reflectance, etc.) Exists. This is because the combination of colors of the visible light component included in the infrared light image (infr) with the edge as a boundary blurs the edge.

図14(A)に赤外光画像(infr)としてのA(W+IR)画像、図14(B)に可視光画像(Visible)としての入力画像のR成分(R画像)を、それぞれ色パレット画像の例で示す。
図14(B)に示すR画像において「エッジ有り」と記載して表示する境界B1に、茶色のパレットと、こげ茶色の格子枠とのエッジが比較的明瞭に存在する。
これに対し、図14(A)に示すA画像において、図14(B)の「エッジ有り」に対応する箇所B1では、R成分のほかに、G成分、B成分、IR成分が重畳して色が構成されるため、差がない他の成分にR成分差が隠れて、エッジが極めて不鮮明となる。この結果、「エッジ無し」の判定がされる。
これと同じA画素におけるエッジの不鮮明化は、他の境界B2(青と格子枠の境界)、境界B3(うぐいす茶と格子枠の境界)、境界B4(薄茶と格子枠の境界)などでも生じている。
FIG. 14A shows an A (W + IR) image as an infrared light image (infr), and FIG. 14B shows an R component (R image) of an input image as a visible light image (Visible). This is shown in the example.
In the R image shown in FIG. 14B, the edge between the brown palette and the dark brown lattice frame exists relatively clearly at the boundary B1 displayed as “with edge”.
On the other hand, in the A image shown in FIG. 14A, the G component, B component, and IR component are superimposed in addition to the R component at the location B1 corresponding to “with edge” in FIG. Since the color is configured, the R component difference is hidden behind other components that do not have a difference, and the edge becomes extremely unclear. As a result, “no edge” is determined.
Edge blurring in the same A pixel also occurs at other boundaries B2 (blue and lattice frame boundary), boundary B3 (boiled brown and lattice frame boundary), boundary B4 (light brown and lattice frame boundary), etc. ing.

なお、このエッジの不鮮明化は、モノクロ画像でも生じ得る。IR成分が重畳され、その割合が大きいと、元のエッジ情報を希釈化する作用があるためである。   Note that this edge blurring may occur even in a monochrome image. This is because when the IR component is superimposed and the ratio thereof is large, the original edge information is diluted.

また、例えば特開2000−13642号公報に記載されているエッジ強調フィルタにおいて、上述したカラー画像またはモノクロ画像におけるエッジの不鮮明化が生じると、エッジが存在するのにエッジ強調されない、エッジ強調の程度が弱いという不都合が生じる。   Further, in the edge enhancement filter described in, for example, Japanese Patent Application Laid-Open No. 2000-13642, when edge blurring occurs in the color image or the monochrome image described above, the edge enhancement is not performed although the edge is present. The inconvenience that is weak is caused.

本発明は、以上のように、近赤外光成分を含むため単に情報量が多いという画素信号のみのエッジ判定による不都合を回避するものである。   As described above, the present invention avoids the inconvenience due to the edge determination of only the pixel signal that the information amount is large because it includes the near infrared light component.

本発明に係る画像入力処理装置は、撮像デバイスと、赤外光低減部と、エッジ情報取得部と、エッジ判定部と、フィルタ処理部とを有する。
前記撮像デバイスは、赤外カットフィルタを通した光を受光することによって近赤外光成分が低減され、かつ、可視光成分を含む第1画素信号を出力する第1画素と、赤外カットフィルタを通さない光を受光することによって可視光成分と近赤外光成分の両方を含む第2画素信号を出力する第2画素と、を規則的に配置して形成されている画素アレイを有する。
前記赤外光低減部は、前記第1画素信号を処理することによって、前記赤外カットフィルタを通した後に残存する近赤外光成分を低減する。
前記エッジ情報取得部は、2つの前記第1画素から出力される2つの第1画素信号の差分である第1差分と、前記2つの第1画素に対応する2つの前記第2画素から出力される2つの第2画素信号の差分である第2差分とを取得するとともに、前記赤外光低減部からの信号の同一色データ配列上で隣接する2つの信号の差分である第3差分を取得することで、エッジ情報を取得する。
前記エッジ判定部は、前記第1差分、前記第2差分および前記第3差分の各々を所定の基準値とを比較し、比較の結果に基づいてエッジの有無を判定する
前記フィルタ処理部は、前記エッジ判定部でエッジ有りと判定されたときに、エッジ無しの場合に用いる所定の基本フィルタ係数を変更して、前記赤外光低減部で処理後の第1画素信号に対してフィルタ処理を施す。
An image input processing apparatus according to the present invention includes an imaging device, an infrared light reduction unit, an edge information acquisition unit, an edge determination unit, and a filter processing unit.
The imaging device receives a light that has passed through an infrared cut filter to reduce a near-infrared light component and outputs a first pixel signal including a visible light component, and an infrared cut filter The pixel array is formed by regularly arranging second pixels that output second pixel signals including both visible light components and near-infrared light components by receiving light that does not pass therethrough .
The infrared light reducing unit processes the first pixel signal to reduce a near infrared light component remaining after passing through the infrared cut filter.
The edge information acquisition unit outputs a first difference that is a difference between two first pixel signals output from two first pixels and two second pixels corresponding to the two first pixels. And a second difference that is a difference between two second pixel signals, and a third difference that is a difference between two adjacent signals on the same color data array of the signal from the infrared light reduction unit. By doing so, edge information is acquired.
The edge determination unit compares each of the first difference, the second difference, and the third difference with a predetermined reference value, and determines the presence or absence of an edge based on the comparison result .
The filter processing unit changes a predetermined basic filter coefficient used when there is no edge when the edge determination unit determines that there is an edge , and the first pixel signal processed by the infrared light reduction unit Is filtered.

ましくは、前記赤外光低減部は、前記残存した近赤外光成分を前記第2画素信号で低減することにより色補正を行う色補正部である。 Good Mashiku, the infrared light reducing portion, Ru color correction unit der to perform color correction by reducing the near-infrared light component above remains in the second pixel signal.

本発明に係る画素信号処理回路は、赤外光低減部と、エッジ情報取得部と、エッジ判定部と、フィルタ処理部とを有する。
前記赤外光低減部は、赤外カットフィルタを通した光を受光することによって近赤外光成分が低減され、かつ、可視光成分を含む第1画素信号を処理することによって、前記赤外カットフィルタを通した後に残存する近赤外光成分を低減する。
前記エッジ情報取得部は、赤外カットフィルタを通さない光を受光することによって可視光成分と近赤外光成分の両方を含む第2画素信号と、前記第1画素信号とをそれぞれ入力し、前記第1画素信号の同一色データ配列上で隣接する2つの画素データから第1差分を求め、当該第1差分を求めた前記2つの画素データに対応する、前記第2画素信号の2つの画素データから第2差分を求め、前記赤外光低減部からの信号の同一色データ配列上で隣接する2つの信号の差分である第3差分を取得することで、エッジ情報を取得する。
前記エッジ判定部は、前記第1差分、前記第2差分および前記第3差分の各々を所定の基準値とを比較し、比較の結果に基づいてエッジの有無を判定する。
前記フィルタ処理部は、前記エッジ判定部でエッジ有りと判定されたときに、エッジ無しの場合に用いる所定の基本フィルタ係数を変更して、前記前記赤外光低減部による処理後の第1画素信号に対してフィルタ処理を施す。
The pixel signal processing circuit according to the present invention includes an infrared light reduction unit, an edge information acquisition unit, an edge determination unit, and a filter processing unit.
The infrared light reduction unit receives the light that has passed through the infrared cut filter, reduces the near-infrared light component, and processes the first pixel signal including the visible light component, thereby processing the infrared light. The near infrared light component remaining after passing through the cut filter is reduced.
The edge information acquisition unit receives a second pixel signal including both a visible light component and a near infrared light component by receiving light that does not pass through an infrared cut filter, and the first pixel signal , respectively. Two pixels of the second pixel signal corresponding to the two pixel data obtained by obtaining a first difference from two adjacent pixel data on the same color data array of the first pixel signal The second difference is obtained from the data , and the edge information is obtained by obtaining a third difference that is a difference between two adjacent signals on the same color data array of the signal from the infrared light reducing unit .
The edge determination unit compares each of the first difference, the second difference, and the third difference with a predetermined reference value, and determines the presence or absence of an edge based on the comparison result.
The filter processing unit changes a predetermined basic filter coefficient used when there is no edge when the edge determination unit determines that there is an edge , and the first pixel after processing by the infrared light reduction unit Filter the signal.

本発明に係るエッジ検出方法は、赤外カットフィルタを通した光を受光することによって近赤外光成分が低減され、かつ、可視光成分を含む第1画素信号と、赤外カットフィルタを通さない光を受光することによって可視光成分と近赤外光成分の両方を含む第2画素信号と、を取得するステップと、前記第1画素信号を処理することによって、前記赤外カットフィルタを通した後に残存する近赤外光成分を低減するステップと、2つの第1画素から出力される2つの第1画素信号の差分である第1差分と、前記2つの第1画素に対応する2つの第2画素から出力される2つの第2画素信号の差分である第2差分とを取得するとともに、前記赤外光成分が低減された後の第1画素信号の同一色データ配列上で隣接する2つの信号の差分である第3差分を取得するステップと、前記第1差分、前記第2差分および前記第3差分の各々を所定の基準値とを比較し、比較の結果に基づいてエッジの有無を判定するステップと、を含む。
The edge detection method according to the present invention reduces the near-infrared light component by receiving the light that has passed through the infrared cut filter, and passes the first pixel signal including the visible light component and the infrared cut filter. Obtaining a second pixel signal including both a visible light component and a near-infrared light component by receiving no light, and processing the first pixel signal to pass through the infrared cut filter. steps and, the first difference is a difference between the two first pixel signals output from the two first pixel, 2 corresponding to the two first pixel to reduce the near-infrared light component remaining after obtains a second difference is a difference between the two second pixel signal output from one of the second pixel, on the same color data array of the first pixel signal after the infrared light component is reduced The difference that is the difference between two adjacent signals A step of acquiring three differences, a step of comparing each of the first difference, the second difference, and the third difference with a predetermined reference value, and determining the presence or absence of an edge based on a result of the comparison. Including.

上記構成の本発明では、エッジ情報取得部が、可視光成分を含む第1画素信号と、近赤外光成分を含む第2画素信号とから、第1差分、第2差分という同一エッジに関する2つの差分を取得する。そして、エッジ判定部は、この2つの差分の大きい方を用いて、エッジの有無を判定する。   In the present invention having the above-described configuration, the edge information acquisition unit is configured to perform the first difference and the second difference related to the same edge, ie, the second difference, from the first pixel signal including the visible light component and the second pixel signal including the near infrared light component. Get two differences. Then, the edge determination unit determines the presence / absence of an edge using the larger of the two differences.

第1画素信号は可視光成分を含むため、第1画素信号にフィルタ処理が施される。フィルタ処理としては、例えばノイズ低減やエッジ強調があるが、そのとき、例えば、情報を保存する部分、あるいは、強調したい部分に対応する画像箇所(エッジ部)の特定のために「エッジ有り」、「エッジ無し」の判定結果が用いられる。具体的にフィルタ処理では、エッジ部以外では基本フィルタ係数セットを用いてフィルタ処理が行われるが、エッジ部では、この基本フィルタ係数セットに変更が加えられてからフィルタ処理が実行される。このためエッジ部に対し、例えば、上記ノイズ低減の緩和、上記エッジ強調が行われる。   Since the first pixel signal includes a visible light component, the first pixel signal is filtered. Examples of the filter processing include noise reduction and edge enhancement. At that time, for example, “with edge” for specifying a portion for storing information or an image portion (edge portion) corresponding to a portion to be enhanced, A determination result of “no edge” is used. Specifically, in the filter process, the filter process is performed using the basic filter coefficient set except for the edge part. However, in the edge part, the filter process is executed after the basic filter coefficient set is changed. For this reason, for example, the noise reduction and the edge enhancement are performed on the edge portion.

本発明ではエッジ有り、無しの判定に、第1差分と第2差分の大きい方、つまり、よりエッジが鮮明なことを示す差分を用いる。   In the present invention, the larger one of the first difference and the second difference, that is, the difference indicating that the edge is clearer is used to determine whether or not there is an edge.

本発明によれば、近赤外光成分を含むため単に情報量が多いという画素信号のみのエッジ判定により、実際にはエッジが存在するのにエッジ判定ができないという不都合を回避し、常に、適切なエッジ部に対するフィルタ処理が行えるという利益が得られる。   According to the present invention, the edge determination of only the pixel signal that includes a near-infrared light component and that the amount of information is large avoids the inconvenience that the edge determination cannot be performed even though the edge actually exists, and is always appropriate. The advantage that the filtering process can be performed on the edge portion is obtained.

以下、本発明の実施形態を、図面を参照して説明する。
《第1実施形態》
図1は、本発明の実施形態に係る画素信号処理回路を内蔵したカメラ装置のブロック図である。
当該カメラ装置が、「画像入力処理装置」の一態様に該当する。カメラ装置は動画撮影を主体としたビデオカメラ、静止画撮影を主体としたデジタルスチルカメラの何れでもよい。
Embodiments of the present invention will be described below with reference to the drawings.
<< First Embodiment >>
FIG. 1 is a block diagram of a camera apparatus incorporating a pixel signal processing circuit according to an embodiment of the present invention.
The camera device corresponds to one aspect of the “image input processing device”. The camera device may be either a video camera mainly for moving image shooting or a digital still camera mainly for still image shooting.

図解するカメラ装置は、レンズや光学フィルタを含む光学部品1、撮像デバイス2、アナログの画素信号を処理するアナログ・フロント・エンド(AFE)回路3、アナログの画素信号をデジタル信号にA/D変換し、デジタルの映像信号として各種信号処理部に出力するADコンバータ(ADC)5、および、各種信号処理がされた映像信号をアナログ信号にD/A変換し、ビデオ信号14として出力するDAコンバータ(DAC)12を有する。   The illustrated camera apparatus includes an optical component 1 including a lens and an optical filter, an imaging device 2, an analog front end (AFE) circuit 3 for processing analog pixel signals, and A / D conversion of analog pixel signals into digital signals. An AD converter (ADC) 5 that outputs a digital video signal to various signal processing units, and a D / A converter that D / A converts the video signal subjected to various signal processing into an analog signal and outputs it as a video signal 14 ( DAC) 12.

光学部品1は、レンズ、絞り等をレンズ筐体に収納させている部品である。光学部品1は焦点制御、および、露光量制御のための絞り制御が可能であり、露光制御のための絞り駆動部、自動フォーカスのための駆動部、それらの制御回路も光学部品1内に含まれる。   The optical component 1 is a component in which a lens, a diaphragm, and the like are housed in a lens housing. The optical component 1 can perform focus control and aperture control for exposure amount control, and an aperture drive unit for exposure control, a drive unit for automatic focus, and control circuits thereof are also included in the optical component 1. It is.

撮像デバイス2は、CCDセンサまたはCMOSイメージセンサである。撮像デバイス2は、光学部品1を通して入射された被写体からの光(像)を、自身が持つ撮像面に結像可能にカメラ装置本体内に固定されている。また、撮像デバイス2は、光センサをマトリックス状に多数配置させた画素アレイと、当該画素アレイの撮像面の光入射側に、隣接した数個の光センサの集合(画素ユニット)で一定の配列となるように形成されたオンチップ・多層フィルタとを有している。   The imaging device 2 is a CCD sensor or a CMOS image sensor. The imaging device 2 is fixed in the camera apparatus main body so that light (image) from a subject incident through the optical component 1 can be imaged on its own imaging surface. In addition, the imaging device 2 has a pixel array in which a large number of photosensors are arranged in a matrix and a set (pixel unit) of several photosensors adjacent to the light incident side of the imaging surface of the pixel array. And an on-chip multilayer filter formed to be

撮像デバイス2がCCDセンサの場合、撮像デバイス2にタイミングジェネレータ(TG)13が接続されている。撮像デバイス2は、TG13からのクロック信号、垂直同期信号、水平同期信号が入力可能になっている。撮像デバイス2がCCDの場合、垂直同期信号や水平同期信号と同期した転送パルスも、TG13から供給される。
TG13は、これらのタイミング制御のための信号を、マイクロコンピュータ10の制御を受けて、不図示のシステムクロック信号から発生する回路である。撮像デバイス2は、これらのタイミング制御のための信号によって、転送動作やシャッタスピード変更等の各種動作が制御される。
なお、撮像デバイス2がCMOSセンサの場合、TG13の機能は撮像デバイス2内に持たせることができる。
When the imaging device 2 is a CCD sensor, a timing generator (TG) 13 is connected to the imaging device 2. The imaging device 2 can receive a clock signal, a vertical synchronization signal, and a horizontal synchronization signal from the TG 13. When the imaging device 2 is a CCD, a transfer pulse synchronized with a vertical synchronization signal or a horizontal synchronization signal is also supplied from the TG 13.
The TG 13 is a circuit that generates these timing control signals from a system clock signal (not shown) under the control of the microcomputer 10. The imaging device 2 controls various operations such as a transfer operation and a shutter speed change by these timing control signals.
Note that when the imaging device 2 is a CMOS sensor, the function of the TG 13 can be provided in the imaging device 2.

光学部品1に含まれる光学フィルタは、例えば、折返し歪みを防ぐために、ナイキスト周波数以上の高周波成分を遮断するためのものであり、赤外カットフィルタの機能を備えない。赤外カットフィルタの機能は、撮像デバイス2のオンチップ・多層フィルタが有する。   The optical filter included in the optical component 1 is, for example, for blocking high-frequency components higher than the Nyquist frequency in order to prevent aliasing distortion, and does not have an infrared cut filter function. The on-chip multilayer filter of the imaging device 2 has the function of the infrared cut filter.

図2に、オンチップ・多層フィルタを有する撮像デバイスの出力分光特性を示す。このグラフは、横軸が入射光の波長を示し、縦軸が、各色の画素信号が例えば8ビットの場合の出力レベル、即ち0〜1024の出力階調値を示す。
この撮像デバイスは、近赤外光領域の下限(700〜800[nm]、図では750[nm]で表示)より周波数が高い領域でも、赤(R),緑(G),青(B)および白(W)のそれぞれで感度を有することが図2から分かる。
FIG. 2 shows output spectral characteristics of an imaging device having an on-chip multilayer filter. In this graph, the horizontal axis indicates the wavelength of incident light, and the vertical axis indicates the output level when the pixel signal of each color is, for example, 8 bits, that is, the output gradation value of 0 to 1024.
This imaging device has red (R), green (G), and blue (B) even in a region where the frequency is higher than the lower limit of the near-infrared light region (700 to 800 [nm], indicated by 750 [nm] in the figure). It can be seen from FIG. 2 that both white and white (W) have sensitivity.

なお、本実施形態では、詳細は省略するが、撮像デバイス2が回折格子を利用した分光イメージセンサであってもよく、その場合、可視光と赤外光の分離が不完全であり、結果として、エッジ検出の精度が低下する。以下の説明ではオンチップ・多層フィルタを撮像デバイス2に備える場合を例として、説明を続ける。   In the present embodiment, although details are omitted, the imaging device 2 may be a spectral image sensor using a diffraction grating, in which case the separation of visible light and infrared light is incomplete, and as a result The accuracy of edge detection is reduced. In the following description, the description will be continued with an example in which the imaging device 2 includes an on-chip multi-layer filter.

図3(A)および図3(B)に、撮像デバイス2のオンチップ・多層フィルタの色配列を持つ1つの画素ユニットを、2例示す。
なお、色配列は、この2例に限定されないが、ここでは原色フィルタについて代表的なものを説明する。なお、色フィルタは、原色フィルタでは図示例以外の配列でもよいし、あるいは、種々提案されているように、任意に選択された複数の補色を規則的に配列した補色フィルタであってもよい。
FIG. 3A and FIG. 3B show two examples of one pixel unit having the color arrangement of the on-chip multi-layer filter of the imaging device 2.
The color arrangement is not limited to these two examples, but a typical primary color filter will be described here. Note that the color filter may be an array other than the illustrated example in the primary color filter, or may be a complementary color filter in which a plurality of arbitrarily selected complementary colors are regularly arranged, as variously proposed.

オンチップ・多層フィルタの色(選択)層は、例えば図3(A)または図3(B)に示す色配列となっている。
図3(A)に示す色配列は「W市松」と称される。また、図3(B)に示す色配列は「W市松ジグザグ(Zigzag)」と称される。「W市松」や「W市松ジグザグ」では、G画素、R画素、B画素のすべて検出波長領域をカバーする波長領域に感度を持つ白(W)画素を含み、当該W画素が市松に配置されている。
一方、オンチップ・多層フィルタのIRカット層は、G画素、R画素、B画素でIRカット、W画素でIR透過となるように構成されている。
The color (selection) layer of the on-chip / multi-layer filter has a color arrangement shown in FIG. 3A or FIG. 3B, for example.
The color arrangement shown in FIG. 3A is referred to as “W checkered”. The color arrangement shown in FIG. 3B is referred to as “W checkered zigzag”. “W checkered” and “W checkered zigzag” include white (W) pixels having sensitivity in the wavelength region covering all detection wavelength regions of the G pixel, the R pixel, and the B pixel, and the W pixels are arranged in the checkered pattern. ing.
On the other hand, the IR cut layer of the on-chip / multi-layer filter is configured such that the G pixel, the R pixel, and the B pixel are IR cut and the W pixel is IR transmissive.

以下、オンチップ・多層フィルタが原色フィルタの機能を有することを前提として、説明を続ける。   Hereinafter, the description will be continued on the assumption that the on-chip multilayer filter has the function of a primary color filter.

一般に、近赤外線は、0.7〜0.8[μm](可視赤色光の長波長側の限界)から2.5[μm](または1.5〜3[μm])の波長を有する。近赤外光成分は、色を白っぽくするなどの弊害がある。このため、第1画素信号(赤(R),緑(G),青(B)の画素ごとの画素信号(以下、R0,G0,B0信号と表記する))において、赤外光成分IRを除去する必要がある。しかし、IRカットフィルタによって近赤外光成分を完全に遮断することが難しく、通常、撮像デバイスの出力分光特性は、図2に示すように、近赤外光領域にも赤(R),緑(G),青(B),白(W)それぞれに感度を持つ。波長が700[nm]より少し低い波長領域から長波長側は、人間の視覚感度がほとんどない。よって、図示した出力分光特性をもつ撮像デバイス2では、IRカット層(またはIRカットフィルタ)が、例えば、太い一点破線により示す650[nm]付近から長波長側を抑圧するように設計されている。   In general, near infrared rays have a wavelength of 0.7 to 0.8 [μm] (limit on the long wavelength side of visible red light) to 2.5 [μm] (or 1.5 to 3 [μm]). The near-infrared light component has a harmful effect such as making the color whitish. Therefore, in the first pixel signal (pixel signal for each pixel of red (R), green (G), and blue (B) (hereinafter referred to as R0, G0, B0 signals)), the infrared light component IR is Need to be removed. However, it is difficult to completely block the near-infrared light component by the IR cut filter. Usually, the output spectral characteristics of the imaging device are red (R) and green in the near-infrared light region as shown in FIG. Each of (G), blue (B), and white (W) has sensitivity. From the wavelength region where the wavelength is slightly lower than 700 [nm] to the long wavelength side, there is almost no human visual sensitivity. Therefore, in the imaging device 2 having the output spectral characteristics shown in the figure, the IR cut layer (or IR cut filter) is designed to suppress the long wavelength side from, for example, the vicinity of 650 [nm] indicated by a thick dashed line. .

図4に、例えば図2に示す透過分光特性を実現するための、撮像デバイス2に一体的に形成されたオンチップ・多層フィルタの構造例を示す。
図4(A)および図4(B)に示す各フィルタは、撮像デバイス2に被写体からの光(像)を入射する入射面側に、隣接する層間で屈折率が異なり所定の厚みを持つ層として、本例では誘電体膜21_1〜21_5(または22_1〜22_5)を積層した構造を有している。なお、誘電体膜21_1〜21_5(または22_1〜22_5)は5層構造であるが、層数は求める機能および性能に応じて任意に設定される。また、厚みを図示では同じにしているが、厚さ、さらには材質も、求める機能および性能に応じて任意に決められる。
FIG. 4 shows an example of the structure of an on-chip multi-layer filter formed integrally with the imaging device 2 for realizing, for example, the transmission spectral characteristics shown in FIG.
Each filter shown in FIGS. 4A and 4B is a layer having a predetermined thickness and a different refractive index between adjacent layers on the incident surface side where light (image) from a subject is incident on the imaging device 2. In this example, the dielectric films 21_1 to 21_5 (or 22_1 to 22_5) are stacked. The dielectric films 21_1 to 21_5 (or 22_1 to 22_5) have a five-layer structure, but the number of layers is arbitrarily set according to the function and performance to be obtained. Further, although the thickness is the same in the figure, the thickness and further the material can be arbitrarily determined according to the required function and performance.

図4(A)は、オンチップ・多層フィルタの一部であり、入射光L1(ここでは白色光)から、特定色に対応する特定波長領域の透過光L3を受光部側に透過させ、その他の色成分(可視光領域の上記特定波長領域以外の波長領域)を反射光L2として反射させる色フィルタの構造を示す。この色フィルタは、透過色に応じて、誘電体膜21_1〜21_5の各層の材質、膜厚、層数等がそれぞれ決められ、図3に示すR画素、G画素、B画素に形成されている。一方、W画素については、図4(A)に示す色フィルタは設けられていないため、全波長の光が受光部側に導かれる。
図4(A)に示す色フィルタは、透過光量ロスが殆どないように最適設計され、このため同じ入射光(白色光)を入射した場合に、L1R0,G0,B0信号の合計(R0+G0+B0)と、白(W)の画素信号(以下、W信号という)とがほぼ可視光領域でほぼ等しい値を持つ、即ち等価である。
FIG. 4A shows a part of an on-chip multi-layer filter that transmits transmitted light L3 in a specific wavelength region corresponding to a specific color from incident light L1 (here, white light) to the light receiving unit side, and the like. The structure of the color filter that reflects the color component (wavelength region other than the specific wavelength region in the visible light region) as reflected light L2 is shown. This color filter is formed in the R pixel, G pixel, and B pixel shown in FIG. 3 with the material, film thickness, number of layers, and the like of each layer of the dielectric films 21_1 to 21_5 determined according to the transmitted color. . On the other hand, since the color filter shown in FIG. 4A is not provided for the W pixel, light of all wavelengths is guided to the light receiving unit side.
The color filter shown in FIG. 4A is optimally designed so that there is almost no loss of transmitted light amount. Therefore, when the same incident light (white light) is incident, the total of L1R0, G0, and B0 signals (R0 + G0 + B0) The white (W) pixel signal (hereinafter referred to as the W signal) has substantially the same value in the visible light region, that is, is equivalent.

図4(B)は、オンチップ・多層フィルタの他の一部を示すものであり、入射光L1(ここでは白色光)から、赤外光成分IRの多くを反射させ、可視光VLを受光部側に透過させる赤外カットフィルタの構造を示す。赤外カットフィルタの赤外反射性能は、誘電体膜22_1〜22_5の各層の材質、膜厚、層数等で決められ、図3に示す4種類の画素(R画素、G画素、B画素およびW画素)で赤外光成分IRを除去可能に形成されている。
なお、各層の材質、膜厚、層数、その他の手段により赤外カット波長、即ち赤外光成分IRの反射中心波長の制御が可能である。
また、図3のR,G,B画素では図4(B)の赤外カットフィルタが設けられることにより赤外光成分IRが低減されるが、W画素では図4(B)の赤外カットフィルタは設けられないため、赤外光成分IRも受光部に入射され光電変換が行われる。
FIG. 4B shows another part of the on-chip multi-layer filter, which reflects most of the infrared light component IR from the incident light L1 (here, white light) and receives the visible light VL. The structure of the infrared cut filter which permeate | transmits to a part side is shown. The infrared reflection performance of the infrared cut filter is determined by the material, film thickness, number of layers, etc., of each layer of the dielectric films 22_1 to 22_5. The four types of pixels (R pixel, G pixel, B pixel and (W pixel) is formed such that the infrared light component IR can be removed.
The infrared cut wavelength, that is, the reflection center wavelength of the infrared light component IR can be controlled by the material, film thickness, number of layers, and other means of each layer.
Further, in the R, G, and B pixels in FIG. 3, the infrared light component IR is reduced by providing the infrared cut filter in FIG. 4B, but in the W pixel, the infrared cut in FIG. 4B is performed. Since no filter is provided, the infrared light component IR is also incident on the light receiving portion and photoelectric conversion is performed.

図1に戻ると、撮像デバイス2からの画素信号(アナログ信号)が入力されるAFE回路3は、アナログ信号に対して行うべき処理、例えば相関2重サンプリングによるリセットノイズの除去(CCDの場合)、その他のノイズ除去、増幅等を行う回路である。   Returning to FIG. 1, the AFE circuit 3 to which the pixel signal (analog signal) from the imaging device 2 is input is a process to be performed on the analog signal, for example, removal of reset noise by correlated double sampling (in the case of CCD). This is a circuit that performs other noise removal, amplification, and the like.

ADC5は、処理後のアナログ信号を所定ビット、例えば8、10ビット等のデジタル信号に変換する。このデジタル信号は、画素ごとに上記所定ビットの階調値を有する画素信号列が含まれる。即ち、ADC5から出力されるデジタル信号には、A画素と他の色の画素との交互の画素信号列が含まれる。   The ADC 5 converts the processed analog signal into a digital signal having a predetermined bit, for example, 8 or 10 bits. This digital signal includes a pixel signal string having a gradation value of the predetermined bit for each pixel. That is, the digital signal output from the ADC 5 includes an alternating pixel signal sequence of A pixels and pixels of other colors.

信号処理部4は、「画素信号処理回路」の一態様であり、ADC5からのデジタル信号を処理する構成として、エッジ情報取得部(EDGE)4C、エッジ判定部(E_DET)544、および、フィルタ処理部(FIL)4Eを含む。
信号処理部4は、例えば、半導体チップとしてIC化され、あるいは、複数の部品が実装されたモジュールや実装基板として提供され、当該カメラ装置に内蔵されてよい。信号処理部4は、ADC5とDAC12間に接続され、前述した各種信号処理として、前処理としての信号増幅、ノイズ低減(NR)処理、輝度信号と色信号の分離、輝度信号処理、色信号処理等を行う。信号処理部4とDAC12との間に、処理後の輝度信号と色信号の混合回路(YC_MIX)9が接続されている。信号処理部4と混合回路9を含めて信号処理部4としてよく、また、IC化またはモジュール化をしてよい。
The signal processing unit 4 is an aspect of a “pixel signal processing circuit”, and includes an edge information acquisition unit (EDGE) 4C, an edge determination unit (E_DET) 544, and filter processing as a configuration for processing a digital signal from the ADC 5. Part (FIL) 4E.
For example, the signal processing unit 4 may be integrated as an IC as a semiconductor chip, or may be provided as a module or a mounting substrate on which a plurality of components are mounted, and may be incorporated in the camera device. The signal processing unit 4 is connected between the ADC 5 and the DAC 12, and includes the signal amplification, noise reduction (NR) processing, separation of luminance signal and color signal, luminance signal processing, and color signal processing as preprocessing as the various signal processing described above. Etc. Between the signal processing unit 4 and the DAC 12, a processed luminance signal and color signal mixing circuit (YC_MIX) 9 is connected. The signal processing unit 4 including the signal processing unit 4 and the mixing circuit 9 may be used as the signal processing unit 4, and may be integrated into an IC or a module.

図5に、本実施形態の特徴部分である、図1に示すエッジ情報取得部4C、エッジ判定部544およびフィルタ処理部4Eを含めた、信号処理部4の一部(NR処理部)54Aの構成例を示す。
図解するNR処理部54Aは、可視光成分を含む第1画素信号と、近赤外光成分を含む第2画素信号とを、別々に入力する。
ここでは原色の画素信号を例としており、第1画素信号がR0,G0,B0信号である。また、第2画素信号は、上記第1画素信号の可視光成分(R0信号+G0信号+B0信号)と等価な可視光成分としてのW信号と、近赤外光成分IRの画素信号(以下、IR信号という)とを含んでいる。ここでは、W信号とIR信号を合計した信号(A信号またはA画素信号という)で、第2画素信号を表記している。
なお、IR信号は、被写体からの光の近赤外線成分殆どを含んでいる。つまり、図2に示す光学部品1および撮像デバイス2には、少なくとも、受光経路にIRカットフィルタを有していないため、多少のロスを除くと、被写体からの近赤外光成分の殆ど全部をIR信号に含んでいる。
FIG. 5 illustrates a part (NR processing unit) 54A of the signal processing unit 4 including the edge information acquisition unit 4C, the edge determination unit 544, and the filter processing unit 4E illustrated in FIG. A configuration example is shown.
The illustrated NR processing unit 54A separately inputs a first pixel signal including a visible light component and a second pixel signal including a near infrared light component.
Here, a primary color pixel signal is taken as an example, and the first pixel signal is an R0, G0, B0 signal. The second pixel signal includes a W signal as a visible light component equivalent to the visible light component (R0 signal + G0 signal + B0 signal) of the first pixel signal, and a pixel signal of the near infrared light component IR (hereinafter referred to as IR). Signal). Here, the second pixel signal is represented by a signal obtained by adding the W signal and the IR signal (referred to as A signal or A pixel signal).
Note that the IR signal includes most of the near-infrared component of the light from the subject. That is, since the optical component 1 and the imaging device 2 shown in FIG. 2 do not have at least an IR cut filter in the light receiving path, almost all of the near-infrared light component from the subject is removed except for some loss. It is included in the IR signal.

図5に示すように、NR処理部54Aは、ノイズ低減(NR)部4B、エッジ情報取得部4C、および、合成処理部4Dを有する。   As illustrated in FIG. 5, the NR processing unit 54A includes a noise reduction (NR) unit 4B, an edge information acquisition unit 4C, and a synthesis processing unit 4D.

エッジ情報取得部4Cは、A画素信号からエッジ情報(例えば近接画素の画素値差分)EDを取得し、NR部4Bに出力する回路であり、本例では、第1エッジ取得部(EDGE1)4C1と第2エッジ取得部(EDGE2)4C2とを含む。   The edge information acquisition unit 4C is a circuit that acquires edge information (for example, a pixel value difference between adjacent pixels) ED from the A pixel signal and outputs it to the NR unit 4B. In this example, the first edge acquisition unit (EDGE1) 4C1 And a second edge acquisition unit (EDGE2) 4C2.

第1エッジ取得部4C1は、可視光成分を含むR0,G0,B0信号(第1画素信号)を入力し、R0,G0,B0信号の画素データ(階調値)の差分を演算して、第1差分ED1を求める。同様に、第2エッジ取得部4C2は、近赤外光成分を含むA信号(第2画素信号)を入力し、A信号の画素データ(階調値)の差分を演算して、第1差分ED1を求める。
第1および第2エッジ取得部4C1,4C2は、クロック信号により互いに同期して動作し、撮像画面上の同じ箇所、即ち同一の画素ユニット対に属する2つの画素間で画素データの差分をとる。この差分をとる画素が属する画素ユニット対は、水平方向または垂直方向に隣接する2つの画素ユニットが望ましいが、数ユニット分離れたものでもよい。
得られた第1および第2差分ED1,ED2は、第1および第2エッジ取得部4C1,4C2から、NR部4Bに出力される。
The first edge acquisition unit 4C1 inputs R0, G0, B0 signals (first pixel signals) including visible light components, calculates the difference between the pixel data (gradation values) of the R0, G0, B0 signals, A first difference ED1 is obtained. Similarly, the second edge acquisition unit 4C2 inputs an A signal (second pixel signal) including a near-infrared light component, calculates a difference between pixel data (tone values) of the A signal, and calculates the first difference. Find ED1.
The first and second edge acquisition units 4C1 and 4C2 operate in synchronization with each other by a clock signal, and obtain a difference in pixel data between two pixels belonging to the same location on the imaging screen, that is, the same pixel unit pair. The pixel unit pair to which the pixel taking the difference belongs is preferably two pixel units adjacent in the horizontal direction or the vertical direction, but may be separated by several units.
The obtained first and second differences ED1, ED2 are output from the first and second edge acquisition units 4C1, 4C2 to the NR unit 4B.

NR部4Bは、入力されるR0,G0,B0信号に対しノイズ低減処理を施す。ノイズ低減処理のための構成として、NR部4Bは、エッジ判定部(E_DET)544とフィルタ処理部(FIL)4Eとを備える。   The NR unit 4B performs noise reduction processing on the input R0, G0, B0 signals. As a configuration for noise reduction processing, the NR unit 4B includes an edge determination unit (E_DET) 544 and a filter processing unit (FIL) 4E.

エッジ判定部544は、第1エッジ取得部4C1からの第1差分ED1と、第2エッジ取得部4C2からの第2差分ED2を入力し、各々の差分を、所定の基準値と比較する。基準値はエッジ有り、無しの境界を決める、少なくとも1つの基準を用いるとよい。
エッジ判定部544は、差分が基準を超えた(または基準以上の)場合に、「エッジ有り」、差分が基準未満(または以下)の場合に「エッジ無し」と判定することができる。
The edge determination unit 544 receives the first difference ED1 from the first edge acquisition unit 4C1 and the second difference ED2 from the second edge acquisition unit 4C2, and compares each difference with a predetermined reference value. As the reference value, it is preferable to use at least one reference that determines the boundary between the presence and absence of an edge.
The edge determination unit 544 can determine that “there is an edge” when the difference exceeds (or exceeds) the reference, and “there is no edge” when the difference is less than (or less than) the reference.

フィルタ処理部4Eは、取得された第1および第2差分ED1,ED2に基づいて認識される画像箇所(エッジ部)でエッジ階調差を保存しつつ、エッジ部以外でNR処理を実行する。エッジ階調差を保存するためには、NR部4Bはエッジ部でノイズ低減処理を殆ど行わない、あるいは、NR処理をより弱くかける。   The filter processing unit 4E performs NR processing at a portion other than the edge portion while preserving the edge gradation difference at the image location (edge portion) recognized based on the acquired first and second differences ED1 and ED2. In order to preserve the edge gradation difference, the NR unit 4B performs almost no noise reduction processing at the edge unit, or applies NR processing more weakly.

第2エッジ取得部4C2は、より望ましくは、エッジ部の局部詳細情報(エッジ・テクスチャ情報ET)をA画素信号から抽出する機能を備える。また、抽出したエッジ・テクスチャ情報ETをR,G,B画像に反映させるために、エッジ・テクスチャ情報ETを、NR処理後のR0,G0,B0信号に合成する合成処理部4Dが、NR処理部54A内に設けられている。
このため合成処理部4Dからの出力信号が示す画像は、エッジ階調が保存されてノイズが低減され、かつ、エッジ部分の画質低下が防止された高品質画像となる。
More preferably, the second edge acquisition unit 4C2 has a function of extracting local detailed information (edge / texture information ET) of the edge part from the A pixel signal. Further, in order to reflect the extracted edge / texture information ET in the R, G, B image, the synthesis processing unit 4D that combines the edge / texture information ET with the R0, G0, B0 signals after the NR processing includes the NR processing It is provided in the part 54A.
For this reason, the image indicated by the output signal from the synthesis processing unit 4D is a high-quality image in which edge gradation is preserved, noise is reduced, and deterioration in image quality at the edge portion is prevented.

本実施形態では、図5に示すNR処理部54Aよりも、信号処理順における前段の構成すべてが、「画素信号発生部」の一態様に該当する。
すなわち、図1では、ADC5、AFE回路3、撮像デバイス2および光学部品1が、「画素信号発生部」に該当する。
In the present embodiment, all configurations in the previous stage in the signal processing order correspond to one aspect of the “pixel signal generation unit” as compared with the NR processing unit 54A illustrated in FIG.
That is, in FIG. 1, the ADC 5, the AFE circuit 3, the imaging device 2, and the optical component 1 correspond to the “pixel signal generation unit”.

なお、撮像デバイス2からは、赤(R),緑(G),青(B),All(A=W+IR)の各画素信号が、表示時の走査順に時系列のシリアル信号として排出される。この信号から、第1画素信号(例えばR0,G0,B0信号)と、第2画素信号(例えばA画素信号)を分離する構成が、信号処理部4内のNR処理部54Aより前段に必要である。   The imaging device 2 discharges red (R), green (G), blue (B), and All (A = W + IR) pixel signals as time-series serial signals in the scanning order during display. A configuration for separating the first pixel signal (for example, R0, G0, B0 signal) and the second pixel signal (for example, A pixel signal) from this signal is required before the NR processing unit 54A in the signal processing unit 4. is there.

NR部4Bは、分離後の第1画素信号(R0,G0,B0信号)を色ごとに入力し、R0,G0,B0信号を構成する各画素信号(R0信号,G0信号,B0信号)に対し処理を実行する際に、当該処理のターゲット画素を順次変更して処理を繰り返す。NR部4Bは、各ターゲット画素及びその周囲にエッジが存在していないと、エッジ情報取得部4Cで取得されたエッジ情報に基づいて判断されるときはノイズ低減を行い、各ターゲット画素及びその周囲にエッジが存在すると判断されるときはノイズ低減を有効に行わない。
このような処理は、ローパスフィルタにより実行できる。このとき、特にエッジ階調差を保存するには、例えばクロスバイラテラルフィルタのようなエッジ保存フィルタが用いられる。クロスバイラテラルフィルタについては、次の第2実施形態で詳述する。
The NR unit 4B inputs the separated first pixel signal (R0, G0, B0 signal) for each color, and outputs each pixel signal (R0 signal, G0 signal, B0 signal) constituting the R0, G0, B0 signal. When executing the process, the target pixel of the process is sequentially changed and the process is repeated. The NR unit 4B performs noise reduction when it is determined based on the edge information acquired by the edge information acquisition unit 4C that there is no edge in each target pixel and its surroundings, and each target pixel and its surroundings are determined. When it is determined that there is an edge, noise reduction is not effectively performed.
Such processing can be executed by a low-pass filter. At this time, in particular, an edge preserving filter such as a cross bilateral filter is used to preserve the edge gradation difference. The cross bilateral filter will be described in detail in the second embodiment below.

NR処理後のR0,G0,B0信号は、輝度信号と色信号に分離され、分離後の各信号に所定の処理が行われた後、信号処理部4から出力される。
混合回路9は、信号処理部4により処理された輝度信号と色信号を混合(合成)して、ビデオ信号を発生する回路である。
DAC12は、ビデオ信号をアナログのビデオ信号14に変換して出力する回路である。
The R0, G0, and B0 signals after NR processing are separated into a luminance signal and a color signal, and after the predetermined processing is performed on each of the separated signals, the signals are output from the signal processing unit 4.
The mixing circuit 9 is a circuit that mixes (synthesizes) the luminance signal and the color signal processed by the signal processing unit 4 to generate a video signal.
The DAC 12 is a circuit that converts a video signal into an analog video signal 14 and outputs the analog video signal 14.

マイクロコンピュータ10は、撮像デバイス2、AFE回路3、信号処理部4TG13、および、その他のすべての構成を制御する回路である。
マイクロコンピュータ10には、制御パラメータ等を保持する書き換え可能なメモリ、例えば不揮発性メモリ(NVM)11が接続されている。
なお、モニタ表示部、ビデオ信号14をさらにエンコードしてモニタ表示部に出力する回路、音声の処理および出力のための回路等は、図1で図示を省略している。
The microcomputer 10 is a circuit that controls the imaging device 2, the AFE circuit 3, the signal processing unit 4TG13, and all other components.
The microcomputer 10 is connected to a rewritable memory that holds control parameters and the like, for example, a nonvolatile memory (NVM) 11.
Note that a monitor display unit, a circuit that further encodes the video signal 14 and outputs it to the monitor display unit, a circuit for processing and outputting audio, and the like are not shown in FIG.

本実施形態によれば、エッジ判定を、A(W+IR)信号と、R0,G0,B0信号のいずれかを用いて行っている。これにより、A画像によるエッジ判定では「エッジ無し」と誤って判定される色境界でも、正しくエッジ判定が可能である。
以上より、より効率的で正確なフィルタ処理が実行可能となる。
According to the present embodiment, the edge determination is performed using either the A (W + IR) signal and the R0, G0, B0 signals. As a result, the edge determination based on the A image can correctly determine the edge even at the color boundary erroneously determined as “no edge”.
As described above, more efficient and accurate filter processing can be executed.

なお、図5においてR0,G0,B0信号の入力端子とフィルタ処理部4Eとの間に、例えばゲイン調整、色補正などの他の処理を行う構成を設けてよい。   In FIG. 5, a configuration for performing other processing such as gain adjustment and color correction may be provided between the input terminals of the R0, G0, and B0 signals and the filter processing unit 4E.

《第2実施形態》
第2実施形態では、色補正部を含む際に望ましい構成と、望ましいフィルタ処理部4Eとしてクロスバイラテラルフィルタの動作を詳細に説明する。色補正部およびクロスバイラテラルフィルタの採用は任意であるが、より現実的な実施形態では色補正部およびクロスバイラテラルフィルタを有することが望ましい。
<< Second Embodiment >>
In the second embodiment, a configuration desirable when including a color correction unit and an operation of a cross bilateral filter as a desirable filter processing unit 4E will be described in detail. Although the adoption of the color correction unit and the cross bilateral filter is arbitrary, in a more realistic embodiment, it is desirable to have the color correction unit and the cross bilateral filter.

図6(A)および図6(B)に、本実施形態のNR処理部の構成を、2例示す。これらの図は、第1実施形態の図5に対応するものであり、同一構成は同一符号を付している。
図6(A)に図解するNR処理部54Bは、フィルタ処理部4Eより処理順の前段に、ゲイン調整部4Aと色補正部CC)4Fを備える。
FIGS. 6A and 6B show two examples of the configuration of the NR processing unit of this embodiment. These drawings correspond to FIG. 5 of the first embodiment, and the same components are denoted by the same reference numerals.
The NR processing unit 54B illustrated in FIG. 6A includes a gain adjustment unit 4A and a color correction unit CC) 4F before the filter processing unit 4E.

ここでゲイン調整部4Aに入力されるR1,G1,B1信号は、第1実施形態に関わる図5でNR処理部54Aに入力されるR0,G0,B0信号と異なる。
R0,G0,B0信号は、図4(B)に示す赤外カットフィルタからの光を画素内の受光部で受光して光電変換することにより発生したものであるため、赤外光成分IRを余り含まない。含んでいても赤外カットフィルタで反射しきれずに透過した相対的に少ない光量に対応する赤外光成分IRがR0,G0,B0信号に含まれる。
Here, the R1, G1, and B1 signals input to the gain adjusting unit 4A are different from the R0, G0, and B0 signals input to the NR processing unit 54A in FIG. 5 according to the first embodiment.
Since the R0, G0, and B0 signals are generated by receiving light from the infrared cut filter shown in FIG. 4B at the light receiving portion in the pixel and performing photoelectric conversion, the infrared light component IR is generated. Does not contain much. Even if it is included, an infrared light component IR corresponding to a relatively small amount of light transmitted without being reflected by the infrared cut filter is included in the R0, G0, and B0 signals.

一方、R1,G1,B1信号を出力する撮像デバイス2は、図4に示す赤外カットフィルタを全く設けていない。そのためR画素からのR1信号、G画素からのG1信号、ならびに、B画素からのB1信号は、赤外光成分IRを、被写体からの光とほぼ同じように含んでいる。
さらに、本実施形態における撮像デバイス2には、R画素、G画素、B画素、A画素のほかに、例えば黒(BL)画素が画素ユニット内に設けられている。BL画素は、図4(A)に示す色フィルタが、可視光の全周波数領域の光を遮断するように、その誘電体膜21_1〜21_5の各層の材料、厚さ、層数等が決められている。ただし、BL画素の色フィルタは、赤外光成分IRのほぼ全量を透過するようになっている。図6(A)に示すように、BL画素信号としてのIR信号が入力され、色補正部4Fに与えられる。
On the other hand, the imaging device 2 that outputs R1, G1, and B1 signals does not include the infrared cut filter shown in FIG. Therefore, the R1 signal from the R pixel, the G1 signal from the G pixel, and the B1 signal from the B pixel include the infrared light component IR in substantially the same manner as the light from the subject.
Further, in the imaging device 2 in the present embodiment, in addition to the R pixel, the G pixel, the B pixel, and the A pixel, for example, a black (BL) pixel is provided in the pixel unit. In the BL pixel, the material, thickness, number of layers, and the like of each of the dielectric films 21_1 to 21_5 are determined so that the color filter illustrated in FIG. 4A blocks light in the entire frequency region of visible light. ing. However, the color filter of the BL pixel transmits almost the entire amount of the infrared light component IR. As shown in FIG. 6A, an IR signal as a BL pixel signal is input and applied to the color correction unit 4F.

ゲイン調整部4Aは、少なくともゲインアンプ(可変利得アンプ)を有し、ゲインアンプで、R1,G1,B1信号を、与えられたゲイン値に応じて増幅(または減衰)する(ゲイン調整)。また、ゲインアンプのゲイン値は、図1のマイクロコンピュータ10から制御される。   The gain adjustment unit 4A has at least a gain amplifier (variable gain amplifier), and amplifies (or attenuates) the R1, G1, and B1 signals in accordance with a given gain value (gain adjustment). The gain value of the gain amplifier is controlled from the microcomputer 10 in FIG.

色補正部4Fは、例えば、A信号と、ゲイン調整後のR1,G1,B1信号と、IR信号とをそれぞれ独立に入力し、これらの信号から色補正を行う。ここでの色補正は、入力されるR1,G1,B1信号に対し、IR信号を用いて次式(1-1)〜(1-3)示す処理を実行し、補正後の原色信号としてR,G,B信号を出力する。   For example, the color correction unit 4F independently inputs the A signal, the R1, G1, and B1 signals after gain adjustment, and the IR signal, and performs color correction from these signals. In this color correction, the R1, G1, and B1 signals that are input are subjected to processing represented by the following equations (1-1) to (1-3) using the IR signal, and R is used as the corrected primary color signal. , G and B signals are output.

[数1]
R=R1−αr×IR…(1-1)
G=G1−αg×IR…(1-2)
B=G1−αb×IR…(1-3)
[Equation 1]
R = R1-αr × IR (1-1)
G = G1-αg × IR (1-2)
B = G1-αb × IR (1-3)

ここで符号「αr」「αg」「αb」は、それぞれ赤補正用、緑補正用、青補正用の係数である。
これらの式から分かるように、色補正ではIR成分を除去することにより、赤外光の影響を受けずに色が鮮明なR,G,B信号を発生させることができる。発生したR,G,B信号は、色補正部4Fから、フィルタ処理部4Eへ送られる。
Here, the symbols “αr”, “αg”, and “αb” are coefficients for red correction, green correction, and blue correction, respectively.
As can be seen from these equations, by removing the IR component in the color correction, it is possible to generate R, G, B signals with clear colors without being affected by infrared light. The generated R, G, B signals are sent from the color correction unit 4F to the filter processing unit 4E.

一方、図6(B)に示すNR処理部54Cでは、BL画素を設けないで、A信号を色補正部4Fに入力させている。この場合、まず、R1,G1,B1信号の画素データを同一画素ユニット内で合計し、得られたデータ(R1+G1+B1)を、A画素データ(=W+IR)から引き算することにより、赤外光成分IRを抽出する。その後、上記式(1-1)〜(1-3)を用いてR,G,B信号を発生させる。   On the other hand, in the NR processing unit 54C illustrated in FIG. 6B, the BL signal is not provided and the A signal is input to the color correction unit 4F. In this case, first, the pixel data of the R1, G1, and B1 signals are summed in the same pixel unit, and the obtained data (R1 + G1 + B1) is subtracted from the A pixel data (= W + IR) to obtain the infrared light component IR. To extract. Thereafter, R, G, B signals are generated using the above equations (1-1) to (1-3).

ただし、この方法は、可視光成分と赤外光成分IRが分光特性上で厳密に分離していないため、特に近赤外光に近い赤色の補正に精度を欠く。しかしながら、演算負担は多少増えるものの、BL画素を設ける必要がないという大きな利点がある。逆に、図6(A)の方法は、補正精度がより高いということが利点である。   However, since this method does not strictly separate the visible light component and the infrared light component IR in terms of spectral characteristics, it is particularly inaccurate for red correction near near infrared light. However, although the calculation burden increases somewhat, there is a great advantage that it is not necessary to provide BL pixels. Conversely, the method of FIG. 6A is advantageous in that the correction accuracy is higher.

エッジ情報の検出について、図6(A)と図6(B)は異なる方法を採っている。
図6(A)に示すNR処理部54Bは、第1実施形態と同様に、2つの第1および第2エッジ取得部4C1,4C2を設けてエッジ情報の取得を行っている。
一方、図6(B)に示すNR処理部54Cは、エッジ情報取得部4Cに含まれる構成として、さらにもう1つの第3エッジ取得部4C3を設けている。第3エッジ取得部4C3は、色補正部4Fの出力から、他のエッジ取得部4CA,4CBと同様な方法で差分(第3差分ED3)を算出して、第3差分ED3をエッジ判定部544に出力する。
6A and 6B employ different methods for detecting edge information.
As in the first embodiment, the NR processing unit 54B illustrated in FIG. 6A provides two first and second edge acquisition units 4C1 and 4C2 to acquire edge information.
On the other hand, the NR processing unit 54C illustrated in FIG. 6B further includes another third edge acquisition unit 4C3 as a configuration included in the edge information acquisition unit 4C. The third edge acquisition unit 4C3 calculates a difference (third difference ED3) from the output of the color correction unit 4F by the same method as the other edge acquisition units 4CA and 4CB, and uses the third difference ED3 as the edge determination unit 544. Output to.

エッジ判定部544は、第1実施形態と同様に、3つの差分(ED1〜ED3)のそれぞれが所定の基準以上の差分であるかを求め、この条件に適合する差分に基づいて、第1実施形態と同様にエッジ判定を行う。
エッジ判定結果はフィルタ処理部4Eへ送られ、フィルタ処理に供せられる。
As in the first embodiment, the edge determination unit 544 determines whether each of the three differences (ED1 to ED3) is greater than or equal to a predetermined reference, and performs the first implementation based on the difference that meets this condition. Edge determination is performed in the same manner as the form.
The edge determination result is sent to the filter processing unit 4E and used for the filter processing.

ここで、図6(A)のように色補正前、さらにはゲイン調整前に、第1エッジ取得部4C1でエッジ情報を取得する理由を述べる。   Here, the reason why the edge information is acquired by the first edge acquisition unit 4C1 before color correction and before gain adjustment as shown in FIG. 6A will be described.

ゲイン調整部4Aは、例えば画面の明るさ、特に光源の色温度が異なる等の理由により画面が暗くなる場合は、画面全体の階調値をアップするために設けられている。そのため、通常、R1信号、G1信号、B1信号に対し一律にゲイン値が設定されて、信号増幅が行われる。このときノイズ成分が増大するため、このような大幅なゲインアップが行われる可能性があるゲイン調整部は、NR部4Bより前に配置される。また、色補正部4Fは、ゲイン調整後の信号に対して色補正を行うのであるが、色補正後の信号は、前述した式(1-1)〜(1-3)に示すように、色信号レベルからIR成分を減算して求めるため、ノイズレベルは同じでも、信号レベルが低下しS/N比が低下する。
したがって、例えば図7(A)に示すゲイン調整前の画像に比べ、図7(B)に示すように、色補正後の画像で、大幅にS/N比が低下する場合がある。
The gain adjustment unit 4A is provided to increase the gradation value of the entire screen when the screen becomes dark, for example, because the screen brightness, particularly the color temperature of the light source is different. For this reason, normally, gain values are uniformly set for the R1 signal, the G1 signal, and the B1 signal, and signal amplification is performed. Since the noise component increases at this time, such a gain adjustment unit that may cause a significant gain increase is arranged before the NR unit 4B. In addition, the color correction unit 4F performs color correction on the signal after gain adjustment, and the signal after color correction is as shown in the above-described equations (1-1) to (1-3). Since the IR component is subtracted from the color signal level, the signal level is lowered and the S / N ratio is lowered even if the noise level is the same.
Therefore, for example, as shown in FIG. 7B, the S / N ratio may be significantly lowered in the image after color correction as compared to the image before gain adjustment shown in FIG.

以上の理由から、望ましくは、図6(A)のようにゲイン調整部4Aの前でエッジ情報の取得を行うとよい。ただし、使用される光源が特定されている等の理由により、大幅なゲインアップがなく、IR成分も比較的少ないことが想定される機種のカメラ装置等では、図6(B)に示すように、第3エッジ取得部4C3が、色補正後でエッジ情報の取得を行うような構成も可能である。   For the above reasons, it is desirable to acquire edge information in front of the gain adjusting unit 4A as shown in FIG. However, in the case of a camera device or the like of a model that is assumed that there is no significant gain increase and the IR component is relatively small due to reasons such as specifying the light source to be used, as shown in FIG. The third edge acquisition unit 4C3 may be configured to acquire edge information after color correction.

なお、図6(A)において、図6(B)のようにIR信号に代えてA信号を用いること、逆に、図6(B)において、図6(A)のようにA信号に代えてIR信号を用いることは、任意に変更可能な事項である。
また、ゲイン調整部4Aは、図示の位置にある必要もなく、NR処理部54B,54Cから省略可能である。その場合、色補正部4Fの前後でノイズレベルが大きく変わらなければ、図5や図6(A)のように第1および第2エッジ取得部4C1,4C2によりエッジ情報取得部4Cを構成させることに代えて、図6(B)の第2およびエッジ取得部4C2,4C3によりエッジ情報取得部4Cを構成することが可能である。この場合、第1エッジ取得部4C1は省略される。
In FIG. 6A, the A signal is used instead of the IR signal as shown in FIG. 6B, and conversely, in FIG. 6B, the A signal is used as shown in FIG. 6A. The use of IR signals is a matter that can be arbitrarily changed.
Further, the gain adjusting unit 4A does not need to be at the illustrated position, and can be omitted from the NR processing units 54B and 54C. In that case, if the noise level does not change significantly before and after the color correction unit 4F, the edge information acquisition unit 4C is configured by the first and second edge acquisition units 4C1 and 4C2 as shown in FIG. 5 and FIG. Instead, the edge information acquisition unit 4C can be configured by the second and edge acquisition units 4C2 and 4C3 of FIG. In this case, the first edge acquisition unit 4C1 is omitted.

以下、特徴部であるNR処理部54Aを含めた、より詳細な実施形態を説明する。   Hereinafter, a more detailed embodiment including the NR processing unit 54A which is a characteristic unit will be described.

[信号処理部の構成]
図8は、信号処理部4の一構成例を示すブロック図である。
図解する信号処理部4は、大別すると、前処理を行うPREブロック41、輝度信号(Y)を抽出し処理するYブロック42、色信号(C)を抽出し処理するCブロック43、画面の明るさを検出するためのOPD(Optical Detector)ブロック44とから構成され、各ブロックはパラレルインターフェース(PIO)45を介して、マイクロコンピュータ10(図8ではCPUブロックと記す)に接続されている。マイクロコンピュータ10の制御により、図示した各ブロックが制御され、これによりPREブロックの処理、自動露光(AE)、自動ホワイトバランス(AWB)等の処理が実行される。
[Configuration of signal processor]
FIG. 8 is a block diagram illustrating a configuration example of the signal processing unit 4.
The signal processing unit 4 illustrated is roughly divided into a PRE block 41 that performs preprocessing, a Y block 42 that extracts and processes a luminance signal (Y), a C block 43 that extracts and processes a color signal (C), and a screen An OPD (Optical Detector) block 44 for detecting brightness is connected to each microcomputer 10 (referred to as a CPU block in FIG. 8) via a parallel interface (PIO) 45. Each block shown in the figure is controlled under the control of the microcomputer 10, whereby processing such as PRE block processing, automatic exposure (AE), automatic white balance (AWB), and the like are executed.

PREブロック41は、デジタル自動ゲイン制御(AGC)回路51、シェーディング・欠陥補正回路52、ディレイライン部(図では「D」により表示)53、NR(Noise Reduction)ブロック54、パターン発生回路56、および、黒積分回路57を有する。   The PRE block 41 includes a digital automatic gain control (AGC) circuit 51, a shading / defect correction circuit 52, a delay line portion (indicated by “D” in the figure) 53, an NR (Noise Reduction) block 54, a pattern generation circuit 56, and And a black integration circuit 57.

AGC回路51は、入力されるデジタルの画素信号のゲインを調整する回路である。AGC回路51は、通常、次段以降の処理に適した信号振幅を得るために設けられ、単一の画素信号全体に対し、即ち可視光成分と近赤外光成分に対し一律に増幅が行われる。
なお、本例ではNRブロック54にゲイン調整部を含むため、Yブロック42やCブロック43の処理に必要な信号振幅は得られる。よって、NRブロック54より前段の、例えばシェーディング・欠陥補正回路52で入力振幅が小さすぎて必要な処理精度が得られない等の、特段の事情がない場合はAGC回路51を省略可能である。
The AGC circuit 51 is a circuit that adjusts the gain of an input digital pixel signal. The AGC circuit 51 is usually provided in order to obtain a signal amplitude suitable for processing in the subsequent stages, and amplifies the entire single pixel signal, that is, the visible light component and the near infrared light component uniformly. Is called.
In this example, since the NR block 54 includes a gain adjustment unit, the signal amplitude necessary for the processing of the Y block 42 and the C block 43 can be obtained. Therefore, the AGC circuit 51 can be omitted if there is no special circumstance such as, for example, the input amplitude is too small in the preceding stage of the NR block 54 and the required processing accuracy cannot be obtained.

シェーディング・欠陥補正回路52は、センサ(撮像デバイス2)の受光面における中心部と辺部とで受光位置が異なることにより生じる明るさの差を補正するシェーディング補正と、センサからの画素信号の欠落データの補正を行う回路である。   The shading / defect correction circuit 52 is a shading correction that corrects the difference in brightness caused by the difference in the light receiving position between the center and the side of the light receiving surface of the sensor (imaging device 2), and the pixel signal from the sensor is missing. This circuit corrects data.

ディレイライン部53は、NRブロック54の処理のために、水平および垂直の方向に所定の画素数を持つ映像信号規格のライン(水平方向の画素信号列)を単位として数ライン分の遅延を行う回路である。例えばNRブロック54の処理に5ライン分の遅延が必要な場合は、1ライン遅延部を4つ直列接続し、1ライン遅延部の各出力と、遅延させないライン(入力をそのまま出力するライン)とから5ライン分の画素信号列を並列にNRブロック54に入力させることができる。
なお、ディレイライン部53に代わるものとして画像メモリを設けて、必要なライン数分のデータを読み出す構成でもよい。また、NRブロック54の具体的な構成および動作は後述する。
The delay line unit 53 performs delay for several lines in units of video signal standard lines (horizontal pixel signal strings) having a predetermined number of pixels in the horizontal and vertical directions for the processing of the NR block 54. Circuit. For example, when processing of the NR block 54 requires a delay of 5 lines, four 1-line delay units are connected in series, each output of the 1-line delay unit, a line that is not delayed (a line that outputs the input as it is), Can be input to the NR block 54 in parallel.
Note that an image memory may be provided as an alternative to the delay line unit 53 to read data for the required number of lines. The specific configuration and operation of the NR block 54 will be described later.

本実施形態では、図1に示す撮像デバイス2が単板式であり、図3に示す色配列がされているため、撮像デバイス2から出力される画素信号は、色ごとに見れば、赤(R),緑(G),青(B)の何れかの色の情報を持つ画素信号と、白(W)の画素信号とが時間軸上で交互に混合されている。したがって、この画素信号が表す画像は、各色についてはモザイク状配置となる。このようなモザイク状の色配置を有する画像を「モザイク画像」という。
モザイク画像をNR処理にそのまま用いると、情報の欠落部分があり精度よい処理が行えない。そこで、NRブロック54内部にモザイク画像をデモザイクする機能を有する。「デモザイク」は、色ごとのモザイク画像(特定色のモザイク画像)において、その特定色の情報がない部分の色情報を、特定色の情報を有する周辺画素から補間処理等により発生させて全ての画素対応部分に色情報を有する「デモザイク画像」に変換する処理である。デモザイクのための詳細な構成は図示しないが、一般に、簡易な線形補間処理、あるいは、色推定と合成とを繰り返すことによる高精度補間処理のための回路構成が採られる。
In the present embodiment, since the imaging device 2 shown in FIG. 1 is a single plate type and has the color arrangement shown in FIG. 3, the pixel signal output from the imaging device 2 is red (R ), Green (G), and blue (B) pixel signals having color information and white (W) pixel signals are alternately mixed on the time axis. Therefore, the image represented by this pixel signal has a mosaic arrangement for each color. An image having such a mosaic color arrangement is referred to as a “mosaic image”.
If a mosaic image is used as it is for NR processing, there is a missing part of information, and accurate processing cannot be performed. Therefore, the NR block 54 has a function of demosaicing the mosaic image. “Demosaic” is a method of generating color information of a portion having no specific color information in a mosaic image for each color (a specific color mosaic image) from surrounding pixels having specific color information by interpolation processing or the like. This is a process of converting to a “demosaic image” having color information in the pixel corresponding portion. Although a detailed configuration for demosaicing is not shown, a circuit configuration for high-precision interpolation processing by repeating simple linear interpolation processing or color estimation and synthesis is generally employed.

パターン発生回路56は、撮像デバイス2を接続しない状況でのテストパターンを発生する回路である。
黒積分回路57は、デジタルの画素信号の黒レベルを検出する回路である。
The pattern generation circuit 56 is a circuit that generates a test pattern when the imaging device 2 is not connected.
The black integration circuit 57 is a circuit that detects the black level of the digital pixel signal.

Yブロック42は、PREブロック41から出力されるデモザイク画素信号のうち、最も情報量が多いA画素のデモザイク画素信号を入力し、処理する回路である。
Yブロック42は、A画素のデモザイク画素信号から輝度信号(Y)を発生させるY発生部61、輝度信号(Y)からアパチャーコントロール(アパコンと略記する)信号を発生するアパコン発生部62と、アパコン信号に対するガンマ(γ)補正部63とを有する。
Y発生部61で発生した輝度信号(Y)はOPDブロック44に供給される。アパコン発生部62では、Y発生部61で発生した輝度信号(Y)から、画の輪郭部分のみを強調した輝度信号(Y)に修正を施して、修正後の輝度信号(Y)をγ補正部63に供給する。γ補正部63からはガンマ補正後の輝度信号(Y)が、図1の混合回路9に出力される。
The Y block 42 is a circuit that inputs and processes the demosaic pixel signal of the A pixel having the largest amount of information among the demosaic pixel signals output from the PRE block 41.
The Y block 42 includes a Y generating unit 61 that generates a luminance signal (Y) from the demosaic pixel signal of the A pixel, an aperture control generating unit 62 that generates an aperture control (abbreviated as aperture control) signal from the luminance signal (Y), and an aperture controller. A gamma (γ) correction unit 63 for the signal.
The luminance signal (Y) generated by the Y generator 61 is supplied to the OPD block 44. In the aperture controller 62, the luminance signal (Y) generated by the Y generator 61 is corrected to the luminance signal (Y) that emphasizes only the outline portion of the image, and the corrected luminance signal (Y) is γ corrected. To the unit 63. The gamma correction unit 63 outputs the luminance signal (Y) after the gamma correction to the mixing circuit 9 in FIG.

Cブロック43は、R,G,B画素のデモザイク画素信号を入力し処理する回路である。
Cブロック43は、RGBマトリクス回路71、ホワイトバランス(WB)およびガンマ(γ)補正回路(「WB/γ補正」と記す)72、色差信号(R−G)と(B−G)の変換回路(色差変換回路という)73、ならびに、クロマ信号Cr,Cbの発生回路(クロマ発生回路という)74を有する。
The C block 43 is a circuit that inputs and processes demosaic pixel signals of R, G, and B pixels.
The C block 43 includes an RGB matrix circuit 71, a white balance (WB) and gamma (γ) correction circuit (referred to as “WB / γ correction”) 72, and a color difference signal (RG) and (BG) conversion circuit. 73 (referred to as a color difference conversion circuit) and a generation circuit (referred to as a chroma generation circuit) 74 for chroma signals Cr and Cb.

RGBマトリクス回路71は、R,G,B画素のデモザイク画素信号を入力し、同一の画素ユニットごとに同時化処理(同期)された色信号(R/G/B信号)を出力する回路である。R/G/B信号はOPDブロック44およびWB/γ補正回路72に出力される。
WB/γ補正回路72は、入力されるR/G/B信号から、色ごとのゲインバランスをとり、ホワイトバランス(WB)調整を行う。このときOPDブロック44からの明るさ情報が参照される。また、ホワイトバランス後のR/G/B信号の各画素強度に対して、色ガンマ(γ)補正がかけられる。このとき画像の階調の応答特性を表すために「ガンマ(γ)」という数値が使われる。この数値は、例えば図1に示す不揮発性メモリ11あるいはマイクロコンピュータ10内の記憶領域等に保持され、これが図8のPIO45を介してWB/γ補正回路72に供給される。ガンマ補正とは、表示される画像の明るさや色の彩度を正しく表示するための補正処理のことである。
The RGB matrix circuit 71 is a circuit that inputs a demosaic pixel signal of R, G, and B pixels and outputs a color signal (R / G / B signal) that is synchronized (synchronized) for each same pixel unit. . The R / G / B signal is output to the OPD block 44 and the WB / γ correction circuit 72.
The WB / γ correction circuit 72 performs gain balance for each color from the input R / G / B signal and performs white balance (WB) adjustment. At this time, the brightness information from the OPD block 44 is referred to. Further, color gamma (γ) correction is applied to each pixel intensity of the R / G / B signal after white balance. At this time, a numerical value “gamma (γ)” is used to represent the response characteristics of the gradation of the image. This numerical value is held in, for example, the nonvolatile memory 11 shown in FIG. 1 or a storage area in the microcomputer 10 and supplied to the WB / γ correction circuit 72 via the PIO 45 in FIG. Gamma correction is correction processing for correctly displaying the brightness and color saturation of a displayed image.

色差変換回路73は、ガンマ補正後のR/G/B信号を色差信号(R−G),(B−G)に変換する回路である。
クロマ発生回路74は、色差変換回路73の出力から、さらにクロマ信号Cr,Cbを発生させる回路である。発生したクロマ信号Cr,Cbは、図1に示す混合回路9に送られる。
The color difference conversion circuit 73 is a circuit that converts the R / G / B signal after the gamma correction into color difference signals (RG) and (BG).
The chroma generation circuit 74 is a circuit that further generates chroma signals Cr and Cb from the output of the color difference conversion circuit 73. The generated chroma signals Cr and Cb are sent to the mixing circuit 9 shown in FIG.

OPDブロック44は、例えば自動露光制御(AE)に用いられる輝度積分値を発生させる輝度積分回路44Aと、例えばホワイトバランスに用いられる色ごとのR/G/B積分値を発生させるR/G/B積分回路44Bとを含む。
輝度積分回路44Aは、輝度信号(Y)を、例えば1画面分、積分することにより輝度積分値を発生させる。輝度積分値はマイクロコンピュータ10を介して図1の光学部品1内に設けられている絞り制御回路及び撮像デバイス2に内蔵されているアナログゲイン回路に供給される。
R/G/B積分回路44Bは、RGBマトリクス回路71からの色ごとのR/G/B信号を、例えば1画面分、色ごとに積分することによりR/G/B積分値を発生させる。R/G/B積分値はPIO45を介してマイクロコンピュータ10に供給され、そこでWBゲインを計算した結果が、WB/γ補正回路72に供給される。
The OPD block 44 includes a luminance integration circuit 44A that generates a luminance integration value used for, for example, automatic exposure control (AE), and an R / G / B that generates an R / G / B integration value for each color used for white balance, for example. B integration circuit 44B.
The luminance integration circuit 44A generates a luminance integration value by integrating the luminance signal (Y), for example, for one screen. The integrated luminance value is supplied to the aperture control circuit provided in the optical component 1 in FIG. 1 and the analog gain circuit built in the imaging device 2 via the microcomputer 10.
The R / G / B integration circuit 44B generates an R / G / B integration value by integrating the R / G / B signal for each color from the RGB matrix circuit 71, for example, for each screen. The R / G / B integral value is supplied to the microcomputer 10 via the PIO 45, and the result of calculating the WB gain is supplied to the WB / γ correction circuit 72.

[NRブロックの詳細]
図9は、NRブロック54のさらに詳細なブロック図である。
図解するNRブロック54は、分離部541、同時化(同期)処理部542、Aデモザイク処理部543、RGBデモザイク処理部545、ゲイン調整部4A、NR部4B、エッジ情報取得部(EDGE)4C、合成処理部4D、および、色補正部(CC)4Fを含む。このうちAデモザイク処理部543、RGBデモザイク処理部545、ゲイン調整部4A、NR部4B、エッジ情報取得部4C、合成処理部4D、および、色補正部4Fが、図8に示すNR処理部54Bに含まれる。
[Details of NR block]
FIG. 9 is a more detailed block diagram of the NR block 54.
The illustrated NR block 54 includes a separation unit 541, a synchronization (synchronization) processing unit 542, an A demosaic processing unit 543, an RGB demosaic processing unit 545, a gain adjustment unit 4A, an NR unit 4B, an edge information acquisition unit (EDGE) 4C, A synthesis processing unit 4D and a color correction unit (CC) 4F are included. Among them, the A demosaic processing unit 543, the RGB demosaic processing unit 545, the gain adjustment unit 4A, the NR unit 4B, the edge information acquisition unit 4C, the synthesis processing unit 4D, and the color correction unit 4F are the NR processing unit 54B shown in FIG. include.

分離部541は、A(W+IR)画素のモザイク画像を構成するA画素信号と、その他の色の画素信号(R1,G1,B1画素信号)とを分離する回路である。
同時化処理部542は、分離後のA画素信号と、R1,G1,B1画素信号とをそれぞれ入力し、同時化(同期)処理して出力する回路である。A画素信号はAデモザイク処理部543に入力され、R1,G1,B1画素信号はRGBデモザイク処理部545に入力される。
The separation unit 541 is a circuit that separates an A pixel signal that forms a mosaic image of A (W + IR) pixels and pixel signals (R1, G1, B1 pixel signals) of other colors.
The synchronization processing unit 542 is a circuit that inputs the separated A pixel signal and the R1, G1, and B1 pixel signals, performs synchronization (synchronization) processing, and outputs them. The A pixel signal is input to the A demosaic processing unit 543, and the R1, G1, and B1 pixel signals are input to the RGB demosaic processing unit 545.

Aデモザイク処理部543は、入力したA画素信号にデモザイク処理を施し、デモザイクA画像を発生させる回路である。同様に、RGBデモザイク処理部545は、入力したR1,G1,B1画素信号の各画素信号に対しデモザイク処理を施し、デモザイクR,G,B画像を発生させる回路である。
これらのデモザイク処理は、例えば線形補間法等の簡易デモザイク処理でもよいが、より望ましくは、例えば、色推定と合成とを繰り返すことが可能な高精度な補間処理のための回路で実行される。具体的には、補間処理専用回路のほかに、DSPなどのコンピュータベースの制御部と、これを動作させるプログラムの機能から、デモザイク処理を実現してよい。
The A demosaic processing unit 543 is a circuit that performs demosaic processing on the input A pixel signal and generates a demosaic A image. Similarly, the RGB demosaic processing unit 545 is a circuit that performs demosaic processing on the input R1, G1, and B1 pixel signals to generate demosaic R, G, and B images.
These demosaic processes may be simple demosaic processes such as a linear interpolation method, for example. More preferably, the demosaic processes are executed by a circuit for high-precision interpolation processing capable of repeating color estimation and synthesis, for example. Specifically, in addition to the interpolation processing dedicated circuit, the demosaic processing may be realized by a computer-based control unit such as a DSP and a program function for operating the control unit.

エッジ情報取得部4Cは、所定の手法によりデモザイクA画像から第1および第2差分ED1,ED2を取得する。このときエッジ情報取得部4Cは、ターゲット画素を中心として、例えば3×3,5×5,…等の水平および垂直に任意数(通常、水平と垂直が同じ奇数)の画素群からなる周辺画素範囲においてエッジ情報取得を行う。ターゲット画素とは、NR部4Bでフィルタ処理によりノイズ低減を行う処理対象画素のことである。ターゲット画素は、入力順に一方の向き、例えば映像信号の水平方向の並びに沿ってその一方に順次変化する。エッジ情報取得部4Cは、ターゲット画素が順次、隣の画素に変更されるたびに、その周辺画素範囲を、変更後のターゲット画素が中心となるように認識し直してエッジ情報取得を繰り返す。取得された第1および第2差分ED1,ED2は、エッジ情報取得部4CからNR部4Bに与えられる。
エッジ情報取得の具体的な手法としては、ターゲット画素と、当該ターゲット画素を中心とする周辺画素範囲内の他の画素との画素値の差分を求める方法が採用できる。
The edge information acquisition unit 4C acquires the first and second differences ED1 and ED2 from the demosaic A image by a predetermined method. At this time, the edge information acquisition unit 4C has a peripheral pixel composed of an arbitrary number of pixels (usually the same odd number in the horizontal and vertical directions) such as 3 × 3, 5 × 5,. Get edge information in a range. The target pixel is a processing target pixel that performs noise reduction by filter processing in the NR unit 4B. The target pixel sequentially changes in one direction in the order of input, for example, along the horizontal direction of the video signal. Each time the target pixel is sequentially changed to an adjacent pixel, the edge information acquisition unit 4C re-recognizes the peripheral pixel range so that the changed target pixel is centered and repeats edge information acquisition. The acquired first and second differences ED1, ED2 are given from the edge information acquisition unit 4C to the NR unit 4B.
As a specific method of acquiring edge information, a method of obtaining a difference in pixel value between a target pixel and other pixels in a peripheral pixel range centering on the target pixel can be employed.

色補正部4Fは、例えば、前述した減算を用いた方法により、ゲイン調整後のデモザイクR,G,B画像RD,GD,BDに対し、色補正を行う。   The color correction unit 4F performs color correction on the demosaic R, G, B images RD, GD, BD after gain adjustment, for example, by the method using the subtraction described above.

NR部4Bは、本例ではクロスバイラテラルフィルタから構成される。基本的なフィルタ構成は、よく知られている2次元LPFであり、例えば、特許文献1に示されるLPF構成を採用できる。
このとき、取得された第1および第2差分ED1,ED2からエッジ判定を行う。エッジ判定の方法は、既に説明した。また、エッジ判定部544は、エッジ判定結果に基づいて、エッジ階調差をより多く保存するようにフィルタ係数の変更を行う。このとき元のエッジ階調差を強調することも可能である。そして、変更後のフィルタ係数を、色補正部4Fから出力されるR,G,B画像の2次元フィルタ処理に適用する。
このようにA画素からなるデモザイク後の画像の第1および第2差分ED1,ED2からエッジ判定を行い、エッジ判定結果を用いてR,G,B画像の2次元フィルタ処理を行うと、画素値差分に応じたエッジ階調差を保存でき、より望ましい。このようなフィルタ処理対象と異なる画像情報を参照する2次元フィルタを、特にクロスバイラテラルフィルタと称する。クロスバイラテラルフィルタ処理の概要は後述するが、エッジ検出(エッジ情報取得とエッジ判定)がデモザイク後のA画像またはR,G,B画像を用いて行われるため、エッジ検出精度が高く、その結果、クロスバイラテラルフィルタの出力でエッジ情報が効果的に保存される。処理後のR,G,B画素信号は、合成処理部4Dに出力される。
In this example, the NR unit 4B includes a cross bilateral filter. The basic filter configuration is a well-known two-dimensional LPF. For example, the LPF configuration disclosed in Patent Document 1 can be adopted.
At this time, edge determination is performed from the acquired first and second differences ED1 and ED2. The edge determination method has already been described. In addition, the edge determination unit 544 changes the filter coefficient based on the edge determination result so as to save more edge gradation differences. At this time, the original edge gradation difference can be emphasized. Then, the changed filter coefficient is applied to the two-dimensional filter processing of the R, G, B image output from the color correction unit 4F.
As described above, when the edge determination is performed from the first and second differences ED1 and ED2 of the demosaiced image including the A pixels and the two-dimensional filter processing of the R, G, and B images is performed using the edge determination result, the pixel value An edge gradation difference corresponding to the difference can be stored, which is more desirable. Such a two-dimensional filter that refers to image information different from the filter processing target is particularly referred to as a cross bilateral filter. Although the outline of the cross bilateral filter processing will be described later, since edge detection (edge information acquisition and edge determination) is performed using the demodulated A image or R, G, B image, the edge detection accuracy is high. Edge information is effectively preserved at the output of the cross bilateral filter. The processed R, G, B pixel signals are output to the synthesis processing unit 4D.

エッジ情報取得部4Cは、A画素信号(厳密には、デモザイク後のA画像の信号)からエッジ・テクスチャ情報ETを抽出する機能を有する。抽出範囲は、例えば、エッジと判定され画素値差分を含む周辺画素領域の全てをAND処理で一つにまとめた(マージした)領域としてよい。エッジ・テクスチャ情報ETは、エッジ情報取得部4Cから合成処理部4Dに出力される。   The edge information acquisition unit 4C has a function of extracting edge / texture information ET from the A pixel signal (strictly speaking, the signal of the A image after demosaicing). The extraction range may be, for example, an area obtained by combining (merging) all peripheral pixel areas that are determined to be edges and include pixel value differences into one by AND processing. The edge / texture information ET is output from the edge information acquisition unit 4C to the synthesis processing unit 4D.

合成処理部4Dは、NR部4Bから入力されるR,G,B画素信号のエッジ部の情報を、エッジ情報取得部4Cから入力されるエッジ・テクスチャ情報ETで置き換えることにより画像合成(信号混合)を行う。
合成処理部4DからのR,G,B画像は色信号処理のためにCブロック43に送られ、Aデモザイク処理部543からのデモザイクA画像ADは輝度信号処理のためにYブロック42に送られる。
The synthesis processing unit 4D replaces the edge information of the R, G, B pixel signal input from the NR unit 4B with the edge / texture information ET input from the edge information acquisition unit 4C, thereby synthesizing the image (signal mixing). )I do.
The R, G, B images from the synthesis processing unit 4D are sent to the C block 43 for color signal processing, and the demosaic A image AD from the A demosaic processing unit 543 is sent to the Y block 42 for luminance signal processing. .

ゲイン調整部4Aは、ゲインアンプGAを含む。
ゲインアンプGAは、RGBデモザイク処理部545からのデモザイクR,G,B画像を入力し、デモザイクR画像、デモザイクG画像、デモザイクB画像を構成する各色の画素信号(R画素信号、G画素信号、B画素信号)にゲイン値Gをかけて信号振幅を一律に変化させる回路である。なお、このとき色ごとにゲイン値を変えてもよいが、本例では色バランス補正のための回路が後段に存在するため、ここでは同じゲイン値Gを用いる。
The gain adjustment unit 4A includes a gain amplifier GA.
The gain amplifier GA receives the demosaic R, G, and B images from the RGB demosaic processing unit 545, and each pixel signal (R pixel signal, G pixel signal, demosaic B image, demosaic R image, demosaic G image, demosaic B image) B pixel signal) is multiplied by a gain value G to uniformly change the signal amplitude. At this time, the gain value may be changed for each color. However, in this example, since a circuit for color balance correction is provided in the subsequent stage, the same gain value G is used here.

図9に示すゲイン調整部4Aは、マイクロコンピュータ10の機能の一部を含むものであり、所定の明るさ情報に基づいてゲイン値Gを算出し(または不揮発性メモリ11等から読み出し)、ゲインアンプGAに変更可能に設定する。
ゲイン値Gの値は、例えば画面の明るさ調整に用いられる。例えば自動露光制御(AE)を、図9のOPDブロック44からの明るさ情報に基づいて行う。このとき、暗い被写体を明るくする逆光補正や、光源の色温度により可視光成分が少ないときに画面全体を明るくする色温度に応じた明るさ補正を、マイクロコンピュータ10が実行する。
The gain adjusting unit 4A shown in FIG. 9 includes a part of the function of the microcomputer 10, calculates a gain value G based on predetermined brightness information (or reads out from the nonvolatile memory 11 or the like), and gain Set to changeable to amplifier GA.
The value of the gain value G is used, for example, for screen brightness adjustment. For example, automatic exposure control (AE) is performed based on the brightness information from the OPD block 44 of FIG. At this time, the microcomputer 10 executes backlight correction for brightening a dark subject and brightness correction according to the color temperature for brightening the entire screen when the visible light component is small due to the color temperature of the light source.

つぎに、まず、クロスバイラテラルフィルタによるNR処理の概要(本発明のノイズ低減方法の一例を含む)を説明する。   Next, an outline of NR processing by the cross bilateral filter (including an example of the noise reduction method of the present invention) will be described first.

[NR処理(エッジ検出方法を含む)]
図10は、エッジ判定とノイズ低減を模式的に詳示した撮像以後の処理フロー図である。
図10に示すステップST0にて、A,R,G,Bの色画素を同一画素ユニットに含む撮像デバイス2にて、被写体の撮像が行われる。
その後、得られた画素信号に対し、図1に示すADC5によりA/D変換が行われ(ステップST1)、さらにその後に、図9のAデモザイク処理部543およびRGBデモザイク処理部545によりデモザイク処理が行われる(ステップST2)。なお、AFE回路3によるAFE処理、分離部541による分離処理、同時化処理部542による同時化処理、その他の処理は、作図の都合上、図示を省略している。
[NR processing (including edge detection method)]
FIG. 10 is a process flow diagram after imaging that schematically illustrates edge determination and noise reduction.
In step ST0 shown in FIG. 10, the imaging of the subject is performed by the imaging device 2 including A, R, G, and B color pixels in the same pixel unit.
Thereafter, A / D conversion is performed on the obtained pixel signal by the ADC 5 shown in FIG. 1 (step ST1), and then the demosaic processing is performed by the A demosaic processing unit 543 and the RGB demosaic processing unit 545 of FIG. Performed (step ST2). Note that the AFE processing by the AFE circuit 3, the separation processing by the separation unit 541, the synchronization processing by the synchronization processing unit 542, and other processing are not shown for the sake of drawing.

ステップST3にて、図9に示すエッジ情報取得部(EDGE)4Cによりエッジ情報取得が行われ、続いてステップST4にて、フィルタ処理が行われる。ステップST4のフィルタ処理は、エッジ判定(ステップST41)、LPF係数の設定(ステップST42)、および、フィルタリング(ステップST43)を含んで構成される。
なお、ステップST3の開始と並行して、ステップST5のゲイン調整および色補正の処理が開始されるが、まず、ステップST3とST4を説明する。
In step ST3, edge information acquisition is performed by the edge information acquisition unit (EDGE) 4C shown in FIG. 9, and subsequently, filter processing is performed in step ST4. The filtering process in step ST4 includes edge determination (step ST41), LPF coefficient setting (step ST42), and filtering (step ST43).
In parallel with the start of step ST3, the gain adjustment and color correction processes in step ST5 are started. First, steps ST3 and ST4 will be described.

エッジ情報取得(ST3)は、例えばエッジ情報取得部4Cが有する、減算器等の差分算出回路(不図示)が、マイクロコンピュータ10の制御を受けて実行する。
この差分算出はマイクロコンピュータ10自身の演算で行ってもよいが、ハードウエアによる場合、差分演算回路が必要である。差分算出回路は、図10のデモザイクA画像ADにおいて示すように、ターゲットA画素Atを含む、例えば3×3の周辺画素範囲において、当該ターゲットA画素Atの画素値と、ターゲットA画素Atの周辺に位置する周辺A画素Apの画素値とで、第1差分ED1を算出する。
The edge information acquisition (ST3) is executed, for example, by a difference calculation circuit (not shown) such as a subtractor included in the edge information acquisition unit 4C under the control of the microcomputer 10.
This difference calculation may be performed by the microcomputer 10 itself, but in the case of hardware, a difference calculation circuit is required. As shown in the demosaic A image AD of FIG. 10, the difference calculation circuit includes the target A pixel At and includes, for example, a 3 × 3 peripheral pixel range, the pixel value of the target A pixel At, and the periphery of the target A pixel At. The first difference ED1 is calculated with the pixel value of the peripheral A pixel Ap located at.

図10には、デモザイク後の3×3の周辺画素範囲に相当するデモザイクA画像ADの他に、当該3×3のデモザイクA画像ADに対応する、デモザイクR画像RD、デモザイクG画像GD、デモザイクB画像BDも、併せて示す。
3×3デモザイクR画像RDの中心画素がターゲットR画素Rtである。同様に、3×3デモザイクG画像GDの中心画素がターゲットG画素Gt、3×3デモザイクB画像BDの中心画素がターゲットB画素Btである。
これら4つのターゲット画素は、クロック信号で規定される同時刻には、撮像デバイス2の画素配列において、常に、図3(A)または図3(B)に示す同一の画素ユニット内で得られたものである。処理対象が順次変化すると、4つのターゲット画素が順次、例えば水平方向に1画素分ずつシフトし、これに応じて各色で3×3周辺画素範囲も同じ方向に1画素分ずつシフトするように制御される。
FIG. 10 shows a demosaic R image RD, demosaic G image GD, demosaic corresponding to the demosaic A image AD of 3 × 3, in addition to the demosaic A image AD corresponding to the 3 × 3 peripheral pixel range after demosaic. A B image BD is also shown.
The center pixel of the 3 × 3 demosaic R image RD is the target R pixel Rt. Similarly, the center pixel of the 3 × 3 demosaic G image GD is the target G pixel Gt, and the center pixel of the 3 × 3 demosaic B image BD is the target B pixel Bt.
These four target pixels were always obtained in the same pixel unit shown in FIG. 3A or FIG. 3B in the pixel array of the imaging device 2 at the same time specified by the clock signal. Is. When the processing target changes sequentially, the four target pixels are sequentially shifted, for example, by one pixel in the horizontal direction, and accordingly, the 3 × 3 peripheral pixel range for each color is also shifted by one pixel in the same direction. Is done.

差分値算出回路は、デモザイクA画像ADで図示する8方向の差分diff(px,py)を算出する。ここで座標(px,py)は、図示のように取られた(x,y)絶対位置座標系(表示画面の画素アドレスに対応)内の局部相対座標を表し、デモザイクA画像AD内のターゲットA画素Atに対する相対的な位置(1画素分の距離を「1」で表示)を表している。
絶対位置座標でデモザイクA画像ADの中心画素(ターゲットA画素At)をA0(x,y)としたときに、周辺画素はAp(x-xp,y-yp)と表すことができ、その差分を取ると差分diff(px,py)となる。
このような差分の8回の計算によって、図示のような第1差分ED1の配列(数値行列)が得られる。
The difference value calculation circuit calculates a difference diff (px, py) in eight directions illustrated in the demosaic A image AD. Here, the coordinates (px, py) represent local relative coordinates in the (x, y) absolute position coordinate system (corresponding to the pixel address of the display screen) taken as shown in the figure, and the target in the demosaic A image AD A relative position with respect to the A pixel At (a distance of one pixel is represented by “1”).
When the central pixel (target A pixel At) of the demosaic A image AD is set to A0 (x, y) in absolute position coordinates, the peripheral pixel can be expressed as Ap (x-xp, y-yp), and the difference To get the difference diff (px, py).
An array (numerical matrix) of the first differences ED1 as shown in the figure is obtained by performing the calculation of the differences eight times.

以上は、デモザイクA画像ADから求める第1差分ED1の算出法であるが、これと同様な方法によって、デモザイクR画像RD、デモザイクG画像GD、デモザイクB画像BDから第2差分ED2の配列(数値行列)が算出される。   The above is the calculation method of the first difference ED1 obtained from the demosaic A image AD, but the array (numerical value) of the second difference ED2 from the demosaic R image RD, the demosaic G image GD, and the demosaic B image BD by a similar method. Matrix) is calculated.

得られた第1および第2差分ED1,ED2(差分配列)は、エッジ情報取得部4CからNR部4Bに送られ、フィルタ処理に供せられる。   The obtained first and second differences ED1 and ED2 (difference array) are sent from the edge information acquisition unit 4C to the NR unit 4B and are subjected to filter processing.

図11は、フィルタ処理のエッジ判定(ST41)とフィルタリング(ST43)の概念を説明するための図である。また、図12は、フィルタ処理のLPF係数設定(ST42)とフィルタリングの概念を説明するための図である。
図11および図12に示すように、NR部4B内に、クロスバイラテラルフィルタのエッジ判定部544、フィルタ部546、および、フィルタ設定部547を有している。
エッジ判定部544はハードウエア(専用回路)で構成してよいし、あるいは、その処理手順を、マイクロコンピュータ10によるソフトウエア処理で実現するものでもよい。フィルタ部546は、それぞれシフトレジスタと加算器、乗算器等からなる、X方向フィルタ部とy方向フィルタ部からなるハードウエアで構成される。また、フィルタ設定部547は、例えば不揮発性メモリ11から基本フィルタ係数セットを読み出して、これに変更を加えるもので、その処理手順は、マイクロコンピュータ10によるソフトウエア処理で実現される。
FIG. 11 is a diagram for explaining the concept of filter processing edge determination (ST41) and filtering (ST43). FIG. 12 is a diagram for explaining the concept of filtering LPF coefficient setting (ST42) and filtering.
As shown in FIGS. 11 and 12, the NR unit 4B includes a cross bilateral filter edge determination unit 544, a filter unit 546, and a filter setting unit 547.
The edge determination unit 544 may be configured by hardware (dedicated circuit), or the processing procedure may be realized by software processing by the microcomputer 10. The filter unit 546 is configured by hardware including an X-direction filter unit and a y-direction filter unit, each including a shift register, an adder, and a multiplier. The filter setting unit 547 reads a basic filter coefficient set from the non-volatile memory 11, for example, and modifies it. The processing procedure is realized by software processing by the microcomputer 10.

エッジ判定部544は、ターゲットA画素Atと、その周辺に位置する周辺A画素Apの画素値との差分(diff(px,py))である第1差分ED1をエッジ情報取得部4Cから入力する。また、エッジ判定部544は、ターゲット色画素(Rt,Gt,Btの何れか)と、その周辺に位置する周辺色画素(Rp,Gp,Bp(不図示)の何れか)との差分(diff(px,py))である第2差分ED2をエッジ情報取得部4Cから入力する。そして、第1差分ED1と第2差分ED2の各々を、所定の基準を超えているか(あるいは、以上か)を判断する。どちらも大きい場合は、いずれも「エッジ有り」の判定が成される。実際にエッジが存在する場合、本実施形態では、2つの第1および第2差分ED1,ED2を用いるため、何れかは「エッジ有り」と判定される可能性が高まる。   The edge determination unit 544 inputs, from the edge information acquisition unit 4C, the first difference ED1 that is the difference (diff (px, py)) between the target A pixel At and the pixel value of the peripheral A pixel Ap located in the vicinity thereof. . Further, the edge determination unit 544 determines the difference (diff) between the target color pixel (any one of Rt, Gt, and Bt) and the surrounding color pixel (any one of Rp, Gp, and Bp (not shown)) located in the vicinity thereof. (px, py)) is input from the edge information acquisition unit 4C. Then, it is determined whether each of the first difference ED1 and the second difference ED2 exceeds a predetermined standard (or more). If both are large, the determination of “with edge” is made. In the case where an edge actually exists, in the present embodiment, since the two first and second differences ED1 and ED2 are used, there is a high possibility that one of them is determined to be “with edge”.

なお、第1および第2差分ED1,ED2のばらつき評価を行い、ばらつきがある程度大きければノイズ成分とみなして、差分の大きさが基準を超えている場合でも、エッジ判定に用いないようにしてよい。
また、エッジ有りの場合でも、複数の異なる基準でエッジの大きさをランク分けして、「エッジ有り」と判定される場合に、そのランクに応じて、フィルタ係数の変更の程度を変化させる制御も可能である。
It should be noted that the first and second differences ED1 and ED2 are evaluated for variation, and if the variation is large to some extent, it is regarded as a noise component and may not be used for edge determination even when the difference exceeds the reference. .
In addition, even when there is an edge, the size of the edge is ranked according to a plurality of different criteria, and when it is judged as “with edge”, the degree of change of the filter coefficient is changed according to the rank. Is also possible.

フィルタ係数の設定(ST42)では、まず、マイクロコンピュータ10等のフィルタ設定部547が、基本のLPF係数W0を、例えば不揮発性メモリ11から読み出す。フィルタ設定部547は、エッジ判定部544が「エッジ有り」と判定した箇所で、上記読み出した基本のLPF係数W0に修正を加える。
具体的には、図12に示すように「エッジ有り」の判定箇所で、基本のLPF係数W0を下げて、修正後のx方向のLPF係数W(x,px)を算出し、算出したLPF係数W(x,px)で、基本のLPF係数W0の対応部分を置き換える。同様にして、y方向のLPF係数W(y,py)を算出し、算出したLPF係数W(y,py)で基本のLPF係数W0の対応部分を置き換える。
In the filter coefficient setting (ST42), first, the filter setting unit 547 such as the microcomputer 10 reads the basic LPF coefficient W0 from the nonvolatile memory 11, for example. The filter setting unit 547 corrects the basic LPF coefficient W0 that has been read out, at the place where the edge determination unit 544 determines that “there is an edge”.
Specifically, as shown in FIG. 12, the basic LPF coefficient W0 is lowered at the determination point of “with edge” to calculate the corrected LPF coefficient W (x, px) in the x direction, and the calculated LPF The corresponding portion of the basic LPF coefficient W0 is replaced with the coefficient W (x, px). Similarly, the LPF coefficient W (y, py) in the y direction is calculated, and the corresponding portion of the basic LPF coefficient W0 is replaced with the calculated LPF coefficient W (y, py).

LPF係数を下げる割合は、フィルタ設定部547が予め決めたものでもよいし、差分値の大きさによって動的に変更して制御してもよい。
LPF係数の求め方の一例を、x方向を例として演算式により表すと、次式(2)のようになる。なお、y方向の演算式は次式(2)の「x」を「y」で置き換えたものとなる。この演算式は、係数の下げ方を分散(σ)に応じて一義的に決めている。
The rate at which the LPF coefficient is lowered may be determined in advance by the filter setting unit 547, or may be dynamically changed and controlled according to the magnitude of the difference value.
An example of how to obtain the LPF coefficient is expressed by the following equation (2) by taking the x direction as an example. The arithmetic expression in the y direction is obtained by replacing “x” in the following expression (2) with “y”. This arithmetic expression uniquely determines how to reduce the coefficient according to the variance (σ 2 ).

ここでA画素データのx方向の各階調値を、「edge(x)」と表記している(図11および図12参照)。   Here, each gradation value in the x direction of the A pixel data is expressed as “edge (x)” (see FIGS. 11 and 12).

フィルタ部546は、図10のフィルタリング(ST43)を行うものであり、例えば図11に示すようにX方向フィルタリングにおいては、R,G,B画素データ(入力in(x))を入力し、出力out(x)を排出する。ここでフィルタ部546の入力in(x)は、ゲインアンプGAによるゲイン調整および色補正後のR画素データ、G画素データ、B画素データの何れかであるため、ノイズレベルが大きく、図11に示すように、エッジ階調差がノイズにより不明瞭となっている。   The filter unit 546 performs the filtering (ST43) of FIG. 10. For example, as shown in FIG. 11, in the X direction filtering, R, G, B pixel data (input in (x)) is input and output. Eject out (x). Here, since the input in (x) of the filter unit 546 is any of R pixel data, G pixel data, and B pixel data after gain adjustment and color correction by the gain amplifier GA, the noise level is large. As shown, the edge tone difference is obscured by noise.

一方、A画素データは、W画素データ(R,G,B画素データの合計と等価)と、さらに近赤外光成分IRを含むため、元々の情報量が大きく、ゲイン調整する必要がない。よって、図11に示すように、S/N比が高くエッジ階調差が明瞭である。フィルタ入力でエッジが不明瞭、A画像で明瞭なことは、y方向フィルタリングの入力in(y)と、A画素データのy方向階調値edge(y)でも同じである。これが、上述したLPF係数の設定でA画素信号データを用いる理由である。前述した式(2)で、破線で示す部分でA画素信号データの差分情報がLPF係数Wに反映されていることが分かる。   On the other hand, since the A pixel data includes W pixel data (equivalent to the sum of R, G, and B pixel data) and the near infrared light component IR, the amount of original information is large and there is no need to adjust the gain. Therefore, as shown in FIG. 11, the S / N ratio is high and the edge gradation difference is clear. The fact that the edge is unclear with the filter input and clear with the A image is the same for the input in (y) of y-direction filtering and the y-direction gradation value edge (y) of the A pixel data. This is the reason why the A pixel signal data is used for setting the LPF coefficient described above. It can be seen from the above-described equation (2) that the difference information of the A pixel signal data is reflected in the LPF coefficient W in the portion indicated by the broken line.

フィルタ部546は、フィルタ設定部547で設定されたフィルタ係数(重み付け係数)を用いてバイラテラル、即ちx方向とy方向のそれぞれについて、色ごとに入力in(x)(または入力in(y))のターゲット画素値とその周辺の8画素値とを重み付けして、ターゲット画素値の階調値を変化させて出力する回路である。フィルタ部546が行う処理を、x方向を例として演算式に表すと、次式(3)のようになる。なお、y方向の演算式は次式(3)の「x」を「y」で置き換えたものとなる。   The filter unit 546 uses the filter coefficient (weighting coefficient) set by the filter setting unit 547 to perform bilateral, that is, input in (x) (or input in (y) for each color in each of the x direction and the y direction. ) And the surrounding 8 pixel values are weighted, and the gradation value of the target pixel value is changed and output. The processing performed by the filter unit 546 is expressed by the following equation (3) by taking the x direction as an example. The arithmetic expression in the y direction is obtained by replacing “x” in the following expression (3) with “y”.

このときフィルタ部546は、ターゲット画素を、隣の画素に順送りしながら、そのターゲット画素が変更されるたびにLPF係数の演算および変更とフィルタリングとを繰り返し行う。ターゲット画素の変更は、エッジ情報取得部4Cと完全に同期している。あるターゲット画素を中心とした周辺画素範囲で上記式(3)により表されるフィルタリングを行い、当該フィルタリングが終了すると、次のターゲット画素への変更を行って、同様な処理を変更後のターゲット画素とその周囲の8画素に対して実行する。   At this time, the filter unit 546 repeatedly calculates and changes the LPF coefficient and filtering each time the target pixel is changed while sequentially forwarding the target pixel to the adjacent pixels. The change of the target pixel is completely synchronized with the edge information acquisition unit 4C. Perform the filtering represented by the above formula (3) in the peripheral pixel range centered on a certain target pixel, and when the filtering is completed, change to the next target pixel and perform the same processing on the changed target pixel And the surrounding 8 pixels.

図10には、基本のLPF係数W0の数値を概念的に示している。図10では、係数を作図の便宜上、比較的に大きな整数で表記するが、実際の係数のレベルとは異なる。
「1」「3」「1」と係数がカラム方向(表示画素の垂直方向)に並ぶとき、その隣のカラムとの間付近がエッジ中心と判定された場合、「1」「3」「1」の係数が下げられる。ここでは説明の都合上、例えば「0.2」倍にされて、よりエッジが鮮明となる係数への変更が行われている。そして、このように修正後のLPF係数セットを用いてフィルタ処理が実行される。
FIG. 10 conceptually shows numerical values of the basic LPF coefficient W0. In FIG. 10, the coefficients are represented by relatively large integers for convenience of drawing, but are different from the actual coefficient levels.
When coefficients “1”, “3”, “1” and coefficients are aligned in the column direction (vertical direction of display pixels), if it is determined that the vicinity between the adjacent columns is the edge center, “1”, “3”, “1 "Is reduced. Here, for convenience of explanation, for example, the coefficient is multiplied by “0.2”, and the coefficient is changed to make the edge clearer. Then, the filter process is executed using the LPF coefficient set after correction in this way.

通常の2次元フィルタ(バイラテラルフィルタ)では、フィルタリングを行うとエッジ情報が周辺画素に拡散する。
これに対し本実施形態のクロスバイラレテラルフィルタでは、エッジの急峻性を保存するため、A画素信号データを用い、かつ、ノイズ除去のための基本のLPF係数に一部修正を加える。ノイズ除去のため最適化されたLPF係数を変更すると、ノイズ除去能力が低下する場合もあるが、エッジが検出されるのは画面全体から見れば局所的であるため、このようにエッジ判定箇所で強くノイズリダクションをかけなくても全体のノイズ低減は十分可能である。
In a normal two-dimensional filter (bilateral filter), edge information diffuses to surrounding pixels when filtering is performed.
On the other hand, in the cross bilateral literal filter of this embodiment, in order to preserve the sharpness of the edge, the A pixel signal data is used and a part of the basic LPF coefficient for noise removal is modified. If the LPF coefficient optimized for noise removal is changed, the noise removal capability may be reduced. However, since the edge is detected locally when viewed from the entire screen, the edge determination point is used in this way. The entire noise can be reduced sufficiently without applying strong noise reduction.

以上の処理を、ある色についてターゲット画素を画素信号の入力順、即ち表示走査順に変更しながら繰り返すと、当該色の画像は、その色情報を保持しながら、図11および図12のx方向で出力out(x)により示すように、A画素分布に近いものとなる。つまり、緩やかな変化は色情報として保持されるが、突発的あるいはランダムな変化が平滑化され、ノイズ成分が低減(除去または抑圧)される。
これは、y方向についても、また、他の残りの2色についても同様である。
When the above processing is repeated for a certain color while changing the target pixel in the pixel signal input order, that is, the display scanning order, the image of that color is retained in the x direction in FIGS. 11 and 12 while retaining its color information. As shown by the output out (x), it is close to the A pixel distribution. That is, a gradual change is retained as color information, but an abrupt or random change is smoothed, and noise components are reduced (removed or suppressed).
The same applies to the y direction and the other two colors.

ノイズ低減後のR,G,B信号(デモザイクR,G,B画像RD,GD,BDの信号)は、NR部4Bから合成処理部4Dに送られる。
一方、エッジ情報取得部4Cからはエッジ・テクスチャ情報ETが合成処理部4Dに出力され、当該エッジ・テクスチャ情報ETに対応する、デモザイクR,G,B画像RD,GD,BDの一部が、当該エッジ・テクスチャ情報ETに置き換えられて画像合成処理が実行される。
The R, G, B signals after noise reduction (the signals of demosaic R, G, B images RD, GD, BD) are sent from the NR unit 4B to the synthesis processing unit 4D.
On the other hand, the edge / texture information ET is output from the edge information acquisition unit 4C to the synthesis processing unit 4D, and a part of the demosaic R, G, B images RD, GD, BD corresponding to the edge / texture information ET The image composition processing is executed by replacing the edge / texture information ET.

画像合成後のR,G,B画像はCブロック43に、デモザイクA画像ADはYブロック42に出力される。
図10には、画像合成以後の処理を示すが、図示のように、画像合成後の画像にホワイトバランス、ガンマ(γ)補正をまず行って、そのγ補正後のR,G,B画像を、図9に示す、Y処理のためYブロック42と、C処理のためのCブロック43に出力する構成でもよい。
The R, G, and B images after image synthesis are output to the C block 43, and the demosaic A image AD is output to the Y block 42.
FIG. 10 shows the processing after image synthesis. As shown in the figure, white balance and gamma (γ) correction are first performed on the image after image synthesis, and the R, G, B images after the γ correction are processed. 9 may be configured to output to a Y block 42 for Y processing and a C block 43 for C processing.

《第3実施形態》
本実施形態は、フィルタ処理部が、エッジ強調のためのフィルタ(帯域フィルタ)であってもよいことを示すものである。
エッジ強調フィルタは、例えば、本願の出願人による特開2000−13642号公報に記載の構成が採用できる。当該公報の記載によれば、輝度信号のレベルを検出して輝度差に応じたフィルタ係数を演算により求めている。フィルタ係数は、帯域フィルタ、遅延部、アンプ、出力段の加算器等を含む補正部に入力される。帯域フィルタは、入力される輝度信号をシフトレジスタにより遅延し、その複数N個の中間タップと、シフトレジスタの入力および出力とから(N+1)個の遅延出力を並列に、(N+1)個の乗算器に1つずつ入力する。これらの乗算器には、それぞれ所定の補正係数が入力され、遅延出力と乗算される。この補正係数は、入力信号(この場合、輝度信号)の差分に応じて適宜変更される。乗算結果は、帯域フィルタ内の加算器で合成され、アンプを通して、上記出力段の加算器で、遅延後の輝度信号と合成され、エッジ強調された輝度信号が、当該出力段の加算器から出力される。
<< Third Embodiment >>
The present embodiment shows that the filter processing unit may be a filter (band filter) for edge enhancement.
As the edge enhancement filter, for example, a configuration described in Japanese Patent Application Laid-Open No. 2000-13642 by the applicant of the present application can be employed. According to the publication, the level of the luminance signal is detected, and the filter coefficient corresponding to the luminance difference is obtained by calculation. The filter coefficient is input to a correction unit including a band filter, a delay unit, an amplifier, an adder in the output stage, and the like. The bandpass filter delays an input luminance signal by a shift register, and (N + 1) delayed outputs are paralleled by (N + 1) delay outputs from the N intermediate taps thereof and the input and output of the shift register. Enter one at a time. Each of these multipliers receives a predetermined correction coefficient and multiplies it by the delay output. This correction coefficient is appropriately changed according to the difference between input signals (in this case, luminance signals). The multiplication result is synthesized by the adder in the bandpass filter, and is combined with the delayed luminance signal by the adder in the output stage through an amplifier, and the edge-enhanced luminance signal is output from the adder in the output stage. Is done.

このエッジ強調フィルタそのものは既知であるため、詳細回路図を示さないが、本実施形態では、例えば第1実施形態で用いた図1および図5、第2実施形態で用いた図6(A)および図6(B)に示されるフィルタ処理部4Eを、例えば上記構成のエッジ強調フィルタに置き換え可能である。また、エッジ強調の場合、エッジ・テクスチャ情報ETによるエッジ部の画像置き換えは不要であり、上記図5、ならびに、図6(A)および図6(B)の合成処理部4Dは不要であり、フィルタ処理部4Eの代わりに設けられたエッジ強調フィルタ部の出力が、そのまま後段に送られる。また、第2エッジ取得部4C2はエッジ・テクスチャ情報ETの抽出機能を持つ必要がない。   Since this edge emphasis filter itself is known, a detailed circuit diagram is not shown, but in this embodiment, for example, FIGS. 1 and 5 used in the first embodiment, and FIG. 6A used in the second embodiment. The filter processing unit 4E shown in FIG. 6B can be replaced with, for example, the edge enhancement filter having the above configuration. Further, in the case of edge enhancement, the image replacement of the edge portion by the edge / texture information ET is unnecessary, and the above-described FIG. 5 and the synthesis processing unit 4D of FIGS. 6A and 6B are unnecessary, The output of the edge enhancement filter unit provided instead of the filter processing unit 4E is sent to the subsequent stage as it is. Further, the second edge acquisition unit 4C2 does not need to have the function of extracting the edge / texture information ET.

上記特開2000−13642号公報の処理は輝度信号に対してのものであるが、ここではA信号(第2画素信号)に対し、第2エッジ取得部4C2が差分、即ち第2差分ED2を検出する。
一方、第1および第2実施形態と同様に、第1画素信号としての、例えばR0,G0,B0信号に対しては、その差分、即ち第1差分ED1を、第1エッジ取得部4C1(および第3エッジ取得部4C3)が検出する。第1および第2差分ED1,ED2に基づくエッジ判定は、第1および第2実施形態と同様に行う。
上記特開2000−13642号公報の処理では、差分に応じて係数を求めるが、ここではエッジ判定で「エッジ有り」と判断された箇所で、決められた係数への変更を行う。ただし、差分に応じた係数への変更を行うこともできる。
The process of the above Japanese Patent Laid-Open No. 2000-13642 is for the luminance signal, but here the second edge acquisition unit 4C2 calculates the difference, that is, the second difference ED2 with respect to the A signal (second pixel signal). To detect.
On the other hand, as in the first and second embodiments, for the R0, G0, and B0 signals as the first pixel signal, for example, the difference, that is, the first difference ED1 is used as the first edge acquisition unit 4C1 (and The third edge acquisition unit 4C3) detects. Edge determination based on the first and second differences ED1, ED2 is performed in the same manner as in the first and second embodiments.
In the process of the above Japanese Patent Laid-Open No. 2000-13642, the coefficient is obtained according to the difference, but here, the coefficient is changed to the determined coefficient at the place where “edge presence” is determined in the edge determination. However, the coefficient can be changed according to the difference.

このように、本願発明はエッジ判定手法に特徴があるため、エッジ情報を保存しつつ行うノイズ低減フィルタ、エッジ強調フィルタの何れに対しても適用可能である。   As described above, since the present invention has a feature in the edge determination method, it can be applied to both a noise reduction filter and an edge enhancement filter which are performed while preserving edge information.

上述した第1〜第3実施形態のカメラ装置(画像入力処理装置)では、エッジ情報取得部4Cが、可視光成分を含む第1画素信号(例えばR0,G0,B0信号)と、近赤外光成分を含む第2画素信号(例えばA画素)とから、第1差分ED1、第2差分ED2(場合によっては第3差分ED3)という複数の差分を、同一エッジに関して取得する。そして、エッジ判定部544は、この2つ(または3つの)差分を所定の基準と比較し、比較の結果に応じて「エッジ有り」「エッジ無し」の判定を行う。
その後のフィルタ処理では、エッジ部以外では基本フィルタ係数セットを用いてフィルタ処理が行われるが、エッジ部では、この基本フィルタ係数セットに変更が加えられてからフィルタ処理が実行される。このためエッジ部に対し、例えば、上記ノイズ低減の緩和、上記エッジ強調が行われる。
In the camera devices (image input processing devices) of the first to third embodiments described above, the edge information acquisition unit 4C includes the first pixel signal (for example, R0, G0, B0 signals) including a visible light component, and the near infrared. A plurality of differences of a first difference ED1 and a second difference ED2 (possibly a third difference ED3) are acquired for the same edge from a second pixel signal (for example, A pixel) including a light component. Then, the edge determination unit 544 compares the two (or three) differences with a predetermined reference, and determines “with edge” or “without edge” according to the comparison result.
In the subsequent filter processing, the filter processing is performed using the basic filter coefficient set except for the edge portion. However, in the edge portion, the filter processing is executed after the basic filter coefficient set is changed. Therefore, for example, the noise reduction and the edge enhancement are performed on the edge portion.

このため、被写体を撮像する際に、信号の情報量が多いためS/N比が高く、エッジが鮮明な画像(第2画素信号の画像)と、エッジ境界の色成分の組み合わせでエッジが鮮明な画像(第1画素信号の画像)の何れか良好なエッジをもつ画像がエッジ判定に用いられることになる。
換言すると、エッジ境界の色の組み合わせによっては、赤外光を含む第2画素信号のみのエッジ判定ができないという背景技術が持つ不都合を回避しつつ、エッジ情報を良好に保存するノイズ低減処理、あるいは、高精度なエッジ強調処理が施されるため、常に高品質な画像が出力される。
For this reason, when imaging a subject, the amount of signal information is large, so the S / N ratio is high, the edge is clear (the image of the second pixel signal), and the edge is clear by combining the color components of the edge boundary. An image having a good edge of any other image (image of the first pixel signal) is used for edge determination.
In other words, depending on the color combination of the edge boundary, a noise reduction process that satisfactorily stores the edge information while avoiding the disadvantage of the background art that only the second pixel signal including infrared light cannot be determined, or Since high-precision edge enhancement processing is performed, a high-quality image is always output.

特に第2実施形態では、赤外光成分IRが減算されて信号レベルが低下するためS/N比が低下する色補正処理に入力される前、さらに望ましくは、その色補正前で信号増幅を行うゲイン調整が施される前の第1画素信号から第1差分ED1が検出されるため、差分演算におけるノイズの影響が極力回避でき、高精度なエッジ判定が可能であるという利点がある。
また、第1および第2実施形態では、エッジ部の詳細画像がエッジ・テクスチャ情報ETとして抽出され、合成されるため、エッジ部でノイズ低減の効果が得られない場合、フィルタリングにより色が異なる場合でも、元のノイズレベル、色情報の保存が可能である。
第3実施形態のエッジ強調フィルタのためのエッジ判定で、エッジの不鮮明化が生じると、エッジが存在するのにエッジ強調されない、エッジ強調の程度が弱いという不都合が生じるが、このような事態が回避できる。
In particular, in the second embodiment, the signal amplification is preferably performed before input to the color correction processing in which the S / N ratio is decreased because the infrared light component IR is subtracted to reduce the signal level, and more preferably before the color correction. Since the first difference ED1 is detected from the first pixel signal before the gain adjustment to be performed, there is an advantage that the influence of noise in the difference calculation can be avoided as much as possible, and highly accurate edge determination is possible.
In the first and second embodiments, since the detailed image of the edge portion is extracted and synthesized as the edge / texture information ET, the noise reduction effect cannot be obtained at the edge portion, or the color is different due to filtering. However, the original noise level and color information can be saved.
In the edge determination for the edge enhancement filter according to the third embodiment, when edge smearing occurs, there is an inconvenience that the edge is not enhanced although the edge exists, and the degree of edge enhancement is weak. Can be avoided.

なお、以上はカラー画像の処理について述べたが、モノクロ画像を撮像するカメラ装置にも同様に、本発明が適用できる。この場合、第1画素信号はIR成分が除去されたモノクロ画素信号であり、第2画素信号は、当該モノクロ画素信号にIR成分が含まれた信号である。この場合、IR成分を含むため第2画素信号が、よりS/N比が高い一方で、撮像環境に応じてIR成分の割合が極端に大きくなると、第2画素信号に基づくエッジの検出が困難になることがある。その場合、上記第1〜第3実施形態では、第1画素信号でエッジ検出のために検出された第1差分ED1で「エッジ有り」の判定が可能となる。よって、上記カラー画像と同様に、赤外光を含む第2画素信号のみのエッジ判定ができないという背景技術が持つ不都合を回避しつつ、エッジ情報を良好に保存するノイズ低減処理、あるいは、高精度なエッジ強調処理が施されるため、フィルタ処理部からは常に高品質な画像が出力される。   Although the color image processing has been described above, the present invention can be similarly applied to a camera device that captures a monochrome image. In this case, the first pixel signal is a monochrome pixel signal from which the IR component is removed, and the second pixel signal is a signal in which the IR component is included in the monochrome pixel signal. In this case, since the second pixel signal has a higher S / N ratio because it includes an IR component, if the ratio of the IR component becomes extremely large depending on the imaging environment, it is difficult to detect an edge based on the second pixel signal. May be. In that case, in the first to third embodiments, it is possible to determine “there is an edge” by using the first difference ED1 detected for edge detection by the first pixel signal. Therefore, as with the color image described above, noise reduction processing that preserves edge information satisfactorily while avoiding the inconvenience of the background technology that only the second pixel signal including infrared light cannot be determined, or high accuracy Since the edge enhancement processing is performed, a high quality image is always output from the filter processing unit.

本発明の実施形態に係る画素信号処理回路を内蔵したカメラ装置のブロック図である。1 is a block diagram of a camera device incorporating a pixel signal processing circuit according to an embodiment of the present invention. 本実施形態の説明に用いた、撮像デバイスの出力分光特性を示すグラフである。It is a graph which shows the output spectral characteristic of the imaging device used for description of this embodiment. (A)と(B)はオンチップ・多層フィルタの色配列を1画素ユニット分示す図である。(A) and (B) are diagrams showing the color arrangement of an on-chip multilayer filter for one pixel unit. (A)は色フィルタの構造例、(B)は赤外カットフィルタの構造例を示す模式的な断面図である。(A) is a schematic cross-sectional view showing a structural example of a color filter, and (B) is a schematic sectional view showing a structural example of an infrared cut filter. 第1実施形態に関わるNR処理部の構成図である。It is a block diagram of the NR process part in connection with 1st Embodiment. (A)と(B)は、第2実施形態に関わるNR処理部の構成図である。(A) And (B) is a block diagram of the NR process part in connection with 2nd Embodiment. (A)はゲイン調整前の画像、(B)は色補正後の画像を示す図である。(A) is an image before gain adjustment, and (B) is a diagram showing an image after color correction. 信号処理部のブロック図である。It is a block diagram of a signal processing part. NRブロックの詳細を示すブロック図である。It is a block diagram which shows the detail of NR block. エッジ判定とノイズ低減を模式的に詳示した撮像以後の処理フロー図である。It is a processing flow figure after imaging which showed edge details and noise reduction typically in detail. エッジ判定とフィルタリングの関係を概念的に示す図である。It is a figure which shows notionally the relationship between edge determination and filtering. フィルタ係数設定とフィルタリングの関係を概念的に示す図である。It is a figure which shows notionally the relationship between filter coefficient setting and filtering. 特許文献1に記載された画像処理部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an image processing unit described in Patent Document 1. (A)はA画像、(B)は可視光の入力画像のR成分(R画像)を、それぞれ色パレット画像で示す図である。(A) is an A image, (B) is a figure which shows R component (R image) of the input image of visible light by a color palette image, respectively.

符号の説明Explanation of symbols

1…光学部品、2…撮像デバイス、3…AFE回路、4…信号処理部、4A…ゲイン調整部、4B…NR部、4C…エッジ情報取得部、4D…合成処理部、4E…フィルタ処理部、4F…色補正部、5…ADC、9…混合回路、10…マイクロコンピュータ、11…不揮発性メモリ、12…DAC、13…TG、14…ビデオ信号、41…PREブロック、42…Yブロック、43…Cブロック、53…ディレイライン部、54…NRブロック、54A…NR処理部、541…分離部、542…同時化処理部、543…Aデモザイク処理部、544…エッジ判定部、545…RGBデモザイク処理部、546…フィルタ部、G…ゲイン値、ED1…第1差分、ED2…第2差分、ET…エッジ・テクスチャ情報   DESCRIPTION OF SYMBOLS 1 ... Optical component, 2 ... Imaging device, 3 ... AFE circuit, 4 ... Signal processing part, 4A ... Gain adjustment part, 4B ... NR part, 4C ... Edge information acquisition part, 4D ... Composition processing part, 4E ... Filter processing part 4F ... color correction unit, 5 ... ADC, 9 ... mixing circuit, 10 ... microcomputer, 11 ... nonvolatile memory, 12 ... DAC, 13 ... TG, 14 ... video signal, 41 ... PRE block, 42 ... Y block, 43 ... C block, 53 ... delay line section, 54 ... NR block, 54A ... NR processing section, 541 ... separation section, 542 ... simulation processing section, 543 ... A demosaic processing section, 544 ... edge determination section, 545 ... RGB Demosaic processing unit, 546 ... filter unit, G ... gain value, ED1 ... first difference, ED2 ... second difference, ET ... edge / texture information

Claims (5)

赤外カットフィルタを通した光を受光することによって近赤外光成分が低減され、かつ、可視光成分を含む第1画素信号を出力する第1画素と、赤外カットフィルタを通さない光を受光することによって可視光成分と近赤外光成分の両方を含む第2画素信号を出力する第2画素と、を規則的に配置して形成されている画素アレイを有する撮像デバイスと、
前記第1画素信号を処理することによって、前記赤外カットフィルタを通した後に残存する近赤外光成分を低減する赤外光低減部と、
2つの前記第1画素から出力される2つの第1画素信号の差分である第1差分と、前記2つの第1画素に対応する2つの前記第2画素から出力される2つの第2画素信号の差分である第2差分とを取得するとともに、前記赤外光低減部からの信号の同一色データ配列上で隣接する2つの信号の差分である第3差分を取得することで、エッジ情報を取得するエッジ情報取得部と、
前記第1差分、前記第2差分および前記第3差分の各々を所定の基準値とを比較し、比較の結果に基づいてエッジの有無を判定するエッジ判定部と、
前記エッジ判定部でエッジ有りと判定されたときに、エッジ無しの場合に用いる所定の基本フィルタ係数を変更して、前記赤外光低減部で処理後の第1画素信号に対してフィルタ処理を施すフィルタ処理部と、
を有する画像入力処理装置。
By receiving the light that has passed through the infrared cut filter, the near infrared light component is reduced, and the first pixel that outputs the first pixel signal including the visible light component and the light that does not pass through the infrared cut filter An imaging device having a pixel array formed by regularly arranging second pixels that output a second pixel signal including both a visible light component and a near-infrared light component by receiving light ; and
An infrared light reduction unit that reduces the near-infrared light component remaining after passing through the infrared cut filter by processing the first pixel signal;
A first difference, which is a difference between two first pixel signals output from the two first pixels, and two second pixel signals output from the two second pixels corresponding to the two first pixels. Edge information by acquiring a third difference that is a difference between two adjacent signals on the same color data array of signals from the infrared light reduction unit. An edge information acquisition unit to acquire;
An edge determination unit that compares each of the first difference, the second difference, and the third difference with a predetermined reference value, and determines the presence or absence of an edge based on a comparison result;
When the edge determination unit determines that there is an edge, the predetermined basic filter coefficient used when there is no edge is changed, and the first pixel signal processed by the infrared light reduction unit is filtered. A filter processing unit to be applied;
An image input processing apparatus.
前記第1画素は、前記撮像デバイスの画素アレイの基本構成単位である画素ユニット内に設けられた原色系または補色系の複数の画素であり、
前記第2画素は、前記複数の画素からの画素値合計と等価な可視光成分を含む画素信号を出力する画素である
請求項に記載の画像入力処理装置。
The first pixel is a plurality of pixels of a primary color system or a complementary color system provided in a pixel unit which is a basic structural unit of a pixel array of the imaging device,
The image input processing device according to claim 1 , wherein the second pixel is a pixel that outputs a pixel signal including a visible light component equivalent to a sum of pixel values from the plurality of pixels.
前記赤外光低減部は、前記残存した近赤外光成分を前記第2画素信号で低減することにより色補正を行う色補正部である
請求項1または2に記載の画像入力処理装置。
The infrared light reducing portion includes an image input apparatus according to claim 1 or 2 which is a color correction unit for performing color correction by reducing the near-infrared light component above remains in the second pixel signal.
赤外カットフィルタを通した光を受光することによって近赤外光成分が低減され、かつ、可視光成分を含む第1画素信号を処理することによって、前記赤外カットフィルタを通した後に残存する近赤外光成分を低減する赤外光低減部と、
赤外カットフィルタを通さない光を受光することによって可視光成分と近赤外光成分の両方を含む第2画素信号と、前記第1画素信号とをそれぞれ入力し、前記第1画素信号の同一色データ配列上で隣接する2つの画素データから第1差分を求め、当該第1差分を求めた前記2つの画素データに対応する、前記第2画素信号の2つの画素データから第2差分を求め、前記赤外光低減部からの信号の同一色データ配列上で隣接する2つの信号の差分である第3差分を取得することで、エッジ情報を取得するエッジ情報取得部と、
前記第1差分、前記第2差分および前記第3差分の各々を所定の基準値とを比較し、比較の結果に基づいてエッジの有無を判定するエッジ判定部と、
前記エッジ判定部でエッジ有りと判定されたときに、エッジ無しの場合に用いる所定の基本フィルタ係数を変更して、前記前記赤外光低減部による処理後の第1画素信号に対してフィルタ処理を施すフィルタ処理部と、
を有する画素信号処理回路。
The near-infrared light component is reduced by receiving the light that has passed through the infrared cut filter, and the first pixel signal including the visible light component is processed to remain after passing through the infrared cut filter. An infrared light reduction unit for reducing near infrared light components;
By receiving light that does not pass through an infrared cut filter, a second pixel signal containing both a visible light component and a near-infrared light component and the first pixel signal are input, and the same first pixel signal A first difference is obtained from two adjacent pixel data on the color data array, and a second difference is obtained from the two pixel data of the second pixel signal corresponding to the two pixel data obtained from the first difference. An edge information acquisition unit that acquires edge information by acquiring a third difference that is a difference between two adjacent signals on the same color data array of signals from the infrared light reduction unit ;
An edge determination unit that compares each of the first difference, the second difference, and the third difference with a predetermined reference value, and determines the presence or absence of an edge based on a comparison result;
When the edge determination unit determines that there is an edge, a predetermined basic filter coefficient used when there is no edge is changed, and a filter process is performed on the first pixel signal processed by the infrared light reduction unit A filter processing unit for applying
A pixel signal processing circuit.
赤外カットフィルタを通した光を受光することによって近赤外光成分が低減され、かつ、可視光成分を含む第1画素信号と、赤外カットフィルタを通さない光を受光することによって可視光成分と近赤外光成分の両方を含む第2画素信号と、を取得するステップと、
前記第1画素信号を処理することによって、前記赤外カットフィルタを通した後に残存する近赤外光成分を低減するステップと、
2つの第1画素から出力される2つの第1画素信号の差分である第1差分と、前記2つの第1画素に対応する2つの第2画素から出力される2つの第2画素信号の差分である第2差分とを取得するとともに、前記赤外光成分が低減された後の第1画素信号の同一色データ配列上で隣接する2つの信号の差分である第3差分を取得するステップと、
前記第1差分、前記第2差分および前記第3差分の各々を所定の基準値とを比較し、比較の結果に基づいてエッジの有無を判定するステップと、
を含むエッジ検出方法。
By receiving the light that has passed through the infrared cut filter, the near infrared light component is reduced, and the first pixel signal including the visible light component and the light that does not pass through the infrared cut filter are received by the visible light. Obtaining a second pixel signal including both a component and a near-infrared light component;
Reducing the near-infrared light component remaining after passing through the infrared cut filter by processing the first pixel signal;
A first difference is a difference between the two first pixel signals output from the two first pixel, wherein two of the two second pixel signals output from the two second pixels corresponding to the first pixel And a third difference that is a difference between two adjacent signals on the same color data array of the first pixel signal after the infrared light component is reduced. Steps,
Comparing each of the first difference, the second difference, and the third difference with a predetermined reference value, and determining the presence or absence of an edge based on a result of the comparison;
Edge detection method including:
JP2007126863A 2007-05-11 2007-05-11 Image input processing device, pixel signal processing circuit, and edge detection method Expired - Fee Related JP5034665B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007126863A JP5034665B2 (en) 2007-05-11 2007-05-11 Image input processing device, pixel signal processing circuit, and edge detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007126863A JP5034665B2 (en) 2007-05-11 2007-05-11 Image input processing device, pixel signal processing circuit, and edge detection method

Publications (2)

Publication Number Publication Date
JP2008283541A JP2008283541A (en) 2008-11-20
JP5034665B2 true JP5034665B2 (en) 2012-09-26

Family

ID=40143974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007126863A Expired - Fee Related JP5034665B2 (en) 2007-05-11 2007-05-11 Image input processing device, pixel signal processing circuit, and edge detection method

Country Status (1)

Country Link
JP (1) JP5034665B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101180387B1 (en) * 2011-11-21 2012-09-10 동국대학교 산학협력단 Image sensor for edge extraction and method for generating edge image using the same
JP2014241584A (en) 2013-05-14 2014-12-25 パナソニックIpマネジメント株式会社 Image processing method and image processing system
JP2017112401A (en) * 2015-12-14 2017-06-22 ソニー株式会社 Imaging device, apparatus and method for image processing, and program
CN117912404B (en) * 2024-03-15 2024-07-02 杭州海康威视数字技术股份有限公司 Boundary determination method of lamp bead effective pixel point applied to LED display screen

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061105A (en) * 2001-06-07 2003-02-28 Seiko Epson Corp Image processing method, image processing program, image processing apparatus, and digital still camera using the image processing apparatus
JP4442413B2 (en) * 2004-12-22 2010-03-31 ソニー株式会社 Image processing apparatus, image processing method, program, and recording medium
JP4984634B2 (en) * 2005-07-21 2012-07-25 ソニー株式会社 Physical information acquisition method and physical information acquisition device

Also Published As

Publication number Publication date
JP2008283541A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
JP4341695B2 (en) Image input processing device, imaging signal processing circuit, and imaging signal noise reduction method
US8467088B2 (en) Image signal processing apparatus, imaging apparatus, image signal processing method and computer program
JP4930109B2 (en) Solid-state imaging device, imaging device
EP2178305B1 (en) Image processing device, imaging device, image processing method, imaging method, and image processing program
JP5527448B2 (en) Image input device
US8199229B2 (en) Color filter, image processing apparatus, image processing method, image-capture apparatus, image-capture method, program and recording medium
US8363123B2 (en) Image pickup apparatus, color noise reduction method, and color noise reduction program
JP5397788B2 (en) Image input device
WO2016047240A1 (en) Image processing device, image pickup element, image pickup device, and image processing method
JP2008289090A (en) Imaging signal processor
JP2006310999A (en) Image processing apparatus and method, and program
US9936172B2 (en) Signal processing device, signal processing method, and signal processing program for performing color reproduction of an image
JP2012239103A (en) Image processing device, image processing method, and program
JP5034665B2 (en) Image input processing device, pixel signal processing circuit, and edge detection method
US8077234B2 (en) Image pickup device and method for processing an interpolated color signal
JP5098908B2 (en) Image input device
JP5948167B2 (en) Imaging device
JP7423033B2 (en) Image signal processing method
JP2008177724A (en) Image input device, signal processor, and signal processing method
WO2017122553A1 (en) Image processing device, image processing method and image capturing device
JP2010130321A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees