JP2010239493A - Image pickup apparatus, and method of correcting video signal - Google Patents

Image pickup apparatus, and method of correcting video signal Download PDF

Info

Publication number
JP2010239493A
JP2010239493A JP2009086696A JP2009086696A JP2010239493A JP 2010239493 A JP2010239493 A JP 2010239493A JP 2009086696 A JP2009086696 A JP 2009086696A JP 2009086696 A JP2009086696 A JP 2009086696A JP 2010239493 A JP2010239493 A JP 2010239493A
Authority
JP
Japan
Prior art keywords
video signal
difference
distance
calculating
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009086696A
Other languages
Japanese (ja)
Inventor
Hiroshi Suzuki
博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009086696A priority Critical patent/JP2010239493A/en
Publication of JP2010239493A publication Critical patent/JP2010239493A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup apparatus 11 capable of obtaining high-definition video signals, and to provide a method of correcting video signals for obtaining high-definition video signals. <P>SOLUTION: The image pickup apparatus includes: a CCD 102 for photographing a subject 10 to output the video signal of a video image 20; a distance information acquisition section 108 for acquiring photographing distance; and a noise reduction section 110 for reducing noise, based on photographing distance of an area of interest 22, namely a video image of a specific subject 10A for composing one portion of the video image 20, and photographing distance of a proximity region 23 of the area of interest 22. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像して得られた映像信号に対して信号補正処理を行う撮像装置および映像信号の補正処理方法に関し、特に被写体との距離情報をもとにノイズ低減処理を行う撮像装置、および被写体と撮像装置との距離情報をもとにノイズ低減処理を行う映像信号の補正処理方法に関する。   The present invention relates to an imaging device and a video signal correction processing method that perform signal correction processing on a video signal obtained by imaging, and in particular, an imaging device that performs noise reduction processing based on distance information from a subject, and The present invention relates to a video signal correction processing method for performing noise reduction processing based on distance information between a subject and an imaging apparatus.

デジタルカメラ等の撮像装置では撮像して得られた映像信号をアナログ信号からデジタル信号に変換するときに映像信号中にノイズが含まれてしまう。またCCD等の撮像素子に欠陥画素があった場合等には映像信号中に固定パターンノイズが含まれてしまう。このため撮像装置では映像信号中のノイズを低減するためにノイズ低減処理が行われている。   In an imaging apparatus such as a digital camera, noise is included in the video signal when the video signal obtained by imaging is converted from an analog signal to a digital signal. In addition, when there is a defective pixel in an image sensor such as a CCD, fixed pattern noise is included in the video signal. For this reason, in the imaging apparatus, noise reduction processing is performed in order to reduce noise in the video signal.

ノイズ低減処理は映像信号の変化の振幅を軽減する平滑化処理によって行うが、平滑化処理は映像信号のエッジ成分も滑らかにしてしまうため、画質を劣化してしまうという副作用が生じることがある。   The noise reduction process is performed by a smoothing process that reduces the amplitude of the change in the video signal. However, the smoothing process also smoothes the edge component of the video signal, which may cause a side effect of degrading the image quality.

トマシらは、IEEE国際コンピュータビジョン会議予稿集(1998年、839ページから846ページ)にて、バイラテラルフィルタを用いるノイズ低減処理を開示している。バイラテラルフィルタは注目画素からの距離による重みと信号差による重みとに基づき、加算平均を算出して平滑化処理を行う。このためバイラテラルフィルタを用いることで映像信号のエッジ成分を保存した画質劣化の少ないノイズ低減処理を実現できる。   Tomasi et al. Disclosed a noise reduction process using a bilateral filter in the IEEE International Computer Vision Conference Proceedings (1998, pages 839 to 846). The bilateral filter calculates an average and performs smoothing processing based on the weight based on the distance from the target pixel and the weight based on the signal difference. For this reason, by using a bilateral filter, it is possible to realize a noise reduction process with little image quality degradation that preserves the edge component of the video signal.

シー・トマシ、アール・マンデュチ(C. Tomasi and R. Manduchi)著、クレイおよびカラーイメージへのバイラテラルフィルタ処理(Bilateral filtering for gray and color images)、IEEE国際コンピュータビジョン会議予稿集(Proc. IEEE. Conf. Computer Vision)、(インド)、1998年、839ページから846ページ。C. Tomasi and R. Manduchi, Bilateral filtering for gray and color images, Proc. IEEE. Proceedings of IEEE International Computer Vision Conference Conf. Computer Vision), (India), 1998, pages 839-846.

しかし、バイラテラルフィルタを用いたノイズ低減処理でも映像信号の差の小さい微小なエッジ成分に対しては十分な効果を奏することができずに、微小なエッジ成分を滑らかにし画質を劣化してしまうという問題が生じることがあった。   However, even with noise reduction processing using a bilateral filter, it is not possible to achieve a sufficient effect for minute edge components with a small difference in video signals, and the minute edge components are smoothed to deteriorate the image quality. There was a problem that occurred.

上記目的を達成すべく、本発明の撮像装置は、被写体を撮影し映像画像の映像信号を出力する撮像手段と、前記映像信号に対応した、前記被写体と前記撮像手段との間の距離である撮影距離を取得する測距手段と、前記映像画像の一部を構成する特定の被写体の前記映像画像である注目領域の前記映像信号の前記撮影距離と、前記注目領域に隣接する隣接領域の前記映像信号の前記撮影距離と、に基づき、前記注目領域の前記映像信号に対する補正処理を行う補正処理手段と、を有することを特徴とする。   In order to achieve the above object, the imaging apparatus of the present invention is a distance between an imaging unit that captures a subject and outputs a video signal of a video image, and the subject and the imaging unit corresponding to the video signal. Ranging means for obtaining a shooting distance; the shooting distance of the video signal of the region of interest that is the video image of a specific subject that forms part of the video image; and the adjacent region adjacent to the region of interest Correction processing means for performing correction processing on the video signal of the region of interest based on the shooting distance of the video signal.

また、本発明の映像信号の補正処理方法は、撮像手段により被写体を撮影し映像画像の映像信号を出力する撮影ステップと、前記映像信号に対応した前記被写体と前記撮像手段との間の距離である撮影距離を取得する距離情報取得ステップと、前記映像画像の一部を構成する特定の被写体の前記映像画像である注目領域の前記映像信号の前記撮影距離と、前記注目領域の隣接領域の前記映像信号の前記撮影距離と、に基づき、前記注目領域の前記映像信号に対する補正処理を行う補正処理ステップと、を有することを特徴とする映像信号の補正処理方法。   The video signal correction processing method according to the present invention includes a shooting step of shooting a subject by an imaging unit and outputting a video signal of a video image, and a distance between the subject corresponding to the video signal and the imaging unit. A distance information acquisition step of acquiring a certain shooting distance; the shooting distance of the video signal of the attention area which is the video image of a specific subject constituting a part of the video image; and the adjacent area of the attention area. A correction processing method for a video signal, comprising: a correction processing step for performing correction processing on the video signal in the region of interest based on the shooting distance of the video signal.

本発明は、高品位な映像信号を得ることができる撮像装置、および高品位な映像信号を得ることができる映像信号の補正処理方法を提供する。   The present invention provides an imaging apparatus capable of obtaining a high-quality video signal and a video signal correction processing method capable of obtaining a high-quality video signal.

本発明の第1実施形態の撮像装置の構成図である。It is a block diagram of the imaging device of 1st Embodiment of this invention. 原色カラーフィルタの構成を示す説明図である。It is explanatory drawing which shows the structure of a primary color filter. 本発明の第1実施形態の撮像装置のノイズ低減部の構成図である。It is a block diagram of the noise reduction part of the imaging device of 1st Embodiment of this invention. 映像画像を説明するための説明図である。It is explanatory drawing for demonstrating a video image. 本発明の第1実施形態の撮像装置の重み計数算出部の構成図である。It is a block diagram of the weight count calculation part of the imaging device of 1st Embodiment of this invention. 本発明の第2実施形態の撮像装置の重み計数算出部の構成図である。It is a block diagram of the weight count calculation part of the imaging device of 2nd Embodiment of this invention. 本発明の第3実施形態の撮像装置の構成図である。It is a block diagram of the imaging device of 3rd Embodiment of this invention. 本発明の第3実施形態の撮像装置の重み計数算出部の構成図である。It is a block diagram of the weight count calculation part of the imaging device of 3rd Embodiment of this invention. 本発明の第3実施形態における距離差の絶対値の分散vと分布係数σdとの関係をプロットした図である。It is the figure which plotted the relationship between dispersion | distribution v of the absolute value of the distance difference in 3rd Embodiment of this invention, and distribution coefficient (sigma) d. 本発明の第3実施形態の撮像装置のノイズ低減処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the noise reduction process of the imaging device of 3rd Embodiment of this invention.

<第1実施形態>
以下、図面を参照して本発明の第1実施形態の撮像装置11について説明する。
図1は、本発明の第1実施形態の撮像装置11の構成図である。撮像装置11においては、撮像手段であるCCD102は、特定の被写体10Aおよび10B等を含む被写体10を、レンズ系100および絞り101を介して撮影し、アナログ映像信号を出力する。すなわち、映像信号は、CCD102の画素数の画素の信号の集合体であり、以下、画素の信号のことを単に画素と表現する場合もある。
<First Embodiment>
Hereinafter, an imaging device 11 according to a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram of an imaging apparatus 11 according to the first embodiment of the present invention. In the image pickup apparatus 11, a CCD 102, which is an image pickup unit, takes an image of a subject 10 including specific subjects 10A and 10B through a lens system 100 and a diaphragm 101, and outputs an analog video signal. That is, the video signal is a collection of pixel signals of the number of pixels of the CCD 102, and hereinafter, the pixel signal may be simply expressed as a pixel.

なお、本明細書において、単に「被写体10」と言う場合には、CCD102が撮影した画面全体に写っているものを意味し、特定の被写体10A、例えば近くの人物、または特定の被写体10B、例えば遠くの山、等を意味するものではない。CCD102から出力された被写体10のアナログ映像信号は、A/D変換器104にてデジタル映像信号に変換される。A/D変換器104から出力された映像信号は、バッファ105を介して、測光評価部106と、測距手段である距離情報取得部108と、ノイズ低減手段であるノイズ低減部110とへ転送される。   In the present specification, the term “subject 10” simply means that the image is captured on the entire screen shot by the CCD 102, and a specific subject 10A, for example, a nearby person, or a specific subject 10B, for example, It does not mean a distant mountain. The analog video signal of the subject 10 output from the CCD 102 is converted into a digital video signal by the A / D converter 104. The video signal output from the A / D converter 104 is transferred via the buffer 105 to the photometry evaluation unit 106, the distance information acquisition unit 108 that is a distance measurement unit, and the noise reduction unit 110 that is a noise reduction unit. Is done.

測光評価部106は、絞り101およびCCD102と接続され、距離情報取得部108は、レンズ制御部107、および相対距離算出手段である相対距離算出部109と接続されている。レンズ制御部107はAFモータ103と接続されている。ノイズ低減部110は補間部111と接続され、補間部111は信号処理部112と接続されている。信号処理部112は圧縮部113と接続され、圧縮部113は出力部114と接続されている。   The photometric evaluation unit 106 is connected to the aperture 101 and the CCD 102, and the distance information acquisition unit 108 is connected to the lens control unit 107 and a relative distance calculation unit 109 that is a relative distance calculation unit. The lens control unit 107 is connected to the AF motor 103. The noise reduction unit 110 is connected to the interpolation unit 111, and the interpolation unit 111 is connected to the signal processing unit 112. The signal processing unit 112 is connected to the compression unit 113, and the compression unit 113 is connected to the output unit 114.

マイクロコンピュータ等から構成された制御手段である制御部115は、A/D変換器104と、測光評価部106と、レンズ制御部107と、距離情報取得部108と、相対距離算出部109と、ノイズ低減部110と、補間部111と、信号処理部112と、圧縮部113と、出力部114と、双方向に接続されている。さらに、電源スイッチ(不図示)と、シャッターボタン(不図示)と、撮影時のシーンモード等の撮影条件の切り替え等を行うためのインターフェースを備えた外部I/F部116とが、制御部115と、双方向に接続されている。なお、撮像装置11のシャッターボタンは、半押しされることで、プリ撮影モードに入り、全押しされることで本撮影モードに入る、2段階の押しボタンスイッチから構成されている。また、シーンモードとは、種々の撮影シーンに有利なシャッター速度、絞り値、または/かつ特定の被写体等を、撮像装置が自動的に選択し、適正条件で撮影を行うための設定であり、例えば、ポートレートモード、風景モード、クローズアップ(マクロ撮影)モード等があり、撮影開始前に撮影者が外部I/F部116を介して選択することができる。   A control unit 115 that is a control unit configured by a microcomputer or the like includes an A / D converter 104, a photometric evaluation unit 106, a lens control unit 107, a distance information acquisition unit 108, a relative distance calculation unit 109, The noise reduction unit 110, the interpolation unit 111, the signal processing unit 112, the compression unit 113, and the output unit 114 are bidirectionally connected. Further, the control unit 115 includes a power switch (not shown), a shutter button (not shown), and an external I / F unit 116 having an interface for switching shooting conditions such as a scene mode at the time of shooting. And connected in both directions. It should be noted that the shutter button of the image pickup apparatus 11 is composed of a two-stage push button switch that enters the pre-shooting mode when pressed halfway and enters the main shooting mode when pressed fully. In addition, the scene mode is a setting for the imaging device to automatically select a shutter speed, aperture value, and / or specific subject that is advantageous for various shooting scenes, and to perform shooting under appropriate conditions. For example, there are a portrait mode, a landscape mode, a close-up (macro shooting) mode, and the like, which can be selected by the photographer via the external I / F unit 116 before shooting starts.

次に、図1を用いて、撮像装置11における信号の流れについて説明する。
撮像装置11は外部I/F部116を介してISO感度およびシャッタースピード等の撮影条件が設定された後、外部I/F部116の一部であるシャッターボタン(不図示)が半押しされることでプリ撮影モードに入る。レンズ系100および絞り101を介してCCD102により撮影された映像信号は、A/D変換器104にてアナログ信号からデジタル信号に変換されてバッファ105に保存される。すなわち撮像手段により被写体を撮影し映像信号を出力する撮影ステップが行われる。
Next, a signal flow in the imaging apparatus 11 will be described with reference to FIG.
The imaging device 11 is set with photographing conditions such as ISO sensitivity and shutter speed via the external I / F unit 116, and then a shutter button (not shown) that is a part of the external I / F unit 116 is half-pressed. This will enter pre-shooting mode. A video signal photographed by the CCD 102 via the lens system 100 and the diaphragm 101 is converted from an analog signal to a digital signal by the A / D converter 104 and stored in the buffer 105. That is, a photographing step is performed in which a subject is photographed by the imaging means and a video signal is output.

なお後述するように、撮像装置11では本撮影モードでも、再度、撮影ステップが行われる。そして、撮像装置11ではプリ撮影モードにおける第1の撮影ステップで出力される第1の映像信号をもとに、本撮影モードにおける第2の撮影ステップで出力される第2の映像信号のノイズ低減処理が行われる。もちろん1回の撮影ステップのみで得られた映像信号を用いて全ての処理を行ってもよい。   As will be described later, the imaging device 11 performs the imaging step again even in the main imaging mode. Then, the imaging device 11 reduces noise of the second video signal output in the second shooting step in the main shooting mode based on the first video signal output in the first shooting step in the pre-shooting mode. Processing is performed. Of course, all processing may be performed using a video signal obtained by only one shooting step.

なお本実施の形態の撮像装置11ではCCD102としてベイヤー型の原色カラーフィルタを有する単板CCDを例に説明する。ここで図2はベイヤー型の原色カラーフィルタの構成を示す説明図であり、多数のCCD素子が2次元に配置された構造を有し、各CCD素子を横方向の位置(座標)を「i」、縦方向の位置(座標)を「j」で示している。ベイヤー型の原色カラーフィルタは2×2素子を基本単位とし、R、G1、G2、またはBの4種類のいずれか1つのカラーフィルタが、それぞれのCCD素子に配置されている。なお、G1とG2とは同一の光学特性を持つフィルタである。そして、2×2素子の基本単位19Aにより1つの映像信号からなる画素19(図4参照)が出力される。   In the imaging apparatus 11 of the present embodiment, a single-plate CCD having a Bayer-type primary color filter will be described as an example of the CCD 102. Here, FIG. 2 is an explanatory diagram showing the configuration of a Bayer-type primary color filter, which has a structure in which a number of CCD elements are two-dimensionally arranged. ", The position (coordinates) in the vertical direction is indicated by" j ". A Bayer-type primary color filter has 2 × 2 elements as a basic unit, and any one of four types of R, G1, G2, or B color filters is arranged in each CCD element. G1 and G2 are filters having the same optical characteristics. Then, a pixel 19 (see FIG. 4) consisting of one video signal is output by the basic unit 19A of 2 × 2 elements.

バッファ105に保存された映像信号は、測光評価部106と、距離情報取得部108と、ノイズ低減部110とへ転送される。測光評価部106では、映像信号中の輝度レベルを算出し、適正露光になるように絞り101およびCCD102の電子シャッタースピード等を制御する。   The video signal stored in the buffer 105 is transferred to the photometric evaluation unit 106, the distance information acquisition unit 108, and the noise reduction unit 110. The photometric evaluation unit 106 calculates the luminance level in the video signal and controls the electronic shutter speed and the like of the aperture 101 and the CCD 102 so as to achieve proper exposure.

測距手段である距離情報取得部108は、撮像装置11から被写体10までの距離である撮影距離dを、それぞれの画素に対応した映像信号に対して算出する。すなわち、映像信号に対応した、被写体10と撮像装置11との間の撮影距離dを算出する距離情報取得ステップが実行される。距離情報取得部108は、例えば、焦点ぼけの具合の異なる複数枚の画像から「ぼけ」の状態を表す「ぼけパラメータ」を算出する。ここで、ぼけパラメータとは輝度信号の焦点ぼけ状態を示す指標であり、PSF(Point Spread Function:点分散関数)の分散値と相関のあるパラメータである。   A distance information acquisition unit 108 that is a distance measuring unit calculates a shooting distance d that is a distance from the imaging device 11 to the subject 10 with respect to a video signal corresponding to each pixel. That is, a distance information acquisition step for calculating the shooting distance d between the subject 10 and the imaging device 11 corresponding to the video signal is executed. The distance information acquisition unit 108 calculates, for example, a “blur parameter” representing a “blur” state from a plurality of images having different degrees of defocus. Here, the blur parameter is an index indicating the defocus state of the luminance signal, and is a parameter correlated with the dispersion value of PSF (Point Spread Function).

PSFの分散値と撮影距離dとの関係は、所定の関係式でモデル化されているため、距離情報取得部108は、ぼけパラメータから、映像信号のそれぞれの画素について、撮像装置11から被写体10までの撮影距離dを算出する。ただし、上記関係式は、レンズの構成、ズーム、および絞り等の条件によって異なるため、それぞれの条件に応じた関係式を用いて算出される。   Since the relationship between the dispersion value of the PSF and the shooting distance d is modeled by a predetermined relational expression, the distance information acquisition unit 108 determines the subject 10 from the imaging device 11 for each pixel of the video signal based on the blur parameter. The shooting distance d is calculated. However, since the relational expression differs depending on conditions such as the lens configuration, zoom, and diaphragm, the relational expression is calculated using a relational expression corresponding to each condition.

距離情報取得部108は、上記説明のように、映像信号のそれぞれの画素について、それぞれの撮影距離dを算出、すなわち、CCD102の素子数(画素数)と同じ数の撮影距離dを算出しても良いが、撮像装置11では、処理の効率化のために、映像信号を複数の領域に分割し、分割した領域毎にフォーカスポイントを求めることで、任意の位置の映像信号の撮影距離dを表す距離マップを作成することもできる。距離情報取得部108により取得された撮影距離dの情報は、レンズ制御部107および相対距離算出部109へ転送される。   As described above, the distance information acquisition unit 108 calculates the shooting distance d for each pixel of the video signal, that is, calculates the shooting distance d as many as the number of elements (number of pixels) of the CCD 102. However, in the imaging device 11, the video signal is divided into a plurality of areas and the focus point is obtained for each of the divided areas to increase the processing efficiency, thereby obtaining the shooting distance d of the video signal at an arbitrary position. It is also possible to create a distance map to represent. Information on the shooting distance d acquired by the distance information acquisition unit 108 is transferred to the lens control unit 107 and the relative distance calculation unit 109.

特定距離取得手段であるレンズ制御部107は、距離情報取得部108を介して得られた撮影距離情報に基づきAFモータ103を制御し、設定されたシーンモード等に基づいて、特定の被写体10A、例えば人物、に焦点のあった合焦画像を得る。言い換えれば、レンズ制御部107は、合焦画像が得られる合焦距離である特定距離の距離情報を取得する特定距離情報取得ステップを行う。   The lens control unit 107, which is a specific distance acquisition unit, controls the AF motor 103 based on the shooting distance information obtained via the distance information acquisition unit 108, and the specific subject 10A, For example, a focused image focused on a person is obtained. In other words, the lens control unit 107 performs a specific distance information acquisition step of acquiring distance information of a specific distance that is a focus distance at which a focused image is obtained.

相対距離算出手段である相対距離算出部109は、距離情報取得部108から得られた撮影距離dと、レンズ制御部107によって求められた特定距離とに基づき、それぞれの画素に対応した映像信号全体について、相対距離rを算出する相対距離算出ステップを行う。   The relative distance calculation unit 109, which is a relative distance calculation unit, is based on the shooting distance d obtained from the distance information acquisition unit 108 and the specific distance obtained by the lens control unit 107, and the entire video signal corresponding to each pixel. A relative distance calculating step for calculating a relative distance r is performed.

そして、撮像装置11は、外部I/F部116を介してシャッターボタンが全押しされることで本撮影を行う。すなわち、撮像手段により被写体を撮影し第2の映像信号を出力する第2の撮影ステップが再度繰り返される。以下に説明する、ノイズ低減ステップにおいてノイズ低減処理が行われる映像信号は、第2の映像信号である。本撮影CCD102により撮影された映像信号はプリ撮影モードのときと同様にバッファ105へ転送され、一時的に保存される。本撮影は、測光評価部106にて求められた露光条件とレンズ制御部107によって求められた合焦条件等とに基づき行われ、これらの撮影条件は制御部115へ転送される。   Then, the imaging device 11 performs the actual shooting when the shutter button is fully pressed via the external I / F unit 116. That is, the second photographing step of photographing the subject by the imaging unit and outputting the second video signal is repeated again. The video signal on which noise reduction processing is performed in the noise reduction step described below is the second video signal. The video signal photographed by the main photographing CCD 102 is transferred to the buffer 105 and temporarily stored in the same manner as in the pre-photographing mode. The actual photographing is performed based on the exposure condition obtained by the photometric evaluation unit 106, the focusing condition obtained by the lens control unit 107, and the like, and these photographing conditions are transferred to the control unit 115.

撮像装置11の補正処理手段であり、ノイズ低減手段であるノイズ低減部110は、相対距離算出部109から得られる相対距離rに基づき、バッファ105から得られる映像信号に対して適応的なノイズ低減処理を行うノイズ低減ステップが行われる。なお、適応的とは、それぞれの画素の映像信号が、それぞれの状況に応じて適した処理がされていることを意味する。   The noise reduction unit 110, which is a correction processing unit of the imaging device 11 and is a noise reduction unit, adaptively reduces noise with respect to the video signal obtained from the buffer 105 based on the relative distance r obtained from the relative distance calculation unit 109. A noise reduction step for processing is performed. Note that “adaptive” means that the video signal of each pixel is appropriately processed according to each situation.

ノイズ低減処理後の映像信号は、補間部111へ転送される。補間部111は、公知の補間処理により三板状態の映像信号を生成し、信号処理部112へ転送する。信号処理部112では、映像信号に対して公知の色変換処理および階調変換処理などが行われ、圧縮部113へ転送される。圧縮部113は、公知のJPEG等の圧縮処理を行い、出力部114へ映像信号を転送する。出力部114は、圧縮後の映像信号をメモリーカード等のメディアに記録保存する。   The video signal after the noise reduction processing is transferred to the interpolation unit 111. The interpolation unit 111 generates a three-plate video signal by a known interpolation process, and transfers it to the signal processing unit 112. In the signal processing unit 112, known color conversion processing and gradation conversion processing are performed on the video signal, and the video signal is transferred to the compression unit 113. The compression unit 113 performs a known compression process such as JPEG and transfers the video signal to the output unit 114. The output unit 114 records and stores the compressed video signal in a medium such as a memory card.

ここで、図3を用いてノイズ低減部110の構成について説明する。図3は、ノイズ低減部110の構成図である。図3に示すように、ノイズ低減部110は、画像バッファ500と、局所領域抽出部501と、距離差算出部502と、上限設定部503と、クリッピング部504と、重み係数算出部505と、加算平均部506とを有する。バッファ105は画像バッファ500に接続している。画像バッファ500は局所領域抽出部501に接続している。局所領域抽出部501は、距離差算出部502および加算平均部506に接続している。距離情報取得部108は距離差算出部502に接続している。距離差算出部502および上限設定部503はクリッピング部504へ接続されている。   Here, the structure of the noise reduction part 110 is demonstrated using FIG. FIG. 3 is a configuration diagram of the noise reduction unit 110. As shown in FIG. 3, the noise reduction unit 110 includes an image buffer 500, a local region extraction unit 501, a distance difference calculation unit 502, an upper limit setting unit 503, a clipping unit 504, a weighting factor calculation unit 505, And an addition averaging unit 506. The buffer 105 is connected to the image buffer 500. The image buffer 500 is connected to the local area extraction unit 501. The local area extraction unit 501 is connected to the distance difference calculation unit 502 and the addition average unit 506. The distance information acquisition unit 108 is connected to the distance difference calculation unit 502. The distance difference calculation unit 502 and the upper limit setting unit 503 are connected to the clipping unit 504.

クリッピング部504は重み係数算出部505へ、重み係数算出部505は加算平均部506へ接続されている。加算平均部506は補間部111に接続している。制御部115は、局所領域抽出部501、距離差算出部502、上限設定部503、クリッピング部504、重み係数算出部505、および加算平均部506と双方向に接続されている。   The clipping unit 504 is connected to the weighting factor calculation unit 505, and the weighting factor calculation unit 505 is connected to the addition averaging unit 506. The addition averaging unit 506 is connected to the interpolation unit 111. The control unit 115 is bidirectionally connected to the local region extraction unit 501, the distance difference calculation unit 502, the upper limit setting unit 503, the clipping unit 504, the weight coefficient calculation unit 505, and the addition average unit 506.

バッファ105からの映像信号は、画像バッファ500に一時的に保存された後、局所領域抽出部501に転送される。局所領域抽出部501は、被写体映像の中の注目領域を構成するそれぞれの注目画素を中心とする所定の画素単位サイズの局所領域、例えば5×5画素単位の局所領域を抽出し、局所領域中に属する画素の映像信号を、距離差算出部502および加算平均部506へ転送する。   The video signal from the buffer 105 is temporarily stored in the image buffer 500 and then transferred to the local region extraction unit 501. The local area extraction unit 501 extracts a local area having a predetermined pixel unit size, for example, a local area of 5 × 5 pixels, centered on each target pixel constituting the target area in the subject video. Is transferred to the distance difference calculation unit 502 and the addition averaging unit 506.

ここで、図4は、映像画像を説明するための説明図である。注目画素21とは、例えば、合焦位置にある特定の被写体10Aの映像の画素19であり、注目領域22を構成する画素19である。言い換えれば注目領域22とは被写体10の映像画像20全体の中で、合焦位置にある特定の被写体10Aの映像画像の領域である。そして、注目領域22は全て合焦画素から構成されているのに対して、局所領域24は合焦画素である注目画素21を中心としているが合焦画素と非合焦画素とから構成されており、近傍領域23は非合焦画素から構成されている。図4から明らかなように近傍領域23は注目領域22に隣接する領域である。さらに具体的には、近傍領域23は注目領域22の外縁部に沿って、画素数として「(局所領域の画素数―1)/2」の幅を持った領域としてもよい。言い換えれば、近傍領域23は合焦画素からN画素の範囲にある非合焦画素の領域であり、例えば、Nは1以上の整数である。なお、図4は1箇所の注目領域22を含む映像画像20の一部の画像20Aを表示しているが、映像画像20は複数の注目領域22を含んでいても良い。   Here, FIG. 4 is an explanatory diagram for explaining a video image. The attention pixel 21 is, for example, the pixel 19 of the image of the specific subject 10 </ b> A at the in-focus position, and the pixel 19 constituting the attention region 22. In other words, the attention area 22 is an area of the video image of the specific subject 10A at the in-focus position in the entire video image 20 of the subject 10. The attention area 22 is entirely composed of focused pixels, whereas the local area 24 is centered on the attention pixel 21 that is a focused pixel, but is composed of focused and non-focused pixels. The neighborhood region 23 is composed of non-focused pixels. As is apparent from FIG. 4, the neighboring region 23 is a region adjacent to the attention region 22. More specifically, the neighboring region 23 may be a region having a width of “(the number of pixels in the local region−1) / 2” as the number of pixels along the outer edge of the region of interest 22. In other words, the neighboring region 23 is a region of non-focused pixels in the range from the focused pixel to N pixels. For example, N is an integer of 1 or more. 4 shows a part of the image 20A of the video image 20 including one attention area 22, the video image 20 may include a plurality of attention areas 22.

距離情報取得部108で得られた距離は、距離差算出部502へ転送される。   The distance obtained by the distance information acquisition unit 108 is transferred to the distance difference calculation unit 502.

距離差算出手段である距離差算出部502は、局所領域内の各画素に対応する距離から注目画素に対応する距離を減算することで各画素に対応する距離差の絶対値を算出し、クリッピング部504へ転送する。   A distance difference calculation unit 502 serving as a distance difference calculation unit calculates an absolute value of a distance difference corresponding to each pixel by subtracting a distance corresponding to the target pixel from a distance corresponding to each pixel in the local region, and performs clipping. The data is transferred to the unit 504.

上限設定手段である上限設定部503は、外部I/F部116から制御部115を介して得られる合焦条件またはシーンモード等の情報に基づき、距離差絶対値の上限値である距離差上限値を設定する。上限設定部503は、距離差絶対値が無限大となり計算が困難になるのを防ぐために設けられたものであり、制御部115を介して手動で設定することも可能である。例えば、シーンモードがマクロ撮影モードである場合は、注目領域と近傍領域との距離差は全体的に小さくなるので、距離差上限値を小さな値とする。逆に、風景と人物を同時に撮影するような場合は、注目領域と近傍領域との距離差が大きくなるので、距離差上限値を大きな値とする。上限設定部503が設定した距離差上限値は、クリッピング部504へ転送される。   The upper limit setting unit 503 serving as an upper limit setting unit is a distance difference upper limit that is an upper limit value of the distance difference absolute value based on information such as a focusing condition or a scene mode obtained from the external I / F unit 116 via the control unit 115. Set the value. The upper limit setting unit 503 is provided in order to prevent the absolute value of the distance difference from becoming infinite and difficult to calculate, and can also be manually set via the control unit 115. For example, when the scene mode is the macro shooting mode, the distance difference between the attention area and the neighboring area is reduced as a whole, so the upper limit value of the distance difference is set to a small value. On the other hand, when a landscape and a person are photographed at the same time, the distance difference between the attention area and the neighboring area becomes large, so the distance difference upper limit value is set to a large value. The distance difference upper limit value set by the upper limit setting unit 503 is transferred to the clipping unit 504.

クリッピング手段であるクリッピング部504は、距離差算出部502から転送された局所領域内の各画素に対応する距離差の絶対値に対して、距離差上限値に基づき、クリッピング処理を行う。ここで、クリッピング処理とは、距離差上限値を超える距離差絶対値を距離差上限値で置き換える処理である。クリッピング処理後の局所領域内の画素の距離差絶対値は、重み係数算出手段である重み係数算出部505へ転送される。   A clipping unit 504 serving as clipping means performs clipping processing on the absolute value of the distance difference corresponding to each pixel in the local area transferred from the distance difference calculation unit 502 based on the distance difference upper limit value. Here, the clipping process is a process of replacing the distance difference absolute value exceeding the distance difference upper limit value with the distance difference upper limit value. The distance difference absolute value of the pixels in the local region after the clipping processing is transferred to the weighting factor calculating unit 505 which is a weighting factor calculating unit.

ここで、図5は、撮像装置11の重み係数算出部の構成図である。図5に示すように、重み係数算出部505は、関数演算部600と、分布係数を記録した係数ROM601とを有する。重み係数算出部505は、クリッピング処理後の距離差絶対値に基づき、局所領域内の各画素に対する重み係数を算出する。   Here, FIG. 5 is a configuration diagram of a weighting coefficient calculation unit of the imaging apparatus 11. As shown in FIG. 5, the weighting coefficient calculation unit 505 includes a function calculation unit 600 and a coefficient ROM 601 that records distribution coefficients. The weighting coefficient calculation unit 505 calculates a weighting coefficient for each pixel in the local region based on the distance difference absolute value after the clipping process.

図5に示すように、クリッピング部504および係数ROM601は関数演算部600に接続している。関数演算部600は加算平均部506に接続している。制御部115は関数演算部600と双方向に接続されている。クリッピング処理後の局所領域内の距離差の絶対値は、関数演算部600に転送される。   As shown in FIG. 5, the clipping unit 504 and the coefficient ROM 601 are connected to the function calculation unit 600. The function calculation unit 600 is connected to the addition averaging unit 506. The control unit 115 is bidirectionally connected to the function calculation unit 600. The absolute value of the distance difference in the local area after the clipping process is transferred to the function calculation unit 600.

関数演算部600では、所定の分布係数を係数ROM601から読み出し、局所領域内の各画素に対応する距離差絶対値に基づく重み係数の算出を行う。例えば、重み係数は以下の式1を用いて求める。   The function calculation unit 600 reads a predetermined distribution coefficient from the coefficient ROM 601 and calculates a weighting coefficient based on the distance difference absolute value corresponding to each pixel in the local region. For example, the weighting coefficient is obtained using the following formula 1.

(式1)

Figure 2010239493
ここで、(i、j)は注目画素の座標を、(j+m、j+n)は注目画素(i、j)から水平方向にm、垂直方向にn画素だけ離れた近傍画素の座標を、Wは局所領域の画素サイズ(例えば、W=5)を、w(j+m、j+n)は座標(j+m、j+n)の画素における重み係数を示している。また、d(i、j)は座標(i、j)の画素における距離情報の値を表し、σdは距離差に対する重み係数を表すガウス分布の標準偏差を表す分布係数である。分布係数σdは予め係数ROM601に記録しておく。 (Formula 1)
Figure 2010239493
Here, (i, j) is the coordinate of the pixel of interest, (j + m, j + n) is the coordinate of a neighboring pixel separated from the pixel of interest (i, j) by m in the horizontal direction and n pixels in the vertical direction, and W is The pixel size (for example, W = 5) of the local area, and w (j + m, j + n) indicates the weighting coefficient in the pixel at the coordinates (j + m, j + n). Further, d (i, j) represents a value of distance information in the pixel at coordinates (i, j), and σd is a distribution coefficient representing a standard deviation of a Gaussian distribution representing a weighting coefficient for the distance difference. The distribution coefficient σd is recorded in the coefficient ROM 601 in advance.

式1より明らかなように、重み係数算出部505における演算処理では、注目画素の距離情報と近傍画素の距離差の絶対値が大きくなると、それに応じて近傍画素に対する重み係数が小さくなる。距離差絶対値が小さい近傍画素の映像信号を用いて加算平均を算出するため、距離差絶対値が大きい領域ではエッジ成分を保存する平滑化処理が行われる。   As is clear from Equation 1, in the calculation process in the weighting factor calculation unit 505, when the distance information of the pixel of interest and the absolute value of the distance difference between neighboring pixels increase, the weighting factor for the neighboring pixel decreases accordingly. Since the addition average is calculated using video signals of neighboring pixels having a small distance difference absolute value, a smoothing process is performed in which an edge component is stored in a region having a large distance difference absolute value.

重み係数算出部505が算出した重み係数は、加算平均手段である加算平均部506へ転送される。加算平均部506では、重み係数算出部505で算出された重み係数に基づき、局所領域抽出部501で得られた局所領域内の各画素の映像信号に対する加算平均を求める。算出した加算平均は、注目画素の映像信号と置き換えられる。加算平均後の注目画素の映像信号は、補間部111へ転送される。   The weighting factor calculated by the weighting factor calculation unit 505 is transferred to the addition averaging unit 506 which is an addition averaging unit. Based on the weighting factor calculated by the weighting factor calculation unit 505, the addition averaging unit 506 calculates an addition average for the video signal of each pixel in the local region obtained by the local region extraction unit 501. The calculated addition average is replaced with the video signal of the target pixel. The video signal of the target pixel after the averaging is transferred to the interpolation unit 111.

以上の説明の本実施形態の撮像装置11では、距離差絶対値の大きい領域と小さい領域とでノイズ低減処理の強度を変えることで、映像信号の差の小さい微小なエッジ成分に対して過度の処理を行わないため、高品位な映像信号を得ることができる。   In the imaging apparatus 11 according to the present embodiment described above, the intensity of noise reduction processing is changed between a region having a large distance difference absolute value and a region having a small distance difference, thereby excessively reducing a small edge component having a small video signal difference. Since no processing is performed, a high-quality video signal can be obtained.

また、本実施形態の映像信号の補正処理方法では、高品位な映像信号を得ることができる。   In addition, in the video signal correction processing method of the present embodiment, a high-quality video signal can be obtained.

<第1実施形態の変形例>
以下、図面を参照して本発明の第1実施形態の変形例の撮像装置11Bについて説明する。本変形例の撮像装置11Bは、第1実施形態の撮像装置11と類似しているため、同じ構成要素には同じ符号を付し説明は省略する。
<Modification of First Embodiment>
Hereinafter, an imaging device 11B according to a modification of the first embodiment of the present invention will be described with reference to the drawings. Since the imaging device 11B of the present modification is similar to the imaging device 11 of the first embodiment, the same components are denoted by the same reference numerals and description thereof is omitted.

第1実施形態の撮像装置11の重み係数算出部505は、関数演算部600が関数を用いて重み係数を算出する構成となっていた。
これに対して、本変形例の撮像装置11Bの重み係数算出部505Bは、予め距離差絶対値と重み係数との対応関係が記録されている係数記録テーブルであるテーブルROMを参照して重み係数を求める。
The weighting factor calculation unit 505 of the imaging device 11 according to the first embodiment is configured such that the function calculation unit 600 calculates a weighting factor using a function.
On the other hand, the weighting factor calculation unit 505B of the imaging apparatus 11B of the present modification refers to a weighting factor by referring to a table ROM that is a factor recording table in which the correspondence between the distance difference absolute value and the weighting factor is recorded in advance. Ask for.

図6に示すように、撮像装置11Bの重み係数算出部505Bは、テーブル演算部602とテーブルROM603とを有する。   As illustrated in FIG. 6, the weighting factor calculation unit 505B of the imaging device 11B includes a table calculation unit 602 and a table ROM 603.

クリッピング部504およびテーブルROM603はテーブル演算部602に接続している。テーブル演算部602は加算平均部506に接続している。制御部115はテーブル演算部602と双方向に接続されている。テーブル演算手段であるテーブル演算部602は、テーブルROM603を参照し、クリッピング部504から転送される局所領域内の距離差絶対値に対応する重み係数を算出する。テーブルROM603に記録されているテーブル(対応表)は予め定められているものであり、例えば、一定の間隔でサンプリングされた距離差絶対値に対して、式1の関数を用いて重み係数を算出し、距離差絶対値と重み係数との関係を対応付けることで定めることができる。重み係数算出部505Bが算出した重み係数は、加算平均部506へ転送される。   The clipping unit 504 and the table ROM 603 are connected to the table calculation unit 602. The table calculation unit 602 is connected to the addition averaging unit 506. The control unit 115 is bidirectionally connected to the table calculation unit 602. A table calculation unit 602 serving as a table calculation unit refers to the table ROM 603 and calculates a weighting coefficient corresponding to the distance difference absolute value in the local area transferred from the clipping unit 504. The table (correspondence table) recorded in the table ROM 603 is predetermined. For example, the weighting coefficient is calculated using the function of Equation 1 for the absolute value of the distance difference sampled at a constant interval. Then, it can be determined by associating the relationship between the distance difference absolute value and the weighting coefficient. The weighting factor calculated by the weighting factor calculation unit 505B is transferred to the addition averaging unit 506.

以上の説明の本変形例の撮像装置11Bは、第1実施形態の撮像装置11と同様の効果を有するだけでなく、テーブル演算処理は実装化が容易であるために、撮像装置11と比較して、より高速かつ低コストなシステムを構築できる。また、本変形例の映像信号の補正処理方法では、第1実施形態の映像信号の補正処理方法と同様の効果を有するだけでなく、第1実施形態の映像信号の補正処理方法と比較して、より高速かつ低コストなシステムを構築できる。   The imaging device 11B of the present modification described above has the same effect as the imaging device 11 of the first embodiment, and the table arithmetic processing is easy to implement. Thus, a faster and lower cost system can be constructed. In addition, the video signal correction processing method of the present modification not only has the same effect as the video signal correction processing method of the first embodiment, but also compared with the video signal correction processing method of the first embodiment. It is possible to construct a faster and lower cost system.

<第2実施形態>
以下、図面を参照して本発明の第2実施形態の撮像装置11Cについて説明する。本実施の形態の撮像装置11Cは、第1実施形態の撮像装置11と類似しているため、同じ構成要素には同じ符号を付し説明は省略する。
<Second Embodiment>
Hereinafter, an image pickup apparatus 11C according to a second embodiment of the present invention will be described with reference to the drawings. Since the imaging device 11C of the present embodiment is similar to the imaging device 11 of the first embodiment, the same components are denoted by the same reference numerals and description thereof is omitted.

図7は、本実施の形態の撮像装置11Cのノイズ低減部110Cの構成を示す構成図である。ノイズ低減部110Cは、図3に示した第1実施形態のノイズ低減部110の構成に信号差算出部507および座標差算出部508を追加した構成になっている。   FIG. 7 is a configuration diagram illustrating a configuration of the noise reduction unit 110C of the imaging device 11C according to the present embodiment. The noise reduction unit 110C has a configuration in which a signal difference calculation unit 507 and a coordinate difference calculation unit 508 are added to the configuration of the noise reduction unit 110 of the first embodiment shown in FIG.

図7に示すように、局所領域抽出部501は、信号差算出部507および座標差算出部508に接続している。信号差算出部507および座標差算出部508は、重み係数算出部505に接続している。制御部115は、信号差算出部507および座標差算出部508と双方向に接続されている。局所領域抽出部501で得られた局所領域内の映像信号は、信号差算出部507および座標差算出部508へ転送される。信号差算出手段である信号差算出部507は、局所領域内の各画素の映像信号と注目画素の映像信号との差の絶対値を算出する。信号差算出部507の処理を、式で表すと以下の式2のようになる。   As shown in FIG. 7, the local region extraction unit 501 is connected to a signal difference calculation unit 507 and a coordinate difference calculation unit 508. The signal difference calculation unit 507 and the coordinate difference calculation unit 508 are connected to the weight coefficient calculation unit 505. The control unit 115 is bidirectionally connected to the signal difference calculation unit 507 and the coordinate difference calculation unit 508. The video signal in the local area obtained by the local area extracting unit 501 is transferred to the signal difference calculating unit 507 and the coordinate difference calculating unit 508. A signal difference calculation unit 507 serving as a signal difference calculation unit calculates an absolute value of a difference between the video signal of each pixel in the local region and the video signal of the target pixel. The processing of the signal difference calculation unit 507 is expressed by the following equation (2).

(式2)

Figure 2010239493
ここで、f(i、j)は座標(i、j)の画素の映像信号を、dS(j+m、j+n)は座標(j+m、j+n)の画素における注目画素の映像信号との差の絶対値を表す。局所領域内の各画素に対応する映像信号の差の絶対値は、重み係数算出部505へ転送される。 (Formula 2)
Figure 2010239493
Here, f (i, j) is the video signal of the pixel at coordinates (i, j), and dS (j + m, j + n) is the absolute value of the difference from the video signal of the pixel of interest at the pixel at coordinates (j + m, j + n). Represents. The absolute value of the difference between the video signals corresponding to each pixel in the local region is transferred to the weighting coefficient calculation unit 505.

座標差算出手段である座標差算出部508は、局所領域内の各画素の2次元座標値と注目画素の2次元座標値の差である画素間の距離を算出する。なお、被写体10と撮像装置11Cの間の距離である撮影距離dと区別するため、画素間の距離を「座標値の差の絶対値」という。座標値の差の絶対値を式で表すと以下の式3のようになる。   A coordinate difference calculation unit 508 serving as a coordinate difference calculation unit calculates a distance between pixels that is a difference between the two-dimensional coordinate value of each pixel in the local region and the two-dimensional coordinate value of the target pixel. Note that the distance between the pixels is referred to as “the absolute value of the difference in coordinate values” in order to distinguish from the shooting distance d, which is the distance between the subject 10 and the imaging device 11C. The absolute value of the difference between the coordinate values is expressed by the following equation (3).

(式3)

Figure 2010239493
ここで、dC(j+m、j+n)は座標(j+m、j+n)の画素における注目画素の座標値との差の絶対値を表す。算出した座標値の差の絶対値は、重み係数算出部505Cへ転送される。 (Formula 3)
Figure 2010239493
Here, dC (j + m, j + n) represents the absolute value of the difference from the coordinate value of the pixel of interest in the pixel at coordinates (j + m, j + n). The absolute value of the calculated coordinate value difference is transferred to the weighting coefficient calculation unit 505C.

図8は、撮像装置11Cの重み係数算出部の構成図である。撮像装置11Cの重み係数算出手段である重み係数算出部505Cは、クリッピング部504、信号差算出部507および座標差算出部508から転送される距離差絶対値、映像信号の差の絶対値、座標値の差の絶対値に基づき、局所領域内の各画素に対する重み係数を算出する。   FIG. 8 is a configuration diagram of a weighting coefficient calculation unit of the imaging apparatus 11C. The weighting factor calculation unit 505C, which is a weighting factor calculation unit of the imaging device 11C, is an absolute value of a distance difference, an absolute value of a difference between video signals, and coordinates transferred from the clipping unit 504, the signal difference calculation unit 507, and the coordinate difference calculation unit 508. Based on the absolute value of the value difference, a weighting factor for each pixel in the local region is calculated.

図8に示すように、重み係数算出部505Cの構成は、図5に示した第1の実施の形態の撮像装置11の重み係数算出部505の構成に分散算出部604と、係数設定部605と、第2係数ROM606とを追加した構成になっている。   As shown in FIG. 8, the configuration of the weighting factor calculation unit 505C is the same as the configuration of the weighting factor calculation unit 505 of the imaging apparatus 11 according to the first embodiment shown in FIG. The second coefficient ROM 606 is added.

クリッピング部504は分散算出部604および関数演算部600に接続している。分散算出部604および係数ROM601は、係数設定部605に接続されている。信号差算出部507および座標差算出部508は、関数演算部600に接続している。係数設定部605および第2係数ROM606もまた、関数演算部600に接続している。制御部115は、分散算出部604および係数設定部605と双方向に接続されている。   The clipping unit 504 is connected to the variance calculation unit 604 and the function calculation unit 600. The variance calculation unit 604 and the coefficient ROM 601 are connected to the coefficient setting unit 605. The signal difference calculation unit 507 and the coordinate difference calculation unit 508 are connected to the function calculation unit 600. The coefficient setting unit 605 and the second coefficient ROM 606 are also connected to the function calculation unit 600. The control unit 115 is bidirectionally connected to the variance calculation unit 604 and the coefficient setting unit 605.

分散算出手段である分散算出部604では、クリッピング部504を介して得られる局所領域内の距離差絶対値の分散vを算出し、係数設定部605に転送する。調整手段である係数設定部605は、係数ROM601から距離差絶対値に対する重み係数を表すガウス分布の標準偏差である分布係数σdを読み込み、分散算出部604で算出した距離差絶対値の分散vに応じて分布係数σdの値を変換する。   A variance calculation unit 604 serving as a variance calculation unit calculates the variance v of the distance difference absolute value in the local area obtained via the clipping unit 504 and transfers the variance v to the coefficient setting unit 605. A coefficient setting unit 605 serving as an adjustment unit reads a distribution coefficient σd, which is a standard deviation of a Gaussian distribution representing a weighting coefficient for the distance difference absolute value, from the coefficient ROM 601, and uses the distance difference absolute value variance v calculated by the variance calculation unit 604. Accordingly, the value of the distribution coefficient σd is converted.

具体的には、係数設定部605は、距離差の絶対値の分散vが大きい場合は、その局所領域内にエッジ成分となる画素が含まれると判断し、分布係数σdの値を小さくすることでノイズ低減処理の強度を弱める。反対に、分散vが小さい場合は、その局所領域は映像信号の振幅の小さい平坦な領域であると判断し、分布係数σdの値を大きくすることでノイズ低減処理の強度を強くする。   Specifically, when the variance v of the absolute value of the distance difference is large, the coefficient setting unit 605 determines that the pixel serving as the edge component is included in the local region, and decreases the value of the distribution coefficient σd. Reduce the strength of noise reduction. On the other hand, when the variance v is small, it is determined that the local region is a flat region with a small amplitude of the video signal, and the value of the distribution coefficient σd is increased to increase the strength of the noise reduction processing.

図9に、距離差の絶対値の分散vと分布係数σdとの関係をプロットした図を示す。図9に示した係数設定部605の処理では、分散vに対して分布係数σdが線形に減少する変換を行っている。ただし、分散vが所定の値vth以上になった場合には分布係数σdの値を固定化、いわゆる、クリップ、している。これは、分散vが大きくなった場合に分布係数σdが微小な値となり、実質的にノイズ低減処理が行われなくなるのを防ぐためである。   FIG. 9 shows a plot of the relationship between the variance v of the absolute value of the distance difference and the distribution coefficient σd. In the processing of the coefficient setting unit 605 shown in FIG. 9, conversion is performed so that the distribution coefficient σd decreases linearly with respect to the variance v. However, when the variance v is greater than or equal to a predetermined value vth, the value of the distribution coefficient σd is fixed, so-called clipping. This is to prevent the distribution coefficient σd from becoming a minute value when the variance v becomes large and the noise reduction processing to be substantially not performed.

係数設定部605で設定された分布係数σdは、関数演算部600に転送される。関数演算部600では、係数設定部605で算出した分布係数σdと、クリッピング部504から転送される距離差絶対値と、信号差算出部507から転送される映像信号の差の絶対値と、座標差算出部508から転送される座標値の差の絶対値、とに基づき、以下の(式4)を用いて局所領域内の各画素に対する重み係数を算出する。   The distribution coefficient σd set by the coefficient setting unit 605 is transferred to the function calculation unit 600. In the function calculation unit 600, the distribution coefficient σd calculated by the coefficient setting unit 605, the distance difference absolute value transferred from the clipping unit 504, the absolute value of the difference between the video signals transferred from the signal difference calculation unit 507, and coordinates Based on the absolute value of the difference between the coordinate values transferred from the difference calculation unit 508, a weighting coefficient for each pixel in the local region is calculated using (Equation 4) below.

(式4)

Figure 2010239493
σ1は座標値の差の絶対値に対する重み係数を表すガウス分布の標準偏差を表す係数を示し、σ2は映像信号の差の絶対値に対する重み係数を表すガウス分布の標準偏差を表す係数を示す。σ1およびσ2は予め決められている所定の値で第2係数ROM606に保存されている。関数演算部600は(式4)の計算のときに第2係数ROM606からσ1およびσ2を読み込む。算出した重み係数は、加算平均部506へ転送される。 (Formula 4)
Figure 2010239493
σ1 represents a coefficient representing the standard deviation of the Gaussian distribution representing the weighting coefficient with respect to the absolute value of the difference between the coordinate values, and σ2 represents a coefficient representing the standard deviation of the Gaussian distribution representing the weighting coefficient with respect to the absolute value of the difference between the video signals. σ 1 and σ 2 are stored in the second coefficient ROM 606 as predetermined values. The function calculation unit 600 reads σ 1 and σ 2 from the second coefficient ROM 606 during the calculation of (Expression 4). The calculated weighting coefficient is transferred to the addition averaging unit 506.

ここで、図10を用いて、第3実施形態の撮像装置11Cにおけるノイズ低減処理の流れについて説明する。図10は、第3実施形態の撮像装置11Cにおけるノイズ低減処理の流れを説明するためのフローチャートである。   Here, the flow of noise reduction processing in the imaging device 11C of the third embodiment will be described with reference to FIG. FIG. 10 is a flowchart for explaining the flow of noise reduction processing in the imaging device 11C of the third embodiment.

以下、図10のフローチャートに従い説明する。   Hereinafter, a description will be given according to the flowchart of FIG.

<ステップS20> 撮影ステップ
撮像装置11Cでは、シーンモードの設定等に従い、制御部115の制御により特定の被写体10Aに焦点のあった合焦画像を得る撮影ステップが実行される。すなわち、撮像手段であるCCD102により、特定の被写体10Aを含む被写体10の映像画像の映像信号が出力される。
<Step S20> Shooting Step In the imaging device 11C, a shooting step for obtaining a focused image focused on the specific subject 10A is executed under the control of the control unit 115 in accordance with the setting of the scene mode and the like. That is, the video signal of the video image of the subject 10 including the specific subject 10A is output by the CCD 102 as the imaging means.

<ステップS21> 撮影距離取得ステップ
映像信号を構成する個々の画素の映像信号のぞれぞれに対して、撮像装置11Cと被写体10の間の撮影距離が距離情報取得部108により算出される。
<Step S21> Shooting distance acquisition step
The distance information acquisition unit 108 calculates the shooting distance between the imaging device 11C and the subject 10 for each of the video signals of the individual pixels constituting the video signal.

<ステップS22> 局所領域抽出ステップ
局所領域抽出部501は、特定の被写体10Aを構成する注目画素を中心とする、例えば5×5画素サイズの局所領域を抽出する。
<Step S22> Local region extraction step
The local region extraction unit 501 extracts a local region having a size of, for example, 5 × 5 pixels centered on the target pixel constituting the specific subject 10A.

<ステップS23> 撮影距離差算出ステップ
距離差算出部502は局所領域内の各画素に対して、注目画素の撮影距離との差の絶対値を算出する。
<Step S23> Shooting distance difference calculation step
The distance difference calculation unit 502 calculates the absolute value of the difference from the shooting distance of the target pixel for each pixel in the local region.

<ステップS24> 距離差上限値設定ステップ
制御部115は、上限設定部に設定されている距離差の絶対値の上限値を読み込む。
<Step S24> Distance difference upper limit setting step
The control unit 115 reads the upper limit value of the absolute value of the distance difference set in the upper limit setting unit.

<ステップS25> クリッピング処理ステップ
クリッピング部504は、ステップS24で得られた上限値に基づき、局所領域内の各画素に対する距離差の絶対値に対してクリッピング処理を行う。
<Step S25> Clipping processing step
The clipping unit 504 performs clipping processing on the absolute value of the distance difference for each pixel in the local region based on the upper limit value obtained in step S24.

<ステップS26> 映像信号差算出ステップ
信号差算出部507は、局所領域内の各画素に対して、注目画素の映像信号との差の絶対値を算出する。
<Step S26> Video signal difference calculation step
The signal difference calculation unit 507 calculates the absolute value of the difference from the video signal of the target pixel for each pixel in the local region.

<ステップS27> 座標差算出ステップ
座標差算出部508は、局所領域内の各画素に対して、注目画素の座標値との差の絶対値を算出する。
<Step S27> Coordinate difference calculation step
The coordinate difference calculation unit 508 calculates the absolute value of the difference from the coordinate value of the target pixel for each pixel in the local region.

<ステップS28> 重み係数算出ステップ
重み係数算出部505Cは、Step25、Step26およびStep27から得られた距離差の絶対値、映像信号の差の絶対値、および座標値の差の絶対値に基づき、局所領域内の各画素に対する重み係数を算出する。
<Step S28> Weighting factor calculation step
The weighting factor calculation unit 505C calculates the weighting factor for each pixel in the local region based on the absolute value of the distance difference, the absolute value of the difference between the video signals, and the absolute value of the difference between the coordinate values obtained from Step 25, Step 26, and Step 27. Is calculated.

<ステップS29> 加算平均ステップ
加算平均部206は、Step28から得られた重み係数に基づき局所領域内の重み付け加算平均を算出し、算出した加算平均で注目画素の映像信号を置き換える。
<Step S29> Addition averaging step
The addition averaging unit 206 calculates a weighted addition average in the local region based on the weighting coefficient obtained from Step 28, and replaces the video signal of the target pixel with the calculated addition average.

<ステップS30>
全画素に対する処理が完了したか否かを判断し、完了していない場合(No)はStep22に戻り、全画素に対する処理が完了するまで同様の処理を繰り返す。全画素に対するノイズ低減処理が完了した場合(Yes)には、ノイズ低減部110は、補間部111に処理後の映像信号を転送する。
<Step S30>
It is determined whether or not the processing for all the pixels has been completed. If the processing has not been completed (No), the process returns to Step 22, and the same processing is repeated until the processing for all the pixels is completed. When the noise reduction process for all the pixels is completed (Yes), the noise reduction unit 110 transfers the processed video signal to the interpolation unit 111.

<ステップS31>
公知の補間処理が補間部111において行われ、色変換、階調変換、およびエッジ強調処理などが信号処理部112において行われる。
<Step S31>
Known interpolation processing is performed in the interpolation unit 111, and color conversion, gradation conversion, edge enhancement processing, and the like are performed in the signal processing unit 112.

<ステップS32>
公知のJPEG等の圧縮処理が圧縮部113において行われる。
<Step S32>
A known compression process such as JPEG is performed in the compression unit 113.

<ステップS32>
処理後の映像信号を出力部114に出力し、撮像装置11Cの処理は終了する。
<Step S32>
The processed video signal is output to the output unit 114, and the processing of the imaging device 11C ends.

第3実施形態の撮像装置11Cは、第1実施形態の撮像装置11と同様に、距離情報に基づき適応的にノイズ低減処理の強度を制御するため、映像信号の領域毎に最適なノイズ低減処理を行うことが可能となり、高品位な映像信号を得ることができる。また、撮像装置11Cは注目画素との距離差の絶対値に応じて加算平均時の重み係数を決定しているため、例えば、局所領域内で距離差の絶対値が大きければ、微小なエッジ成分に対しても劣化の少ないノイズ低減処理を行うことが可能となる。
また、第3実施形態の映像信号の補正処理方法は、第1実施形態の映像信号の補正処理方法が有する効果に加えて、さらに微小なエッジ成分に対しても劣化の少ないノイズ低減処理を行うことが可能となる。
Since the imaging device 11C according to the third embodiment adaptively controls the intensity of the noise reduction processing based on the distance information, similarly to the imaging device 11 according to the first embodiment, the optimum noise reduction processing for each region of the video signal. And a high-quality video signal can be obtained. In addition, since the imaging device 11C determines the weighting coefficient at the time of addition averaging according to the absolute value of the distance difference from the target pixel, for example, if the absolute value of the distance difference is large in the local region, a minute edge component Therefore, it is possible to perform noise reduction processing with little deterioration.
In addition to the effects of the video signal correction processing method of the first embodiment, the video signal correction processing method of the third embodiment performs noise reduction processing with less deterioration even for a minute edge component. It becomes possible.

撮像装置11Cでは、距離差の絶対値の分散に応じてガウス分布の標準偏差を変換しているが、これに限定されることはなく、例えば図8に示す重み係数算出部505Cにおいて、局所領域抽出部501から得られる局所領域内の距離情報を分散算出部604に転送し、分散算出部604にて距離情報の分散を算出する構成も可能である。この構成の場合、距離情報の分散に基づきガウス分布の標準偏差を変換する。   In the imaging device 11C, the standard deviation of the Gaussian distribution is converted according to the variance of the absolute value of the distance difference. However, the imaging device 11C is not limited to this. For example, in the weighting factor calculation unit 505C shown in FIG. A configuration is also possible in which distance information in the local region obtained from the extraction unit 501 is transferred to the variance calculation unit 604, and the variance calculation unit 604 calculates the variance of the distance information. In the case of this configuration, the standard deviation of the Gaussian distribution is converted based on the dispersion of distance information.

なお、撮像装置11等ではベイヤー型の原色カラーフィルタを前面に配置した単板CCDを対象としているが、これに限定されることはなく、補色のカラーフィルタを前面に配置した単板CCDや、三板CCDに適用することも可能である。   The imaging device 11 or the like is intended for a single-plate CCD in which a Bayer-type primary color filter is disposed on the front surface, but is not limited thereto, and a single-plate CCD in which a complementary color filter is disposed on the front surface, It is also possible to apply to a three-plate CCD.

また、撮像装置11等ではガウス分布に基づき重み係数を算出しているが、これに限ることはなく、ラプラス分布や有理関数に基づき算出することも可能である。   In the imaging apparatus 11 and the like, the weighting coefficient is calculated based on the Gaussian distribution. However, the weighting coefficient is not limited to this, and can be calculated based on the Laplace distribution or a rational function.

さらに、撮像装置11等ではハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、CCD102からの映像信号を未処理のままのRawデータとし、制御部115からの撮影時の情報をヘッダ情報として出力し、別途ソフトウェアにて処理する構成も可能である。   Furthermore, although the imaging apparatus 11 and the like are premised on processing by hardware, it is not necessary to be limited to such a configuration. For example, a video signal from the CCD 102 may be unprocessed raw data, information at the time of shooting from the control unit 115 may be output as header information, and separately processed by software.

なお、撮像装置11等では距離情報に基づき映像信号に対するノイズ低減処理を制御する構成となっているが、ノイズ低減処理に限ることはなく、例えば画素欠陥を補間するときに距離情報を用いることも可能である。画素欠陥の補間を行う場合は、映像信号全体に対する距離情報をステレオ測距などで予め求めておき、欠陥のある画素位置と距離情報とを対応付け、画素欠陥部と同等の距離情報を持つ近傍画素の情報を用いて補間を行うこともできる。   The imaging device 11 and the like are configured to control the noise reduction processing for the video signal based on the distance information. However, the imaging device 11 is not limited to the noise reduction processing, and for example, the distance information may be used when interpolating a pixel defect. Is possible. When interpolating pixel defects, distance information for the entire video signal is obtained in advance by stereo distance measurement, etc., and the pixel position and distance information associated with the defect are associated with each other and have a distance information equivalent to that of the pixel defect portion. Interpolation can also be performed using pixel information.

本発明は、上述した実施の形態および変形例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments and modifications, and various changes and modifications can be made without departing from the scope of the present invention.

10、10A、10B…被写体、11、11B、11C…撮像装置、20…映像画像、21…注目画素、22…注目領域、23…近傍領域、24…局所領域、100…レンズ系、102…CCD、103…モータ、104…変換器、105…バッファ、106…測光評価部、107…レンズ制御部、108…距離情報取得部、109…相対距離算出部、110…ノイズ低減部、110C…ノイズ低減部、111…補間部、112…信号処理部、113…圧縮部、114…出力部、115…制御部、116…外部I/F部、206…加算平均部、500…画像バッファ、501…局所領域抽出部、502…距離差算出部、503…上限設定部、504…クリッピング部、505…係数算出部、505B…係数算出部、505C…係数算出部、506…加算平均部、507…信号差算出部、508…座標差算出部、600…関数演算部、602…テーブル演算部、604…分散算出部、605…係数設定部 DESCRIPTION OF SYMBOLS 10, 10A, 10B ... Subject, 11, 11B, 11C ... Imaging device, 20 ... Video image, 21 ... Target pixel, 22 ... Target region, 23 ... Near region, 24 ... Local region, 100 ... Lens system, 102 ... CCD DESCRIPTION OF SYMBOLS 103 ... Motor 104 ... Converter 105 ... Buffer 106 ... Photometry evaluation part 107 ... Lens control part 108 ... Distance information acquisition part 109 ... Relative distance calculation part 110 ... Noise reduction part 110C ... Noise reduction 111: Interpolation unit, 112 ... Signal processing unit, 113 ... Compression unit, 114 ... Output unit, 115 ... Control unit, 116 ... External I / F unit, 206 ... Addition averaging unit, 500 ... Image buffer, 501 ... Local Area extraction unit 502 ... Distance difference calculation unit 503 ... Upper limit setting unit 504 ... Clipping unit 505 ... Coefficient calculation unit 505B ... Coefficient calculation unit 505C ... Coefficient calculation unit 5 6 ... averaging unit, 507 ... signal difference calculation section, 508 ... coordinate difference calculation section, 600 ... function calculator, 602 ... table calculation unit, 604 ... variance calculation unit, 605 ... coefficient setting unit

Claims (18)

被写体を撮影し映像画像の映像信号を出力する撮像手段と、
前記映像信号に対応した、前記被写体と前記撮像手段との間の距離である撮影距離を取得する測距手段と、
前記映像画像の一部を構成する特定の被写体の前記映像画像である注目領域の前記映像信号の前記撮影距離と、前記注目領域に隣接する隣接領域の前記映像信号の前記撮影距離と、に基づき、前記注目領域の前記映像信号に対する補正処理を行う補正処理手段と、を有することを特徴とする撮像装置。
Imaging means for photographing a subject and outputting a video signal of a video image;
Ranging means for obtaining a shooting distance corresponding to the video signal, which is a distance between the subject and the imaging means;
Based on the shooting distance of the video signal of a region of interest that is the video image of a specific subject constituting a part of the video image, and the shooting distance of the video signal of an adjacent region adjacent to the region of interest An imaging apparatus comprising: correction processing means for performing correction processing on the video signal in the region of interest.
前記補正処理はノイズ低減処理であり、前記補正処理手段はノイズ低減手段であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the correction processing is noise reduction processing, and the correction processing means is noise reduction means. 前記ノイズ低減手段は、
前記注目領域の前記映像信号の前記撮影距離と、前記隣接領域の前記映像信号の前記撮影距離との差である距離差を算出する距離差算出手段と、
前記距離差に基づき、前記注目領域の映像信号および前記隣接領域の映像信号に対する重み係数を算出する重み係数算出手段と、
前記重み係数に基づき、前記注目領域の映像信号と前記隣接領域の映像信号とを重み付け加算平均した加算平均映像信号を算出し、前記加算平均映像信号を前記注目領域の前記映像信号と置き換える加算平均手段と、を有することを特徴とする請求項2に記載の撮像装置。
The noise reduction means includes
A distance difference calculating means for calculating a distance difference which is a difference between the shooting distance of the video signal of the attention area and the shooting distance of the video signal of the adjacent area;
A weighting factor calculating means for calculating a weighting factor for the video signal of the region of interest and the video signal of the adjacent region based on the distance difference;
Based on the weighting factor, an addition average video signal is obtained by calculating a weighted addition average of the video signal of the attention area and the video signal of the adjacent area, and replacing the addition average video signal with the video signal of the attention area The imaging apparatus according to claim 2, further comprising: means.
前記ノイズ低減手段は、
前記注目領域の前記映像信号と前記隣接領域の前記映像信号との差である映像信号差を算出する信号差算出手段と、
前記注目領域の前記映像画像における座標値と前記隣接領域の前記映像画像における座標値との差である座標値差を算出する座標差算出手段と、
前記距離差と映像信号差と座標値差とに基づき、重み係数を算出する重み係数算出手段と、
前記重み係数に基づき、前記注目領域の前記映像信号と前記隣接領域の前記映像信号とを重み付け加算平均した加算平均映像信号を算出し、前記加算平均映像信号を前記注目領域の前記映像信号に置き換える加算平均手段と、を有することを特徴とする請求項3に記載の撮像装置。
The noise reduction means includes
Signal difference calculating means for calculating a video signal difference which is a difference between the video signal of the region of interest and the video signal of the adjacent region;
Coordinate difference calculating means for calculating a coordinate value difference which is a difference between the coordinate value in the video image of the region of interest and the coordinate value in the video image of the adjacent region;
Weighting factor calculating means for calculating a weighting factor based on the distance difference, the video signal difference, and the coordinate value difference;
Based on the weighting factor, an addition average video signal obtained by weighted and averaging the video signal of the attention area and the video signal of the adjacent area is calculated, and the addition average video signal is replaced with the video signal of the attention area. The imaging apparatus according to claim 3, further comprising addition averaging means.
前記重み係数算出手段は、
前記距離差の分布の標準偏差を表す分布係数を用いて、前記映像信号に対する重み係数を算出する、重み係数算出関数手段を有することを特徴とする請求項3または請求項4に記載の撮像装置。
The weight coefficient calculating means includes
5. The imaging apparatus according to claim 3, further comprising weight coefficient calculation function means for calculating a weight coefficient for the video signal using a distribution coefficient representing a standard deviation of the distance difference distribution. .
前記重み係数算出手段は、
前記距離差の絶対値に対応した前記重み係数を記録する係数記録テーブルと、
前記係数記録テーブルをもとに前記重み係数を算出するテーブル演算手段と、を有することを特徴とする請求項3または請求項4に記載の撮像装置。
The weight coefficient calculating means includes
A coefficient recording table for recording the weighting coefficient corresponding to the absolute value of the distance difference;
The imaging apparatus according to claim 3, further comprising: a table calculating unit that calculates the weighting coefficient based on the coefficient recording table.
前記距離差算出手段は、
前記距離差の絶対値に対して距離差上限値を設定する距離差上限設定手段と、
前記距離差の絶対値が前記距離差上限値を超える場合に、前記距離差の絶対値を前記距離差上限値に置き換えるクリッピング手段と、を有することを特徴とする請求項3または請求項4に記載の撮像装置。
The distance difference calculating means includes
Distance difference upper limit setting means for setting a distance difference upper limit value with respect to the absolute value of the distance difference;
5. A clipping unit that replaces the absolute value of the distance difference with the upper limit value of the distance difference when the absolute value of the distance difference exceeds the upper limit value of the distance difference. The imaging device described.
前記重み係数算出手段は、
前記注目領域と前記注目領域の隣接領域との映像信号に対応した前記撮影距離の分散を算出する分散算出手段と、
前記撮影距離の前記分散に基づき前記分布係数を調整する調整手段と、を有することを特徴とする請求項5に記載の撮像装置
The weight coefficient calculating means includes
Variance calculating means for calculating variance of the shooting distance corresponding to video signals of the attention area and the adjacent area of the attention area;
The imaging apparatus according to claim 5, further comprising an adjusting unit that adjusts the distribution coefficient based on the variance of the shooting distance.
前記重み係数算出手段は、前記距離差の絶対値が大きい程、より小さな重み係数を算出することを特徴とする請求項3または請求項4に記載の撮像装置。   5. The imaging apparatus according to claim 3, wherein the weighting coefficient calculating unit calculates a smaller weighting coefficient as the absolute value of the distance difference is larger. 撮像手段により被写体を撮影し映像画像の映像信号を出力する撮影ステップと、
前記映像信号に対応した前記被写体と前記撮像手段との間の距離である撮影距離を取得する距離情報取得ステップと、
前記映像画像の一部を構成する特定の被写体の前記映像画像である注目領域の前記映像信号の前記撮影距離と、前記注目領域の隣接領域の前記映像信号の前記撮影距離と、に基づき、前記注目領域の前記映像信号に対する補正処理を行う補正処理ステップと、を有することを特徴とする映像信号の補正処理方法。
A shooting step of shooting a subject by an imaging means and outputting a video signal of a video image;
A distance information acquisition step of acquiring a shooting distance which is a distance between the subject corresponding to the video signal and the imaging means;
Based on the shooting distance of the video signal of the region of interest that is the video image of the specific subject that forms part of the video image, and the shooting distance of the video signal of the region adjacent to the region of interest, And a correction processing step for performing correction processing on the video signal in the region of interest.
前記補正処理はノイズ低減処理であることを特徴とする請求項10に記載の映像信号の補正処理方法。   The video signal correction processing method according to claim 10, wherein the correction processing is noise reduction processing. 前記補正処理ステップは、
前記注目領域の前記映像信号の前記撮影距離と、前記隣接領域の前記映像信号の前記撮影距離との差である距離差を算出する距離差算出ステップと、
前記距離差に基づき、前記注目領域の映像信号および前記隣接領域の映像信号に対する重み係数を算出する重み係数算出ステップと、
前記重み係数に基づき、前記注目領域の映像信号と隣接領域の映像信号とを重み付け加算平均した加算平均映像信号を算出し、前記加算平均映像信号を前記注目領域の前記映像信号と置き換える加算平均ステップと、を有することを特徴とする請求項11に記載の映像信号の補正処理方法。
The correction processing step includes
A distance difference calculating step of calculating a distance difference which is a difference between the shooting distance of the video signal of the attention area and the shooting distance of the video signal of the adjacent area;
A weighting factor calculating step for calculating a weighting factor for the video signal of the region of interest and the video signal of the adjacent region based on the distance difference;
An averaging step of calculating an addition average video signal obtained by weighted and averaging the video signal of the region of interest and the video signal of the adjacent region based on the weighting factor, and replacing the addition average video signal with the video signal of the region of interest The video signal correction processing method according to claim 11, further comprising:
前記補正処理ステップは、
前記注目領域の前記映像信号と前記隣接領域の前記映像信号との差である映像信号差を算出する信号差算出ステップと、
前記注目領域の前記映像画像における座標値と前記隣接領域の前記映像画像における座標値との差である座標値差を算出する座標差算出ステップと、
前記距離差と映像信号差と座標値差とに基づき、重み係数を算出する重み係数算出ステップと、
前記重み係数に基づき、前記注目領域の前記映像信号と前記隣接領域の前記映像信号とを重み付け加算平均した加算平均映像信号を算出し、前記加算平均映像信号を前記注目領域の前記映像信号に置き換える加算平均ステップと、を有することを特徴とする請求項11に記載の映像信号の補正処理方法。
The correction processing step includes
A signal difference calculating step of calculating a video signal difference which is a difference between the video signal of the region of interest and the video signal of the adjacent region;
A coordinate difference calculating step of calculating a coordinate value difference that is a difference between a coordinate value in the video image of the region of interest and a coordinate value in the video image of the adjacent region;
A weighting factor calculating step for calculating a weighting factor based on the distance difference, the video signal difference, and the coordinate value difference;
Based on the weighting factor, an addition average video signal obtained by weighted and averaging the video signal of the attention area and the video signal of the adjacent area is calculated, and the addition average video signal is replaced with the video signal of the attention area. 12. The video signal correction processing method according to claim 11, further comprising: an averaging step.
前記重み係数算出ステップは、
前記距離差の分布の標準偏差を表す分布係数を用いて、前記映像信号に対する重み係数を算出する、重み係数算出関数ステップを有することを特徴とする請求項12または請求項13に記載の映像信号の補正処理方法。
The weighting factor calculating step includes:
14. The video signal according to claim 12, further comprising a weighting factor calculation function step for calculating a weighting factor for the video signal using a distribution factor representing a standard deviation of the distance difference distribution. Correction processing method.
前記重み係数算出ステップは、
前記距離差の絶対値に対応した前記重み係数を記録する係数記録テーブルをもとに前記重み係数を算出するテーブル演算ステップ、を有することを特徴とする請求項12または請求項13に記載の映像信号の補正処理方法。
The weighting factor calculating step includes:
14. The video according to claim 12, further comprising a table calculation step of calculating the weighting factor based on a coefficient recording table that records the weighting factor corresponding to the absolute value of the distance difference. Signal correction processing method.
前記距離差算出ステップは、
前記距離差の絶対値に対して距離差上限値を設定する距離差上限設定ステップと、
前記距離差の絶対値が前記距離差上限値を超える場合に、前記距離差の絶対値を前記距離差上限値に置き換えるクリッピングステップと、を有することを特徴とする請求項12または請求項13に記載の映像信号の補正処理方法。
The distance difference calculating step includes:
A distance difference upper limit setting step for setting a distance difference upper limit value with respect to the absolute value of the distance difference;
The clipping step of replacing the absolute value of the distance difference with the upper limit value of the distance difference when the absolute value of the distance difference exceeds the upper limit value of the distance difference. The video signal correction processing method described.
前記重み係数算出ステップは、
前記注目領域と前記注目領域の隣接領域との映像信号に対応した前記撮影距離の分散を算出する分散算出ステップと、
前記撮影距離の前記分散に基づき前記分布係数を調整する調整ステップと、を有することを特徴とする請求項14に記載の映像信号の補正処理方法。
The weighting factor calculating step includes:
A variance calculating step for calculating variance of the shooting distance corresponding to video signals of the attention area and the adjacent area of the attention area;
The video signal correction processing method according to claim 14, further comprising an adjustment step of adjusting the distribution coefficient based on the variance of the shooting distance.
前記重み係数算出ステップは、前記距離差の絶対値が大きい程、より小さな重み係数を算出することを特徴とする請求項12または請求項13に記載の映像信号の補正処理方法。   14. The video signal correction processing method according to claim 12, wherein the weighting factor calculating step calculates a smaller weighting factor as the absolute value of the distance difference is larger.
JP2009086696A 2009-03-31 2009-03-31 Image pickup apparatus, and method of correcting video signal Withdrawn JP2010239493A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009086696A JP2010239493A (en) 2009-03-31 2009-03-31 Image pickup apparatus, and method of correcting video signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009086696A JP2010239493A (en) 2009-03-31 2009-03-31 Image pickup apparatus, and method of correcting video signal

Publications (1)

Publication Number Publication Date
JP2010239493A true JP2010239493A (en) 2010-10-21

Family

ID=43093422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009086696A Withdrawn JP2010239493A (en) 2009-03-31 2009-03-31 Image pickup apparatus, and method of correcting video signal

Country Status (1)

Country Link
JP (1) JP2010239493A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012137437A1 (en) * 2011-04-08 2012-10-11 パナソニック株式会社 Image processing apparatus and image processing method
WO2012169292A1 (en) * 2011-06-08 2012-12-13 シャープ株式会社 Image processing device and image pick-up device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012137437A1 (en) * 2011-04-08 2012-10-11 パナソニック株式会社 Image processing apparatus and image processing method
CN103026380A (en) * 2011-04-08 2013-04-03 松下电器产业株式会社 Image processing apparatus and image processing method
US8818127B2 (en) 2011-04-08 2014-08-26 Panasonic Intellectual Property Corporation Of America Image processing apparatus and image processing method
CN103026380B (en) * 2011-04-08 2016-04-13 松下电器(美国)知识产权公司 Image processing apparatus and image processing method
JP5901614B2 (en) * 2011-04-08 2016-04-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image processing apparatus and image processing method
WO2012169292A1 (en) * 2011-06-08 2012-12-13 シャープ株式会社 Image processing device and image pick-up device
JP2012256168A (en) * 2011-06-08 2012-12-27 Sharp Corp Image processing device and image pickup device

Similar Documents

Publication Publication Date Title
JP4186699B2 (en) Imaging apparatus and image processing apparatus
EP2302903B1 (en) Image processing method, image processing apparatus, computer readable medium, and imaging apparatus
US20100245632A1 (en) Noise reduction method for video signal and image pickup apparatus
JP4979595B2 (en) Imaging system, image processing method, and image processing program
JP5213688B2 (en) Imaging device
US8018520B2 (en) Imaging device, imaging method, display control device, display control method, and program
JP6603493B2 (en) Imaging apparatus, image processing apparatus, imaging method executed by imaging apparatus, image processing method executed by image processing apparatus, and program
US9113059B2 (en) Image pickup apparatus and image region discrimination method
WO2017045558A1 (en) Depth-of-field adjustment method and apparatus, and terminal
US8982234B2 (en) Information processing apparatus and method
JP2005130297A (en) System, method and program of signal processing
JP2011130169A (en) Image processing apparatus and photographing device
JP2004088149A (en) Imaging system and image processing program
JP2010213213A (en) Imaging device and imaging method
JP5541205B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP2005110176A (en) Noise removing method, noise removing processing program, and noise removing device
JP2011171842A (en) Image processor and image processing program
JP6857006B2 (en) Imaging device
JP2010239493A (en) Image pickup apparatus, and method of correcting video signal
JP2012134745A (en) Image signal processing device
JP2009055415A (en) Camera
KR100647955B1 (en) Apparatus processing Digital image
JP2015070451A (en) Imaging apparatus
JP2009022044A (en) Image processing apparatus and image processing program
JP2009065691A (en) Image processing apparatus, recording medium and image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120605