JP6579934B2 - Image processing apparatus, imaging apparatus, image processing method, program, and storage medium - Google Patents
Image processing apparatus, imaging apparatus, image processing method, program, and storage medium Download PDFInfo
- Publication number
- JP6579934B2 JP6579934B2 JP2015240124A JP2015240124A JP6579934B2 JP 6579934 B2 JP6579934 B2 JP 6579934B2 JP 2015240124 A JP2015240124 A JP 2015240124A JP 2015240124 A JP2015240124 A JP 2015240124A JP 6579934 B2 JP6579934 B2 JP 6579934B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- moire
- similarity
- image processing
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 126
- 238000012545 processing Methods 0.000 title claims description 49
- 238000003672 processing method Methods 0.000 title claims 4
- 238000004364 calculation method Methods 0.000 claims description 46
- 238000012937 correction Methods 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 claims description 20
- 238000005070 sampling Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 description 39
- 238000000034 method Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
- Cameras In General (AREA)
- Image Processing (AREA)
Description
本発明は、画像処理装置に関し、特に撮影画像のモアレを補正する画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that corrects moire in a captured image.
特許文献1には、多眼方式の撮像装置を利用して、被写体像の同一部分に発生するモアレの周波数が異なるように複数の画像を撮影し、該複数の画像の周波数成分を解析することによりモアレの検出および補正を行う手法が提案されている。 Patent Document 1 uses a multi-lens imaging device to shoot a plurality of images so that the frequency of moire generated in the same portion of the subject image is different, and analyze the frequency components of the plurality of images. Thus, a method for detecting and correcting moire has been proposed.
しかしながら、特許文献1に記載の撮像装置では、被写体像の同一部分に発生するモアレの周波数が異なるよう制御することにより、特定の撮影条件下の画像では、モアレを検出したい被写体領域の一部が、撮影画角外になってしまう場合がある。 However, in the imaging apparatus described in Patent Document 1, by controlling the frequency of moire generated in the same part of the subject image to be different, a part of the subject area where moire is to be detected is detected in an image under a specific shooting condition. In some cases, the angle of view may be outside the field of view.
例えば、光学系の焦点距離を変えて、広角と望遠の2種類の画像を同一の画素ピッチの撮像素子で撮像したとする。この場合、広角側の画像で、光軸中心から離れた領域に、モアレの発生する被写体が存在していても、望遠側の画像には、この被写体に対応する一部領域しか撮影できていないということがある。このように、広角側と一対一で対応する望遠側の被写体領域が存在しない場合、その領域では、モアレの検出および補正ができず、画質劣化するという課題があった。 For example, suppose that the focal length of the optical system is changed, and two types of images of wide angle and telephoto are imaged with an imaging element having the same pixel pitch. In this case, even if there is a moiré subject in a region away from the center of the optical axis in the wide-angle image, only a partial region corresponding to the subject can be captured in the telephoto image. There is. As described above, when there is no telephoto subject area that has a one-to-one correspondence with the wide-angle side, moire cannot be detected and corrected in that area, and there is a problem that image quality deteriorates.
そこで、本発明は、上記課題を鑑み、モアレの補正に有利な画像処理装置を提供することを例示的目的とする。 In view of the above problems, an object of the present invention is to provide an image processing apparatus that is advantageous for moire correction.
本発明は、共通領域を含む複数の画像のうち、該共通領域とは異なる非共通領域に関して、共通領域で検出されたモアレ領域との類似度を算出することを特徴としている。そして、検出されたモアレ領域と算出された類似度に基づいて、複数の画像のモアレを補正することを特徴としている。 The present invention is characterized in that, for a non-common area different from the common area among a plurality of images including the common area, the similarity with the moire area detected in the common area is calculated. Then, based on the detected moire area and the calculated similarity, the moire of a plurality of images is corrected.
本発明によれば、モアレの補正に有利な画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus that is advantageous for moire correction.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図1は、本発明の撮像装置10が有する撮像ユニット100の概略構成を示すブロック図である。撮像ユニット100の動作は、制御手段109によって制御される。制御手段109は、撮像装置10全体を統括制御する。 FIG. 1 is a block diagram illustrating a schematic configuration of an imaging unit 100 included in the imaging apparatus 10 of the present invention. The operation of the imaging unit 100 is controlled by the control unit 109. The control unit 109 performs overall control of the entire imaging apparatus 10.
撮像装置(撮像ユニット)は、撮影レンズ(光学系)で形成された連続した被写体像を、CMOSセンサ等の撮像素子でサンプリングし、デジタルデータに変換した後、デジタル信号処理を行って、輝度、色情報を含む映像信号を生成する。ここで、連続した被写体像を撮像素子でサンプリングする際、被写体像が、撮像素子の画素ピッチで決まるナイキスト周波数以上の周波数成分を持つと、折り返し歪(モアレ)が発生し、生成される映像信号の画質が損なわれることがある。なお、本発明の撮像装置は、光学系、撮像素子を複数備えた多眼方式の撮像装置を使用している。多眼方式の撮像装置では、複数の光学系、複数の撮像素子をそれぞれ独立に制御し、異なる光学条件、撮像サンプリング条件で同一の被写体を撮像することができる。また、本発明の撮像装置は、本実施例では、レンズ一体型の撮像装置を例として挙げているが、本発明はこれに限らずレンズ交換型の撮像装置、いわゆる交換レンズシステムの撮像装置にも適用することができる。 The imaging device (imaging unit) samples a continuous subject image formed by a photographic lens (optical system) with an imaging element such as a CMOS sensor, converts it to digital data, performs digital signal processing, A video signal including color information is generated. Here, when a continuous subject image is sampled by the image sensor, if the subject image has a frequency component equal to or higher than the Nyquist frequency determined by the pixel pitch of the image sensor, aliasing distortion (moire) occurs and the generated video signal Image quality may be impaired. Note that the imaging apparatus of the present invention uses a multi-lens imaging apparatus including a plurality of optical systems and imaging elements. In a multi-lens imaging device, a plurality of optical systems and a plurality of imaging elements are controlled independently, and the same subject can be imaged under different optical conditions and imaging sampling conditions. In the present embodiment, the imaging apparatus of the present invention is exemplified by a lens-integrated imaging apparatus. However, the present invention is not limited to this, and the present invention is not limited to this. Can also be applied.
以下、図1を用いて撮像ユニット100が備える構成部材について説明する。 Hereinafter, the components provided in the imaging unit 100 will be described with reference to FIG.
撮像ユニット100は、第1の撮像手段101と第2の撮像手段102と画像処理部110(画像処理装置)とを有する。第1の撮像手段101および第2の撮像手段102は、それぞれ、光学系、撮像素子、同時化補間手段を含む。ここで、第1の撮像手段101と第2の撮像手段102は、光学系の光学条件および、撮像素子の駆動条件を、それぞれ独立に制御することが可能であり、同一の被写体を異なる撮像条件で撮像することができる。 The imaging unit 100 includes a first imaging unit 101, a second imaging unit 102, and an image processing unit 110 (image processing apparatus). The first imaging unit 101 and the second imaging unit 102 each include an optical system, an imaging device, and a simultaneous interpolation unit. Here, the first imaging unit 101 and the second imaging unit 102 can independently control the optical conditions of the optical system and the driving conditions of the imaging element, and the same subject can be controlled under different imaging conditions. You can take an image.
本実施例では、被写体像の同一部分に発生するモアレの周波数が異なるよう、第1の撮像手段101,第2の撮像手段102内の光学系の焦点距離を変えて、それぞれ撮像を行う。 In this embodiment, imaging is performed by changing the focal lengths of the optical systems in the first imaging unit 101 and the second imaging unit 102 so that the frequency of moire generated in the same portion of the subject image is different.
同時化補間手段では、撮像素子の出力信号を補間し、輝度、色信号を生成する。 The simultaneous interpolation means interpolates the output signal of the image sensor and generates luminance and color signals.
尚、本実施例の撮像装置では、2個の撮像手段を有する構成としているが、3個以上の独立に制御可能な撮像手段を有していても良い。 Note that the image pickup apparatus of the present embodiment is configured to have two image pickup means, but may have three or more independently controllable image pickup means.
画像処理部110は、第1の撮像手段101および第2の撮像手段から出力される複数の画像(信号)を取得する取得手段110a,110bを有する。複数の画像は、後述するようにモアレ領域を判定可能とするための共通領域を含んでいる。取得手段110a,100bにより取得された複数の画像は、幾何変形手段103、類似度算出手段105,106、およびモアレ補正手段107,108に送られる。 The image processing unit 110 includes acquisition units 110a and 110b that acquire a plurality of images (signals) output from the first imaging unit 101 and the second imaging unit. The plurality of images includes a common area for enabling determination of a moire area as will be described later. The plurality of images acquired by the acquisition units 110a and 100b are sent to the geometric deformation unit 103, the similarity calculation units 105 and 106, and the moire correction units 107 and 108.
幾何変形手段103は、第1の撮像手段101と第2の撮像手段102から出力される画像に対して、幾何変形を行う。より具体的に、撮像手段から出力される複数の画像に対し、光学特性、または、撮像サンプリング特性に起因する幾何学的な画質差を補正する。多眼方式の撮像装置では、合焦状態によって、視差が発生する。したがって、複数の画像間で、同一の被写体領域に対応した周波数成分を比較するに先立って、視差による被写体像のずれを幾何変形手段103で補正する。 The geometric deformation unit 103 performs geometric deformation on the images output from the first imaging unit 101 and the second imaging unit 102. More specifically, geometrical image quality differences caused by optical characteristics or imaging sampling characteristics are corrected for a plurality of images output from the imaging means. In a multi-eye imaging device, parallax occurs depending on the in-focus state. Therefore, prior to comparing the frequency components corresponding to the same subject area among the plurality of images, the geometrical deformation means 103 corrects the deviation of the subject image due to the parallax.
また、第1の撮像手段101と第2の撮像手段102から出力される撮像画像は、焦点距離の違いにより、像倍率が異なる。したがって、複数の画像間で、同一の被写体領域に対応した周波数成分を比較するのに先立って、像倍率が等しくなるよう、幾何変形手段103において、変倍処理を行う。 The captured images output from the first imaging unit 101 and the second imaging unit 102 have different image magnifications due to differences in focal length. Therefore, prior to comparing the frequency components corresponding to the same subject area between the plurality of images, the geometric deformation means 103 performs a scaling process so that the image magnifications are equal.
モアレ領域検出手段104は、幾何変形手段103の出力画像を参照し、同一の被写体領域における色信号と周波数成分を解析して、撮像素子のサンプリングに起因したモアレが発生しているか否かを判定する。 The moiré area detection unit 104 refers to the output image of the geometric deformation unit 103, analyzes the color signal and the frequency component in the same subject area, and determines whether or not moire is generated due to the sampling of the image sensor. To do.
具体的に、モアレ領域検出手段104では、幾何変形手段103から出力され、異なる条件下で撮影された複数の画像から、同一の被写体像が撮影されている領域(以下、同一被写体領域と記載)を検出する。そして、該同一被写体領域での画素値の演算によって、色信号、周波数成分を算出する。そして、該同一被写体領域において、異なる条件下で撮影された複数の画像間で、特徴量に差がある場合には、モアレが発生していると判定する。このように、モアレ領域検出手段104は、複数の画像のうち、同一被写体領域(共通領域)におけるモアレが発生している領域(モアレ領域)を判定する判定手段として機能する。また、モアレ領域検出手段104は、複数の画像の差分から、モアレ領域の検出(判定)が可能な共通領域と、モアレ領域の検出(判定)ができない非共通領域と、を判定する。 Specifically, the moire area detection unit 104 is an area where the same subject image is captured from a plurality of images output from the geometric deformation unit 103 and captured under different conditions (hereinafter referred to as the same subject area). Is detected. Then, a color signal and a frequency component are calculated by calculating pixel values in the same subject area. Then, if there is a difference in feature amount between a plurality of images taken under different conditions in the same subject area, it is determined that moire has occurred. As described above, the moire area detection unit 104 functions as a determination unit that determines an area (moire area) in which moire occurs in the same subject area (common area) among a plurality of images. Further, the moire area detection unit 104 determines a common area in which the moire area can be detected (determined) and a non-common area in which the moire area cannot be detected (determined) based on the difference between the plurality of images.
類似度算出手段105,106は、それぞれ、第1の撮像手段101、第2の撮像手段102の出力画像において、モアレ領域検出手段104で検出されたモアレ領域との画像の類似度を算出する。具体的に、複数の画像のうち共通領域とは異なる非共通領域(すなわち、複数の画像に共通する画像領域とは異なる領域であって、複数の画像に共通しない画像領域)に関して、モアレ領域との類似度を算出する算出手段として機能する。 Similarity calculation means 105 and 106 calculate the similarity of the image with the moiré area detected by the moiré area detection means 104 in the output images of the first imaging means 101 and the second imaging means 102, respectively. Specifically, regarding a non-common area different from a common area among a plurality of images (that is, an image area different from an image area common to a plurality of images and not common to a plurality of images), a moire area and It functions as a calculation means for calculating the degree of similarity.
類似度算出手段105と類似度算出手段106の処理内容は同様である。類似度算出手段105では、モアレ領域検出手段104の出力と、第2の撮像手段102の出力画像との類似度を算出する。また、類似度算出手段106では、モアレ領域検出手段104の出力と、第1の撮像手段102の出力画像との類似度を算出する。 The processing contents of the similarity calculation unit 105 and the similarity calculation unit 106 are the same. The similarity calculation unit 105 calculates the similarity between the output of the moire region detection unit 104 and the output image of the second imaging unit 102. The similarity calculation unit 106 calculates the similarity between the output of the moire region detection unit 104 and the output image of the first imaging unit 102.
本実施例では、第1の撮像手段の出力画像と第2の撮像手段の出力画像のうちどちらか一方にしか、同一の被写体領域が撮像されておらず、他方の出力画像には、同一の被写体領域のうち一部の領域しか撮像されていない。類似度算出手段105,106は、モアレ領域検出手段104でモアレ領域の検出ができなかった領域に対して、モアレ領域検出手段104でモアレと確定した近傍の領域との画像の特徴量に基づき、類似度を算出する。 In the present embodiment, the same subject area is imaged only in one of the output image of the first imaging means and the output image of the second imaging means, and the other output image has the same Only a part of the subject area is imaged. The similarity calculation means 105, 106 is based on the feature amount of the image of the area where the moire area detection means 104 cannot detect the moire area and the neighboring area determined as moire by the moire area detection means 104. Calculate similarity.
類似度算出手段105,106の処理内容の詳細については、後ほど図3のフローチャートを用いて説明する。 Details of the processing contents of the similarity calculation means 105 and 106 will be described later with reference to the flowchart of FIG.
モアレ補正手段107,108は、それぞれ、モアレ領域検出手段104、類似度算出手段105,106の結果を参照して、第1の撮像手段101、第2の撮像手段102の出力画像に対して、モアレを低減する処理を行う。このように、モアレ補正手段107,108は、モアレ領域検出手段104が検出したモアレ領域と類似度算出手段105,106が算出した類似度に基づいて、複数の画像のうち少なくとも1つの画像に対してモアレを補正する補正手段として機能する。具体的には、第1の撮像手段101と第2の撮像手段102の出力画像に対して、それぞれ、画素毎に、モアレ領域検出結果と、モアレ領域との類似度を参照し、モアレ領域である場合には、モアレの信号レベルを減衰させる処理を行う。また、モアレ領域検出結果と、モアレ領域との類似度を参照し、モアレ領域との類似度が高い領域である場合には、モアレの信号レベルを減衰させる処理を行う。 The moiré correction means 107 and 108 refer to the results of the moiré area detection means 104 and the similarity calculation means 105 and 106, respectively, for the output images of the first imaging means 101 and the second imaging means 102, respectively. Performs processing to reduce moiré. As described above, the moire correction means 107 and 108 apply at least one of the plurality of images based on the moire area detected by the moire area detection means 104 and the similarity calculated by the similarity calculation means 105 and 106. Function as correction means for correcting moire. Specifically, with respect to the output images of the first imaging unit 101 and the second imaging unit 102, the similarity between the moire area detection result and the moire area is referred to for each pixel, and the moire area is detected. In some cases, a process of attenuating the moire signal level is performed. In addition, referring to the similarity between the moire area detection result and the moire area, if the area has a high degree of similarity to the moire area, a process for attenuating the moire signal level is performed.
モアレ領域の信号レベルを減衰させる処理の一例として、色信号の場合には、モアレによる偽色を緩和するために、彩度を低下させる処理が挙げられる。また、輝度信号の場合には、モアレによるエッジのガタ付きを緩和するために周囲の信号を用いた平滑化処理が挙げられる。また、第1の撮像手段と第2の撮像手段の出力画像を合成して、モアレ領域の信号レベルを減衰させてもよい。 As an example of the process of attenuating the signal level in the moire area, in the case of a color signal, there is a process of reducing the saturation in order to mitigate the false color caused by moire. Further, in the case of a luminance signal, smoothing processing using surrounding signals can be cited to reduce the backlash of edges due to moire. Further, the signal level of the moire area may be attenuated by synthesizing the output images of the first imaging means and the second imaging means.
また、モアレ領域でなく、かつ、モアレ領域との類似性が低い領域については、モアレ領域と類似していないほど、モアレ補正処理の度合いを弱める。換言すれば、モアレ領域と類似しているほど、モアレ補正処理の度合いを強める。すなわち、モアレ補正手段107,108は、複数の画像の非共通領域において、類似度算出手段105,106が算出する類似度に応じて補正の度合いを変更する。 In addition, in a region that is not a moire region and has a low similarity to the moire region, the degree of moire correction processing is weakened as the region is not similar to the moire region. In other words, the more similar to the moire area, the stronger the degree of moire correction processing. That is, the moire correction means 107 and 108 change the degree of correction according to the similarity calculated by the similarity calculation means 105 and 106 in a non-common area of a plurality of images.
なお、本発明の画像処理装置は、撮像装置に搭載されるものに限定されず、撮像装置の外部に設けられるものであってもよい。例えば、撮像装置にインターネットを介して接続されたサーバーから構成されてもよい(クラウドコンピューティング)。もちろん、画像処理装置は画像情報を保存している他のパーソナルコンピュータ(PC)、携帯電話、PDAやゲーム機などの専用端末などにネットワークを介して接続されていてもよい。 Note that the image processing apparatus of the present invention is not limited to the one mounted on the imaging apparatus, and may be provided outside the imaging apparatus. For example, it may be configured from a server connected to the imaging device via the Internet (cloud computing). Of course, the image processing apparatus may be connected to another personal computer (PC) storing image information, a mobile phone, a dedicated terminal such as a PDA or a game machine via a network.
次に、本実施例の撮像ユニットで1フレーム分の画像を生成する処理の流れについて、図2のフローチャートを参照して説明する。 Next, the flow of processing for generating an image for one frame by the imaging unit of the present embodiment will be described with reference to the flowchart of FIG.
S100では、制御手段109は、第1の撮像手段と第2の撮像手段とで撮像特性が異なるよう光学系と撮像素子の駆動を制御する。そして、第1の撮像手段と第2の撮像手段の撮影条件をS100で決定した後、S101でそれぞれ撮影を実行させる。本実施例では、第1の撮像手段101において広角、第2の撮像手段102において望遠の画像を撮像するよう、各光学系の焦点距離を設定する。 In S100, the control unit 109 controls the driving of the optical system and the image sensor so that the first imaging unit and the second imaging unit have different imaging characteristics. Then, after the shooting conditions of the first image pickup means and the second image pickup means are determined in S100, shooting is executed in S101. In this embodiment, the focal length of each optical system is set so that the first imaging unit 101 captures a wide-angle image and the second imaging unit 102 captures a telephoto image.
S102では、幾何変形手段103は、第1の撮像手段101と第2の撮像手段102で撮影された複数の画像(出力画像)に対して、視差による位置ずれ、および、焦点距離の違いによる像倍率の違いを補正するよう、幾何変形処理を行う。 In S <b> 102, the geometric deforming unit 103 performs image displacement due to parallax and a difference in focal length on a plurality of images (output images) captured by the first imaging unit 101 and the second imaging unit 102. A geometric deformation process is performed so as to correct the difference in magnification.
S103では、モアレ領域検出手段104は、第1の撮像手段101と第2の撮像手段102で撮影され、幾何変形手段103で変形された複数の画像を取得する。そして、取得した複数の画像を参照し、同一の被写体領域における色信号または、周波数成分の違いから、撮像素子のサンプリングに起因したモアレが発生しているか否かを判定する。 In S <b> 103, the moire area detection unit 104 acquires a plurality of images that are captured by the first imaging unit 101 and the second imaging unit 102 and deformed by the geometric deformation unit 103. Then, with reference to the plurality of acquired images, it is determined whether or not moire due to sampling of the image sensor has occurred, based on a difference in color signal or frequency component in the same subject region.
また、モアレ領域検出手段104では、第1の撮像手段101と第2の撮像手段102の出力画像に対して、それぞれ、2つの画像の差分に基づいて、モアレ領域の検出処理が行われた画素(領域)か否かを示す、モアレ検出対象領域情報を生成する。また、第1の撮像手段101と第2の撮像手段102の出力画像において、モアレ検出処理が行われた画素領域においては、画素毎に、所属するモアレ領域を示すモアレ領域の参照番号を生成する。モアレ検出対象領域情報と、モアレ領域の参照番号は、第1の撮像手段101と第2の撮像手段102の出力画像について、それぞれ、画素位置と対応づけて、制御手段109内の図示しない記憶手段に格納される。 Further, in the moiré area detection unit 104, a pixel on which the moiré area detection processing has been performed on the output images of the first imaging unit 101 and the second imaging unit 102 based on the difference between the two images, respectively. Moire detection target area information indicating whether or not (area) is generated. In addition, in the output image of the first imaging unit 101 and the second imaging unit 102, in the pixel area where the moiré detection process has been performed, the reference number of the moiré area indicating the moiré area to which it belongs is generated for each pixel. . The moire detection target area information and the reference number of the moire area correspond to the pixel positions of the output images of the first image pickup means 101 and the second image pickup means 102, respectively, and are not shown in the control means 109. Stored in
S104では、類似度算出手段105,106は、第1の撮像手段101と第2の撮像手段102の出力画像に対して、それぞれ、モアレ領域検出手段104で検出されたモアレ領域との画像の類似度を算出する。 In S <b> 104, the similarity calculation units 105 and 106 are similar in image to the moire area detected by the moire area detection unit 104 for the output images of the first imaging unit 101 and the second imaging unit 102, respectively. Calculate the degree.
S105では、モアレ補正手段107,108は、モアレ領域の検出結果、および、算出されたモアレ領域との類似度に基づいて、第1の撮像手段101と第2の撮像手段102の出力画像に対して、それぞれ、モアレを補正する。具体的には、モアレを減衰させる、モアレ補正処理を行う。 In S <b> 105, the moire correction means 107 and 108 apply to the output images of the first image pickup means 101 and the second image pickup means 102 based on the detection result of the moire area and the calculated similarity to the moire area. And correct the moire respectively. Specifically, a moire correction process for attenuating moire is performed.
次に図3のフローチャートを参照して、類似度算出手段105,106の処理内容について詳細に説明する。 Next, the processing content of the similarity calculation means 105 and 106 will be described in detail with reference to the flowchart of FIG.
S201では、モアレ領域検出手段104の処理結果を参照し、モアレ領域が存在しない場合には、類似度算出の処理を終了する。モアレ領域が存在する場合には、S202に進む。 In S201, the processing result of the moiré area detection unit 104 is referred to, and when the moiré area does not exist, the similarity calculation process ends. When the moiré area exists, the process proceeds to S202.
S202では、制御手段109の記憶手段から、モアレ検出対象領域情報を参照し、入力画像において、モアレ領域検出手段104でモアレ検出処理が行われていない領域が存在する場合には、S203に進んで、類似度算出処理を継続する。モアレ検出処理が行われていない領域が存在しない場合には、類似度算出の処理を終了する。 In S202, the moire detection target area information is referred to from the storage means of the control means 109, and if there is an area in the input image that has not been subjected to moire detection processing by the moire area detection means 104, the process proceeds to S203. The similarity calculation process is continued. If there is no area where the moiré detection process has not been performed, the similarity calculation process ends.
S203では、入力画像のモアレ検出対象領域情報を参照し、モアレ領域検出手段104でモアレ検出が行われなかった領域(非共通領域)を類似度算出領域に設定する。そして、類似度算出領域内の画素毎に、類似度算出に用いる特徴量を算出し、制御手段109内の記憶手段に格納する。 In S203, referring to the moiré detection target area information of the input image, the area where the moiré detection is not performed by the moiré area detection means 104 (non-common area) is set as the similarity calculation area. Then, for each pixel in the similarity calculation area, a feature amount used for similarity calculation is calculated and stored in a storage unit in the control unit 109.
S204では、モアレ領域検出手段104でのモアレ検出結果をクラスタリングし、連続したモアレ領域内の特徴量を算出する。連続したモアレ領域が複数ある場合には、それぞれのモアレ領域毎に、特徴量を算出し、モアレ領域の参照番号とともに、制御手段109内の記憶手段に格納する。 In S204, the moiré detection results obtained by the moiré area detection unit 104 are clustered, and the feature amount in the continuous moiré area is calculated. When there are a plurality of continuous moire areas, the feature amount is calculated for each moire area and stored in the storage means in the control means 109 together with the reference number of the moire area.
ここで、S203、S204で算出する特徴量は、色信号、支配的な周波数成分、被写体距離等の情報のうち少なくとも1つに関する情報である。該情報は、少なくとも入力画像および撮像手段の制御設定に基づいて生成され、モアレ領域と近接した画素領域が、モアレ領域と同一の被写体領域であるかを推定するために用いる。 Here, the feature amount calculated in S203 and S204 is information related to at least one of information such as a color signal, a dominant frequency component, and a subject distance. The information is generated based on at least the input image and the control setting of the imaging unit, and is used to estimate whether the pixel area close to the moire area is the same subject area as the moire area.
S205では、類似度算出領域内の着目画素において、S203で求めた画像の特徴量を参照する。 In S205, the feature amount of the image obtained in S203 is referred to for the target pixel in the similarity calculation area.
S206では、類似度算出領域(非共通領域)内の着目画素と、着目するモアレ領域との被写体距離の差が、所定の閾値(第1の閾値)よりも小さいかを判定する。 In S206, it is determined whether or not the difference in subject distance between the target pixel in the similarity calculation region (non-common region) and the target moire region is smaller than a predetermined threshold (first threshold).
具体的には、着目画素Pでの被写体距離をD(p),着目するi番目のモアレ領域での被写体距離をD(mi)として、Dh=(D(p)−D(mi))^2が、所定の閾値Thdよりも小さいか(閾値以下か)どうかを判定する。 Specifically, Dh = (D (p) −D (mi)) ^ where D (p) is the subject distance at the pixel of interest P and D (mi) is the subject distance at the i th moire region of interest. It is determined whether 2 is smaller than a predetermined threshold value Thd (is less than or equal to the threshold value).
ここで、条件を満たす場合には、着目するモアレ領域と、着目画素が同一被写体であるとみなし、着目画素の信号に、近接するモアレ領域と同等の補正を行ってよいかを判断するために、S207に進む。条件を満たさない場合には、着目するモアレ領域と、着目画素が同一被写体ではないとみなし、S212に進む。換言すれば、類似度算出手段105,106は、被写体距離の差が第1の閾値よりも小さい場合には、類似度を算出すると判定し、第1の閾値よりも大きい場合には、類似度を算出しないと判定する。 Here, when the condition is satisfied, the target moire area and the target pixel are regarded as the same subject, and the signal of the target pixel is determined to be subjected to correction equivalent to that of the adjacent moire area. The process proceeds to S207. If the condition is not satisfied, the moiré area of interest and the pixel of interest are considered not to be the same subject, and the process proceeds to S212. In other words, the similarity calculation means 105 and 106 determine that the similarity is calculated when the difference in the subject distance is smaller than the first threshold, and when the difference is larger than the first threshold, the similarity is calculated. Is determined not to be calculated.
S207では、類似度算出領域(非共通領域)内の着目画素と、着目するモアレ領域との色信号の差が、所定の閾値(第2の閾値)よりも小さいかを判定する。 In S207, it is determined whether or not the color signal difference between the target pixel in the similarity calculation region (non-common region) and the target moire region is smaller than a predetermined threshold (second threshold).
具体的には、着目画素Pでの色信号をC(p),着目するi番目のモアレ領域での色信号をC(mi)として、Ch=(C(p)−C(mi))^2が、所定の閾値Thcよりも小さいか(閾値以下か)どうかを判定する。また、C(p)、C(mi)は、それぞれ、R,G,Bの色成分の線形和であらわされるものとする。 Specifically, Ch = (C (p) −C (mi)) ^ where C (p) is the color signal at the pixel of interest P and C (mi) is the color signal at the i th moire region of interest. 2 is smaller than a predetermined threshold Thc (whether it is equal to or less than the threshold). Also, C (p) and C (mi) are expressed as linear sums of R, G, and B color components, respectively.
ここで、条件を満たす場合には、着目するモアレ領域と、着目画素が同一被写体であり、かつ、色信号の類似性が高いので、着目画素の信号を、近接するモアレ領域と同等に補正してよいとみなし、S208に進む。 Here, if the condition is satisfied, the target moire area and the target pixel are the same subject, and the similarity of the color signal is high, so the signal of the target pixel is corrected to be equal to the adjacent moire area. The process proceeds to S208.
条件を満たさない場合には、色信号の類似性が低いため、着目画素に、近接するモアレ領域と同等の補正をすべきではないと一時的に判断し、S209に進む。換言すれば、類似度算出手段105,106は、色信号の差が第2の閾値よりも小さい場合には、類似度を算出し、第2の閾値よりも大きい場合には、一時的に類似度を算出しない。 If the condition is not satisfied, the similarity of the color signals is low, so it is temporarily determined that the same correction as that of the adjacent moire area should not be performed on the target pixel, and the process proceeds to S209. In other words, the similarity calculation means 105 and 106 calculate the similarity when the difference between the color signals is smaller than the second threshold, and temporarily similar when the difference is larger than the second threshold. Do not calculate degrees.
S209では、類似度算出領域(非共通領域)内の着目画素と、着目するモアレ領域との周波数成分の差が、所定の閾値(第3の閾値)よりも小さいかを判定する。 In S209, it is determined whether the difference between the frequency components of the pixel of interest in the similarity calculation region (non-common region) and the moire region of interest is smaller than a predetermined threshold (third threshold).
具体的には、着目画素Pでの周波数成分をF(p),着目するi番目のモアレ領域での周波数成分をF(mi)として、Fh=(F(p)−F(mi))^2が、所定の閾値Thfよりも小さいか(閾値以下か)どうかを判定する。また、F(p)、F(mi)は、それぞれ、水平、垂直、斜め方向の特定の周波数帯域で出力が最大になるようなバンドパスフィルタで抽出された信号成分の線形和であらわされるものとする。 Specifically, Fh = (F (p) −F (mi)) ^ where F (p) is the frequency component at the pixel of interest P and F (mi) is the frequency component at the i th moire region of interest. Whether 2 is smaller than a predetermined threshold value Thf (determined below a threshold value) is determined. F (p) and F (mi) are expressed as linear sums of signal components extracted by a band pass filter that maximizes the output in specific frequency bands in the horizontal, vertical, and diagonal directions, respectively. And
ここで、条件を満たす場合には、着目するモアレ領域と、着目画素が同一被写体であり、かつ、周波数成分の類似度が高いため、着目画素の信号を、近接するモアレ領域と同等に補正してよいとみなし、S208に進む。 Here, if the condition is satisfied, the target moire area and the target pixel are the same subject, and the similarity of the frequency components is high, so the signal of the target pixel is corrected to be equal to the adjacent moire area. The process proceeds to S208.
条件を満たさない場合には、周波数成分の類似度が低いため、着目画素に、隣接するモアレ領域と同等の補正をすべきではないと判断し、S212に進む。換言すれば、類似度算出手段105,106は、周波数成分の差が第3の閾値よりも小さい場合には、類似度を算出し、第3の閾値よりも大きい場合には、類似度を算出しない。 If the condition is not satisfied, the similarity of the frequency components is low, so it is determined that the pixel of interest should not be corrected in the same way as the adjacent moire area, and the process proceeds to S212. In other words, the similarity calculation means 105 and 106 calculate the similarity when the frequency component difference is smaller than the third threshold, and calculate the similarity when the difference is larger than the third threshold. do not do.
S208では、着目画素に隣接するモアレ領域の参照番号と、当該モアレ領域と着目画素との類似度を、制御手段109内の図示しない記憶手段に格納する。 In S208, the reference number of the moire area adjacent to the target pixel and the similarity between the moire area and the target pixel are stored in a storage unit (not shown) in the control unit 109.
類似度としては、S207、または、S208で算出された、当該モアレ領域と着目画素との色信号または周波数成分の差分の二乗値を記憶する。 As the similarity, the square value of the difference between the color signal or the frequency component between the moiré area and the pixel of interest calculated in S207 or S208 is stored.
上述したように、類似度算出手段105,106は、複数の画像のうち非共通領域における着目画素の特徴量と共通領域におけるモアレ領域の特徴量とに基づいて類似度を算出する。具体的には、該特徴量から、色信号の差または周波数成分の差の二乗値を類似度として算出し、該算出した類似度を、着目したモアレ領域と関連づけて図示しない記憶手段に格納する。 As described above, the similarity calculation units 105 and 106 calculate the similarity based on the feature amount of the pixel of interest in the non-common region and the feature amount of the moire region in the common region among the plurality of images. Specifically, the square value of the color signal difference or the frequency component difference is calculated as the similarity from the feature amount, and the calculated similarity is stored in a storage unit (not shown) in association with the focused moire area. .
S210では、類似度算出領域内の全ての画素に対して、着目するモアレ領域との類似度の算出処理が終了したかを判定する。 In S210, it is determined whether or not the calculation processing of the similarity with the moiré area of interest has been completed for all the pixels in the similarity calculation area.
全ての画素に対して、着目するモアレ領域との類似度の算出処理が終了するまで、S211で着目画素領域のアドレスを更新し、S205からS211までの処理を繰り返す。一方、全ての画素に対して処理が終了した場合には、S212に進む。 The address of the target pixel area is updated in S211 and the processes from S205 to S211 are repeated until the calculation processing of the similarity with the target moire area is completed for all the pixels. On the other hand, when the processing is completed for all the pixels, the process proceeds to S212.
S212では、対象となる全てのモアレ領域について、類似度算出領域内の着目画素との類似度を評価したかを判定する。 In S <b> 212, it is determined whether the similarity with the target pixel in the similarity calculation area has been evaluated for all target moire areas.
全てのモアレ領域について、類似度の評価が終了するまで、S213でモアレ領域の参照番号を更新し、S204からS212までの処理を繰り返す。全てのモアレ領域について、類似度の評価処理が終了したら、類似度算出処理を終了する。 For all moire areas, the reference number of the moire area is updated in S213 until the similarity evaluation is completed, and the processes from S204 to S212 are repeated. When the similarity evaluation process is completed for all moire regions, the similarity calculation process is terminated.
また、S204からS212の処理を繰り返す中で、S208では、着目画素と最も類似度が高いモアレ領域との類似度算出結果が格納されるよう、各画素における類似度算出結果を更新する。 In addition, while repeating the processing from S204 to S212, in S208, the similarity calculation result in each pixel is updated so that the similarity calculation result between the target pixel and the moire region having the highest similarity is stored.
尚、本実施例では、被写体距離、色信号、周波数成分に基づいて、着目画素と隣接するモアレ領域との類似度を算出したが、それ以外の特徴量を参照して類似度を算出してもかまわない。 In this embodiment, the similarity between the target pixel and the adjacent moire area is calculated based on the subject distance, the color signal, and the frequency component, but the similarity is calculated with reference to other feature amounts. It doesn't matter.
また、隣接するモアレ領域との類似度の算出は、画素毎に行っても良いし、入力画像をブロック分割し、局所的な領域毎の特徴量に基づいて算出してもよい。 Further, the calculation of the degree of similarity with the adjacent moire area may be performed for each pixel, or the input image may be calculated based on the feature amount for each local area by dividing the input image into blocks.
最後に図4を参照して、本実施例でのモアレ検出および低減処理の作用を説明する。 Finally, with reference to FIG. 4, the operation of the moire detection and reduction processing in the present embodiment will be described.
図4(a)は、本実施例で撮影される撮影領域の一例を示している。第1の撮像手段で撮像される画角が301であり、第2の撮像手段で撮像される画角が302である。 FIG. 4A shows an example of a shooting region shot in this embodiment. An angle of view captured by the first imaging unit is 301, and an angle of view captured by the second imaging unit is 302.
画角301に含まれる連続した被写体領域303のうち、領域304については、第1の撮像手段と第2の撮像手段でともに撮影することが可能である。 Of the continuous subject area 303 included in the angle of view 301, the area 304 can be imaged together by the first imaging means and the second imaging means.
図4(b)は、第1の撮像手段から出力される画像を示す模式図であり、画像領域401が、図4(a)の被写体領域303に対応する。被写体領域303の光学像には、撮像素子の画素ピッチで決まるナイキスト周波数よりも高周波の信号が含まれるため、対応する画像領域401には、モアレが発生している。また、領域402(共通領域)については、第2の撮像手段から出力される画像にも含まれる。 FIG. 4B is a schematic diagram illustrating an image output from the first imaging unit, and an image region 401 corresponds to the subject region 303 in FIG. Since the optical image of the subject area 303 includes a signal having a frequency higher than the Nyquist frequency determined by the pixel pitch of the image sensor, moire occurs in the corresponding image area 401. The area 402 (common area) is also included in the image output from the second imaging unit.
図4(c)は、第2の撮像手段から出力される画像を示す模式図であり、画像領域501が、図4(a)の被写体領域304に対応する。被写体領域304は、被写体領域303の一部であるが、第2の撮像手段では、第1の撮像手段よりも望遠側の設定で撮像を行うため、撮像素子の画素ピッチで決まるナイキスト周波数よりも低域の信号として撮像され、画像領域501にはモアレは発生しない。 FIG. 4C is a schematic diagram illustrating an image output from the second imaging unit, and an image region 501 corresponds to the subject region 304 in FIG. Although the subject area 304 is a part of the subject area 303, the second imaging unit performs imaging with a setting on the telephoto side than the first imaging unit, and therefore, is higher than the Nyquist frequency determined by the pixel pitch of the imaging element. The image is picked up as a low-frequency signal, and no moire occurs in the image area 501.
第2の撮像手段の出力画像を幾何変形手段103で縮小した画像が、図4(d)であり、画像領域601が、図4(a)の被写体領域304に対応する。 FIG. 4D shows an image obtained by reducing the output image of the second imaging means by the geometric deformation means 103, and the image area 601 corresponds to the subject area 304 in FIG. 4A.
ここで、図4(b)の画像領域403と、図4(d)の画像領域601は、同一の被写体領域だが、被写体像に含まれる周波数成分と、撮像素子の画素ピッチで決まるナイキスト周波数との相対関係が異なるため、撮像時に再現される周波数が異なる。そのため、領域601では、被写体本来の周波数成分が再現できるが、領域403では、サンプリング定理を満たさないためモアレが発生する。 Here, the image region 403 in FIG. 4B and the image region 601 in FIG. 4D are the same subject region, but the Nyquist frequency determined by the frequency component included in the subject image and the pixel pitch of the image sensor. Since the relative relationships of are different, the frequencies reproduced at the time of imaging are different. Therefore, in the region 601, the original frequency component of the subject can be reproduced, but in the region 403, moire occurs because the sampling theorem is not satisfied.
したがって、モアレ領域検出手段104で、領域403と領域601の周波数を比較することにより、モアレが発生しているか否かを検出でき、第1の撮像手段から出力される画像において、図4(b)の画像領域403は、モアレが発生している領域と判定される。 Therefore, the moire region detecting unit 104 can detect whether or not moire has occurred by comparing the frequencies of the region 403 and the region 601. In the image output from the first imaging unit, FIG. ) Image area 403 is determined to be an area where moire occurs.
また、第1の撮像手段から出力される画像において、画像領域401も、領域403と連続した高周波の被写体領域であるためモアレが発生している。しかし、図4(b)の画像領域401(非共通領域)に対応する画像は、望遠側の撮影画角から外れてしまっているため、第2の撮像手段では撮像されない。 Further, in the image output from the first imaging unit, the image area 401 is also a high-frequency subject area continuous with the area 403, so that moire occurs. However, the image corresponding to the image area 401 (non-common area) in FIG. 4B is not taken by the second imaging means because it is out of the shooting field angle on the telephoto side.
そこで、画像領域401については、類似度算出手段105で、画像領域403との画像の類似度を算出し、モアレ領域との類似度に基づいて、モアレ補正手段でのモアレ補正処理を行う。モアレ領域であると確定している画像領域403と、画像領域401との類似度については、図示しない測距手段で測定された被写体距離の情報や、色信号の分散、輝度信号の分散に基づいて求める。 Therefore, for the image region 401, the similarity calculation unit 105 calculates the image similarity with the image region 403, and performs moire correction processing by the moire correction unit based on the similarity with the moire region. The degree of similarity between the image area 403 determined to be a moire area and the image area 401 is based on subject distance information measured by distance measuring means (not shown), color signal dispersion, and luminance signal dispersion. Ask.
以上より、本発明の撮像装置では、被写体像の同一部分に発生するモアレの周波数が異なるよう、光学系を独立に制御して撮像を行い、複数の画像の差分から、モアレ領域を検出して補正することができる。また、該複数の画像の差分から、モアレ成分を検出するための情報を生成できない場合でも、モアレ検出領域との類似性に基づいて、モアレを補正し、良好な画質の映像信号を得ることができる。 As described above, in the imaging apparatus of the present invention, imaging is performed by independently controlling the optical system so that the frequency of moire generated in the same part of the subject image is different, and the moire area is detected from the difference between a plurality of images. It can be corrected. In addition, even when information for detecting a moiré component cannot be generated from the difference between the plurality of images, it is possible to correct the moiré based on the similarity to the moiré detection region and obtain a video signal with good image quality. it can.
次に、本発明の撮像装置の第2の実施例について説明する。第2の実施例の撮像装置の構成および、処理フローを示すフローチャートは、第1の実施例と同じであるので説明を割愛する。第2の実施例では、第1の撮像手段101と、第2の撮像手段102とで、同一の被写体像をサンプリングする際の2次元的なサンプリングの方向が、相対的に45度異なるように、撮像手段を制御することを特徴としている。 Next, a second embodiment of the imaging apparatus of the present invention will be described. The configuration of the image pickup apparatus of the second embodiment and the flowchart showing the processing flow are the same as those of the first embodiment, and thus the description thereof is omitted. In the second embodiment, the two-dimensional sampling direction when sampling the same subject image is different by 45 degrees relative to the first imaging unit 101 and the second imaging unit 102. The image pickup means is controlled.
具体的には、第1の撮像手段の撮像素子の配置に対し、光軸回りに45度異なるように、第2の撮像手段の撮像素子を45度回転させて撮像を行う。 Specifically, imaging is performed by rotating the imaging device of the second imaging unit by 45 degrees so that the arrangement of the imaging device of the first imaging unit differs by 45 degrees around the optical axis.
図5(a)に、実施例2で撮影される撮影領域の一例を示す。図5(a)において、矩形領域701は、第1の撮像手段で撮像され、矩形領域702は第2の撮像手段で撮像される。 FIG. 5A shows an example of a shooting area shot in the second embodiment. In FIG. 5A, a rectangular area 701 is picked up by the first image pickup means, and a rectangular area 702 is picked up by the second image pickup means.
また、被写体領域703は、斜め方向で、画素ピッチで決まるナイキスト周波数よりも高周波成分を含む領域であり、モアレが発生している。 The subject area 703 is an area including a higher frequency component than the Nyquist frequency determined by the pixel pitch in an oblique direction, and moire is generated.
図5(b)は、第1の撮像手段から出力される画像を示しており、図5(a)の被写体領域703に対応する画像領域801,802を有している。 FIG. 5B shows an image output from the first imaging means, and has image areas 801 and 802 corresponding to the subject area 703 in FIG.
図5(c)は、第2の撮像手段から出力される画像を45度右方向に回転させたものであり、図5(a)の被写体領域703に対応する画像領域901を有している。 FIG. 5C shows an image output from the second imaging means rotated 45 degrees to the right, and has an image area 901 corresponding to the subject area 703 in FIG. .
また、第2の実施例では、モアレ領域検出手段104において、撮像素子で被写体像を2次元的にサンプリングする方向毎に、それぞれ周波数成分を検出する。第1の撮像手段101と第2の撮像手段102の撮像素子は、図6に示すように、水平、垂直方向に受光素子が離散的に配置されているので、モアレ領域検出手段104では、垂直方向の周波数成分と水平方向の周波数成分を求め、モアレ領域の検出を行う。 In the second embodiment, the moire region detection unit 104 detects the frequency component for each direction in which the subject image is sampled two-dimensionally by the image sensor. As shown in FIG. 6, since the light receiving elements are discretely arranged in the horizontal and vertical directions in the imaging elements of the first imaging unit 101 and the second imaging unit 102, the moire region detection unit 104 uses the vertical direction. The frequency component in the direction and the frequency component in the horizontal direction are obtained, and the moire area is detected.
ここで、図5(a)の領域703に含まれる斜め方向の高周波成分は、垂直方向、および、水平方向のいずれの周波数成分も含む。 Here, the oblique high-frequency component included in the region 703 of FIG. 5A includes both vertical and horizontal frequency components.
したがって、第1の撮像手段から出力される、図5(b)の画像において、画像領域801、802では、垂直方向、水平方向の両方にモアレの周波数成分が検出される。 Therefore, in the image of FIG. 5B output from the first image pickup means, moiré frequency components are detected in both the vertical and horizontal directions in the image regions 801 and 802.
一方、第2の撮像手段から出力される、図5(c)の画像では、被写体領域703が、45度回転した撮像素子でサンプリングされるため、垂直方向のエッジ(横縞状のパターン)として撮像される。したがって、モアレ領域検出手段において、垂直方向、および、水平方向の周波数成分を解析すると、垂直方向にのみモアレの周波数成分が検出される。 On the other hand, in the image of FIG. 5C output from the second image pickup means, the subject region 703 is sampled by the image pickup device rotated by 45 degrees, so that it is picked up as a vertical edge (horizontal stripe pattern). Is done. Therefore, when the moire region detecting means analyzes the frequency components in the vertical direction and the horizontal direction, the frequency component of moire is detected only in the vertical direction.
このため、被写体領域703のうち、第1撮像手段、および、第2の撮像手段でともに撮影される領域については、それぞれ、垂直方向と水平方向のモアレ周波数の差分に基づいて、当該領域にモアレが発生しているか否かを検出できる。 For this reason, in the subject area 703, the areas that are imaged together by the first imaging means and the second imaging means are respectively added to the areas based on the difference between the moire frequencies in the vertical direction and the horizontal direction. Whether or not has occurred can be detected.
一方、図5(b)の画像領域802では、対応する画像領域が、第2の撮像手段から出力される画像に存在しないので、第1の撮像手段と第2の撮像手段で撮像された画像の周波数成分の差分から、モアレ領域の検出を行うことができない。 On the other hand, in the image area 802 in FIG. 5B, since the corresponding image area does not exist in the image output from the second imaging means, the images captured by the first imaging means and the second imaging means. The moire area cannot be detected from the difference between the frequency components.
そこで、類似度算出手段106において、モアレ領域801との画像の類似度を算出し、モアレ領域との類似度に基づいて、モアレ補正手段でのモアレ補正処理を行う。 Therefore, the similarity calculation unit 106 calculates the image similarity with the moire region 801, and performs moire correction processing with the moire correction unit based on the similarity with the moire region.
以上より、本発明の第2の実施例の撮像装置においても、被写体像の同一部分に発生するモアレの周波数が異なるよう、撮像素子でのサンプリングの方向を独立に制御して撮像を行い、複数の画像の差分から、モアレ領域を検出して補正することができる。また、該複数の画像の差分から、モアレ成分を検出するための情報を生成できない場合でも、モアレ検出領域との類似性に基づいて、モアレを補正し、良好な画質の映像信号を得ることができる。 As described above, also in the image pickup apparatus according to the second embodiment of the present invention, imaging is performed by independently controlling the sampling direction of the image pickup element so that the frequency of moire generated in the same portion of the subject image is different. The moire area can be detected and corrected from the difference between the images. In addition, even when information for detecting a moiré component cannot be generated from the difference between the plurality of images, it is possible to correct the moiré based on the similarity to the moiré detection region and obtain a video signal with good image quality. it can.
上述したように、従来、センサのサンプリング起因で発生するモアレを、撮像条件を変えて同時撮影した複数の画像間の差分から判別する際、同一被写体が存在しない画像領域では、モアレ有無の判定ができない問題があった。 As described above, when determining the moiré caused by the sampling of the sensor from the difference between a plurality of images simultaneously shot under different imaging conditions, the presence / absence of moiré is determined in an image area where the same subject does not exist. There was a problem that could not be done.
これに対し、本願発明は、同一被写体に対して、光学特性または、撮像サンプリング特性を変えて撮影した複数の画像からモアレ領域を判定し、該モアレ領域との類似性に基づいて、画像内のサンプリング起因のモアレを低減している。 On the other hand, the present invention determines a moire area from a plurality of images taken by changing optical characteristics or imaging sampling characteristics for the same subject, and based on the similarity to the moire area, Moire caused by sampling is reduced.
これにより、本発明によれば、撮影画像の全ての領域において、撮像サンプリング特性に起因して発生するモアレを低減(補正)した、良好な画質の映像信号を生成(取得)することができる。 Thus, according to the present invention, it is possible to generate (acquire) a video signal with good image quality in which the moire generated due to the imaging sampling characteristics is reduced (corrected) in all regions of the captured image.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
例えば、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。 For example, when a software program that implements the functions of the above-described embodiments is supplied from a recording medium directly to a system or apparatus having a computer that can execute the program using wired / wireless communication, and the program is executed Are also included in the present invention.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するための手順が記述されたコンピュータプログラム自体も本発明に含まれる。 Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the present invention includes a computer program itself in which a procedure for realizing the functional processing of the present invention is described.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。 In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS. As a recording medium for supplying the program, for example, a magnetic recording medium such as a hard disk or a magnetic tape, an optical / magneto-optical storage medium, or a nonvolatile semiconductor memory may be used.
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。 As a program supply method, a computer program that forms the present invention is stored in a server on a computer network, and a connected client computer downloads and programs the computer program.
本発明は、コンパクトデジタルカメラ、一眼レフカメラ、ビデオカメラなどの撮像装置に好適に利用できる。 The present invention can be suitably used for an imaging apparatus such as a compact digital camera, a single-lens reflex camera, and a video camera.
110 画像処理装置
110a,110b 取得手段
104 モアレ領域検出手段
105,106 類似度算出手段
107,108 モアレ補正手段
110 Image processing devices 110a and 110b Acquisition means 104 Moire area detection means 105 and 106 Similarity calculation means 107 and 108 Moire correction means
Claims (20)
前記複数の画像のうち、前記共通領域におけるモアレが発生しているモアレ領域を判定する判定手段と、
前記複数の画像のうち前記共通領域とは異なる非共通領域に関して、前記モアレ領域との類似度を算出する算出手段と、
前記モアレ領域と前記類似度に基づいて、前記複数の画像のうち少なくとも1つの画像に対して前記モアレを補正する補正手段と、
を有することを特徴とする画像処理装置。 Acquisition means for acquiring a plurality of images including a common area;
Determination means for determining a moire area in which the moire in the common area is generated among the plurality of images;
Calculating means for calculating a similarity with the moire region for a non-common region different from the common region among the plurality of images;
Correction means for correcting the moire for at least one of the plurality of images based on the moire area and the similarity;
An image processing apparatus comprising:
該算出した類似度を、前記モアレ領域と関連づけて記憶手段に格納することを特徴とする請求項6または7に記載の画像処理装置。 The calculating means calculates a square value of the difference between the color signals as the similarity;
The image processing apparatus according to claim 6, wherein the calculated similarity is stored in a storage unit in association with the moire area.
該算出した類似度を、前記モアレ領域と関連づけて記憶手段に格納することを特徴とする請求項9または10に記載の画像処理装置。 The calculation means calculates a square value of the difference between the frequency components as the similarity,
The image processing apparatus according to claim 9 or 10, wherein the calculated similarity is stored in a storage unit in association with the moire area.
請求項1ないし15のうちいずれか1項に記載の画像処理装置と、を備えた撮像装置。 An imaging means having an optical system and an imaging device;
An image pickup apparatus comprising: the image processing apparatus according to claim 1.
前記複数の画像のうち、前記共通領域におけるモアレが発生しているモアレ領域を判定するステップと、
前記複数の画像のうち前記共通領域とは異なる非共通領域に関して、前記モアレ領域との類似度を算出するステップと、
前記モアレ領域と前記類似度に基づいて、前記複数の画像のうち少なくとも1つの画像に対して前記モアレを補正するステップと、
を有することを特徴とする画像処理方法。 Obtaining a plurality of images including a common area;
A step of determining a moiré area where moiré in the common area occurs among the plurality of images;
Calculating a similarity with the moire region for a non-common region different from the common region among the plurality of images;
Correcting the moire for at least one of the plurality of images based on the moire area and the similarity; and
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015240124A JP6579934B2 (en) | 2015-12-09 | 2015-12-09 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015240124A JP6579934B2 (en) | 2015-12-09 | 2015-12-09 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017108267A JP2017108267A (en) | 2017-06-15 |
JP6579934B2 true JP6579934B2 (en) | 2019-09-25 |
Family
ID=59061030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015240124A Active JP6579934B2 (en) | 2015-12-09 | 2015-12-09 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6579934B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113905157A (en) | 2017-05-31 | 2022-01-07 | 佳能株式会社 | Accessory device, camera, communication control method, medium, and camera system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003018479A (en) * | 2001-07-05 | 2003-01-17 | Fuji Photo Film Co Ltd | Image processing unit and image processing method, and imaging apparatus |
JP4190805B2 (en) * | 2002-06-12 | 2008-12-03 | オリンパス株式会社 | Imaging device |
WO2011045849A1 (en) * | 2009-10-13 | 2011-04-21 | キヤノン株式会社 | Imaging device |
-
2015
- 2015-12-09 JP JP2015240124A patent/JP6579934B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017108267A (en) | 2017-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276734B (en) | Image distortion correction method and device | |
JP5980294B2 (en) | Data processing apparatus, imaging apparatus, and data processing method | |
US9019426B2 (en) | Method of generating image data by an image device including a plurality of lenses and apparatus for generating image data | |
JP5709911B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
JP6308748B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
TWI538506B (en) | Image processing apparatus, information processing method and computer-readble storage medium | |
JP2006295626A (en) | Fish-eye image processing apparatus, method thereof and fish-eye imaging apparatus | |
US11076092B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5949201B2 (en) | Image processing apparatus and program | |
JP6282133B2 (en) | Imaging device, control method thereof, and control program | |
JP6579934B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP6682184B2 (en) | Image processing method, image processing program, image processing device, and imaging device | |
JP2016119532A (en) | Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium | |
US11682190B2 (en) | Method, system, and device for detecting an object in a distorted image | |
JP6378496B2 (en) | Image processing apparatus, control method, and recording medium | |
JP6105960B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP2010079815A (en) | Image correction device | |
JP2015109681A (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
JP2012015982A (en) | Method for deciding shift amount between videos | |
JP6306811B2 (en) | Image processing apparatus, information processing method, and program | |
JP2016146546A (en) | Image processing apparatus, image processing method, and program | |
JP6501732B2 (en) | Data processing apparatus, imaging apparatus, and control method of data processing apparatus | |
JP2007336524A (en) | Image processing apparatus, image processing program and imaging apparatus | |
JP2017123532A (en) | Image processing device, imaging device, image processing method, image processing program and recording medium | |
JP6907040B2 (en) | Image processing equipment, imaging equipment, lens equipment, image processing methods, programs, and storage media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190827 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6579934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |