JP6274744B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6274744B2
JP6274744B2 JP2013097097A JP2013097097A JP6274744B2 JP 6274744 B2 JP6274744 B2 JP 6274744B2 JP 2013097097 A JP2013097097 A JP 2013097097A JP 2013097097 A JP2013097097 A JP 2013097097A JP 6274744 B2 JP6274744 B2 JP 6274744B2
Authority
JP
Japan
Prior art keywords
image
resolution
low
alignment
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013097097A
Other languages
Japanese (ja)
Other versions
JP2014219764A (en
Inventor
木村 直人
直人 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013097097A priority Critical patent/JP6274744B2/en
Publication of JP2014219764A publication Critical patent/JP2014219764A/en
Application granted granted Critical
Publication of JP6274744B2 publication Critical patent/JP6274744B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)

Description

本発明は、特に、複数枚の低解像度画像を用いて高解像度画像を作成するために用いて好適な画像処理装置および画像処理方法に関する。 The present invention is particularly directed to a suitable image processing apparatus and how be used to create a high-resolution image using the plurality of low-resolution images.

複数枚の低解像度画像を用いて1枚の高解像度画像を作成する技術として、複数枚超解像が一般に知られている。この複数枚超解像の技術は、デジタルカメラにおいて電子ズームの画質を上げるための用途などに用いられる。複数枚超解像の方法としては、ベイヤー配列の色フィルタを有する撮像素子により得られた低解像度画像を用いて高解像度画像と同じ解像度を有する画像を色成分毎に作成し、複数枚超解像の処理をそれぞれ行うことにより高解像度画像を作成する。   As a technique for creating a single high-resolution image using a plurality of low-resolution images, a multi-image super-resolution is generally known. This multiple-image super-resolution technique is used for applications such as improving the image quality of electronic zoom in a digital camera. As a method of super-resolution of multiple images, an image having the same resolution as a high-resolution image is created for each color component using a low-resolution image obtained by an image sensor having a Bayer array color filter, and multiple-image super-resolution is obtained. A high resolution image is created by processing each image.

ところが、図16に示すように、連続して撮影した低解像度画像を用いて高解像度画像を生成する場合、領域1605に該当する低解像度画像の領域1601〜1604は、光軸中心からの像高が全て異なっている。そのため、複数枚の低解像度画像の画素を挿入することにより高解像度画像を生成すると、各低解像度画像の倍率色収差や歪曲収差の影響により画質が劣化する問題があった。   However, as shown in FIG. 16, when a high resolution image is generated using low resolution images taken continuously, areas 1601 to 1604 of the low resolution image corresponding to the area 1605 are image heights from the center of the optical axis. Are all different. Therefore, when a high resolution image is generated by inserting a plurality of low resolution image pixels, there is a problem that the image quality deteriorates due to the influence of lateral chromatic aberration and distortion of each low resolution image.

また、高解像度画像の各画素は、隣接された画素同士でも挿入された時の光軸中心からの像高が異なるため、高解像度画像を生成した後に倍率色収差補正や歪曲収差補正を行うのは非常に困難である。一方、低解像度画像の段階で倍率色収差補正や歪曲収差補正を行うと、バイリニア補間などのフィルタリング手段を用いるため、低解像画像の周波数帯域が落ちてしまい、高解像度画像を生成するのに好ましくない。そこで、上記の対策として、特許文献1には、倍率色収差や歪曲収差などの光学特性に基づく座標変換を行った後にデモザイキング処理を行う方法が開示されている。   Also, each pixel of the high resolution image has a different image height from the center of the optical axis when adjacent pixels are inserted, so the magnification chromatic aberration correction and the distortion aberration correction are performed after the high resolution image is generated. It is very difficult. On the other hand, if lateral chromatic aberration correction and distortion correction are performed at the low-resolution image stage, a filtering means such as bilinear interpolation is used, so the frequency band of the low-resolution image drops, which is preferable for generating a high-resolution image. Absent. Therefore, as a countermeasure for the above, Patent Document 1 discloses a method of performing demosaicing processing after performing coordinate conversion based on optical characteristics such as lateral chromatic aberration and distortion.

特開2009−100417号公報JP 2009-1000041 A 特開2009−301181号公報JP 2009-301181 A

しかしながら、特許文献1に開示された方法で高解像度画像を生成しても、デモザイキング処理により周波数帯域を落としてしまっているので、高解像度画像を生成するには好ましくない。   However, even if a high resolution image is generated by the method disclosed in Patent Document 1, the frequency band is reduced by the demosaicing process, which is not preferable for generating a high resolution image.

本発明は前述の問題点に鑑み、低解像度画像の周波数帯域を落とさないようにして、光学特性に基づく収差を補正した高解像度画像を生成できるようにすることを目的としている。   In view of the above-described problems, an object of the present invention is to generate a high-resolution image in which aberration based on optical characteristics is corrected without reducing the frequency band of a low-resolution image.

本発明に係る画像処理装置は、複数の低解像度画像を用いて高解像度画像を生成する画像処理装置であって、前記低解像度画像のそれぞれの座標に対し、各色成分の光学特性に基づく座標変換を行う座標変換手段と、前記複数の低解像度画像の間の位置ずれ量を検出する検出手段と、前記検出手段により検出された位置ずれ量に従って、前記座標変換手段により座標変換された低解像度画像の位置合わせを行う位置合わせ手段と、前記位置合わせ手段による位置合わせの結果に基づいて、前記低解像度画像の画素値を挿入することにより前記高解像度画像を生成する挿入手段とを備え、前記検出手段は、前記低解像度画像を縮小した後に、前記座標変換手段による座標変換が行われた位置合わせ用の画像を生成する生成手段をさらに備え、前記生成手段によって生成された位置合わせ用の画像を用いて位置ずれ量を検出することを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus that generates a high-resolution image using a plurality of low-resolution images, and for each coordinate of the low-resolution image, coordinate conversion based on optical characteristics of each color component A coordinate conversion means for performing the detection, a detection means for detecting a displacement amount between the plurality of low resolution images, and a low resolution image coordinate-converted by the coordinate conversion means according to the displacement amount detected by the detection means. And an alignment unit for generating the high-resolution image by inserting a pixel value of the low-resolution image based on a result of the alignment by the alignment unit, and the detection The means further includes generating means for generating an image for alignment after coordinate conversion by the coordinate conversion means after reducing the low-resolution image. And detecting the positional deviation amount by using the image for positioning generated by the generating means.

本発明によれば、低解像度画像の周波数帯域を落とさないようにして、光学特性に基づく収差を補正した高解像度画像を生成することができる。   According to the present invention, it is possible to generate a high-resolution image in which aberration based on optical characteristics is corrected without dropping the frequency band of the low-resolution image.

実施形態に係る画像処理装置の内部構成例を示すブロック図である。It is a block diagram which shows the internal structural example of the image processing apparatus which concerns on embodiment. 画像処理部の中の超解像処理制御部の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the super-resolution process control part in an image processing part. 第1の実施形態における超解像処理制御部の中の座標変換係数算出部の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the coordinate transformation coefficient calculation part in the super-resolution process control part in 1st Embodiment. 超解像処理制御部の中の超解像処理部の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the super-resolution process part in a super-resolution process control part. 実施形態に係る超解像処理制御部による超解像処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the super-resolution process procedure by the super-resolution process control part which concerns on embodiment. ベイヤー画像をモザイク画像に分離する処理を説明するための図である。It is a figure for demonstrating the process which isolate | separates a Bayer image into a mosaic image. 第1の実施形態において、座標変換係数算出部による具体的な処理手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a specific processing procedure by a coordinate conversion coefficient calculation unit in the first embodiment. 実施形態において、超解像処理部による具体的な処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a specific processing procedure by a super-resolution processing unit in the embodiment. R画像における画素挿入処理を説明するための図である。It is a figure for demonstrating the pixel insertion process in R image. 実施形態において、画素挿入処理部による具体的な処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a specific processing procedure performed by a pixel insertion processing unit in the embodiment. 超解像画像Rにおける参照座標の位置を示す図である。It is a figure which shows the position of the reference coordinate in the super-resolution image R. 入力された低解像度画像に対し水平方向、垂直方向共にk倍に画素数を拡大した超解像画像の一例を示す図である。It is a figure which shows an example of the super-resolution image which expanded the number of pixels k times in the horizontal direction and the vertical direction with respect to the input low-resolution image. 第2の実施形態における超解像処理制御部の中の座標変換係数算出部の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the coordinate transformation coefficient calculation part in the super-resolution process control part in 2nd Embodiment. 第2の実施形態において、座標変換係数算出部による具体的な処理手順の一例を示すフローチャートである。In 2nd Embodiment, it is a flowchart which shows an example of the specific process sequence by a coordinate transformation coefficient calculation part. 水平画素数W、垂直画素数HのGのモザイク画像から間引き画像を生成する手順を説明するための図である。It is a figure for demonstrating the procedure which produces | generates a thinning image from the mosaic image of G of the horizontal pixel number W and the vertical pixel number H. 連続して撮影した低解像度画像を用いて高解像度画像を生成する方法を説明するための図である。It is a figure for demonstrating the method to produce | generate a high resolution image using the low resolution image image | photographed continuously.

(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。なお、本実施形態は、低解像度画像を複数枚用いて水平、垂直方向それぞれk倍に画素数を拡大した高解像度画像を生成し、高解像度化を実現する超解像処理について説明する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a super-resolution process for generating a high-resolution image using a plurality of low-resolution images and expanding the number of pixels in the horizontal and vertical directions by k times will be described.

図1は、本実施形態に係る画像処理装置100の内部構成例を示すブロック図である。
図1において、光学系101は、ズームレンズやフォーカスレンズから構成されるレンズ群、絞り調整装置、および、シャッター装置を備えている。この光学系101は、撮像素子102に到達する被写体像の倍率やピント位置、あるいは、光量を調整している。撮像素子102は、光学系101を通過した被写体の光束を光電変換して電気信号に変換するCCDやCMOSセンサー等の光電変換素子である。
FIG. 1 is a block diagram illustrating an internal configuration example of an image processing apparatus 100 according to the present embodiment.
In FIG. 1, the optical system 101 includes a lens group including a zoom lens and a focus lens, a diaphragm adjusting device, and a shutter device. The optical system 101 adjusts the magnification, focus position, or light amount of the subject image that reaches the image sensor 102. The imaging element 102 is a photoelectric conversion element such as a CCD or a CMOS sensor that photoelectrically converts a light beam of a subject that has passed through the optical system 101 into an electric signal.

A/D変換部103は、入力されたアナログの映像信号をデジタル信号である画像データに変換する。画像処理部104は、ホワイトバランス、γ補正などの通常の信号処理を行う。さらに画像処理部104は超解像処理制御部111を備えており、入力された複数枚の画像データ(ベイヤー画像)を用いて超解像処理を行う。画像処理部104はA/D変換部103から出力された画像データのみでなく、記録部108から読み出した画像データに対しても同様の画像処理を行うことができる。システム制御部105は、本実施形態に係る画像処理装置100全体の動作を制御、統括する制御機能部である。また、システム制御部105は、画像処理部104で処理された画像データから得られる輝度値や操作部106から送信された指示に基づいて、光学系101や撮像素子102の駆動制御も行う。   The A / D converter 103 converts the input analog video signal into image data that is a digital signal. The image processing unit 104 performs normal signal processing such as white balance and γ correction. Furthermore, the image processing unit 104 includes a super-resolution processing control unit 111, and performs super-resolution processing using a plurality of input image data (Bayer images). The image processing unit 104 can perform similar image processing not only on the image data output from the A / D conversion unit 103 but also on the image data read from the recording unit 108. The system control unit 105 is a control function unit that controls and controls the overall operation of the image processing apparatus 100 according to the present embodiment. The system control unit 105 also performs drive control of the optical system 101 and the image sensor 102 based on the luminance value obtained from the image data processed by the image processing unit 104 and the instruction transmitted from the operation unit 106.

表示部107は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイで構成され、撮像素子102で生成された画像データや、記録部108から読み出した画像データに係る画像を表示する。記録部108は、画像データを記録媒体110に記録する機能を有している。記録媒体110は、例えば、半導体メモリが搭載されたメモリカードや光磁気ディスク等の回転記録体を収容したパッケージなどを用いた情報記録媒体でもよく、さらに着脱可能であってもよい。バス109は、画像処理部104、システム制御部105、表示部107、および記録部108の間でデータをやり取りするために用いられる。   The display unit 107 includes a liquid crystal display or an organic EL (Electro Luminescence) display, and displays image data generated by the image sensor 102 and an image related to the image data read from the recording unit 108. The recording unit 108 has a function of recording image data on the recording medium 110. The recording medium 110 may be, for example, an information recording medium using a package containing a rotary recording body such as a memory card on which a semiconductor memory is mounted or a magneto-optical disk, and may be further detachable. A bus 109 is used to exchange data among the image processing unit 104, the system control unit 105, the display unit 107, and the recording unit 108.

ここで、本実施形態の特徴部分である画像処理部104内の超解像処理制御部111の具体的な構成について説明する。図2は、超解像処理制御部111の具体的な構成例を示すブロック図である。
図2に示すように、本実施形態に係る超解像処理制御部111は、基準画像選択部201、ベイヤー分離部202、座標変換係数算出部203、メモリ部204、超解像処理部205、およびYUV変換部206を備えている。また、図3には、座標変換係数算出部203の具体的な構成例を示しており、図4には、超解像処理部205の具体的な構成例を示している。図3および図4に示す構成については後述する。以下、図2の各構成が行う処理について、図5のフローチャートを参照しながら説明する。
Here, a specific configuration of the super-resolution processing control unit 111 in the image processing unit 104 which is a characteristic part of the present embodiment will be described. FIG. 2 is a block diagram illustrating a specific configuration example of the super-resolution processing control unit 111.
As shown in FIG. 2, the super-resolution processing control unit 111 according to the present embodiment includes a reference image selection unit 201, a Bayer separation unit 202, a coordinate conversion coefficient calculation unit 203, a memory unit 204, a super-resolution processing unit 205, And a YUV conversion unit 206. 3 shows a specific configuration example of the coordinate conversion coefficient calculation unit 203, and FIG. 4 shows a specific configuration example of the super-resolution processing unit 205. The configuration shown in FIGS. 3 and 4 will be described later. Hereinafter, processing performed by each configuration in FIG. 2 will be described with reference to the flowchart in FIG. 5.

図5は、本実施形態に係る超解像処理制御部111による超解像処理手順の一例を示すフローチャートである。
まず、ステップS501において、基準画像選択部201は、入力されたベイヤー画像を順番に複数枚取得する。そして、ステップS502において、複数枚入力されたベイヤー画像のうち、超解像処理を行う上で基準となるベイヤー画像を選択する。本実施形態では、入力された1枚目の画像を基準となる画像として選択する。以下、前記基準となるベイヤー画像を基準画像とし、それ以外のベイヤー画像を非基準画像とする。
FIG. 5 is a flowchart illustrating an example of a super-resolution processing procedure by the super-resolution processing control unit 111 according to the present embodiment.
First, in step S501, the reference image selection unit 201 acquires a plurality of input Bayer images in order. In step S502, a Bayer image serving as a reference for performing super-resolution processing is selected from a plurality of Bayer images input. In this embodiment, the input first image is selected as a reference image. Hereinafter, the reference Bayer image is a reference image, and the other Bayer images are non-reference images.

次に、ステップS503において、ベイヤー分離部202に基準画像を最初に出力し、次に複数の非基準画像を出力するように制御する。N枚の画像が入力された場合、1枚目に基準画像を出力し、次に2枚目からN枚目の非基準画像を出力する。   Next, in step S503, control is performed so that the reference image is first output to the Bayer separation unit 202, and then a plurality of non-reference images are output. When N images are input, the reference image is output to the first image, and then the second to Nth non-reference images are output.

次に、ステップS504において、ベイヤー分離部202は、ステップS503で出力されたベイヤー画像を、R,G,Bの3枚のモザイク画像に分離し、それぞれ座標変換係数算出部203および超解像処理部205に出力する。ここで、図6を参照しながら、ベイヤー画像をモザイク画像に分離する処理について詳細に説明する。   Next, in step S504, the Bayer separation unit 202 separates the Bayer image output in step S503 into three mosaic images of R, G, and B, and the coordinate transformation coefficient calculation unit 203 and the super-resolution processing, respectively. The data is output to the unit 205. Here, the process of separating the Bayer image into a mosaic image will be described in detail with reference to FIG.

図6(a)は、基準画像選択部201から出力された水平画像数W、垂直画素数Hのベイヤー画像の一例を示す図である。また、図6(b)は、図6(a)に示したベイヤー画像を、R,G,Bの各色成分に分離した3枚のモザイク画像の一例を示す図である。前記モザイク画像は、ベイヤー画像の画素値の情報を有する非欠落画素601と、ベイヤー画像の画素値の情報を持たず0の値が入力された欠落画素602とによって構成される。   FIG. 6A is a diagram illustrating an example of a Bayer image with the number of horizontal images W and the number of vertical pixels H output from the reference image selection unit 201. FIG. 6B is a diagram illustrating an example of three mosaic images obtained by separating the Bayer image illustrated in FIG. 6A into R, G, and B color components. The mosaic image includes non-missing pixels 601 having pixel value information of the Bayer image and missing pixels 602 having no value information of the Bayer image and having been input with a value of 0.

次に、ステップS505において、基準画像に対して非基準画像の位置合わせを行うために必要な座標変換係数を算出する。本実施形態では、Gのモザイク画像からデモザイク処理を行った画像に対して歪曲補正を行い、位置合わせ用のG画像を作成する。前記G画像を用いることにより、画像間の位置合わせを行うための射影変換係数を算出する。   Next, in step S505, a coordinate conversion coefficient necessary for aligning the non-reference image with the reference image is calculated. In the present embodiment, distortion correction is performed on an image that has been demosaiced from a G mosaic image to create a G image for alignment. By using the G image, a projective transformation coefficient for aligning the images is calculated.

図3は、図2の座標変換係数算出部203の具体的な構成例を示すブロック図である。
図3において、座標変換係数算出部203は、デモザイク処理部301、歪曲補正処理部302、および射影変換係数算出部303を備えている。以下、図3に示す各構成が行うステップS505の具体的な処理について、図7のフローチャートを参照しながら説明する。
FIG. 3 is a block diagram illustrating a specific configuration example of the coordinate conversion coefficient calculation unit 203 of FIG.
In FIG. 3, the coordinate conversion coefficient calculation unit 203 includes a demosaic processing unit 301, a distortion correction processing unit 302, and a projective conversion coefficient calculation unit 303. Hereinafter, specific processing of step S505 performed by each configuration illustrated in FIG. 3 will be described with reference to the flowchart of FIG.

図7は、図5のステップS505において、座標変換係数算出部203による具体的な処理手順の一例を示すフローチャートである。
まず、ステップS701において、デモザイク処理部301は、現在処理対象となっているGのモザイク画像を取得する。そして、ステップS702において、ステップS701で取得したGのモザイク画像に対し、デモザイク処理を行う。デモザイク処理の方法は線形補間や適応補間など公知の方法を用いる。
FIG. 7 is a flowchart showing an example of a specific processing procedure by the coordinate conversion coefficient calculation unit 203 in step S505 of FIG.
First, in step S <b> 701, the demosaic processing unit 301 acquires a G mosaic image currently being processed. In step S702, a demosaic process is performed on the G mosaic image acquired in step S701. As the demosaicing method, a known method such as linear interpolation or adaptive interpolation is used.

次に、ステップS703において、歪曲補正処理部302は、ステップS702でデモザイク処理を行ったGの画像に対し、歪曲補正処理を行う。歪曲補正の方法は、レンズ情報を用いた画像変形による補正など、公知の方法を用いる。そして、ステップS704において、ステップS703で歪曲補正を行ったGの画像が1枚目の画像か否かを判定する。この判定の結果、1枚目の画像、つまり基準画像である場合はステップS709に進み、1枚目の画像でなく非基準画像である場合はステップS705に進む。   In step S703, the distortion correction processing unit 302 performs distortion correction processing on the G image that has been demosaiced in step S702. As a distortion correction method, a known method such as correction by image deformation using lens information is used. In step S704, it is determined whether or not the G image subjected to distortion correction in step S703 is the first image. As a result of this determination, if the image is the first image, that is, the reference image, the process proceeds to step S709. If the image is not the first image but the non-reference image, the process proceeds to step S705.

ステップS709においては、射影変換係数算出部303は、ステップS703で歪曲補正を行ったGの画像を1枚目の位置合わせ用G画像としてメモリ部204に保存する。一方、ステップS705においては、射影変換係数算出部303は、ステップS703で歪曲補正を行ったGの画像を位置合わせ用G画像とし、前記位置合わせ用G画像とは別に1枚目の位置合わせ用G画像をメモリ部204から取得する。   In step S709, the projective transformation coefficient calculation unit 303 stores the G image subjected to distortion correction in step S703 in the memory unit 204 as the first alignment G image. On the other hand, in step S705, the projective transformation coefficient calculation unit 303 sets the G image subjected to distortion correction in step S703 as a G image for alignment, and separates the first alignment image from the G image for alignment. A G image is acquired from the memory unit 204.

次に、ステップS706において、射影変換係数算出部303は、ステップS705で揃えた2枚の位置合わせ用G画像を用いて画像間の位置ずれ量を検出する。このとき、1枚目の位置合わせ用G画像に対応する処理対象の位置合わせ用G画像の位置ずれ量を複数個所で検出する。位置ずれ量の検出方法については、パターンマッチングを用いた方法など公知の方法を用いる。そして、ステップS707において、射影変換係数算出部303は、ステップS706で検出した位置ずれ量から座標変換係数を算出する。本実施形態では、以下の式(1)に示す射影変換式の係数a0〜a7を座標変換係数として算出する。座標変換係数の算出方法については、最小二乗法などを用いた公知の方法を用いる。 Next, in step S706, the projective transformation coefficient calculation unit 303 detects the amount of misalignment between the images using the two alignment G images aligned in step S705. At this time, the amount of positional deviation of the alignment G image to be processed corresponding to the first alignment G image is detected at a plurality of locations. A known method such as a method using pattern matching is used as a method for detecting the amount of displacement. In step S707, the projection conversion coefficient calculation unit 303 calculates a coordinate conversion coefficient from the amount of positional deviation detected in step S706. In this embodiment, the coefficients a 0 to a 7 of the projective transformation equation shown in the following equation (1) are calculated as coordinate transformation factors. As a method for calculating the coordinate conversion coefficient, a known method using a least square method or the like is used.

Figure 0006274744
Figure 0006274744

次に、ステップS708において、ステップS707で算出した座標変換係数をメモリ部204に保存する。前記座標変換係数は後の超解像処理部205で使用する。   Next, in step S708, the coordinate conversion coefficient calculated in step S707 is stored in the memory unit 204. The coordinate conversion coefficient is used in the super-resolution processing unit 205 later.

図5の説明に戻り、次にステップS506において、超解像処理部205は、低解像度画像を用いて高解像度画像を作成する。この処理では、k倍の高解像度画像を生成するために、低解像度画像の対象となる画素が高解像度画像のどこの座標に対応しているか座標変換を行い、画素値を高解像度画像に挿入する処理を行う。本実施形態では、Gについては歪曲補正、画像間の位置合わせの座標変換を一度に行い、R,Bについては倍率色収差補正、歪曲補正、画像間の位置合わせの座標変換を一度に行う。   Returning to the description of FIG. 5, in step S506, the super-resolution processing unit 205 creates a high-resolution image using the low-resolution image. In this process, in order to generate a k-times high-resolution image, coordinate conversion is performed on which coordinates of the target pixel of the low-resolution image correspond to the high-resolution image, and the pixel value is inserted into the high-resolution image. Perform the process. In the present embodiment, for G, distortion correction and coordinate conversion for alignment between images are performed at once, and for R and B, magnification chromatic aberration correction, distortion correction, and coordinate conversion for alignment between images are performed at once.

図4は、図2の超解像処理部205の具体的な構成例を示すブロック図である。
図4においては、超解像処理部205は、倍率色収差座標補正部401、歪曲座標補正部402、位置合わせ用座標変換部403、画素挿入処理部404、および欠落補間処理部405を備えている。以下、図4に示す各構成が行うステップS506の具体的な処理について、図8のフローチャートを参照しながら説明する。
FIG. 4 is a block diagram illustrating a specific configuration example of the super-resolution processing unit 205 in FIG.
In FIG. 4, the super-resolution processing unit 205 includes a magnification chromatic aberration coordinate correction unit 401, a distortion coordinate correction unit 402, an alignment coordinate conversion unit 403, a pixel insertion processing unit 404, and a missing interpolation processing unit 405. . Hereinafter, specific processing of step S506 performed by each configuration illustrated in FIG. 4 will be described with reference to the flowchart of FIG.

図8は、図5のステップS506において、超解像処理部205による具体的な処理手順の一例を示すフローチャートである。
まず、ステップS801において、超解像処理部205は、座標毎に超解像処理を行うために、R,G,Bそれぞれ3枚のモザイク画像の座標R(x,y)、G(x,y)、B(x,y)を全て(0,0)に初期化する。
FIG. 8 is a flowchart illustrating an example of a specific processing procedure performed by the super-resolution processing unit 205 in step S506 of FIG.
First, in step S801, the super-resolution processing unit 205 performs coordinates R (x, y), G (x, X, R, G, B) in order to perform super-resolution processing for each coordinate. y) and B (x, y) are all initialized to (0, 0).

続いてステップS802において、倍率色収差座標補正部401は、座標R(x,y)、B(x,y)に対し、倍率色収差補正による座標補正を行う。本実施形態では、レンズ情報に基づいて座標補正を行う。ここでレンズ情報とは、光軸中心からの像高に基づいたGに対するRおよびBのずれ量に関する情報であり、倍率色収差補正によってRおよびBのみ座標補正を行うためにシステム制御部105が保持している情報である。以下、倍率色収差補正による座標補正後のRおよびBの座標をそれぞれR(xr,yr)、B(xb,yb)とする。 Subsequently, in step S802, the magnification chromatic aberration coordinate correction unit 401 performs coordinate correction by magnification chromatic aberration correction on the coordinates R (x, y) and B (x, y). In this embodiment, coordinate correction is performed based on lens information. Here, the lens information is information regarding the shift amount of R and B with respect to G based on the image height from the center of the optical axis, and is held by the system control unit 105 in order to correct only R and B by magnification chromatic aberration correction. Information. Hereinafter, the coordinates of R and B after the coordinate correction by the lateral chromatic aberration correction are R (x r , y r ) and B (x b , y b ), respectively.

次に、ステップS803において、歪曲座標補正部402は、座標R(xr,yr)、G(x,y)、B(xb,yb)に対し、歪曲収差補正による座標補正を行う。本実施形態では、前記座標補正は、ステップS802と同様にレンズ情報に基づいて行われる。ここで用いるレンズ情報は、光軸中心からの像高に基づいた各画素のずれ量に関する情報であり、歪曲収差補正によりR,G,B全ての座標補正を行うために用いられる。以下、歪曲収差補正により座標補正後のR,G,Bの座標をそれぞれR(xrd,yrd)、G(xd,yd)、B(xbd,ybd)とする。 Next, in step S803, the distortion coordinate correction unit 402 performs coordinate correction by distortion aberration correction on the coordinates R (x r , y r ), G (x, y), and B (x b , y b ). . In the present embodiment, the coordinate correction is performed based on lens information as in step S802. The lens information used here is information relating to the shift amount of each pixel based on the image height from the center of the optical axis, and is used to correct all the R, G, and B coordinates by correcting distortion. Hereinafter, the coordinates of R, G, and B after the coordinate correction by distortion aberration correction are R (x rd , y rd ), G (x d , y d ), and B (x bd , y bd ), respectively.

次に、ステップS804において、現在処理している画像が1枚目の画像(基準画像)であるか非基準画像であるかを判定する。この判定の結果、基準画像である場合はステップS805に進み、非基準画像である場合はステップS806に進む。   In step S804, it is determined whether the currently processed image is the first image (reference image) or a non-reference image. If it is determined that the image is a reference image, the process proceeds to step S805. If the image is a non-reference image, the process proceeds to step S806.

ステップS805においては、位置合わせ用座標変換部403は、基準画像に対して座標拡大処理を行う。具体的には、座標R(xrd,yrd)、G(xd,yd)、B(xbd,ybd)に対し、以下の式(2)を用いてx成分、y成分の座標をk倍に拡大する。
R(xrd,yrd)・k=R(xrd・k,yrd・k)
G(xd,yd)・k=G(xd・k,yd・k) ・・・(2)
B(xbd,ybd)・k=B(xbd・k,ybd・k)
In step S805, the alignment coordinate conversion unit 403 performs coordinate enlargement processing on the reference image. Specifically, for the coordinates R (x rd , y rd ), G (x d , y d ), and B (x bd , y bd ), the x component and y component are expressed using the following equation (2). Enlarge the coordinates by k times.
R (x rd , y rd ) · k = R (x rd · k, y rd · k)
G (x d , y d ) · k = G (x d · k, y d · k) (2)
B (x bd , y bd ) · k = B (x bd · k, y bd · k)

ここで、kは高解像度画像を生成するパラメータを表し、本実施形態では低解像度画像を水平方向にk倍、垂直方向にk倍だけ画素数を拡大した高解像度画像を生成する。以下、座標拡大後のR,G,Bの座標をそれぞれR(x´,y´)、G(x´,y´)、B(x´,y´)とする。   Here, k represents a parameter for generating a high-resolution image. In the present embodiment, a high-resolution image is generated by expanding the number of pixels by a factor of k in the horizontal direction and k times in the vertical direction. Hereinafter, the coordinates of R, G, and B after the coordinate enlargement are R (x ′, y ′), G (x ′, y ′), and B (x ′, y ′), respectively.

一方、ステップS806においては、位置合わせ用座標変換部403は、図7のステップS707で座標変換係数算出部203が算出した位置合わせ用の座標変換係数a0〜a7をメモリ部204から取得し、非基準画像に対して座標変換処理を行う。本実施形態では座標変換処理で射影変換式を用いるが、水平方向にk倍、垂直方向にk倍画素数を拡大した高解像度画像を生成するので、対応点はk倍に座標を拡大しなければならない。したがって、射影変換式は以下の式(3)に示すものを用いる。 On the other hand, in step S806, the alignment coordinate conversion unit 403 acquires the coordinate conversion coefficients a 0 to a 7 for alignment calculated by the coordinate conversion coefficient calculation unit 203 in step S707 of FIG. 7 from the memory unit 204. The coordinate conversion process is performed on the non-reference image. In this embodiment, the projective transformation formula is used in the coordinate transformation process. However, since the high-resolution image is generated by expanding the number of pixels by k times in the horizontal direction and k times in the vertical direction, the corresponding points must be enlarged by k times. I must. Therefore, the projective transformation formula shown in the following formula (3) is used.

Figure 0006274744
Figure 0006274744

ここで入力される座標(x,y)は、ステップS803で出力した座標R(xrd,yrd)、G(xd,yd)、B(xbd,ybd)である。また、座標変換後のR,G,Bの座標をそれぞれR(x´,y´)、G(x´,y´)、B(x´,y´)とする。 The coordinates (x, y) input here are the coordinates R (x rd , y rd ), G (x d , y d ), and B (x bd , y bd ) output in step S803. In addition, the coordinates of R, G, and B after the coordinate conversion are R (x ′, y ′), G (x ′, y ′), and B (x ′, y ′), respectively.

次に、ステップS807において、画素挿入処理部404は、座標補正、座標変換処理前の座標R(x,y)、G(x,y)、B(x,y)にそれぞれ対応するR,G,Bのモザイク画像の画素値Rpix、Gpix、Bpixをメモリ部204から取得する。そして、ステップS808において、画素挿入処理部404は、R,G,Bの座標R(x´,y´)、G(x´,y´)、B(x´,y´)と画素値Rpix、Gpix、Bpixとを用いてR,G,B毎に画素挿入処理を行う。 Next, in step S807, the pixel insertion processing unit 404 performs R, G corresponding to coordinates R (x, y), G (x, y), and B (x, y) before coordinate correction and coordinate conversion processing, respectively. , B pixel values R pix , G pix , B pix of the mosaic image are acquired from the memory unit 204. In step S808, the pixel insertion processing unit 404 determines the coordinates R (x ′, y ′), G (x ′, y ′), B (x ′, y ′) of R, G, and B and the pixel value R. Pixel insertion processing is performed for each of R, G, and B using pix , G pix , and B pix .

以下、画素挿入処理について図9を参照しながら説明する。図9は、R画像における画素挿入処理を説明するための図である。
まず、図9(a)に示す超解像画像に対して、水平画素数W、垂直画素数Hの低解像画像を複数枚用いて画素挿入処理を行い、水平方向および垂直方向へ例えば2倍に画素数を拡大した高解像度画像を生成する。ここで、超解像画像は、水平画素数2W、垂直画素数2Hの画像であり、高解像度画像を生成するための土台となる画像である。図9(a)に示す超解像画像は全ての画素値に欠落画素であることを示す0の値が入っている。
Hereinafter, the pixel insertion process will be described with reference to FIG. FIG. 9 is a diagram for explaining pixel insertion processing in an R image.
First, with respect to the super-resolution image shown in FIG. 9A, pixel insertion processing is performed using a plurality of low-resolution images having the number of horizontal pixels W and the number of vertical pixels H, for example, 2 in the horizontal direction and the vertical direction. A high-resolution image in which the number of pixels is doubled is generated. Here, the super-resolution image is an image having a horizontal pixel number of 2 W and a vertical pixel number of 2 H, and is a base image for generating a high-resolution image. In the super-resolution image shown in FIG. 9A, all pixel values include a value of 0 indicating that the pixel is a missing pixel.

画素挿入処理とは、図9に示すように、低解像度画像の非欠落画素901の値を超解像画像の欠落画素902に挿入する処理のことを指す。画素挿入処理を複数枚の低解像度画像を用いて行うことにより図9(b)に示す高解像度画像を生成することができる。本実施形態の画素挿入処理では、1枚目の基準画像から超解像画像を生成し、2枚目以降の非基準画像により前記超解像画像の欠落画素を非欠落画素に置き換える処理を行う。   The pixel insertion process refers to a process of inserting the value of the non-missing pixel 901 of the low resolution image into the missing pixel 902 of the super-resolution image as shown in FIG. By performing the pixel insertion process using a plurality of low resolution images, a high resolution image shown in FIG. 9B can be generated. In the pixel insertion process of the present embodiment, a super-resolution image is generated from the first reference image, and a process of replacing a missing pixel of the super-resolution image with a non-missing pixel by the second and subsequent non-reference images. .

次に、ステップS808の画素挿入処理の詳細について、図10のフローチャートを参照しながら説明する。図10は、図8のステップS808において、画素挿入処理部404による具体的な処理手順の一例を示すフローチャートである。以下、Rの画素挿入処理について説明するが、G,Bについても処理は同様であるため、説明は省略する。
まず、ステップS1001において、座標R(x´,y´)に最も近い整数の座標である参照座標R0(x0,y0)を算出する。具体的には、以下の式(4)により参照座標を算出する。
Next, details of the pixel insertion processing in step S808 will be described with reference to the flowchart of FIG. FIG. 10 is a flowchart illustrating an example of a specific processing procedure performed by the pixel insertion processing unit 404 in step S808 of FIG. Hereinafter, the R pixel insertion process will be described, but the process is the same for G and B, and the description thereof will be omitted.
First, in step S1001, reference coordinates R 0 (x 0 , y 0 ), which are integer coordinates closest to the coordinates R (x ′, y ′), are calculated. Specifically, the reference coordinates are calculated by the following equation (4).

Figure 0006274744
Figure 0006274744

次に、ステップS1002において、画素値Rpixの値が0以外の値であるか否かを判定する。この判定の結果、画素値Rpixの値が0でない場合は、画素値Rpixは非欠落画素であるため、ステップS1003に進む。一方、画素値Rpixの値が0である場合は、画素値Rpixは欠落画素であるため、ステップS1004に進む。 Next, in step S1002, it is determined whether or not the pixel value R pix is a value other than zero. If it is determined that the value of the pixel values R pix is not zero, since the pixel value R pix is non-missing pixel, the process proceeds to step S1003. On the other hand, when the value of the pixel value R pix is 0, the pixel value R pix is a missing pixel, and thus the process proceeds to step S1004.

ステップS1003においては、座標R(x´,y´)と参照座標R0(x0,y0)との間の距離d(R)を算出する。この処理で算出される距離d(R)は、後のステップS1008およびS1010の判定で用いられる。 In step S1003, a distance d (R) between the coordinate R (x ′, y ′) and the reference coordinate R 0 (x 0 , y 0 ) is calculated. The distance d (R) calculated in this process is used in subsequent determinations in steps S1008 and S1010.

ここで、図11を参照しながら距離d(R)について説明する。図11は、超解像画像Rに対する座標R(x´,y´)および参照座標R0(x0,y0)の位置を示す図である。座標R(x´,y´)の最近傍にある参照座標R0(x0,y0)は、超解像画像Rの画素の中心を示す座標であり、参照座標R0(x0,y0)に対し、座標R(x´,y´)がどれだけ近いか評価する指標として距離d(R)を算出する。そして、後述するが距離d(R)の値を用いて画素を挿入するかしないかを判定する。また、距離d(R)は、以下の式(5)により算出される。 Here, the distance d (R) will be described with reference to FIG. FIG. 11 is a diagram illustrating the positions of the coordinates R (x ′, y ′) and the reference coordinates R 0 (x 0 , y 0 ) with respect to the super-resolution image R. The reference coordinate R 0 (x 0 , y 0 ) that is closest to the coordinate R (x ′, y ′) is a coordinate that indicates the center of the pixel of the super-resolution image R, and the reference coordinate R 0 (x 0 , A distance d (R) is calculated as an index for evaluating how close the coordinates R (x ′, y ′) are to y 0 ). Then, as will be described later, it is determined whether or not to insert a pixel using the value of the distance d (R). The distance d (R) is calculated by the following equation (5).

Figure 0006274744
Figure 0006274744

一方、ステップS1004においては、画素値Rpixが0であることから欠落画素と判断されるため、例外処理として距離d(R)に表現できる最大の値を入力する。例えば8ビットまでしか距離d(R)が表現できない場合は値として255を入力する。 On the other hand, in step S1004, since the pixel value R pix is 0, it is determined that the pixel is a missing pixel. Therefore, the maximum value that can be expressed in the distance d (R) is input as an exception process. For example, when the distance d (R) can be expressed only up to 8 bits, 255 is input as a value.

次に、ステップS1005において、現在処理の対象としている画像が2枚目以降の非基準画像であるか、1枚目の基準画像であるかを判定する。この判定の結果、2枚目以降の非基準画像である場合はステップS1008に進み、1枚目の基準画像である場合はステップS1006に進む。   Next, in step S1005, it is determined whether the image currently being processed is the second or later non-reference image or the first reference image. As a result of this determination, if it is the second or subsequent non-reference image, the process proceeds to step S1008. If it is the first reference image, the process proceeds to step S1006.

ステップS1006においては、距離d(R)を参照座標R0(x0,y0)の距離d0(R)としてメモリ部204に保存する。ここで距離d0(R)は、2枚目以降の非基準画像で算出された距離d(R)の値との比較に用い、距離d(R)の値に応じて、随時距離d0(R)の値を更新する。そして、ステップS1007において、画素値Rpixを参照座標R0(x0,y0)の画素値Rpix0としてメモリ部204に保存する。まず、1枚目である基準画像のみにより画素値Rpix0を用いて超解像画像Rを新規に作成し、後述するステップS1012による2枚目以降の画素挿入処理によって超解像画像Rを更新していく。 In step S1006, the distance d (R) is stored in the memory unit 204 as the distance d 0 (R) of the reference coordinates R 0 (x 0 , y 0 ). Here, the distance d 0 (R) is used for comparison with the value of the distance d (R) calculated in the second and subsequent non-reference images, and the distance d 0 is determined as needed depending on the value of the distance d (R). Update the value of (R). In step S1007, the pixel value R pix is stored in the memory unit 204 as the pixel value R pix0 of the reference coordinate R 0 (x 0 , y 0 ). First, a super-resolution image R is newly created using only the first reference image using the pixel value R pix0 , and the super-resolution image R is updated by the second and subsequent pixel insertion processes in step S1012 described later. I will do it.

一方、ステップS1008においては、距離d(R)が、予め設定された閾値TH(R)未満であるか否かを判定する。この判定の結果、距離d(R)が閾値TH(R)未満である場合はステップS1009に進み、閾値TH(R)以上である場合は、現在処理の対象としている座標(x、y)の画素挿入処理を終了する。 On the other hand, in step S1008, it is determined whether the distance d (R) is less than a preset threshold value T H (R). The result of this determination, the distance d when (R) is less than the threshold T H (R) the process proceeds to step S1009, the threshold T H (R) it can be advantageously utilized, the coordinates that are currently targeted for processing (x, y ) Ends the pixel insertion process.

ステップS1009においては、参照座標R0(x0,y0)の距離として保存されている距離d0(R)をメモリ部204から読み出す。そして、ステップS1010において、距離d(R)の値が距離d0(R)よりも小さいか否かを判定する。この判定の結果、距離d0(R)よりも小さい場合はステップS1011に進み、距離d0(R)以上である場合は、現在処理の対象としている座標(x,y)の画素挿入処理を終了する。 In step S1009, the distance d 0 (R) stored as the distance of the reference coordinates R 0 (x 0 , y 0 ) is read from the memory unit 204. In step S1010, it is determined whether or not the value of the distance d (R) is smaller than the distance d 0 (R). As a result of the determination, if the distance d 0 (R) is smaller than the flow proceeds to step S1011, the distance d 0 when (R) or in which the coordinates are the object of the current process (x, y) the pixel insertion process finish.

ステップS1011においては、距離d0(R)の値を距離d(R)に更新してメモリ部204に保存する。そして、ステップS1012において、ステップS1011と同様に、距離d(R)に対応する画素値Rpixを画素値Rpix0として更新して、メモリ部204に保存する。メモリ部204に保存後、現在処理している座標(x,y)の画素挿入処理を終了する。 In step S1011, the value of the distance d 0 (R) is updated to the distance d (R) and stored in the memory unit 204. In step S1012, the pixel value R pix corresponding to the distance d (R) is updated as the pixel value R pix0 and stored in the memory unit 204, as in step S1011. After saving in the memory unit 204, the pixel insertion processing for the currently processed coordinates (x, y) is terminated.

図8の説明に戻り、ステップS809においては、現在処理の対象としている画像の全ての座標に対してステップS802からステップS808までの処理を行ったか否かを判定する。この判定の結果、全ての座標に対して処理を行ってない場合はステップS810に進み、全ての座標に対し処理を行っている場合はステップS811に進む。ステップS810においては、現在処理していた座標R(x,y)、G(x,y)、B(x,y)を次の座標に更新してステップS802に戻る。   Returning to the description of FIG. 8, in step S809, it is determined whether or not the processing from step S802 to step S808 has been performed on all coordinates of the image currently being processed. As a result of the determination, if all the coordinates are not processed, the process proceeds to step S810, and if all the coordinates are processed, the process proceeds to step S811. In step S810, the coordinates R (x, y), G (x, y), and B (x, y) currently processed are updated to the next coordinates, and the process returns to step S802.

一方、ステップS811においては、現在処理の対象としていた画像が最後のN枚目の画像か否かを判定する。この判定の結果、最後のN枚目の画像である場合はステップS812に進み、最後のN枚目の画像でない場合はステップS813に進む。   On the other hand, in step S811, it is determined whether or not the image currently being processed is the last Nth image. As a result of this determination, if it is the last Nth image, the process proceeds to step S812, and if it is not the last Nth image, the process proceeds to step S813.

ステップS812においては、欠落補間処理部405は、超解像画像R,G,Bの欠落補間処理を行う。欠落補間処理は、R,G,Bの超解像画像の中で未だに欠落画素であり値が0である画素に対し、周辺の非欠落画素から線形補間を行った画素値に置き換える処理である。ステップS812の処理後、R,G,Bの超解像画像の画素は全て非欠落画素で構成されることになる。本実施形態では欠落補間処理に線形補間を利用しているが、エッジの方向を加味した適応補間を利用してもよい。   In step S812, the missing interpolation processing unit 405 performs missing interpolation processing for the super-resolution images R, G, and B. The missing interpolation process is a process of replacing pixels that are still missing pixels and have a value of 0 in R, G, and B super-resolution images with pixel values that have undergone linear interpolation from surrounding non-missing pixels. . After the processing in step S812, all the pixels of the R, G, B super-resolution image are composed of non-missing pixels. In this embodiment, linear interpolation is used for the missing interpolation processing, but adaptive interpolation that considers the direction of the edge may be used.

また、欠落補間処理を行う前に、画像を占める欠落画素の割合を算出して、処理の制御を行ってもよい。図12は、入力された低解像度画像に対し水平方向、垂直方向共にk倍に画素数を拡大した超解像画像の一例を示す図である。図12において、白色で示した画素が非欠落画素であり、灰色部分が欠落画素である。図12に示すように、非欠落画素が超解像画像の全画素数に対して50%以上存在しないと、超解像の効果がエッジの方向を加味した適応補間が欠落画素に対して正確に処理できなくなり、超解像の効果が小さくなってしまう。そこで、以下の式(6)に示す割合を算出する。   In addition, before performing the missing interpolation process, the ratio of the missing pixels occupying the image may be calculated to control the process. FIG. 12 is a diagram illustrating an example of a super-resolution image in which the number of pixels is expanded k times in both the horizontal direction and the vertical direction with respect to the input low-resolution image. In FIG. 12, pixels shown in white are non-missing pixels, and gray portions are missing pixels. As shown in FIG. 12, if there are no non-missing pixels of 50% or more with respect to the total number of pixels of the super-resolution image, the super-resolution effect is accurately applied to the missing pixels with the edge direction taken into account. Therefore, the super-resolution effect is reduced. Therefore, the ratio shown in the following formula (6) is calculated.

Figure 0006274744
Figure 0006274744

ここで、W,Hは、それぞれ入力された低解像度画像の水平画素数、垂直画素数を表す。また、kは前記低解像度画像に対する超解像度画像の拡大率を表す。超解像画像R,G,B全てに対してこの割合を算出し、前記割合が1つでも所定値(例えば50%)以上である場合には、エラーとして出力して超解像処理を中止するか、ステップS801まで戻ってk/2倍の高解像度画像を生成する処理を行ってもよい。エラーとして出力する場合は、1枚目の基準画像のR,G,Bを水平方向および垂直方向にk倍拡大した画像を出力してもよい。   Here, W and H represent the number of horizontal pixels and the number of vertical pixels of the input low-resolution image, respectively. K represents the magnification of the super-resolution image with respect to the low-resolution image. This ratio is calculated for all of the super-resolution images R, G, and B. If even one of the ratios is a predetermined value (for example, 50%) or more, it is output as an error and the super-resolution processing is stopped. Or you may return to step S801 and perform the process which produces | generates a k / 2 times high resolution image. When outputting as an error, an image obtained by enlarging R, G, B of the first reference image k times in the horizontal direction and the vertical direction may be output.

ステップS813においては、R,G,Bの超解像画像をメモリ部204に保存して超解像処理を終了する。   In step S813, the R, G, and B super-resolution images are stored in the memory unit 204, and the super-resolution processing ends.

図5の説明に戻り、ステップS507においては、現在処理の対象としている画像がN枚目である最後の画像であるか否かを判定する。この判定の結果、現在処理の対象としている画像が最後の画像である場合はステップS509に進み、最後の画像でない場合はステップS508に進む。そしてステップS508においては、次の画像に更新し、ステップS504に戻る。   Returning to the description of FIG. 5, in step S <b> 507, it is determined whether or not the current image to be processed is the Nth last image. As a result of this determination, if the image currently being processed is the last image, the process proceeds to step S509. If not, the process proceeds to step S508. In step S508, the image is updated to the next image, and the process returns to step S504.

一方、ステップS509においては、YUV変換部206は、作成した超解像画像R,G,Bをメモリ部204から読み出し、高解像度のYUV画像を作成する。RGB信号からYUV信号へ変換する際には、公知の手法により以下の式(7)に従って変換する。そして、高解像度のYUV画像を出力信号として超解像処理を終了する。
Y=0.299R+0.587G+0.114B
U=−0.169R−0.331G+0.500B ・・・(7)
V=0.500R−0.419G−0.081B
On the other hand, in step S509, the YUV conversion unit 206 reads the created super-resolution images R, G, and B from the memory unit 204, and creates a high-resolution YUV image. When converting from an RGB signal to a YUV signal, conversion is performed according to the following equation (7) by a known method. Then, the super-resolution processing is terminated using the high-resolution YUV image as an output signal.
Y = 0.299R + 0.587G + 0.114B
U = −0.169R−0.331G + 0.500B (7)
V = 0.500R-0.419G-0.081B

以上のように本実施形態によれば、光学特性に係る倍率色収差補正および歪曲収差補正を座標に対してのみ行い、位置合わせをした後に、これらの補正前の低解像度画像の画素値を高解像度画像に挿入するようにした。これにより、低解像度画像の周波数帯域を落とすことなく、倍率色収差および歪曲収差を補正した高解像度画像を生成することができる。   As described above, according to the present embodiment, the lateral chromatic aberration correction and distortion correction related to the optical characteristics are performed only on the coordinates, and after alignment, the pixel values of the low-resolution image before these corrections are converted to the high resolution. Added to the image. As a result, it is possible to generate a high-resolution image in which the lateral chromatic aberration and distortion are corrected without reducing the frequency band of the low-resolution image.

(第2の実施形態)
次に、本発明の第2の実施形態について図面を参照しながら説明する。本実施形態においても、座標変換係数の算出方法が異なるが、ベイヤー配列の低解像度画像を複数枚用いて、水平方向、垂直方向それぞれk倍に画素数を拡大した高解像度画像を生成し、高解像度化を実現する。なお、第1の実施形態の構成との差異は、図2の座標変換係数算出部203内の構成のみであり、その他の構成については第1の実施形態と同様である。また、全体的な処理手順は図5と同様である。以下、第1の実施形態と異なる点についてのみ説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to the drawings. Also in this embodiment, the calculation method of the coordinate conversion coefficient is different, but using a plurality of Bayer array low-resolution images, a high-resolution image in which the number of pixels is expanded k times in each of the horizontal direction and the vertical direction is generated. Realize resolution. Note that the difference from the configuration of the first embodiment is only the configuration in the coordinate conversion coefficient calculation unit 203 of FIG. 2, and the other configurations are the same as those of the first embodiment. The overall processing procedure is the same as in FIG. Only differences from the first embodiment will be described below.

図13は、本実施形態に係る座標変換係数算出部203の具体的な構成例を示すブロック図である。
図13にいて、座標変換係数算出部203は、間引き処理部1301、歪曲補正処理部1302、および射影変換係数算出部1303を備えている。以下、図13に示す各構成が行うステップS505の具体的な処理について、図14のフローチャートを参照しながら説明する。
FIG. 13 is a block diagram illustrating a specific configuration example of the coordinate conversion coefficient calculation unit 203 according to the present embodiment.
In FIG. 13, the coordinate conversion coefficient calculation unit 203 includes a thinning processing unit 1301, a distortion correction processing unit 1302, and a projective conversion coefficient calculation unit 1303. Hereinafter, the specific process of step S505 performed by each configuration illustrated in FIG. 13 will be described with reference to the flowchart of FIG.

第1の実施形態では、Gのモザイク画像からデモザイク処理を行った画像に対し、歪曲補正を行い、位置合わせ用のG画像を作成した後、前記G画像を用いることにより、画像間の位置合わせを行うための座標変換係数を算出していた。これに対して本実施形態では、メモリ、処理時間を念頭に置き、デモザイク処理を行ったG画像よりも解像度の低いG画像を用いることにより、画像間の位置合わせを行うための座標変換係数を算出する。   In the first embodiment, distortion correction is performed on an image that has been demosaiced from a G mosaic image, a G image for alignment is created, and then the G image is used to align the images. The coordinate conversion coefficient for performing the calculation was calculated. On the other hand, in the present embodiment, with the memory and processing time in mind, a coordinate conversion coefficient for performing alignment between images is obtained by using a G image having a resolution lower than that of the G image subjected to demosaic processing. calculate.

図14は、図5のステップS505において、座標変換係数算出部203による具体的な処理手順の一例を示すフローチャートである。
まず、ステップS1401において、間引き処理部1301は、処理の対象となるGのモザイク画像をメモリ部204から取得する。そして、ステップS1402において、ステップS1401で取得したGのモザイク画像に対し、1/2の間引き処理を行う。
FIG. 14 is a flowchart illustrating an example of a specific processing procedure by the coordinate conversion coefficient calculation unit 203 in step S505 of FIG.
First, in step S <b> 1401, the thinning processing unit 1301 acquires a G mosaic image to be processed from the memory unit 204. In step S1402, 1/2 thinning processing is performed on the G mosaic image acquired in step S1401.

ここで、図15を参照しながら、1/2の間引き処理について説明する。図15(a)は、ステップS1401で取得した水平画素数W、垂直画素数HのGのモザイク画像の一例を示す図である。図15(a)に示すように、G1、G2と記載された画素がG画素である。このモザイク画像に対し、太線で囲まれたG1の画素のみ取得することにより、図15(b)に示すように、水平画素数W/2、垂直画素数H/2に縮小された間引き画像が生成される。なお、G1の位置の画素を取得して間引き画像を生成してもよく、G2の位置の画素を取得して間引き画像を生成してもよい。   Here, the half-thinning process will be described with reference to FIG. FIG. 15A is a diagram illustrating an example of a G mosaic image having the number of horizontal pixels W and the number of vertical pixels H acquired in step S1401. As shown in FIG. 15A, the pixels described as G1 and G2 are G pixels. By acquiring only G1 pixels surrounded by a thick line from this mosaic image, as shown in FIG. 15B, a thinned image reduced to a horizontal pixel number W / 2 and a vertical pixel number H / 2 is obtained. Generated. Note that the pixel at the position G1 may be acquired to generate a thinned image, or the pixel at the position G2 may be acquired to generate a thinned image.

次に、ステップS1403において、歪曲補正処理部1302は、ステップS1402で間引き処理を行ったGの画像に対し、歪曲補正処理を行う。歪曲補正の方法は、レンズ情報を用いた画像変形による補正など、公知の方法でよいが、水平画素数、垂直画素数共に1/2になっていることとステップS1401で取得したモザイク画像の画素位置を考慮しながら補正を行う。次のステップS1404およびS1405の処理は、それぞれ図7のステップS704およびS705の処理と同様である。   Next, in step S1403, the distortion correction processing unit 1302 performs a distortion correction process on the G image that has undergone the thinning process in step S1402. The distortion correction method may be a known method such as correction by image deformation using lens information. However, the number of horizontal pixels and the number of vertical pixels are both halved and the pixel of the mosaic image acquired in step S1401. Correction is performed while considering the position. The processes in the next steps S1404 and S1405 are the same as the processes in steps S704 and S705 in FIG. 7, respectively.

次のステップS1406においては、射影変換係数算出部1303は、ステップS1405で揃えた2枚の位置合わせ用G画像を用いて画像間の位置ずれ量を検出する。このとき、図7のステップS706と同様に1枚目の位置合わせ用G画像に対応する処理対象の位置合わせ用G画像の位置ずれ量を複数個所で検出する。位置ずれ量検出の方法は、SAD値によるパターンマッチングを行った後に、等角直線フィッティング、またはパラボラフィッティングを用いて、位置ずれ量を小数精度まで検出する。なお、上記の方法は例えば特許文献2等に開示されている。   In the next step S1406, the projective transformation coefficient calculation unit 1303 detects the amount of misalignment between the images using the two alignment G images aligned in step S1405. At this time, as in step S706 in FIG. 7, the amount of positional deviation of the alignment G image to be processed corresponding to the first alignment G image is detected at a plurality of locations. In the method of detecting the amount of misalignment, after performing pattern matching based on the SAD value, the amount of misalignment is detected to a decimal accuracy using equiangular straight line fitting or parabolic fitting. In addition, said method is disclosed by patent document 2 grade | etc., For example.

次に、ステップS1407において、射影変換係数算出部1303は、ステップS1406で検出した位置ずれ量を等倍の解像度まで動きベクトルの拡大を行う。本実施形態では、1/2に間引いた位置合わせ用G画像を用いているので、動きベクトルのx成分、y成分を2倍に拡大する。そして、ステップS1408において、射影変換係数算出部1303は、ステップS1407で拡大した複数の動きベクトルを用いて位置合わせ用の座標変換係数を算出する。座標変換係数の算出方法については、図7のステップS707と同様である。なお、ステップS1409およびS1410の処理については、それぞれ図7のステップS708およびS709と同様である。   Next, in step S1407, the projective transformation coefficient calculation unit 1303 expands the motion vector to the resolution equal to the positional deviation amount detected in step S1406. In this embodiment, since the alignment G image thinned out to ½ is used, the x and y components of the motion vector are doubled. In step S1408, the projective transformation coefficient calculation unit 1303 calculates a coordinate transformation coefficient for alignment using the plurality of motion vectors expanded in step S1407. The calculation method of the coordinate conversion coefficient is the same as that in step S707 in FIG. Note that the processes in steps S1409 and S1410 are the same as steps S708 and S709 in FIG. 7, respectively.

以上のように本実施形態によれば、1/2の間引き処理を行って位置合わせ用G画像を生成した場合であっても、低解像度画像の周波数帯域を落とすことなく、倍率色収差および歪曲収差を補正した高解像度画像を生成することができる。   As described above, according to the present embodiment, even when the G image for alignment is generated by performing the half-thinning process, the chromatic aberration of magnification and distortion are not reduced without reducing the frequency band of the low-resolution image. Can be generated.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

401 倍率色収差座標補正部
402 歪曲座標補正部
403 位置合わせ用座標変換部
404 画像挿入処理部
401 Chromatic Aberration Coordinate Correction Unit 402 Distorted Coordinate Correction Unit 403 Position Coordinate Conversion Unit 404 Image Insertion Processing Unit

Claims (7)

複数の低解像度画像を用いて高解像度画像を生成する画像処理装置であって、
前記低解像度画像のそれぞれの座標に対し、各色成分の光学特性に基づく座標変換を行う座標変換手段と、
前記複数の低解像度画像の間の位置ずれ量を検出する検出手段と、
前記検出手段により検出された位置ずれ量に従って、前記座標変換手段により座標変換された低解像度画像の位置合わせを行う位置合わせ手段と、
前記位置合わせ手段による位置合わせの結果に基づいて、前記低解像度画像の画素値を挿入することにより前記高解像度画像を生成する挿入手段とを備え
前記検出手段は、前記低解像度画像を縮小した後に、前記座標変換手段による座標変換が行われた位置合わせ用の画像を生成する生成手段をさらに備え、
前記生成手段によって生成された位置合わせ用の画像を用いて位置ずれ量を検出することを特徴とする画像処理装置。
An image processing apparatus that generates a high-resolution image using a plurality of low-resolution images,
Coordinate conversion means for performing coordinate conversion based on the optical characteristics of each color component for each coordinate of the low resolution image,
Detecting means for detecting a displacement amount between the plurality of low-resolution images;
Alignment means for aligning the low-resolution image coordinate-transformed by the coordinate transformation means according to the amount of displacement detected by the detection means;
An insertion unit that generates the high-resolution image by inserting a pixel value of the low-resolution image based on a result of the alignment by the alignment unit ;
The detection means further includes a generation means for generating an image for alignment after coordinate conversion by the coordinate conversion means after reducing the low-resolution image,
An image processing apparatus for detecting a positional shift amount by using an alignment image generated by the generating means .
前記座標変換手段は、歪曲収差に係る座標変換を行うことを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the coordinate conversion unit performs coordinate conversion related to distortion. 前記座標変換手段は、さらに倍率色収差に係る座標変換を行うことを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the coordinate conversion unit further performs coordinate conversion related to lateral chromatic aberration. 前記位置合わせ手段は、射影変換を行って位置合わせを行うことを特徴とする請求項1〜の何れか1項に記載の画像処理装置。 It said alignment means, an image processing apparatus according to any one of claim 1 to 3, wherein the aligning performs projective transformation. 前記挿入手段は、前記高解像度画像における前記低解像度画像の画素値が挿入されていない画素に対して周辺の画素から補間を行うことを特徴とする請求項1〜の何れか1項に記載の画像処理装置。 The said insertion means interpolates from a surrounding pixel with respect to the pixel in which the pixel value of the said low resolution image in the said high resolution image is not inserted, The any one of Claims 1-4 characterized by the above-mentioned. Image processing apparatus. 前記挿入手段は、前記低解像度画像の画素値の挿入された割合が所定値より小さい場合は、処理を中止するか、もしくは前記高解像度画像よりも低い解像度の画像を生成することを特徴とする請求項1〜の何れか1項に記載の画像処理装置。 The insertion unit may stop the processing or generate an image having a lower resolution than the high-resolution image when the ratio of the pixel values of the low-resolution image inserted is smaller than a predetermined value. the image processing apparatus according to any one of claims 1-5. 複数の低解像度画像を用いて高解像度画像を生成する画像処理方法であって、
前記低解像度画像のそれぞれの座標に対し、各色成分の光学特性に基づく座標変換を行う座標変換工程と、
前記複数の低解像度画像の間の位置ずれ量を検出する検出工程と、
前記検出工程において検出された位置ずれ量に従って、前記座標変換工程において座標変換された低解像度画像の位置合わせを行う位置合わせ工程と、
前記位置合わせ工程における位置合わせの結果に基づいて、前記低解像度画像の画素値を挿入することにより前記高解像度画像を生成する挿入工程とを備え
前記検出工程は、前記低解像度画像を縮小した後に、前記座標変換工程による座標変換が行われた位置合わせ用の画像を生成する生成工程をさらに備え、
前記生成工程において生成された位置合わせ用の画像を用いて位置ずれ量を検出することを特徴とする画像処理方法。
An image processing method for generating a high-resolution image using a plurality of low-resolution images,
A coordinate conversion step for performing coordinate conversion based on the optical characteristics of each color component for each coordinate of the low-resolution image;
A detection step of detecting a displacement amount between the plurality of low resolution images;
In accordance with the amount of displacement detected in the detection step, an alignment step for aligning the low resolution image coordinate-converted in the coordinate conversion step;
An insertion step of generating the high resolution image by inserting a pixel value of the low resolution image based on a result of the alignment in the alignment step ;
The detection step further includes a generation step of generating an image for alignment that has undergone coordinate transformation by the coordinate transformation step after reducing the low-resolution image,
An image processing method, comprising: detecting a positional deviation amount using an alignment image generated in the generation step .
JP2013097097A 2013-05-02 2013-05-02 Image processing apparatus and image processing method Expired - Fee Related JP6274744B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013097097A JP6274744B2 (en) 2013-05-02 2013-05-02 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013097097A JP6274744B2 (en) 2013-05-02 2013-05-02 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2014219764A JP2014219764A (en) 2014-11-20
JP6274744B2 true JP6274744B2 (en) 2018-02-07

Family

ID=51938168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013097097A Expired - Fee Related JP6274744B2 (en) 2013-05-02 2013-05-02 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6274744B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447602B (en) * 2016-08-31 2020-04-03 浙江大华技术股份有限公司 Image splicing method and device
WO2018220681A1 (en) 2017-05-29 2018-12-06 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2021074944A1 (en) * 2019-10-15 2021-04-22 株式会社日立ハイテク Defect inspection method and defect inspection device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523017B2 (en) * 2009-08-20 2014-06-18 キヤノン株式会社 Image processing apparatus and image processing method
JP2011205587A (en) * 2010-03-26 2011-10-13 Olympus Corp Multiband stereo imaging apparatus
JP5654867B2 (en) * 2010-12-27 2015-01-14 パナソニックIpマネジメント株式会社 Video signal processing apparatus and video signal processing method
JP2012185808A (en) * 2011-02-17 2012-09-27 Panasonic Corp Image processing device, image processing method, computer program and imaging apparatus

Also Published As

Publication number Publication date
JP2014219764A (en) 2014-11-20

Similar Documents

Publication Publication Date Title
JP5438579B2 (en) Image processing apparatus and control method thereof
JP5222472B2 (en) Image processing apparatus, image restoration method, and program
JP4513906B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4657367B2 (en) Image processing apparatus, imaging apparatus, and image distortion correction method
US8031232B2 (en) Image pickup apparatus including a first image formation system and a second image formation system, method for capturing image, and method for designing image pickup apparatus
JP5006814B2 (en) Imaging device
JP2005347813A (en) Video conversion method and image converter, and multi-projection system
US11445109B2 (en) Image processing device, image capturing device, image processing method, and storage medium
US8553097B2 (en) Reducing blur based on a kernel estimation of an imaging device
JP6274744B2 (en) Image processing apparatus and image processing method
JP6838918B2 (en) Image data processing device and method
JP2015231052A (en) Imaging device and method and program
JP2017045273A (en) Image processing apparatus, image processing method, and program
JP2008003683A (en) Image generation device and its method and recording medium
JP6648916B2 (en) Imaging device
JP4998134B2 (en) Image processing apparatus and image processing method
JP6415330B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
WO2015083502A1 (en) Image processing device, method and program
JP2020194400A (en) Image processing apparatus, image processing method, and program
JP2006262382A (en) Image processing apparatus
JP2018207254A (en) Imaging apparatus, control method, program, and imaging system
JP5147577B2 (en) Image processing apparatus and method
JP6091082B2 (en) Image processing apparatus, image processing method, and program
JP6012167B2 (en) Image processing apparatus, image processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180109

R151 Written notification of patent or utility model registration

Ref document number: 6274744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees