JP5212046B2 - Digital camera, image processing apparatus, and image processing program - Google Patents

Digital camera, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP5212046B2
JP5212046B2 JP2008299541A JP2008299541A JP5212046B2 JP 5212046 B2 JP5212046 B2 JP 5212046B2 JP 2008299541 A JP2008299541 A JP 2008299541A JP 2008299541 A JP2008299541 A JP 2008299541A JP 5212046 B2 JP5212046 B2 JP 5212046B2
Authority
JP
Japan
Prior art keywords
image
unit
resolution
images
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008299541A
Other languages
Japanese (ja)
Other versions
JP2010130069A (en
Inventor
茂 土井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008299541A priority Critical patent/JP5212046B2/en
Publication of JP2010130069A publication Critical patent/JP2010130069A/en
Application granted granted Critical
Publication of JP5212046B2 publication Critical patent/JP5212046B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、高解像度画像を作成する画像処理技術に関する。   The present invention relates to an image processing technique for creating a high-resolution image.

カメラで撮影された複数の画像から1枚の高解像度画像を作成する「超解像処理」が知られている。このような画像処理では、合成時に高解像度空間における画素値を推定する必要があり、推定処理を高速化する方法やエイリアス成分を推定する方法などが検討されている(例えば、特許文献1参照)。
特開2005−072935号公報
“Super-resolution processing” that creates one high-resolution image from a plurality of images taken by a camera is known. In such image processing, it is necessary to estimate a pixel value in a high-resolution space at the time of synthesis, and a method for speeding up the estimation processing, a method for estimating an alias component, and the like have been studied (for example, see Patent Document 1). .
JP 2005-072935 A

高解像度空間における画素値の推定は、正確な推定ができれば高画質化につながる非常に重要な技術である。ところが、正確に画素値を推定するには複雑な推定演算処理を行わなければならず、高速に処理するためには高価な演算処理装置が必要であった。特にデジタルカメラなどのCPU(演算処理部)で処理するには処理負荷が重く、多大な時間が掛かるという問題があった。   Estimating pixel values in a high-resolution space is a very important technique that leads to higher image quality if accurate estimation is possible. However, complicated estimation calculation processing must be performed to accurately estimate the pixel value, and an expensive calculation processing device is required to perform high-speed processing. In particular, there is a problem that a processing load is heavy and takes a lot of time to be processed by a CPU (arithmetic processing unit) such as a digital camera.

本発明の目的は、高解像度空間における画素値推定の処理負荷を軽減できるデジタルカメラおよび画像処理装置並びに画像処理プログラムを提供することである。   An object of the present invention is to provide a digital camera, an image processing apparatus, and an image processing program that can reduce the processing load of pixel value estimation in a high resolution space.

本発明に係る画像処理装置は、時系列に連続して同一被写体を含む複数フレームの画像を入力する画像入力部と、前記複数フレームの画像の中から基準画像を選択し、前記基準画像を除く前記複数フレームの画像を参照画像とする基準画像選択部と、前記基準画像を複数の分割領域に分割する領域分割部と、前記分割領域毎に特徴量を抽出して画像構造を判別する画像構造判別部と、前記基準画像に対する前記参照画像の位置ずれ量を求める位置ずれ検出部と、前記基準画像を高解像度空間に展開し、前記参照画像を前記位置ずれ量に応じて前記高解像度空間に配置する解像度空間展開部と、前記解像度空間展開部が作成した高解像度空間において、前記分割領域毎に前記画像構造判別部が判別した画像構造に応じた補間方法を用いて高解像度空間画像を合成する画像合成部とを有し、前記画像合成部は、フィルタ領域のサイズおよび重み付け量の少なくとも1つが異なる複数の補間方法を用いて高解像度空間画像を合成することを特徴とする。 An image processing apparatus according to the present invention includes: an image input unit that inputs a plurality of frames including the same subject continuously in time series; a reference image is selected from the plurality of frames; and the reference image is excluded A standard image selection unit that uses the images of the plurality of frames as reference images, a region division unit that divides the standard image into a plurality of divided regions, and an image structure that determines the image structure by extracting feature amounts for each of the divided regions A discriminating unit; a misregistration detecting unit for obtaining a misregistration amount of the reference image with respect to the standard image; and developing the standard image in a high resolution space, and converting the reference image into the high resolution space according to the misregistration amount. In a high resolution space created by the resolution space development unit to be arranged and the resolution space development unit, high resolution is performed using an interpolation method according to the image structure determined by the image structure determination unit for each of the divided regions. Possess an image synthesizing section for synthesizing the spatial image, the image synthesizing unit, at least one of the size and weight of the filter region is characterized by combining a high resolution spatial image by using a plurality of interpolation method different .

また、より好ましくは、前記画像構造判別部は、エッジ強度および画素値の分散の少なくとも1つを用いて、前記分割領域毎に画像構造を判別することを特徴とする。   More preferably, the image structure determining unit determines an image structure for each of the divided regions using at least one of edge strength and pixel value dispersion.

また、より好ましくは、前記画像合成部は、前記フィルタ領域内を複数のサブ領域に分けて分散を求め、最も分散が低いサブ領域内の平均値を当該フィルタ領域内の注目画素値とすることを特徴とする。   More preferably, the image composition unit divides the filter area into a plurality of sub-areas to obtain a variance, and sets an average value in the sub-area having the lowest variance as a target pixel value in the filter area. It is characterized by.

また、より好ましくは、被写体部分を抽出するオブジェクト抽出部を更に設け、前記分割領域を前記オブジェクト抽出部が抽出した被写体部分とすることを特徴とする。   More preferably, an object extracting unit for extracting a subject portion is further provided, and the divided area is a subject portion extracted by the object extracting portion.

本発明に係るデジタルカメラは、前記画像処理装置にレンズ光学系と撮像部とを設け、前記画像入力部は、前記レンズ光学系を介して前記撮像部で時系列に連続して撮影される同一被写体を含む複数フレームの画像を入力することを特徴とする。   The digital camera according to the present invention is provided with a lens optical system and an imaging unit in the image processing apparatus, and the image input unit is identically photographed continuously in time series by the imaging unit via the lens optical system. A plurality of frames of images including a subject are input.

本発明に係る画像処理プログラムは、時系列に連続して同一被写体を含む複数フレームの画像を画像入力部から入力して前記画像入力部が入力する画像より解像度の高い画像を生成する処理をコンピュータで実行する画像処理プログラムであって、前記複数フレームの画像の中から基準画像を選択し、前記基準画像を除く前記複数フレームの画像を参照画像とする基準画像選択手順と、前記基準画像を複数の分割領域に分割する領域分割手順と、前記分割領域毎に特徴量を抽出して画像構造を判別する領域判別手順と、前記基準画像に対する前記参照画像の位置ずれ量を検出する位置ずれ検出手順と、前記基準画像を高解像度空間に展開し、前記参照画像を前記位置ずれ量に応じて前記高解像度空間に配置する解像度空間展開手順と、前記解像度空間展開手順が作成した高解像度空間において、前記分割領域毎に前記領域判別手順が判別した画像構造に応じた補間方法を用いて高解像度空間画像を合成する画像合成手順とを有し、前記画像合成手順は、フィルタ領域のサイズおよび重み付け量の少なくとも1つが異なる複数の補間方法を用いて高解像度空間画像を合成することを特徴とする。 The image processing program according to the present invention is a computer that performs processing for generating an image having a higher resolution than an image input by the image input unit by inputting a plurality of frames including the same subject in time series from the image input unit. A standard image selection procedure for selecting a reference image from the plurality of frames of images and using the plurality of frames of images excluding the reference image as reference images; and a plurality of the reference images An area dividing procedure for dividing the reference image with respect to the reference image, and an area determining procedure for determining an image structure by extracting a feature amount for each divided area; A resolution space expanding procedure for expanding the reference image in a high resolution space and disposing the reference image in the high resolution space according to the amount of displacement. In the high-resolution space time space deployment procedures created, have a an image combining procedure for combining a high resolution spatial image using the interpolation method corresponding to the image structures determined the area determination procedure for each of the divided areas, wherein The image synthesis procedure is characterized in that a high-resolution spatial image is synthesized by using a plurality of interpolation methods in which at least one of the filter area size and the weighting amount is different .

本発明に係るデジタルカメラおよび画像処理装置並びに画像処理プログラムは、高解像度空間における画素値推定の処理負荷を軽減できるので、高価な演算処理装置が不要で高速に処理することができる。   Since the digital camera, the image processing apparatus, and the image processing program according to the present invention can reduce the processing load of pixel value estimation in a high resolution space, an expensive arithmetic processing apparatus is unnecessary and can be processed at high speed.

以下、本発明に係るデジタルカメラおよび画像処理装置並びに画像処理プログラムに関する実施形態について説明する。   Embodiments relating to a digital camera, an image processing apparatus, and an image processing program according to the present invention will be described below.

図1は、本実施形態に係るデジタルカメラ101の構成を示すブロック図である。尚、図1のデジタルカメラ101は、本発明に係る画像処理装置の機能とデジタルカメラ101の内部で処理する画像処理プログラムとを含んでいる。また、本実施形態に係るデジタルカメラ101は、時間的に連続して複数枚の静止画像を撮影する連写モードを有している。さらに、撮影中または撮影後に複数枚の静止画像を用いて高解像度画像に変換する超解像度モードを有している。   FIG. 1 is a block diagram illustrating a configuration of a digital camera 101 according to the present embodiment. The digital camera 101 in FIG. 1 includes the functions of the image processing apparatus according to the present invention and an image processing program to be processed inside the digital camera 101. In addition, the digital camera 101 according to the present embodiment has a continuous shooting mode in which a plurality of still images are taken continuously in time. Furthermore, it has a super-resolution mode for converting to a high-resolution image using a plurality of still images during or after shooting.

図1において、デジタルカメラ101は、撮影光学系102と、メカニカルシャッタ103と、撮像素子104と、AFE(アナログフロントエンド)105と、A/D変換部106と、画像バッファ107と、制御部108と、メモリ109と、表示部110と、メモリカードI/F111と、操作部112とで構成される。   In FIG. 1, a digital camera 101 includes a photographing optical system 102, a mechanical shutter 103, an image sensor 104, an AFE (analog front end) 105, an A / D converter 106, an image buffer 107, and a controller 108. A memory 109, a display unit 110, a memory card I / F 111, and an operation unit 112.

図1において、撮影光学系102に入射された被写体光は、メカニカルシャッタ103を介して撮像素子104の受光面に入射される。ここで、撮影光学系102は、ズームレンズやフォーカスレンズなどの複数枚のレンズで構成され、絞り102aを有している。   In FIG. 1, the subject light incident on the photographing optical system 102 is incident on the light receiving surface of the image sensor 104 via the mechanical shutter 103. Here, the photographing optical system 102 includes a plurality of lenses such as a zoom lens and a focus lens, and has a diaphragm 102a.

撮像素子104の受光面には、二次元状に光電変換部が配置されており、各光電変換部に入射された光量に応じて電気信号に変換し、AFE105に出力する。   A photoelectric conversion unit is two-dimensionally arranged on the light receiving surface of the image sensor 104, and is converted into an electrical signal according to the amount of light incident on each photoelectric conversion unit and output to the AFE 105.

AFE105は、撮像素子104から出力される電気信号のノイズ除去や増幅などを行って、A/D変換部106に出力する。   The AFE 105 performs noise removal and amplification of the electrical signal output from the image sensor 104 and outputs the result to the A / D converter 106.

A/D変換部106は、AFE105から出力される電気信号をデジタル信号に変換し、1画面分のデジタル信号を撮影画像データとして画像バッファ107に一時的に記憶する。また、画像バッファ107は画像処理を行う際の画像バッファや表示部110に画像を表示する際の表示用画像バッファとしても利用され、連写撮影時の複数枚の静止画像も一時的に画像バッファ107に記憶される。   The A / D converter 106 converts the electrical signal output from the AFE 105 into a digital signal, and temporarily stores the digital signal for one screen in the image buffer 107 as photographed image data. The image buffer 107 is also used as an image buffer for performing image processing and a display image buffer for displaying an image on the display unit 110. A plurality of still images during continuous shooting are also temporarily stored in the image buffer. 107.

制御部108は、画像バッファ107に一時的に記憶されている画像データに対して、ホワイトバランス処理,色補正処理,ガンマ変換処理およびJPEG圧縮処理などの画像処理を実行する。そして、JPEG圧縮後のJPEG形式の画像データは、メモリカードI/F111を介してメモリカード111aに保存される。また、本実施形態では、制御部108は、複数枚の静止画像から高解像度画像に変換する処理も行う。尚、制御部108の詳細な処理については後で詳しく説明する。   The control unit 108 performs image processing such as white balance processing, color correction processing, gamma conversion processing, and JPEG compression processing on the image data temporarily stored in the image buffer 107. The JPEG-format image data after JPEG compression is stored in the memory card 111a via the memory card I / F 111. In the present embodiment, the control unit 108 also performs processing for converting a plurality of still images into high-resolution images. Detailed processing of the control unit 108 will be described in detail later.

メモリ109は、デジタルカメラ101の撮影モードや再生モードの設定内容、或いは露出情報やフォーカス情報などのパラメータや設定値などを記憶する。尚、メモリカード111aに保存する画像データをメモリ109に保存するようにしても構わない。   The memory 109 stores settings of the shooting mode and playback mode of the digital camera 101, parameters and setting values such as exposure information and focus information, and the like. The image data stored in the memory card 111a may be stored in the memory 109.

表示部110は、制御部108の指令に応じて、撮影画像やメニュー画面などを表示する。   The display unit 110 displays a captured image, a menu screen, and the like in accordance with an instruction from the control unit 108.

操作部112は、電源ボタン、レリーズボタン、カーソルキーなどの操作ボタンで構成される。ユーザーは、これらの操作ボタンを操作してデジタルカメラ101を操作する。これらの操作ボタンの操作情報は制御部108に出力され、制御部108は操作部112から入力する操作情報に応じてデジタルカメラ101の全体の動作を制御する。   The operation unit 112 includes operation buttons such as a power button, a release button, and a cursor key. The user operates the digital camera 101 by operating these operation buttons. The operation information of these operation buttons is output to the control unit 108, and the control unit 108 controls the entire operation of the digital camera 101 according to the operation information input from the operation unit 112.

次に、図1の制御部108について詳しく説明する。制御部108は、内部に予め記憶されているプログラムに従って動作し、デジタルカメラ101の各部を制御する。制御部108は、撮影処理部201と、基準画像選択部202と、領域分割部203と、特徴量抽出部204と、画像構造判別部205と、位置ずれ検出部206と、高解像度空間展開部207と、画像合成部208とで構成される。尚、本実施形態では説明が分かり易いように、基準画像選択部202,領域分割部203,特徴量抽出部204,画像構造判別部205,位置ずれ検出部206,高解像度空間展開部207,画像合成部208などは、制御部108に含めて描いてあるが、制御部108とは別に専用のハードウェア回路で構成しても構わない。   Next, the control unit 108 in FIG. 1 will be described in detail. The control unit 108 operates according to a program stored therein in advance, and controls each unit of the digital camera 101. The control unit 108 includes a photographing processing unit 201, a reference image selection unit 202, a region division unit 203, a feature amount extraction unit 204, an image structure determination unit 205, a misregistration detection unit 206, and a high resolution space development unit. 207 and an image composition unit 208. For ease of explanation in the present embodiment, the reference image selection unit 202, the region division unit 203, the feature amount extraction unit 204, the image structure determination unit 205, the misregistration detection unit 206, the high resolution space development unit 207, the image The combining unit 208 and the like are illustrated as being included in the control unit 108, but may be configured by a dedicated hardware circuit separately from the control unit 108.

撮影処理部201は、撮影する画像のフォーカス制御や露出制御などを行う。例えば、フォーカス制御は、画像バッファ107に取り込まれた画像から焦点位置を求めて撮影光学系102のフォーカスレンズの位置を移動する。尚、これらの処理はプレビュー画像の撮影時に撮像素子104を介して画像バッファ107に取り込まれた画像を用いて行われるが、専用のAFセンサやAEセンサを用いてフォーカス制御や露出制御を行っても構わない。また、プレビュー画像の撮影時は、メカニカルシャッタ103を常に開放状態にして撮像素子104の露光時間によってシャッタ速度を制御する電子シャッタで撮影を行う。ここで、プレビュー画像とは、撮像素子104で時間的に連続して撮影される動画像を表示部110に表示して、撮影者が撮影構図などを決めるための画像である。そして、撮影者が操作部112のレリーズボタンを押下すると、本撮影された画像データが画像バッファ107に一時的に記憶される。尚、撮影モードが連写撮影モードや高解像度モードに設定されている場合は、レリーズボタンの押下中、複数枚の静止画像を連続して画像バッファ107に取り込む。或いは1回のレリーズボタンの押下で所定枚数の静止画像を画像バッファ107に取り込む。   The imaging processing unit 201 performs focus control, exposure control, and the like of an image to be captured. For example, in the focus control, the focus position is obtained from the image captured in the image buffer 107 and the position of the focus lens of the photographing optical system 102 is moved. These processes are performed using an image captured in the image buffer 107 via the image sensor 104 when the preview image is captured. Focus control and exposure control are performed using a dedicated AF sensor or AE sensor. It doesn't matter. When the preview image is captured, the mechanical shutter 103 is always opened and the electronic shutter that controls the shutter speed according to the exposure time of the image sensor 104 is used. Here, the preview image is an image for the photographer to determine a shooting composition or the like by displaying on the display unit 110 a moving image that is continuously captured in time by the image sensor 104. Then, when the photographer presses the release button of the operation unit 112, the actually captured image data is temporarily stored in the image buffer 107. When the shooting mode is set to the continuous shooting mode or the high resolution mode, a plurality of still images are continuously taken into the image buffer 107 while the release button is pressed. Alternatively, a predetermined number of still images are taken into the image buffer 107 by pressing the release button once.

次に、制御部108の基準画像選択部202,領域分割部203,特徴量抽出部204,画像構造判別部205,位置ずれ検出部206,高解像度空間展開部207および画像合成部の動作について、図2のフローチャートを用いて詳しく説明する。図2のフローチャートは、複数枚の静止画像から1枚の高解像度の静止画像を合成する高解像度処理の手順を示している。ここで、デジタルカメラ101は高解像度モードに設定され、既に複数枚の静止画像が撮影され画像バッファ107に一時的に記憶された状態になっているものとする。或いは、メモリカード111aに記憶された複数枚の静止画像を再生して、画像バッファ107に一時的に記憶された状態になっているものとする。尚、本実施形態では、複数枚の静止画像は同一の被写体を略同一画角で時間的に連続して撮影された画像であるものとする。以下、図2のフローチャートに従って順番に説明する。   Next, the operations of the reference image selection unit 202, the region division unit 203, the feature amount extraction unit 204, the image structure determination unit 205, the misregistration detection unit 206, the high resolution space development unit 207, and the image composition unit of the control unit 108 will be described. This will be described in detail with reference to the flowchart of FIG. The flowchart of FIG. 2 shows a procedure of high-resolution processing for synthesizing one high-resolution still image from a plurality of still images. Here, it is assumed that the digital camera 101 is set to the high resolution mode, and a plurality of still images have already been taken and temporarily stored in the image buffer 107. Alternatively, it is assumed that a plurality of still images stored in the memory card 111 a are reproduced and temporarily stored in the image buffer 107. In the present embodiment, it is assumed that the plurality of still images are images obtained by continuously shooting the same subject at substantially the same angle of view in time. Hereinafter, it demonstrates in order according to the flowchart of FIG.

(ステップS101)制御部108は、デジタルカメラ101が撮影時の場合は、レリーズボタンの押下によって複数枚の静止画像を時間的に連続して撮影し、画像バッファ107に取り込む。或いは、制御部108は、デジタルカメラ101が再生時の場合は、操作部112の再生操作に応じてメモリカード111aに記憶された撮影済みの複数枚の静止画像を画像バッファ107に読み出す。尚、本実施形態では、複数枚の静止画像は同一の被写体を略同一画角で時間的に連続して撮影された画像であるものとする。   (Step S <b> 101) When the digital camera 101 is photographing, the control unit 108 continuously photographs a plurality of still images by pressing the release button, and takes them into the image buffer 107. Alternatively, when the digital camera 101 is playing back, the control unit 108 reads a plurality of shot still images stored in the memory card 111 a into the image buffer 107 in accordance with the playback operation of the operation unit 112. In the present embodiment, it is assumed that the plurality of still images are images obtained by continuously shooting the same subject at substantially the same angle of view in time.

(ステップS102)制御部108の基準画像選択部202は、画像バッファ107に一時的に記憶されている複数枚の画像の中から1枚の画像を基準画像とし、残りの画像を参照画像とする。そして、制御部108は、ステップS103からS105までの処理とステップS106からS107までの処理とを並列して実行する。従って、ステップS103からS105までの処理とステップS106からS107までの処理はどちらが先に行っても構わない。   (Step S <b> 102) The reference image selection unit 202 of the control unit 108 uses one image among a plurality of images temporarily stored in the image buffer 107 as a reference image and the remaining images as reference images. . And the control part 108 performs the process from step S103 to S105, and the process from step S106 to S107 in parallel. Accordingly, whichever of the processing from step S103 to S105 and the processing from step S106 to S107 may be performed first.

(ステップS103)制御部108の領域分割部203は、基準画像を複数の領域に分割する。ここで、分割領域は小さい程、領域単位での適切な特徴量を抽出できるが、処理負荷が大きくなってしまうため、処理を行う装置(デジタルカメラやパソコンなど)のCPUの処理能力に応じて適正な分割領域のサイズを決める必要がある。例えば、本実施形態に係るデジタルカメラ101の場合は、図3に示すように、一画面の画像301を縦方向3ブロック、横方向4ブロックの12個の分割領域(ブロック)に分割する。   (Step S103) The area dividing unit 203 of the control unit 108 divides the reference image into a plurality of areas. Here, as the divided area is smaller, an appropriate feature amount can be extracted in units of area. However, since the processing load becomes larger, depending on the processing capability of the CPU of the processing apparatus (digital camera, personal computer, etc.) It is necessary to determine an appropriate size of the divided area. For example, in the case of the digital camera 101 according to the present embodiment, as shown in FIG. 3, an image 301 on one screen is divided into 12 divided areas (blocks) of 3 blocks in the vertical direction and 4 blocks in the horizontal direction.

(ステップS104)制御部108の特徴量抽出部204は、分割領域単位で特徴量の抽出を行う。例えば、図3の場合は、先ずブロックX(1,1)の分割領域内で特徴量の抽出を行い、次にブロックX(1,2)の分割領域内で特徴量の抽出を行う。このようにして、特徴量抽出部204は、ブロックX(1,1)からブロックX(3,4)までの各分割領域内で特徴量の抽出を行う。ここで、本実施形態では、特徴量抽出部204が抽出する特徴量は、例えばエッジ強度や分散値である。尚、エッジ強度とは、ブロック内に含まれるエッジ成分の多さや強さなどを意味し、例えば、なだらかに輝度が変化する画像はエッジ強度が小さく、輝度の変化が激しい構造物などはエッジの強度が大きくなる。   (Step S104) The feature amount extraction unit 204 of the control unit 108 extracts feature amounts in units of divided regions. For example, in the case of FIG. 3, the feature amount is first extracted in the divided region of the block X (1, 1), and then the feature amount is extracted in the divided region of the block X (1, 2). In this manner, the feature amount extraction unit 204 extracts feature amounts in each divided region from the block X (1, 1) to the block X (3, 4). Here, in the present embodiment, the feature quantity extracted by the feature quantity extraction unit 204 is, for example, an edge strength or a variance value. Note that the edge strength means the number and strength of edge components contained in the block. For example, an image whose luminance changes gently has a low edge strength, and a structure with a sharp change in luminance has an edge Strength increases.

(ステップS105)制御部108の画像構造判別部205は、分割領域の画像構造が平坦であるか否かを判別する。ここで、画像構造が平坦な場合とはエッジ部分が少ない画像(輝度変化が滑らかで輝度のばらつきが小さい画像)で、画像構造が平坦でない場合とはエッジ部分が多い画像(輝度変化が激しく輝度のばらつきが大きい画像)である。本実施形態では、画像構造判別部205は、分割後の個々の分割領域において特徴量抽出部204が抽出した特徴量を用いて、各分割領域の画像構造を判別する。   (Step S105) The image structure determination unit 205 of the control unit 108 determines whether or not the image structure of the divided area is flat. Here, when the image structure is flat, the image has few edge portions (images with smooth luminance changes and small variations in luminance), and when the image structure is not flat, the images have many edge portions (luminance changes drastically and luminance Is an image with a large variation. In the present embodiment, the image structure determination unit 205 determines the image structure of each divided region using the feature amount extracted by the feature amount extraction unit 204 in each divided region after division.

(ステップS106)制御部108の位置ずれ検出部206は、基準画像と参照画像との位置合わせ(位置ずれ量の算出)を行う。   (Step S106) The misregistration detection unit 206 of the control unit 108 performs alignment (calculation of misregistration amount) between the standard image and the reference image.

ここで、本実施形態では、基準画像と参照画像は微小な位置ずれが存在しているという前提がある。これは、例えば連写撮影する際の手振れなどの影響により、複数枚の撮影画像間で撮影位置がわずかに異なっているため、複数枚の参照画像および基準画像の画素位置は完全には一致しない。そこで、本実施形態に係るデジタルカメラ101では、位置ずれ検出部206は基準画像を基準として各参照画像との位置ずれ量を求める。   Here, in the present embodiment, there is a premise that there is a slight misalignment between the standard image and the reference image. This is because, for example, the shooting positions slightly differ among a plurality of shot images due to the influence of camera shake during continuous shooting, and the pixel positions of the plurality of reference images and the reference image do not completely match. . Therefore, in the digital camera 101 according to the present embodiment, the misregistration detection unit 206 obtains the misregistration amount with respect to each reference image based on the standard image.

次に、位置ずれ量の求め方について説明する。通常の位置ずれ量の検出は、例えば基準画像と各参照画像とに対してエッジ抽出の画像処理によって被写体のパターン検出を行い、基準画像上のあるパターンの被写体が参照画像上のどの位置に移動したかを検出するので、位置ずれ量は基準画像や参照画像の解像度によって決まり、画素単位のずれ量しか検出できない。例えば、右方向に2画素、下方向に1画素などの位置ずれ量として検出されるだけである。これに対して、本実施形態の位置ずれ検出部206は、基準画像や参照画像の解像度より細かい高解像度空間次元での位置ずれ量を求める。例えば、右方向に2.2画素、下方向に1.4画素など基準画像や参照画像の解像度より細かい位置ずれ量(サブピクセルレベルの位置ずれ量)を求める。   Next, how to determine the amount of displacement will be described. For detecting the amount of normal displacement, for example, the pattern of the subject is detected by edge extraction image processing for the base image and each reference image, and the subject of a certain pattern on the base image moves to which position on the reference image Therefore, the amount of positional deviation is determined by the resolution of the standard image and the reference image, and only the amount of deviation in pixel units can be detected. For example, it is only detected as a displacement amount of 2 pixels in the right direction and 1 pixel in the downward direction. In contrast, the misregistration detection unit 206 of the present embodiment obtains a misregistration amount in a high-resolution space dimension that is finer than the resolution of the standard image or the reference image. For example, a positional deviation amount (subpixel level positional deviation amount) that is smaller than the resolution of the standard image or reference image, such as 2.2 pixels in the right direction and 1.4 pixels in the downward direction, is obtained.

ここで、サブピクセルレベルの位置ずれ量を求める方法として、例えばアフィン変換などの幾何変換手法を用いた高次元のパラメータ推定法を使用することができる。この場合は、例えば0.2度の回転位置などのパラメータを求めることができるので、結果としてサブピクセルレベルの位置ずれ量が求まる。尚、上記以外の方法で基準画像に対する各参照画像のサブピクセルレベルの位置ずれ量を求めても構わない。   Here, as a method for obtaining the positional deviation amount at the sub-pixel level, for example, a high-dimensional parameter estimation method using a geometric transformation method such as affine transformation can be used. In this case, for example, a parameter such as a rotational position of 0.2 degrees can be obtained, and as a result, a sub-pixel level displacement amount is obtained. Note that the sub-pixel level displacement amount of each reference image with respect to the base image may be obtained by a method other than the above.

このようにして、ステップS106では、位置ずれ検出部206は基準画像と参照画像との位置ずれ量の算出を行う。   In this way, in step S106, the misregistration detection unit 206 calculates the misregistration amount between the standard image and the reference image.

(ステップS107)制御部108の高解像度空間展開部207は、1枚の基準画像と複数枚の参照画像と位置ずれ量とを用いて高解像度空間に展開する。高解像度空間展開部207は、先ず基準画像を高解像度空間に展開する。この基準画像の展開処理の例を図4に示す。図4は、縦4画素および横4画素の16画素の解像度の基準画像401を、縦16画素および横16画素の256画素の解像度の高解像度空間画像402に展開する様子を示している。図4に示すように、基準画像401の画素A1から画素A16の16個の各画素は高解像度空間の画像402の中に縦横それぞれ4画素飛びに当てはめられる。この状態では、高解像度空間画像402の256個の画素の内、基準画像401の16個の画素値が当てはめられていない部分の画素は画素値が存在しない空の画素である。   (Step S107) The high-resolution space development unit 207 of the control unit 108 develops a high-resolution space using one standard image, a plurality of reference images, and the amount of displacement. The high resolution space development unit 207 first develops the reference image in the high resolution space. An example of the development process of the reference image is shown in FIG. FIG. 4 shows how a reference image 401 having a resolution of 16 pixels of 4 pixels in the vertical direction and 4 pixels in the horizontal direction is developed into a high-resolution spatial image 402 having a resolution of 256 pixels of 16 pixels in the vertical direction and 16 pixels in the horizontal direction. As shown in FIG. 4, each of the 16 pixels A1 to A16 of the reference image 401 is applied to the image 402 in the high resolution space so as to jump four pixels vertically and horizontally. In this state, of the 256 pixels of the high-resolution space image 402, the pixels in the portion where the 16 pixel values of the reference image 401 are not applied are empty pixels that do not have pixel values.

次に、高解像度空間展開部207は、複数の参照画像を先に求めた位置ずれ量に応じて高解像度空間画像402の空の画素に当てはめる処理を行う。この様子を図5に示す。図5は、3枚の参照画像403から405の各画素を位置ずれ量に応じて基準画像の画素が当てはめられていない空の画素に当てはめ、高解像度空間画像406を作成する。   Next, the high resolution space development unit 207 performs processing for applying a plurality of reference images to empty pixels of the high resolution space image 402 according to the amount of positional deviation obtained previously. This is shown in FIG. In FIG. 5, each pixel of the three reference images 403 to 405 is applied to an empty pixel to which a pixel of the standard image is not applied according to the positional deviation amount, thereby creating a high-resolution space image 406.

ここで、基準画像401を高解像度空間に展開したときの画素A1からA16の位置と全く同じ画素位置に参照画像403から405の画素が配置される場合は、基準画像の画素値を優先して当該画素の画素値とする。或いは、基準画像と参照画像の同じ画素位置の画素値を平均化した値を当該画素の画素値としても構わないし、参照画像の画素値より基準画像の画素値に高い重み付けを行って当該画素の画素値としても構わない。   Here, when the pixels of the reference images 403 to 405 are arranged at the same pixel positions as the positions of the pixels A1 to A16 when the standard image 401 is expanded in the high resolution space, the pixel value of the standard image is given priority. The pixel value of the pixel is used. Alternatively, a value obtained by averaging the pixel values at the same pixel position of the reference image and the reference image may be used as the pixel value of the pixel, and the pixel value of the reference image is weighted higher than the pixel value of the reference image. It does not matter as a pixel value.

同様に、複数の参照画像を高解像度空間に展開したときの同じ画素位置に複数の参照画像の画素値が配置される場合においても、複数の参照画像の同じ画素の画素値を平均化した値を当該画素の画素値としても構わないし、いずれかの参照画像の画素値を当該画素の画素値として代表しても構わない。または、複数画像を3次元のデータとして扱うことで参照画像を全て後の処理に利用可能としてもよい。   Similarly, even when pixel values of a plurality of reference images are arranged at the same pixel position when a plurality of reference images are expanded in a high resolution space, a value obtained by averaging the pixel values of the same pixels of the plurality of reference images May be used as the pixel value of the pixel, or the pixel value of any reference image may be represented as the pixel value of the pixel. Alternatively, a plurality of reference images may be used for subsequent processing by handling a plurality of images as three-dimensional data.

ステップS101からステップS107までの処理で、高解像度空間に展開された基本画像をベースに、複数枚の参照画像をサブピクセルレベルで位置合わせして配置した高解像度空間画像406が生成される。これを仮の高解像度空間画像とする。仮の高解像度空間画像406は、図5に示すように、単に高解像度空間に展開された基本画像に複数枚の参照画像を位置ずれ量に応じて当てはめただけなので、仮の高解像度空間画像406には参照画像が当てはめられなかった空の画素が存在している。そこで、本実施形態では、次の処理ステップでこの空の画素を補間するための補間処理を行って最終的な高解像度空間画像を合成する。   Through the processing from step S101 to step S107, a high-resolution space image 406 is generated in which a plurality of reference images are aligned and arranged at the sub-pixel level based on the basic image developed in the high-resolution space. This is a temporary high-resolution space image. As shown in FIG. 5, the provisional high-resolution space image 406 is obtained by simply applying a plurality of reference images to the basic image developed in the high-resolution space according to the amount of displacement. In 406, there is an empty pixel to which the reference image is not applied. Therefore, in the present embodiment, the final high-resolution spatial image is synthesized by performing an interpolation process for interpolating the empty pixels in the next processing step.

(ステップS108)制御部108の画像合成部208は、注目画素(補間される画素)を中心とする所定のサイズのフィルタ領域毎に補間フィルタを用いて注目画素の画素値を求める補間処理(画素値推定処理)を行う。   (Step S108) The image composition unit 208 of the control unit 108 performs an interpolation process (pixels) for obtaining a pixel value of the target pixel using an interpolation filter for each filter region having a predetermined size centered on the target pixel (interpolated pixel). Value estimation process).

例えば、図6に示すように、5画素×5画素のサイズのフィルタ領域501を用いる場合、中央の画素p13を注目画素として、画素p1から画素p25の25画素から補間処理によって画素値を求める。ここで、補間フィルタのフィルタ領域501は、例えば、仮の高解像度空間画像406の太線枠で囲んだ5画素×5画素の部分に相当し、図6の太線枠で囲んだフィルタ領域で求められるのは、このフィルタ領域の注目画素である画素551の画素値である。同様に、画素551の1画素上にある画素552の画素値を求める場合は、5画素×5画素のサイズのフィルタ領域501全体も1画素上に移動し、画素552をフィルタ領域の注目画素とする。同様に、画素553の画素値を求める場合は、5画素×5画素のサイズのフィルタ領域501全体を画素553がフィルタ領域の注目画素になるように移動して補間処理を行う。尚、フィルタ領域501のサイズは5画素×5画素でなくても構わない。   For example, as shown in FIG. 6, when a filter region 501 having a size of 5 pixels × 5 pixels is used, a pixel value is obtained by interpolation processing from 25 pixels from pixel p1 to pixel p25 with the central pixel p13 as a target pixel. Here, the filter region 501 of the interpolation filter corresponds to, for example, a 5 pixel × 5 pixel portion surrounded by a thick line frame of the temporary high-resolution space image 406, and is obtained by the filter region surrounded by the thick line frame in FIG. Is the pixel value of the pixel 551 which is the target pixel of this filter area. Similarly, when the pixel value of the pixel 552 on one pixel of the pixel 551 is obtained, the entire filter region 501 having a size of 5 pixels × 5 pixels is also moved up by one pixel, and the pixel 552 is set as the target pixel in the filter region. To do. Similarly, when the pixel value of the pixel 553 is obtained, the interpolation process is performed by moving the entire filter region 501 having a size of 5 pixels × 5 pixels so that the pixel 553 becomes the target pixel of the filter region. Note that the size of the filter area 501 may not be 5 pixels × 5 pixels.

このようにして、仮の高解像度空間画像406の空の画素の画素値を順番に求めていく。尚、空の画素の画素値だけを求めても構わないし、基準画像や参照画像の画素値が既に当てはめられている画素についても同様の補間処理を行って新たな画素値を求めても構わない。   In this way, the pixel values of the empty pixels of the temporary high resolution space image 406 are obtained in order. Note that only the pixel value of the empty pixel may be obtained, or a new pixel value may be obtained by performing the same interpolation process for the pixel to which the pixel value of the base image or the reference image has already been applied. .

次に、補間処理の方法について具体的に説明する。本実施形態では、ステップS105で画像構造判別部205が分割領域毎に判別した画像構造に応じて異なる補間処理を行う。つまり、補間処理を行う注目画素が含まれる分割領域の画像構造が平坦である場合と平坦でない場合とに分けて補間処理を行う。   Next, the interpolation processing method will be specifically described. In the present embodiment, different interpolation processing is performed according to the image structure determined for each divided region by the image structure determination unit 205 in step S105. That is, the interpolation process is performed separately for the case where the image structure of the divided region including the target pixel on which the interpolation process is performed is flat and the case where the image structure is not flat.

先ず、画像構造が平坦である場合の補間処理について説明する。画像構造が平坦である場合はエッジ強度が小さいので、処理の速い単純な処理で注目画素p13の画素値を求める。例えば、図6に示したようなフィルタ領域501の場合は、単純にフィルタ領域501内の全画素値(25個の画素)の平均値を求め、これを注目画素p13の画素値とする。   First, an interpolation process when the image structure is flat will be described. Since the edge strength is small when the image structure is flat, the pixel value of the pixel of interest p13 is obtained by simple processing that is fast. For example, in the case of the filter region 501 as shown in FIG. 6, an average value of all the pixel values (25 pixels) in the filter region 501 is simply obtained and set as the pixel value of the target pixel p13.

或いは、注目画素p13に近い画素(p7,p8,p9,p12,p14,p17,p18,p19)と遠い画素(p1,p2,p3,p4,p5,p6,p10,p11,p15,p16,p20,p21,p22,p23,p24,p25)とに分けて、近い画素を重くし遠い画素を軽くする重み付けを行って、注目画素p13の画素値を求めても構わない。例えば、注目画素p13を中心にガウシアン分布の重み付けを行うことで、注目画素に近い画素を重く、遠い画素を軽く重み付けすることができる。   Alternatively, pixels close to the target pixel p13 (p7, p8, p9, p12, p14, p17, p18, p19) and distant pixels (p1, p2, p3, p4, p5, p6, p10, p11, p15, p16, p20) , P21, p22, p23, p24, p25), the pixel value of the pixel of interest p13 may be obtained by weighting the close pixels to be heavy and the distant pixels to be light. For example, by weighting the Gaussian distribution around the pixel of interest p13, it is possible to weight the pixels close to the pixel of interest heavy and lightly weight the pixels far away.

次に、画像構造が平坦でない場合の補間処理について説明する。画像構造が平坦でない場合は、エッジ情報が損なわれない平滑化方法で注目画素の画素値を求める。エッジ情報が損なわれない平滑化方法は、例えば図7に示すように、フィルタ領域501内を位置の異なる複数のサブ領域に分けてサブ領域毎に輝度の分散を求める。そして、最も輝度の分散が低いサブ領域内の画素値の平均値を求め、これをフィルタ領域501の注目画素p13の画素値とする。   Next, an interpolation process when the image structure is not flat will be described. If the image structure is not flat, the pixel value of the target pixel is obtained by a smoothing method that does not impair edge information. In the smoothing method in which the edge information is not impaired, for example, as shown in FIG. 7, the filter area 501 is divided into a plurality of sub areas having different positions, and the luminance distribution is obtained for each sub area. Then, an average value of pixel values in the sub-region having the lowest luminance dispersion is obtained, and this is used as the pixel value of the target pixel p13 in the filter region 501.

ここで、図7のサブ領域について詳しく説明する。図7は、図6と同じ5画素×5画素のサイズのフィルタ領域501を用いた場合のサブ領域の分割例を示す図である。図7において、フィルタ領域501は9種類のサブ領域502から510(斜線部分)に分けられており、サブ領域502から509は7つの画素で構成されるサブ領域をフィルタ領域501内で注目画素p13を中心として45度ずつ回転させたサブ領域で、サブ領域510は注目画素p13とその周辺画素(p7,p8,p9,p12,p14,p17,p18,p19)の9つの画素で構成されるサブ領域である。   Here, the sub-region of FIG. 7 will be described in detail. FIG. 7 is a diagram illustrating an example of sub-region division when the filter region 501 having the same size of 5 pixels × 5 pixels as that in FIG. 6 is used. In FIG. 7, the filter region 501 is divided into nine types of sub-regions 502 to 510 (shaded portions). The sub-regions 502 to 509 are sub-regions composed of seven pixels within the filter region 501 and the target pixel p13. The sub-region 510 is a sub-region that is rotated 45 degrees around the center, and the sub-region 510 is a sub-region composed of nine pixels of the target pixel p13 and its surrounding pixels (p7, p8, p9, p12, p14, p17, p18, p19) It is an area.

このように、画像合成部208は、フィルタ領域501内を位置の異なる複数のサブ領域に分けてサブ領域毎に輝度の分散を求める。ここで、例えば、画像合成部208が各サブ領域毎に求めた分散が次のような値であったとする。サブ領域502の分散が0.1、サブ領域503の分散が0.5、サブ領域504の分散が0.7、サブ領域505の分散が0.6、サブ領域506の分散が0.4、サブ領域507の分散が0.5、サブ領域508の分散が0.3、サブ領域509の分散が0.2、サブ領域510の分散が0.3とする。この場合、分散が一番低いサブ領域は、サブ領域502なのでサブ領域502の7つの画素の画素値の平均を注目画素p13の画素値とする。   As described above, the image composition unit 208 divides the filter area 501 into a plurality of sub areas having different positions, and obtains a luminance distribution for each sub area. Here, for example, it is assumed that the variance obtained by the image composition unit 208 for each sub-region is the following value. The variance of the sub-region 502 is 0.1, the variance of the sub-region 503 is 0.5, the variance of the sub-region 504 is 0.7, the variance of the sub-region 505 is 0.6, the variance of the sub-region 506 is 0.4, The dispersion of the sub-region 507 is 0.5, the dispersion of the sub-region 508 is 0.3, the dispersion of the sub-region 509 is 0.2, and the dispersion of the sub-region 510 is 0.3. In this case, since the sub-region having the lowest variance is the sub-region 502, the average of the pixel values of the seven pixels in the sub-region 502 is set as the pixel value of the target pixel p13.

ここで、フィルタ領域501内を複数のサブ領域に分けて、分散が一番低いサブ領域を選択する理由について説明する。分散が低いサブ領域は類似した輝度の画素が集まっている領域であると見なすことができ、当該サブ領域においては画像構造が平坦で変化が少ない部分であり、平均化してもエッジ成分は損なわれにくいと考えられる。逆に、分散が高い領域は画像構造が平坦でなく輝度変化が大きい領域だと見なすことができ、当該サブ領域を平均化するとエッジ成分が損なわれてぼやけてしまい画質が悪くなってしまうと考えられる。そこで、本実施形態では、画像合成部208は、フィルタ領域内を複数のサブ領域に分けて分散を求め、分散が一番低いサブ領域を選択して当該サブ領域内の画素の画素値を平均化して注目画素p13の画素値を求めるようになっている。   Here, the reason why the filter area 501 is divided into a plurality of sub areas and the sub area having the lowest variance is selected will be described. A sub-region with low variance can be regarded as a region where pixels with similar luminance are gathered. In this sub-region, the image structure is flat and changes little, and even if averaged, the edge component is lost. It is considered difficult. Conversely, a region with high dispersion can be regarded as a region where the image structure is not flat and the luminance change is large, and if the sub-regions are averaged, the edge component is lost and blurred, resulting in poor image quality. It is done. Therefore, in the present embodiment, the image composition unit 208 calculates the variance by dividing the filter region into a plurality of sub-regions, selects the sub-region with the lowest variance, and averages the pixel values of the pixels in the sub-region. Thus, the pixel value of the target pixel p13 is obtained.

尚、図6で説明したように、空の画素がフィルタ領域501内のサブ領域に含まれる場合は、当該画素は無視して、空ではない画素の画素値を用いて分散を求める。   As described with reference to FIG. 6, when an empty pixel is included in the sub-region in the filter region 501, the pixel is ignored and the variance is obtained using the pixel value of the non-empty pixel.

このように、画像構造が平坦でない分割領域において補間処理を行う場合、フィルタ領域内を複数のサブ領域に分けて、できるだけ輝度が平坦なサブ領域で平均化処理を行うので、フィルタ領域内の全画素の画素値の平均を注目画素の画素値とするよりもエッジ成分が損なわれないので、エッジ成分を残した補間処理を行うことができる。   In this way, when interpolation processing is performed in a divided region where the image structure is not flat, the filter region is divided into a plurality of sub regions, and averaging processing is performed in sub regions where the luminance is as flat as possible. Since the edge component is not impaired as compared with the average of the pixel values of the pixel as the pixel value of the target pixel, it is possible to perform an interpolation process that leaves the edge component.

(ステップS109)制御部108は、ステップS108で補間処理した高解像度空間画像をメモリカードI/F111を介してメモリカード111aに保存する。尚、図2のフローチャートで処理中の各画像データは、画像バッファ107上で処理され、最終的に合成された高解像度空間画像も画像バッファ107に一時的に記憶されている。   (Step S109) The control unit 108 stores the high-resolution space image subjected to the interpolation processing in step S108 in the memory card 111a via the memory card I / F 111. Each image data being processed in the flowchart of FIG. 2 is processed in the image buffer 107, and the finally synthesized high-resolution spatial image is also temporarily stored in the image buffer 107.

以上説明してきたように、本実施形態に係るデジタルカメラ101は、分割領域毎の画像構造を判別し、画像構造が平坦である分割領域はフィルタ領域内の全画素の平均を注目画素の画素値とする簡単な補間処理を行い、画像構造が平坦でない分割領域はフィルタ領域内を複数のサブ領域に分けてサブ領域毎の分散を求めて最も分散の低いサブ領域の画素値を用いて注目画素の画素値を求める補間処理を行うので、処理量を抑えながら且つ画像構造が平坦でない部分のエッジ情報を損なわない高解像度空間画像を合成することができる。   As described above, the digital camera 101 according to the present embodiment discriminates the image structure for each divided region, and the divided region where the image structure is flat determines the average value of all the pixels in the filter region as the pixel value of the target pixel. In the divided area where the image structure is not flat, the filter area is divided into a plurality of sub areas and the variance for each sub area is obtained, and the pixel value of the sub area having the lowest variance is used. Therefore, it is possible to synthesize a high-resolution spatial image that suppresses the processing amount and does not impair edge information in a portion where the image structure is not flat.

尚、本実施形態では、デジタルカメラ101において、撮影した複数枚の低解像度画像または撮影済みの複数枚の低解像度画像を合成して一枚の高解像度画像を生成する超解像度処理を行うようにしたが、複数枚の低解像度画像から一枚の高解像度画像を生成する超解像度処理を行う専用の画像処理装置であっても構わない。この場合、画像処理装置は、図2のフローチャートと同様の処理を行う制御部や専用のハードウェア回路を有する。   In the present embodiment, the digital camera 101 performs super-resolution processing for generating a single high-resolution image by combining a plurality of low-resolution images that have been captured or a plurality of low-resolution images that have already been captured. However, a dedicated image processing apparatus that performs super-resolution processing for generating one high-resolution image from a plurality of low-resolution images may be used. In this case, the image processing apparatus includes a control unit that performs processing similar to the flowchart in FIG. 2 and a dedicated hardware circuit.

或いは、図2のフローチャートの処理を行うプログラムをパソコン上で走らせて超解像度処理を行うようにしても構わない。この場合は、複数枚の低解像度画像をメモリカードやCDなどの記憶媒体からパソコンに入力し、図2のフローチャートに従った処理を実行して高解像度画像を生成し、メモリカードやCDなどの記憶媒体に保存したり、或いは高精細ディスプレイへの表示や高精細プリンタでの印刷を行う。   Alternatively, the program for performing the processing of the flowchart of FIG. 2 may be run on a personal computer to perform super-resolution processing. In this case, a plurality of low-resolution images are input from a storage medium such as a memory card or CD to a personal computer, and a process according to the flowchart of FIG. 2 is executed to generate a high-resolution image. It is stored in a storage medium, or displayed on a high-definition display or printed with a high-definition printer.

また、本実施形態では、分かり易いように、輝度情報を用いてエッジ強度や分散を求める場合について説明したが、カラー画像の場合は、RGB各色の色情報を用いて色の変化の強さや各色の分散を求めても構わない。また、分割領域のサイズや数およびフィルタ領域のサイズや重み付け量は、適宜デジタルカメラの設定メニュー画面で変更できるようにしても構わない。特に、分割領域のサイズとフィルタ領域のサイズは同じであっても構わないし、異なるサイズであっても構わない。いずれの場合でも、分割領域のサイズやフィルタ領域のサイズが小さいほど処理量が多くなり処理負荷が増えるが、画質は向上する。   Further, in the present embodiment, for the sake of easy understanding, the case where the edge strength and variance are obtained using luminance information has been described. However, in the case of a color image, the intensity of color change and each color using the color information of each RGB color. May be obtained. Further, the size and number of the divided areas and the size and weighting amount of the filter area may be appropriately changed on the setting menu screen of the digital camera. In particular, the size of the divided area and the size of the filter area may be the same or different. In any case, the smaller the size of the divided area and the smaller the filter area, the larger the processing amount and the processing load, but the image quality improves.

本実施形態に係るデジタルカメラ101のブロック図である。1 is a block diagram of a digital camera 101 according to the present embodiment. 高解像度画像を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates a high resolution image. 領域分割の例を示す説明図である。It is explanatory drawing which shows the example of area division. 基本画像の高解像度空間への展開を示す説明図である。It is explanatory drawing which shows expansion | deployment to the high resolution space of a basic image. 参照画像の高解像度空間への展開を示す説明図である。It is explanatory drawing which shows expansion | deployment to the high resolution space of a reference image. フィルタ領域の例を示す説明図である。It is explanatory drawing which shows the example of a filter area | region. サブ領域の例を示す説明図である。It is explanatory drawing which shows the example of a sub area | region.

符号の説明Explanation of symbols

101・・・デジタルカメラ 102・・・撮影光学系
103・・・メカニカルシャッタ 104・・・撮像素子
105・・・AFE 106・・・A/D変換部
107・・・画像バッファ 108・・・制御部
109・・・メモリ 110・・・表示部
111・・・メモリカードI/F 112・・・操作部
201・・・撮影処理部 202・・・基準画像選択部
203・・・領域分割部 204・・・特徴量抽出部
205・・・画像構造判別部 206・・・位置ずれ検出部
207・・・高解像度空間展開部 208・・・画像合成部
DESCRIPTION OF SYMBOLS 101 ... Digital camera 102 ... Shooting optical system 103 ... Mechanical shutter 104 ... Imaging element 105 ... AFE 106 ... A / D conversion part 107 ... Image buffer 108 ... Control Unit 109 ... Memory 110 ... Display unit 111 ... Memory card I / F 112 ... Operation unit 201 ... Shooting processing unit 202 ... Reference image selection unit 203 ... Area division unit 204 ... Feature amount extraction unit 205 ... Image structure determination unit 206 ... Position displacement detection unit 207 ... High resolution space development unit 208 ... Image composition unit

Claims (6)

時系列に連続して同一被写体を含む複数フレームの画像を入力する画像入力部と、
前記複数フレームの画像の中から基準画像を選択し、前記基準画像を除く前記複数フレームの画像を参照画像とする基準画像選択部と、
前記基準画像を複数の分割領域に分割する領域分割部と、
前記分割領域毎に特徴量を抽出して画像構造を判別する画像構造判別部と、
前記基準画像に対する前記参照画像の位置ずれ量を求める位置ずれ検出部と、
前記基準画像を高解像度空間に展開し、前記参照画像を前記位置ずれ量に応じて前記高解像度空間に配置する解像度空間展開部と、
前記解像度空間展開部が作成した高解像度空間において、前記分割領域毎に前記画像構造判別部が判別した画像構造に応じた補間方法を用いて高解像度空間画像を合成する画像合成部と
を有し、
前記画像合成部は、フィルタ領域のサイズおよび重み付け量の少なくとも1つが異なる複数の補間方法を用いて高解像度空間画像を合成する
ことを特徴とする画像処理装置。
An image input unit for inputting images of a plurality of frames including the same subject in chronological order;
A standard image selection unit that selects a standard image from the plurality of frames of images and uses the plurality of frames of images excluding the standard image as a reference image;
An area dividing unit for dividing the reference image into a plurality of divided areas;
An image structure discriminating unit for discriminating an image structure by extracting a feature amount for each of the divided regions;
A misregistration detection unit for obtaining a misregistration amount of the reference image with respect to the reference image;
A resolution space expanding unit that expands the reference image in a high resolution space and arranges the reference image in the high resolution space in accordance with the amount of displacement;
In the high-resolution space where the resolution spatial expansion unit creates, it possesses an image synthesizing section for synthesizing a high-resolution spatial image using an interpolation method by the image structure determination unit for each of the divided areas corresponding to the image structures determined ,
The image processing unit is characterized in that the high-resolution spatial image is synthesized by using a plurality of interpolation methods in which at least one of a filter area size and a weighting amount is different .
請求項1に記載の画像処理装置において、
前記画像構造判別部は、エッジ強度および画素値の分散の少なくとも1つを用いて、前記分割領域毎に画像構造を判別することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus is characterized in that the image structure determination unit determines an image structure for each of the divided regions using at least one of edge intensity and pixel value dispersion.
請求項1または2に記載の画像処理装置において、
前記画像合成部は、前記フィルタ領域内を複数のサブ領域に分けて分散を求め、最も分散が低いサブ領域内の平均値を当該フィルタ領域内の注目画素値とすることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2 ,
The image synthesis unit divides the filter area into a plurality of sub-areas to obtain a variance, and sets an average value in the sub-area having the lowest variance as a target pixel value in the filter area. apparatus.
請求項1からのいずれか一項に記載の画像処理装置において、
被写体部分を抽出するオブジェクト抽出部を更に設け、
前記分割領域を前記オブジェクト抽出部が抽出した被写体部分とすることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 3 ,
An object extraction unit for extracting the subject portion is further provided.
An image processing apparatus characterized in that the divided area is a subject portion extracted by the object extraction unit.
請求項1からのいずれか一項に記載の画像処理装置にレンズ光学系と撮像部とを設け、
前記画像入力部は、前記レンズ光学系を介して前記撮像部で時系列に連続して撮影される同一被写体を含む複数フレームの画像を入力することを特徴とするデジタルカメラ。
A lens optical system and an imaging unit are provided in the image processing apparatus according to any one of claims 1 to 4 ,
The digital camera according to claim 1, wherein the image input unit inputs images of a plurality of frames including the same subject photographed continuously in time series by the imaging unit via the lens optical system.
時系列に連続して同一被写体を含む複数フレームの画像を画像入力部から入力して前記画像入力部が入力する画像より解像度の高い画像を生成する処理をコンピュータで実行する画像処理プログラムであって、
前記複数フレームの画像の中から基準画像を選択し、前記基準画像を除く前記複数フレームの画像を参照画像とする基準画像選択手順と、
前記基準画像を複数の分割領域に分割する領域分割手順と、
前記分割領域毎に特徴量を抽出して画像構造を判別する領域判別手順と、
前記基準画像に対する前記参照画像の位置ずれ量を検出する位置ずれ検出手順と、
前記基準画像を高解像度空間に展開し、前記参照画像を前記位置ずれ量に応じて前記高解像度空間に配置する解像度空間展開手順と、
前記解像度空間展開手順が作成した高解像度空間において、前記分割領域毎に前記領域判別手順が判別した画像構造に応じた補間方法を用いて高解像度空間画像を合成する画像合成手順と
を有し、
前記画像合成手順は、フィルタ領域のサイズおよび重み付け量の少なくとも1つが異なる複数の補間方法を用いて高解像度空間画像を合成する
ことを特徴とする画像処理プログラム。
An image processing program for executing, on a computer, a process of generating a higher resolution image than an image input by the image input unit by inputting a plurality of frames of images including the same subject in time series from the image input unit. ,
A standard image selection procedure in which a standard image is selected from the multiple frame images, and the multiple frame images excluding the standard image are used as reference images;
A region dividing procedure for dividing the reference image into a plurality of divided regions;
An area determination procedure for extracting an amount of features for each of the divided areas and determining an image structure;
A displacement detection procedure for detecting a displacement amount of the reference image with respect to the reference image;
A resolution space expanding procedure for expanding the reference image in a high resolution space and disposing the reference image in the high resolution space according to the amount of displacement;
In the high-resolution space in which the resolution spatial deployment procedures created, have a an image combining procedure for combining a high resolution spatial image using the interpolation method corresponding to the image structure in which the area determination procedure is determined for each of the divided areas,
The image synthesizing procedure synthesizes a high-resolution spatial image by using a plurality of interpolation methods in which at least one of a filter area size and a weighting amount is different .
JP2008299541A 2008-11-25 2008-11-25 Digital camera, image processing apparatus, and image processing program Active JP5212046B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008299541A JP5212046B2 (en) 2008-11-25 2008-11-25 Digital camera, image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008299541A JP5212046B2 (en) 2008-11-25 2008-11-25 Digital camera, image processing apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2010130069A JP2010130069A (en) 2010-06-10
JP5212046B2 true JP5212046B2 (en) 2013-06-19

Family

ID=42330178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008299541A Active JP5212046B2 (en) 2008-11-25 2008-11-25 Digital camera, image processing apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP5212046B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5453858B2 (en) * 2009-03-12 2014-03-26 株式会社リコー Image composition device and image composition program
JP5764740B2 (en) * 2010-10-13 2015-08-19 パナソニックIpマネジメント株式会社 Imaging device
JP2012124576A (en) * 2010-12-06 2012-06-28 Olympus Corp Imaging apparatus
CN104240183B (en) * 2013-06-08 2017-03-29 富士通株式会社 Filtering method and device in image processing process
SG10201810925RA (en) * 2014-12-03 2019-01-30 Nec Corp Direction control device, direction control method and recording medium
JP6671943B2 (en) * 2015-03-03 2020-03-25 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6596286B2 (en) * 2015-09-25 2019-10-23 株式会社Fuji Image high resolution system and high resolution method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3549720B2 (en) * 1998-01-28 2004-08-04 シャープ株式会社 Image processing device
JP2000295464A (en) * 1999-04-05 2000-10-20 Canon Inc Image processing unit and its method
JP2008092297A (en) * 2006-10-02 2008-04-17 Olympus Corp Image processor, image processing program, image manufacturing method, and recording medium

Also Published As

Publication number Publication date
JP2010130069A (en) 2010-06-10

Similar Documents

Publication Publication Date Title
JP4524717B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4720859B2 (en) Image processing apparatus, image processing method, and program
JP5036599B2 (en) Imaging device
JP5212046B2 (en) Digital camera, image processing apparatus, and image processing program
JP5262417B2 (en) Image processing apparatus, image processing method, and image processing program
JP5950678B2 (en) Imaging apparatus, control method, and program
JP2008092297A (en) Image processor, image processing program, image manufacturing method, and recording medium
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
JP5326758B2 (en) Camera, image processing apparatus, and image processing program
JP6261205B2 (en) Image processing device
JP5211589B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2017143354A (en) Image processing apparatus and image processing method
JP5950755B2 (en) Image processing apparatus, control method, program, and storage medium
US10362213B2 (en) Imaging apparatus and imaging method
JP2009021909A (en) Image adder, method, and program
JP7183015B2 (en) Image processing device, image processing method, and program
CN111698389A (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2009200981A (en) Video camera
JP5417920B2 (en) Image processing apparatus, image processing method, electronic camera, and image processing program
JP2014236244A (en) Image processing system, image processing program, and digital camera
JP5301690B2 (en) Imaging apparatus, method, and program
JP6828069B2 (en) Imaging equipment, imaging methods and programs
JP4622809B2 (en) Imaging device
JP2010245582A (en) Electronic camera
JP2012133492A (en) Image processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130211

R150 Certificate of patent or registration of utility model

Ref document number: 5212046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250