JP5453858B2 - Image composition device and image composition program - Google Patents

Image composition device and image composition program Download PDF

Info

Publication number
JP5453858B2
JP5453858B2 JP2009060299A JP2009060299A JP5453858B2 JP 5453858 B2 JP5453858 B2 JP 5453858B2 JP 2009060299 A JP2009060299 A JP 2009060299A JP 2009060299 A JP2009060299 A JP 2009060299A JP 5453858 B2 JP5453858 B2 JP 5453858B2
Authority
JP
Japan
Prior art keywords
image data
image
pixel
evaluation value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009060299A
Other languages
Japanese (ja)
Other versions
JP2010219574A (en
Inventor
聡史 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009060299A priority Critical patent/JP5453858B2/en
Publication of JP2010219574A publication Critical patent/JP2010219574A/en
Application granted granted Critical
Publication of JP5453858B2 publication Critical patent/JP5453858B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の画像情報を合成して高解像度の画像情報を生成する画像合成装置、及び画像合成プログラムに関する。   The present invention relates to an image composition apparatus and an image composition program that synthesize a plurality of pieces of image information to generate high-resolution image information.

従来から画像データの様々な加工技術が提案されている。画像データの加工技術の例としては、低解像度の複数の画像データを合成して、より高解像度の画像データを生成する超解像技術がある。   Conventionally, various processing techniques for image data have been proposed. As an example of the image data processing technique, there is a super-resolution technique for generating a higher resolution image data by combining a plurality of low resolution image data.

この超解像技術においては様々な提案がなされている。例えば、複数の画像データを合成する際に、合成元の画像データ間のずれを補正する技術がある。このずれを補正する技術を用いることで、複数の画像データの画素同士の対応関係をサブピクセルレベルで検知できる。これにより、合成後の画像データの各画素の近傍とみなされた、合成元の各画像データの画素毎の画素値を元に、合成後の画像データの画素値を算出できる。   Various proposals have been made for this super-resolution technique. For example, when combining a plurality of image data, there is a technique for correcting a shift between the image data of the combination source. By using a technique for correcting this shift, it is possible to detect the correspondence between pixels of a plurality of image data at the sub-pixel level. Thereby, the pixel value of the image data after the synthesis can be calculated based on the pixel value for each pixel of the image data at the synthesis source, which is regarded as the vicinity of each pixel of the image data after the synthesis.

しかしながら、従来の超解像技術では、合成元の原画像データの全ての領域が合成に好適であるという仮定に基づいていた。このため、合成後の画像データは、原画像よりも解像度が高くはなるが、画質が向上するとは限らない。例えば、合成元の画像データの四枚のうち、一枚が適切な露光で撮影された画像データであり、他の三枚が露光過多で撮影された画像データとする。また、画像データ間の画素のずれを考慮せず、これらの四枚の画像データを合成して2倍の解像度の画像データを生成すると、適切な露光で撮影された画像データの画素は、合成後の画像データにおいて占める割合の4分の1となる。つまり、画像データ全体としては、露光過多な合成画像データが生成されることになる。   However, the conventional super-resolution technique is based on the assumption that all areas of the original image data of the composition source are suitable for composition. For this reason, the synthesized image data has a higher resolution than the original image, but the image quality is not always improved. For example, of the four image data of the composition source, one is image data captured with appropriate exposure, and the other three are image data captured with overexposure. In addition, if these four pieces of image data are combined to generate image data having a double resolution without considering pixel shift between the image data, the pixels of the image data captured with appropriate exposure are combined. This is one-fourth of the ratio in the subsequent image data. That is, overexposed composite image data is generated for the entire image data.

そこで、特許文献1に記載された技術では、合成に用いるフレーム画像を所定の基準に従って取捨選択する技術が提案されている。当該技術を適用すれば、所定の基準を満たさない画像データについては合成対象とならず、画質の劣化を抑止できる。   Therefore, in the technique described in Patent Document 1, a technique is proposed in which frame images used for synthesis are selected according to a predetermined standard. If this technique is applied, image data that does not satisfy a predetermined standard is not subject to synthesis, and deterioration in image quality can be suppressed.

しかしながら、画像データ全体では所定の基準を満たしている場合でも、例えば黒つぶれや白飛びしている領域が存在するなど、局所的に画質が不十分な領域が含まれていることもある。このような画像データを合成の対象とした場合、一部しか画質が向上せず、局所的には画質が劣化するという問題がある。   However, even when the entire image data satisfies a predetermined criterion, there may be a region where the image quality is locally insufficient, for example, a blacked out region or a whiteout region exists. When such image data is to be synthesized, there is a problem that only a part of the image quality is improved and the image quality is locally degraded.

本発明は、上記に鑑みてなされたものであって、画質の劣化を抑止する画像合成装置、及び画像合成プログラムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an image composition device and an image composition program that suppress deterioration in image quality.

上述した課題を解決し、目的を達成するために、本発明にかかる画像合成装置は、複数の入力画像情報を入力する画像入力手段と、前記入力画像情報毎に対して、色、輝度、及びエッジ、及びテクスチャのうちいずれか一つ以上が類似する部分領域毎に分割する分割手段と、各前記入力画像情報の、分割された前記部分領域毎に、明るさ、コントラストの高さ、鮮鋭さ、及び色合いのうちいずれか一つ以上の評価を示した評価値を算出する算出手段と、前記複数の入力画像情報の合成された際の合成画像データのうち基準として定められた画素と位置が対応する、前記入力画像情報の第1の画素からの距離の逆数と、当該第1の画素からの距離に存在する前記部分領域の前記評価値と、によるで画素毎に算出されたパラメータを、当該部分領域に含まれる各画素の画素値に対する重み付けとして用いて、前記複数の入力画像データ毎の画素値を合成し、入力された画像データより画素数が多い合成画像データを生成する合成手段と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, an image composition device according to the present invention includes an image input unit that inputs a plurality of input image information, and color, brightness, and Dividing means for dividing each of the partial regions in which at least one of edges and textures is similar, and brightness, contrast height, and sharpness for each of the divided partial regions of each of the input image information , And a calculation means for calculating an evaluation value indicating at least one of the hues, and a pixel and a position defined as a reference in the composite image data when the plurality of input image information are combined corresponding, the reciprocal of the distance from the first pixel of the input image information, the said evaluation value, which is calculated for each pixel by the product according to the parameters of the partial area that exists at a distance from the first pixel The part Combining means for combining pixel values for each of the plurality of input image data and generating composite image data having a larger number of pixels than the input image data, using as weighting for the pixel values of each pixel included in the area; It is characterized by having.

また、本発明にかかる画像合成プログラムは、複数の入力画像情報を入力する画像入力ステップと、前記入力画像情報毎に対して、色、輝度、及びエッジ、及びテクスチャのうちいずれか一つ以上が類似する部分領域毎に分割する分割ステップと、各前記入力画像情報の、分割された前記部分領域毎に、明るさ、コントラストの高さ、鮮鋭さ、及び色合いのうちいずれか一つ以上の評価を示した評価値を算出する算出ステップと、前記複数の入力画像情報の合成された際の合成画像データのうち基準として定められた画素と位置が対応する、前記入力画像情報の第1の画素からの距離の逆数と、当該第1の画素からの距離に存在する前記部分領域の前記評価値と、によるで画素毎に算出されたパラメータを、当該部分領域に含まれる各画素の画素値に対する重み付けとして用いて、前記複数の入力画像データ毎の画素値を合成し、入力された画像データより画素数が多い合成画像データを生成する合成ステップと、をコンピュータに実行させる。 The image composition program according to the present invention includes an image input step of inputting a plurality of input image information, and any one or more of color, luminance, edge, and texture for each of the input image information. A division step of dividing each of the similar partial areas, and evaluation of any one or more of brightness, contrast height, sharpness, and hue for each of the divided partial areas of the input image information A first pixel of the input image information in which a position corresponding to a pixel determined as a reference in the combined image data when the plurality of input image information is combined corresponds to a calculation step of calculating an evaluation value indicating each pixel and the reciprocal of the distance, and the evaluation value of the partial area that exists at a distance from the first pixel, the parameters calculated for each pixel by the product due to, included in the partial region from Used as a weighting for the pixel value, wherein the plurality of synthesized pixel values of each input image data, a synthesizing step for generating the number of pixels from the input image data is large composite image data, it causes the computer to execute.

本発明によれば、入力画像データを合成して生成された画素数が多い合成画像情報の画質の劣化を抑止するという効果を奏する。   According to the present invention, there is an effect of suppressing deterioration in image quality of composite image information having a large number of pixels generated by combining input image data.

図1は、第1の実施の形態にかかる画像合成システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an image composition system according to the first embodiment. 図2は、第1の実施の形態にかかる画像合成装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of the image composition device according to the first embodiment. 図3は、画像データの生成の対象として撮影されるシーンを示した図である。FIG. 3 is a diagram showing a scene photographed as an image data generation target. 図4は、第1の実施の形態にかかる画像合成装置の画像選択部により選択された複数の画像データを示した図である。FIG. 4 is a diagram illustrating a plurality of image data selected by the image selection unit of the image synthesizing apparatus according to the first embodiment. 図5は、第1の実施の形態にかかる画像合成装置の評価値格納部のテーブル構造の例を示した図である。FIG. 5 is a diagram illustrating an example of a table structure of the evaluation value storage unit of the image composition device according to the first embodiment. 図6は、第1の実施の形態にかかる画像合成装置における全体的な処理の手順を示すフローチャートである。FIG. 6 is a flowchart illustrating an overall processing procedure in the image composition apparatus according to the first embodiment. 図7は、第1の実施の形態にかかる領域分割部及び評価値算出部における、各画像データの分割処理及び評価値算出の処理手順を示すフローチャートである。FIG. 7 is a flowchart of a process procedure for dividing each image data and calculating an evaluation value in the area dividing unit and the evaluation value calculating unit according to the first embodiment. 図8は、第1の実施の形態にかかる画像合成部における、画像データの合成処理の手順を示すフローチャートである。FIG. 8 is a flowchart illustrating a procedure of image data combining processing in the image combining unit according to the first embodiment. 図9は、画像合成部により注目画素として合成される、各画素の相対位置と、画素の画素値と、画素を含む部分領域の評価値と、の対応関係を示した図である。FIG. 9 is a diagram illustrating a correspondence relationship between the relative position of each pixel, the pixel value of the pixel, and the evaluation value of the partial region including the pixel, which are synthesized as the target pixel by the image synthesis unit. 図10は、算出手法毎に算出された画素値を示した図である。FIG. 10 is a diagram illustrating pixel values calculated for each calculation method. 図11は、第1の実施の形態の変形例1にかかる画像合成システムの例を示した図である。FIG. 11 is a diagram illustrating an example of an image composition system according to the first modification of the first embodiment. 図12は、第1の実施の形態の変形例2にかかるデジタルスチルカメラ1300の構成を示したブロック図である。FIG. 12 is a block diagram illustrating a configuration of a digital still camera 1300 according to the second modification of the first embodiment. 図13は、第2の実施の形態にかかる画像合成装置の構成を示すブロック図である。FIG. 13 is a block diagram illustrating a configuration of an image composition device according to the second embodiment. 図14は、第2の実施の形態にかかる領域分割部により部分領域毎に分割された画像データを示した説明図である。FIG. 14 is an explanatory diagram showing image data divided for each partial area by the area dividing unit according to the second embodiment. 図15は、第2の実施の形態にかかる評価値格納部のテーブル構造の例を示した図である。FIG. 15 is a diagram illustrating an example of a table structure of the evaluation value storage unit according to the second embodiment. 図16は、画像合成装置のハードウェア構成を示した図である。FIG. 16 is a diagram illustrating a hardware configuration of the image composition apparatus.

以下に添付図面を参照して、この発明にかかる画像合成装置、及び画像合成プログラムの最良な実施の形態を詳細に説明する。以下に示す実施の形態においては、PC(Personal Computer)を用いた画像合成装置について説明するが、画像合成装置をPCに制限するものではなく、プリンタなどの含む画像形成装置や、オフィス機器などのさまざまな装置に適用しても良い。   Exemplary embodiments of an image composition apparatus and an image composition program according to the present invention will be explained below in detail with reference to the accompanying drawings. In the embodiment described below, an image composition apparatus using a PC (Personal Computer) will be described. However, the image composition apparatus is not limited to a PC, and an image forming apparatus such as a printer, an office device, etc. You may apply to various apparatuses.

(第1の実施の形態)
図1は、第1の実施の形態にかかる画像合成システムの構成を示すブロック図である。図1に示すように、本実施の形態にかかる画像合成システムは、画像合成装置100と、データベース160と、プリンタ170と、これらを接続するネットワーク150とで構成されている。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of an image composition system according to the first embodiment. As shown in FIG. 1, the image composition system according to the present embodiment includes an image composition device 100, a database 160, a printer 170, and a network 150 that connects them.

データベース160は、合成を行う対象となる画像データを蓄積する。また、データベース160は、画像合成装置100や、プリンタ170に対して画像データを送受信する。   The database 160 stores image data to be combined. The database 160 transmits / receives image data to / from the image composition apparatus 100 and the printer 170.

プリンタ170は、画像合成装置100やデータベース160から送信された画像データを、記録紙などの記録媒体に対して印刷する。次に、画像合成装置100について説明する。   The printer 170 prints the image data transmitted from the image composition device 100 or the database 160 on a recording medium such as recording paper. Next, the image composition device 100 will be described.

画像合成装置100は、データベース160に蓄積された画像データ群を合成して高解像度な画像データを生成し、プリンタ170から印刷する制御を行う。本実施の形態にかかる画像形成装置100は、ハードウェアとしてPC(Personal Computer)を適用した例とする。   The image synthesizing apparatus 100 performs a control of synthesizing the image data groups stored in the database 160 to generate high-resolution image data and printing from the printer 170. The image forming apparatus 100 according to the present embodiment is an example in which a PC (Personal Computer) is applied as hardware.

図2は、第1の実施の形態にかかる画像合成装置100の構成を示すブロック図である。本図に示すように画像合成装置100の内部は、画像記憶部101と、画像入力部102と、画像選択部103と、基準画像選択部104と、領域分割部105と、評価値算出部106と、評価値格納部107と、画像合成部108と、画像出力部109と、を備え、入力された画像データを合成し、高精細な合成画像データを生成、出力する。   FIG. 2 is a block diagram illustrating a configuration of the image composition device 100 according to the first embodiment. As shown in this figure, the image synthesizing apparatus 100 includes an image storage unit 101, an image input unit 102, an image selection unit 103, a reference image selection unit 104, an area division unit 105, and an evaluation value calculation unit 106. And an evaluation value storage unit 107, an image synthesis unit 108, and an image output unit 109, which synthesize the input image data to generate and output high-definition synthesized image data.

画像入力部102は、データベース160からネットワーク150を介して、合成に利用する画像データを入力処理する。本実施の形態では、画像データを、データベース160から取得するが、他の装置や、画像合成装置100内部から取得しても良い。   The image input unit 102 performs input processing of image data used for composition from the database 160 via the network 150. In the present embodiment, the image data is acquired from the database 160, but may be acquired from another device or the image composition device 100.

図3は、画像データの生成の対象として撮影されるシーンを示した図である。図3に示すシーンは、海、海に浮かぶ船、前方の山、後方の山、空又は雲で構成されている。本実施の形態にかかる画像合成装置100では、図3で示したシーンを撮像した複数の画像データを合成する。   FIG. 3 is a diagram showing a scene photographed as an image data generation target. The scene shown in FIG. 3 is composed of the sea, a ship floating in the sea, a front mountain, a rear mountain, the sky, or a cloud. In the image composition device 100 according to the present embodiment, a plurality of image data obtained by capturing the scene shown in FIG. 3 is composed.

図2に戻り、画像選択部103は、画像入力部102により入力された複数の画像データから、合成に適した画像データを選択する。画像選択部103は、入力された画像データ毎に、画像データ全体で所定の基準を満たした画像データを、合成対象として選択する。当該画像データの選択手法としては、例えば、国際公開第2004/093011号で公開された手法など、さまざまな手法を用いて良い。   Returning to FIG. 2, the image selection unit 103 selects image data suitable for synthesis from a plurality of image data input by the image input unit 102. The image selection unit 103 selects, for each input image data, image data that satisfies a predetermined standard for the entire image data as a synthesis target. As a method for selecting the image data, for example, various methods such as a method disclosed in International Publication No. 2004/093011 may be used.

図4は、画像選択部103により選択された複数の画像データを示した図である。図4に示す、第1画像データ〜第4画像データまでの画像データを、合成対象として選択されたものとする。図4に示す、第1画像データ〜第4画像データは、図3に示したシーンを撮像した画像データであるが、少しずれている位置関係にある上、画像データ全体として所定の基準は満たしているが、詳細な露光条件や、焦点が当たっている位置が異なっているものとする。   FIG. 4 is a diagram showing a plurality of image data selected by the image selection unit 103. Assume that the image data from the first image data to the fourth image data shown in FIG. The first image data to the fourth image data shown in FIG. 4 are image data obtained by capturing the scene shown in FIG. 3, but they are in a slightly shifted positional relationship and satisfy a predetermined standard as the whole image data. However, it is assumed that the detailed exposure conditions and the focused position are different.

図2に戻り、画像記憶部101は、画像選択部103により合成に適するものとして選択された画像データを、一時的に記憶する。   Returning to FIG. 2, the image storage unit 101 temporarily stores the image data selected by the image selection unit 103 as being suitable for composition.

基準画像選択部104は、画像記憶部101に記憶された画像データ(例えば、第1の画像データ〜第4の画像データ)から、合成時の基準となる画像データを選択する。合成時の基準となる画像データの選択手法としては、いずれの手法を用いても良い。例えば、他の画像データと重畳している範囲が最も大きい画像データを選択したり、画像選択部103で選択された画像データのうち、最初に画像入力部102により入力された画像データを選択しても良い。本実施の形態では、基準画像データとして、第1の画像データが選択されたものとする。   The reference image selection unit 104 selects image data serving as a reference at the time of composition from image data (for example, first image data to fourth image data) stored in the image storage unit 101. Any method may be used as a method for selecting image data as a reference at the time of synthesis. For example, image data that has the largest overlapping range with other image data is selected, or image data that is first input by the image input unit 102 is selected from the image data selected by the image selection unit 103. May be. In the present embodiment, it is assumed that the first image data is selected as the reference image data.

領域分割部105は、画像記憶部101に記憶された画像データ毎に対して、所定の基準に基づく部分領域毎に分割する。本実施の形態においては、領域分割部105は、基準画像データから、(色など類似する特徴を持つ画素の集合を)部分領域として抽出した後、抽出された部分領域と同じと判別された部分領域毎に各画像データを分割する。なお、類似する特徴を持つ画素の集合を抽出する基準としては、周知の基準を問わず、あらゆる基準を用いて良いが、例えば、画像データの色、輝度又はエッジなどのパラメータを基準として、類似する特徴を有すると判別された各領域を抽出するなどが考えられる。   The area dividing unit 105 divides each image data stored in the image storage unit 101 into partial areas based on a predetermined standard. In the present embodiment, the region dividing unit 105 extracts a partial region (a set of pixels having similar characteristics such as color) from the reference image data, and then determines that it is the same as the extracted partial region. Each image data is divided for each region. As a standard for extracting a set of pixels having similar characteristics, any standard can be used regardless of a known standard. For example, the standard is based on parameters such as color, luminance, or edge of image data. It is conceivable to extract each region determined to have a feature to be detected.

本実施の形態にかかる領域分割部105は、基準画像データである第1の画像データから、海(A0001)、山(前)(A0002)、山(後)(A0003)、雲(A0004)、及び空(A0005)の5つの部分領域が抽出できたものとする。なお、領域分割部105は、海に浮かぶ船を、海と同じ領域に含まれる領域として判別したものとする。そして、領域分割部105は、第1の画像データを、これら5つの部分領域に分割する。   The area dividing unit 105 according to the present embodiment uses the first image data, which is the reference image data, from the sea (A0001), the mountain (front) (A0002), the mountain (rear) (A0003), the cloud (A0004), And five partial regions of the sky (A0005) can be extracted. It is assumed that the area dividing unit 105 determines a ship floating in the sea as an area included in the same area as the sea. Then, the area dividing unit 105 divides the first image data into these five partial areas.

続いて、領域分割部105は、残りの第2の画像データから第4の画像データの画像データ(以下、合成する画像データであって、基準画像データ以外の画像データを材料画像データと称す)についても同様の処理で部分領域毎に分割する。また、領域分割部105は、材料画像データを部分領域に分割する際に、基準画像データの部分領域抽出結果を参考にする。例えば、基準画像データでは海と海に浮かぶ船を同じ領域として分割しているため、領域分割部105が、材料画像データで、海に浮かぶ船と海とを別の領域として抽出しても、基準画像データに合わせて船と海とを同じ領域と判断する。   Subsequently, the area dividing unit 105 performs image data of the fourth image data from the remaining second image data (hereinafter, image data to be combined and image data other than the reference image data is referred to as material image data). Is also divided into partial areas by the same processing. The area dividing unit 105 refers to the partial area extraction result of the reference image data when dividing the material image data into partial areas. For example, since the reference image data divides the sea and the ship floating in the sea as the same region, even if the region dividing unit 105 extracts the ship and the sea floating in the sea as separate regions in the material image data, The ship and the sea are determined to be the same area according to the reference image data.

そして、領域分割部105は、基準画像データから抽出された部分領域と同様の領域は、基準画像データの部分領域と同じ領域IDを割り当てる。そして、第2の画像データ〜第4の画像データについても、第1の画像データと同様に、海(A0001)、山(前)(A0002)、山(後)(A0003)、雲(A0004)、及び空(A0005)の5つの領域に分割する。   Then, the area dividing unit 105 assigns the same area ID as the partial area of the reference image data to the same area as the partial area extracted from the reference image data. As for the second image data to the fourth image data, similarly to the first image data, the sea (A0001), the mountain (front) (A0002), the mountain (rear) (A0003), and the cloud (A0004) And the sky (A0005).

評価値算出部106は、画像記憶部101に記憶された各画像データ(第1の画像データから第4の画像データ)で、分割された部分領域に含まれる画像データ毎に、画質を評価した評価値を算出する。画質の評価手法としては、周知の手法を問わず、あらゆる手法を用いても良い。本実施の形態にかかる評価値算出部106の画質の評価の基準としては、部分領域における、明るさ、コントラストの高さ、鮮鋭さ、色合いなどを用いることとする。例えば、鮮鋭さが高いと、焦点が当たっているものとして、評価値が高くなる。なお、評価の基準は、全ての画像データにおいて画一的なものである必要がある。   The evaluation value calculation unit 106 evaluates the image quality for each image data included in the divided partial area in each image data (first image data to fourth image data) stored in the image storage unit 101. An evaluation value is calculated. Any method for evaluating image quality may be used regardless of a known method. As a reference for evaluating the image quality of the evaluation value calculation unit 106 according to the present embodiment, brightness, contrast height, sharpness, hue, and the like in the partial area are used. For example, if the sharpness is high, the evaluation value is high as a focus. Note that the evaluation criteria must be uniform for all image data.

本実施の形態にかかる評価値算出部106は、基準画像データに含まれる部分領域について評価値を算出した後、他の材料画像データについて部分領域毎の評価値を算出する。評価値算出部106は、評価値を算出した後、各画像データの部分領域と対応付けて、評価値格納部107に格納する。   The evaluation value calculation unit 106 according to the present embodiment calculates an evaluation value for a partial region included in the reference image data, and then calculates an evaluation value for each partial region for other material image data. After calculating the evaluation value, the evaluation value calculation unit 106 stores the evaluation value in association with the partial area of each image data in the evaluation value storage unit 107.

評価値格納部107は、各画像データの部分領域毎の評価値を格納する。図5は、評価値格納部107のテーブル構造の例を示した図である。図5に示すように、評価値格納部107は、部分領域を識別する部分領域IDと、各画像データの評価値と、を対応付けて記憶する。図5に示す例では、評価値の値域は、0〜1とし、値が高いほど画質が高いものとする。   The evaluation value storage unit 107 stores an evaluation value for each partial area of each image data. FIG. 5 is a diagram showing an example of the table structure of the evaluation value storage unit 107. As shown in FIG. 5, the evaluation value storage unit 107 stores a partial area ID for identifying a partial area and an evaluation value of each image data in association with each other. In the example illustrated in FIG. 5, the evaluation value range is 0 to 1, and the higher the value, the higher the image quality.

図5に示す評価値格納部107の例では、第1の画像データは、前方の山を示す領域A0002の評価値が高いことが確認できる。従って、第1の画像データでは、前方の山に焦点を合わせて画像データを撮影したことが推測される。また、材料画像データにおいても、評価値(画質)が高い部分領域が、材料画像データ及び基準画像データ毎に異なることから、画像データ毎に焦点が当たっている物体が異なることが推測される。   In the example of the evaluation value storage unit 107 illustrated in FIG. 5, it can be confirmed that the first image data has a high evaluation value in the area A0002 indicating the mountain ahead. Therefore, in the first image data, it is presumed that the image data was captured while focusing on the front mountain. Also in the material image data, since the partial region having a high evaluation value (image quality) differs for each material image data and reference image data, it is estimated that the focused object differs for each image data.

図2に戻り、画像合成部108は、部分領域毎の評価値を重み付けとして用いて、当該部分領域に含まれる各画素の画素値を、複数の入力画像データ(基準画像データ及び材料画像データ)間で合成し、基準画像データ及び材料画像データより画素数が多い合成画像データを生成する。なお、詳細な処理手順については後述する。   Returning to FIG. 2, the image composition unit 108 uses the evaluation value for each partial region as a weight, and converts the pixel value of each pixel included in the partial region into a plurality of input image data (reference image data and material image data). And composite image data having a larger number of pixels than the reference image data and the material image data is generated. The detailed processing procedure will be described later.

画像出力部109は、画像合成部108により合成された高解像度の合成画像データを、プリンタ170に対して出力する。なお、出力先はプリンタ170に制限するものではなくデータベース160に対して出力しても良い。   The image output unit 109 outputs the high-resolution composite image data combined by the image combining unit 108 to the printer 170. The output destination is not limited to the printer 170 and may be output to the database 160.

次に、本実施の形態にかかる画像合成装置100における全体的な処理について説明する。図6は、本実施の形態にかかる画像合成装置100における上述した処理の手順を示すフローチャートである。   Next, overall processing in the image composition device 100 according to the present embodiment will be described. FIG. 6 is a flowchart showing a procedure of the above-described processing in the image composition device 100 according to the present embodiment.

画像入力部102は、合成に利用する画像データ群を入力処理する(ステップS601)。入力処理する画像データ群は、ユーザに指定された画像データ群とする。ここでいう画像データ群とは、複数の静止画であってもよいし動画の複数のフレームであっても良い。   The image input unit 102 performs an input process on an image data group used for composition (step S601). The image data group to be input is an image data group designated by the user. The image data group here may be a plurality of still images or a plurality of frames of moving images.

次に、画像選択部103は、入力処理された画像データ群から、画像データを一枚ずつ読み出す(ステップS602)。その後、画像選択部103は、読み出した画像データが合成に適した画像データか否かを判定する(ステップS603)。   Next, the image selection unit 103 reads image data one by one from the input image data group (step S602). Thereafter, the image selection unit 103 determines whether or not the read image data is image data suitable for synthesis (step S603).

そして、画像選択部103が、合成に適している画像データ判定した場合(ステップS603:Yes)、当該画像データを画像記憶部101に記憶する(ステップS604)。一方、合成に適していないと判定した場合(ステップS603:No)、当該画像データについて処理を行わない。   When the image selection unit 103 determines image data suitable for synthesis (step S603: Yes), the image data is stored in the image storage unit 101 (step S604). On the other hand, when it is determined that the image data is not suitable for synthesis (step S603: No), the image data is not processed.

その後、画像選択部103は、指定した画像データ群に含まれる画像データ全て読み出したか否かを判定する(ステップS605)。全ての画像データを読み出していないと判定した場合(ステップS605:No)、再び、画像選択部103は、ステップS602に戻って、次の画像データの読み出しを行う。全ての画像データの読み出しを行ったと判定した場合(ステップS605:Yes)、ステップS606に進む。ステップS602〜S605の処理により、合成に用いる画像データが選択されたことになる。   Thereafter, the image selection unit 103 determines whether all the image data included in the designated image data group has been read (step S605). If it is determined that all image data has not been read (step S605: No), the image selection unit 103 returns to step S602 and reads the next image data. When it is determined that all the image data has been read (step S605: Yes), the process proceeds to step S606. The image data used for composition is selected by the processing of steps S602 to S605.

その後、基準画像選択部104は、画像記憶部101に記憶された画像データ(合成に適した画像データ)から、基準画像データを選択する(ステップS606)。   Thereafter, the reference image selection unit 104 selects reference image data from the image data (image data suitable for synthesis) stored in the image storage unit 101 (step S606).

そして、領域分割部105は、基準画像データを部分領域毎に分割し、評価値算出部106が、分割された基準画像データの部分領域毎に画質を評価した後、部分領域を識別する部分領域IDと、評価値とを対応付けて、評価値格納部107に記憶する(ステップS607)。また記憶する際に、部分領域が、基準画像データの部分領域であることを認識可能に記憶する。なお、詳細な処理手順については後述する。   Then, the area dividing unit 105 divides the reference image data for each partial area, and the evaluation value calculation unit 106 evaluates the image quality for each partial area of the divided reference image data, and then identifies the partial area. The ID and the evaluation value are associated with each other and stored in the evaluation value storage unit 107 (step S607). When storing, the partial area is stored so that it can be recognized that it is a partial area of the reference image data. The detailed processing procedure will be described later.

続いて、領域分割部105は、画像記憶部101に記憶された材料画像データを、1枚ずつ読み出す(ステップS608)。そして、領域分割部105は、材料画像データを、基準画像データと同様に部分領域毎に分割し、評価値算出部106が、分割された材料画像データの部分領域毎に画質を評価した後、部分領域を識別する部分領域IDと、評価値とを対応付けて、評価値格納部107に記憶する(ステップS609)。また記憶する際に、部分領域が、材料画像データの部分領域であることを認識可能に記憶する。なお、詳細な処理手順については後述する。   Subsequently, the area dividing unit 105 reads out the material image data stored in the image storage unit 101 one by one (step S608). Then, the region dividing unit 105 divides the material image data for each partial region in the same manner as the reference image data, and the evaluation value calculating unit 106 evaluates the image quality for each partial region of the divided material image data, The partial area ID for identifying the partial area is associated with the evaluation value and stored in the evaluation value storage unit 107 (step S609). When storing, the partial area is stored so that it can be recognized as a partial area of the material image data. The detailed processing procedure will be described later.

その後、領域分割部105は、画像記憶部101に記憶された全ての材料画像データに対して、領域分割及び評価値の算出が終了したか否か判定する(ステップS610)。読み出し及び評価が終了していないと判定した場合(ステップS610:No)、再びステップS608から処理を開始する。   Thereafter, the region dividing unit 105 determines whether or not the region division and evaluation value calculation have been completed for all the material image data stored in the image storage unit 101 (step S610). When it is determined that the reading and evaluation are not completed (step S610: No), the process is started again from step S608.

一方、領域分割部105が、全ての材料画像データについて領域分割及び評価値の算出が終了したと判定した場合(ステップS610:Yes)、基準画像データと、材料画像データと、を合成し、基準画像データ及び材料画像データより解像度が高い合成画像データを生成する(ステップS611)。   On the other hand, when the area dividing unit 105 determines that the area division and the calculation of the evaluation value have been completed for all the material image data (step S610: Yes), the reference image data and the material image data are combined, and the reference Composite image data having a higher resolution than the image data and the material image data is generated (step S611).

その後、画像出力部109は、画像合成部108により合成された高解像度の合成画像データを、プリンタ170に出力する(ステップS612)。   Thereafter, the image output unit 109 outputs the high-resolution composite image data combined by the image combining unit 108 to the printer 170 (step S612).

次に、図6のステップS606又はステップS609で示した、領域分割部105及び評価値算出部106における、各画像データの分割処理及び評価値算出の処理手順について説明する。図7は、本実施の形態にかかる領域分割部105及び評価値算出部106における上述した処理の手順を示すフローチャートである。   Next, the processing procedure of the division processing and evaluation value calculation of each image data in the region division unit 105 and the evaluation value calculation unit 106 shown in step S606 or step S609 of FIG. 6 will be described. FIG. 7 is a flowchart showing a procedure of the above-described processing in the area dividing unit 105 and the evaluation value calculating unit 106 according to the present embodiment.

まず、領域分割部105は、基準画像データ又は材料画像データに対して、類似する特徴を有する部分領域毎に分割する(ステップS701)。分割するための特徴の基準の例としては、例えば色、テクスチャなどが考えられる。また、領域分割部105は、エッジが連続性を有していると判定した場合、当該エッジが領域の境界と判断し、当該エッジを境に領域分割を行ってもよい。さらに、領域分割部105は、画像データとして撮影されたものの奥行を元に、奥行が近い領域を部分領域と判断し、当該部分領域の分割を行ってもよい。   First, the area dividing unit 105 divides the reference image data or the material image data for each partial area having similar characteristics (step S701). As an example of the feature standard for dividing, for example, a color, a texture, and the like can be considered. In addition, when the region dividing unit 105 determines that the edge has continuity, the region dividing unit 105 may determine that the edge is a boundary of the region and perform region division using the edge as a boundary. Further, the area dividing unit 105 may determine an area close to the depth as a partial area based on the depth of the image captured as the image data, and may divide the partial area.

続いて、評価値算出部106は、基準画像データ又は材料画像データの部分領域毎に、画質を評価し、評価値を算出する(ステップS702)。   Subsequently, the evaluation value calculation unit 106 evaluates the image quality for each partial region of the reference image data or the material image data, and calculates an evaluation value (step S702).

そして、評価値算出部106は、算出された部分領域毎の評価値を、部分領域を識別する部分領域ID及び元の画像データと対応付けて、評価値格納部107に記憶する(ステップS703)。   Then, the evaluation value calculation unit 106 stores the calculated evaluation value for each partial region in the evaluation value storage unit 107 in association with the partial region ID for identifying the partial region and the original image data (step S703). .

次に、図6のステップS611で示した、画像合成部108における、画像データの合成処理について説明する。図8は、本実施の形態にかかる画像合成部108における上述した処理の手順を示すフローチャートである。   Next, the image data composition processing in the image composition unit 108 shown in step S611 of FIG. 6 will be described. FIG. 8 is a flowchart showing the above-described processing procedure in the image composition unit 108 according to the present embodiment.

まず、画像合成部108は、合成後の画像データの解像度に合わせたサイズで、空の合成画像データを用意する(ステップS801)。   First, the image composition unit 108 prepares empty composite image data with a size that matches the resolution of the composited image data (step S801).

次に、画像合成部108は、合成画像データの注目画素を特定する(ステップS802)。   Next, the image composition unit 108 identifies a target pixel of the composite image data (step S802).

その後、画像合成部108は、基準画像データおよび材料画像データのそれぞれから、注目画素の近傍に対応する画素の画素値を抽出する(ステップS803)。   Thereafter, the image composition unit 108 extracts the pixel value of the pixel corresponding to the vicinity of the target pixel from each of the reference image data and the material image data (step S803).

そして、画像合成部108は、基準画像データおよび材料画像データのそれぞれについて、注目画素の近傍に対応する、上述した画素が含まれる部分領域の評価値を、評価値格納部107から読み出す(ステップS804)。   Then, for each of the reference image data and the material image data, the image composition unit 108 reads the evaluation value of the partial region including the above-described pixel corresponding to the vicinity of the target pixel from the evaluation value storage unit 107 (step S804). ).

次に、画像合成部108は、基準画像データおよび材料画像データのそれぞれについて、抽出した各画素の注目画素までの距離と、抽出した画素が含まれる部分領域の評価値とを用いて、注目画素近辺の画素値の推定分布を表す補完関数を求める(ステップS805)。   Next, for each of the reference image data and the material image data, the image composition unit 108 uses the distance of each extracted pixel to the target pixel and the evaluation value of the partial area including the extracted pixel, A complementary function representing an estimated distribution of neighboring pixel values is obtained (step S805).

その後、画像合成部108は、求められた補完関数により、注目画素の画素値を算出する(ステップS806)。   Thereafter, the image composition unit 108 calculates the pixel value of the pixel of interest using the obtained complementary function (step S806).

そして、画像合成部108は、合成画像データに含まれる全ての画素を、注目画素として、画素値を算出したか否かを判別する(ステップS807)。算出していないと判別した場合(ステップS807:No)、再びステップS802から処理を開始する。   Then, the image composition unit 108 determines whether or not the pixel value has been calculated using all the pixels included in the composite image data as the target pixel (step S807). If it is determined that it has not been calculated (step S807: No), the process starts again from step S802.

一方、全ての画素について画素値を算出したと判別した場合(ステップS807:Yes)、処理を終了する。   On the other hand, when it is determined that the pixel values have been calculated for all the pixels (step S807: Yes), the process ends.

本実施の形態にかかる画像合成装置100においては、上述した処理手順により、高解像度化された合成画像データを生成する。   In the image composition device 100 according to the present embodiment, high-resolution composite image data is generated by the above-described processing procedure.

次に、画像合成部108による、合成画像データの、ある注目画素の画素値の算出例について説明する。なお、説明を単純化するために、画像データの座標を一次元に制限する。   Next, an example of calculating the pixel value of a certain target pixel in the composite image data by the image composition unit 108 will be described. In order to simplify the description, the coordinates of the image data are limited to one dimension.

図9は、画像合成部108が、第1の画像データ〜第4の画像データから、注目画素の近傍として抽出された画素の相対位置と、抽出された画素の画素値と、抽出された画素を含む部分領域の評価値と、の対応関係を示した図である。相対位置は、注目画素を基準とした相対的な位置とする。つまり、一列目の相対位置に存在する画素は、二列目の画素値を有し、三列目の評価値を持つ属性に属しているものとする。また、図9に示す画素値のうち、高い評価値、及び最も近い相対位置と対応付けられた画素の画素値は“92”である。そこで、注目画素の画素値は、“92”に近い値であるのが望ましいと考えられる。   In FIG. 9, the image composition unit 108 extracts the relative position of the pixel extracted as the vicinity of the target pixel from the first image data to the fourth image data, the pixel value of the extracted pixel, and the extracted pixel. It is the figure which showed the corresponding relationship with the evaluation value of the partial area | region containing. The relative position is a relative position based on the target pixel. In other words, the pixel existing at the relative position in the first column has the pixel value in the second column and belongs to the attribute having the evaluation value in the third column. In addition, among the pixel values illustrated in FIG. 9, the pixel value of the pixel associated with the high evaluation value and the closest relative position is “92”. Therefore, it is considered that the pixel value of the target pixel is desirably a value close to “92”.

また、本実施の形態とは関係なく、これら画素値から、注目画素の画素値を算出する手法としては、様々な手法がある。そこで、画素値の算出手法として、単なる平均値の算出、距離の逆数を重み付けとして用いて算出、距離の逆数及び評価値を重み付けとして用いて算出について検討する。なお、本実施の形態では、距離の逆数及び評価値を重み付けとして用いて算出を適用している。   Regardless of this embodiment, there are various methods for calculating the pixel value of the target pixel from these pixel values. Therefore, as a pixel value calculation method, a simple average value calculation, a calculation using the reciprocal of the distance as weighting, and a calculation using the reciprocal of the distance and the evaluation value as weighting will be considered. In the present embodiment, calculation is applied using the reciprocal of the distance and the evaluation value as weights.

図10は、上述した算出手法毎に算出された画素値を示した図である。図10に示す例のように、単純に平均値を算出した場合、画素値が“108”となり、相対的に距離が遠い画素又は評価値が低い画素の影響を受けて、望ましい値から大きくずれた値になる。   FIG. 10 is a diagram illustrating pixel values calculated for each of the above-described calculation methods. When the average value is simply calculated as in the example shown in FIG. 10, the pixel value is “108”, which is greatly deviated from the desired value due to the influence of the pixel having a relatively long distance or the pixel having a low evaluation value. Value.

次に、距離の逆数を重みとして用いた補完手法では、画素値が“99”となる。つまり、相対的に距離が遠い画素の影響が抑えられるため、平均値と比べて望ましい値になっていることが確認できる。   Next, in the complementary method using the reciprocal of the distance as a weight, the pixel value is “99”. That is, since the influence of pixels that are relatively far from each other can be suppressed, it can be confirmed that the value is more desirable than the average value.

これに対し、本実施の形態にかかる画像合成部108が行う、距離の逆数と評価値の積を重みとして用いた補完手法では、画素値が“97”となる。このように上述した2つの手法と比べて望ましい値に近づいていることが確認できる。つまり、本実施の形態においては、評価値を重み付けとして用いた補間手法を用いることとした。評価値は、画像データの画質の高低を示すものである以上、低い評価値と対応付けられた画素値は、信頼性が低いものとみなすことができる。   On the other hand, in the complementing method using the product of the reciprocal of the distance and the evaluation value as the weight performed by the image composition unit 108 according to the present embodiment, the pixel value is “97”. In this way, it can be confirmed that the value approaches the desired value as compared with the two methods described above. That is, in this embodiment, an interpolation method using the evaluation value as a weight is used. Since the evaluation value indicates the level of image quality of the image data, the pixel value associated with the low evaluation value can be regarded as having low reliability.

そして、本実施の形態にかかる画像合成部108では、上述した補間手法を用いて、画質と重みを連動させることにより、信頼性の低い画素値の影響を相対的に低く抑えることができる。   In the image composition unit 108 according to the present embodiment, the influence of the pixel value having low reliability can be suppressed relatively low by using the above-described interpolation method to link the image quality and the weight.

上述した説明では、画質を示す評価値を重み付けとして用いた補完手法のうち、単純な手法を用いた場合について説明したが、一般的に利用されるバイリニアやバイキュービック手法を、補完手法として組み合わせても良い。また、近傍にある全ての画素値を用いて注目画素の画素値を算出するのではなく、一定の評価値以上の画素値のみ用いて注目画素の画素値を算出しても良い。さらには、画質の評価指標ごとに評価値を算出して、複数の評価値を組み合わせて利用することも効果的であると考えられる。   In the above description, the simple method is used among the complementary methods using the evaluation value indicating the image quality as a weight. However, generally used bilinear and bicubic methods are combined as a complementary method. Also good. Alternatively, the pixel value of the target pixel may be calculated using only pixel values that are equal to or higher than a certain evaluation value, instead of calculating the pixel value of the target pixel using all pixel values in the vicinity. Furthermore, it is considered effective to calculate an evaluation value for each image quality evaluation index and use a combination of a plurality of evaluation values.

本実施の形態にかかる画像合成装置100では、上述した構成を備えることで、信頼性の低い画素の画素値に係る重みを相対的に低く抑えることができるので、より高画質な合成画像データを得ることができる。   In the image composition device 100 according to the present embodiment, by providing the above-described configuration, it is possible to relatively reduce the weight related to the pixel value of the pixel with low reliability, and therefore it is possible to generate composite image data with higher image quality. Can be obtained.

つまり、本実施の形態にかかる画像合成装置100では、部分領域の評価値が高い(画質が高い)ほど重みが大きくなるため、合成を行う際に画質が高い部分領域に属する画素ほど優先的に利用されることになり、より高画質な合成画像データを生成することができる。換言すれば、画像合成装置100では、画質の高い部分領域の画素ほど合成後のある画素の画素値算出に優先的に利用されるので、全ての参照画素に等価な重みを与える場合よりも高画質な合成結果を得ることができる。   That is, in the image composition device 100 according to the present embodiment, the higher the partial region evaluation value (higher the image quality), the greater the weight. Therefore, when compositing, pixels belonging to the partial region with higher image quality are given priority. As a result, the synthesized image data with higher image quality can be generated. In other words, in the image synthesizing apparatus 100, a pixel in a partial area with high image quality is preferentially used for calculating a pixel value of a certain pixel after synthesis, and thus is higher than the case where an equivalent weight is given to all the reference pixels. An image quality composite result can be obtained.

また、上述した各実施の形態に限定されるものではなく、以下に例示するような種々の変形が可能である。   Moreover, it is not limited to each embodiment mentioned above, The various deformation | transformation which is illustrated below is possible.

上述した第1の実施の形態においては、画像データをデータベース160から取得するものとしたが、取得先をデータベース160に制限するものではない。   In the first embodiment described above, the image data is acquired from the database 160, but the acquisition source is not limited to the database 160.

(第1の実施の形態の変形例1)
そこで、第1の実施の形態の変形例1として、画像データの入力先を、デジタルカメラとした例について説明する。図11は、本変形例にかかる画像合成システムの例を示した図である。
(Modification 1 of the first embodiment)
Therefore, as a first modification of the first embodiment, an example in which the input destination of image data is a digital camera will be described. FIG. 11 is a diagram illustrating an example of an image composition system according to the present modification.

図11に示すように、本変形例にかかる画像合成システムでは、ネットワーク150を介して、デジタルカメラ1201と、画像合成装置1203と、記憶装置1202と、が接続されている。   As shown in FIG. 11, in the image composition system according to this modification, a digital camera 1201, an image composition device 1203, and a storage device 1202 are connected via a network 150.

デジタルカメラ1201は、撮像された画像データを、画像合成装置1203に出力する。またデジタルカメラ1201では、静止画データのみならず動画データを撮影しても良い。動画データを撮影する場合、個々のフレーム、または所定の時間間隔を持つフレームを、合成対象の画像データとして利用する。また、デジタルカメラ1201が、静止画を連続撮影する場合、連続撮影された複数の画像データが、合成対象の画像データとして利用される。   The digital camera 1201 outputs the captured image data to the image composition device 1203. The digital camera 1201 may shoot not only still image data but also moving image data. When shooting moving image data, individual frames or frames having a predetermined time interval are used as image data to be synthesized. When the digital camera 1201 continuously captures still images, a plurality of continuously captured image data is used as image data to be combined.

記憶装置1202は、画像合成装置100から入力された合成画像データを記憶する。また、記憶装置1202は、HDD(Hard Disk Drive)等にのみならず、メモリカードや光ディスクなど着脱可能な記録媒体に画像データを記憶しても良い。   The storage device 1202 stores the composite image data input from the image composition device 100. Further, the storage device 1202 may store image data not only in an HDD (Hard Disk Drive) but also in a removable recording medium such as a memory card or an optical disk.

画像合成装置1203は、合成対象となる画像データの入力元がデジタルカメラ1201となり、合成画像データの出力先が記憶装置1202になった以外、第1の実施の形態の画像合成装置100と同様の構成を備えているため、説明を省略する。本変形例にかかる画像合成装置1203は、第1の実施の形態と同様の効果を得ることができる。   The image composition device 1203 is the same as the image composition device 100 of the first embodiment except that the input source of the image data to be combined is the digital camera 1201 and the output destination of the composite image data is the storage device 1202. Since the configuration is provided, the description is omitted. The image composition device 1203 according to the present modification can obtain the same effects as those of the first embodiment.

(第1の実施の形態の変形例2)
また、画像合成装置を適用する装置としては、PC以外にも様々な装置が考えられる。そこで、変形例として、画像合成装置を、デジタルスチルカメラに適用した例について説明する。
(Modification 2 of the first embodiment)
In addition to the PC, various devices can be considered as devices to which the image composition device is applied. Therefore, as a modification, an example in which the image composition device is applied to a digital still camera will be described.

図12は、本変形例にかかるデジタルスチルカメラ1300の構成を示したブロック図である。図12に示すように、デジタルスチルカメラ1300は、撮像ユニット1301と、画像合成ユニット1302と、カードI/F1303とを備えている。   FIG. 12 is a block diagram showing a configuration of a digital still camera 1300 according to this modification. As shown in FIG. 12, the digital still camera 1300 includes an image pickup unit 1301, an image composition unit 1302, and a card I / F 1303.

撮像ユニット1301は、(図示しない)光学系やCCD等を用いて、画像データを撮像する。撮像ユニット1301が撮像する画像データは、静止画データのみならず、動画データをも含むものとする。   The imaging unit 1301 captures image data using an optical system (not shown), a CCD, or the like. Image data captured by the imaging unit 1301 includes not only still image data but also moving image data.

画像合成ユニット1302は、第1の実施の形態の画像合成装置100と同様の構成を備えているものとし、説明を省略する。そして、画像合成ユニット1302は、撮像ユニット1301で撮像された複数の画像データを第1の実施の形態と同様の処理で合成し、より高解像度の合成画像データを生成し、生成した合成画像データをカードI/F1303に出力する。   The image composition unit 1302 is assumed to have the same configuration as the image composition apparatus 100 of the first embodiment, and a description thereof is omitted. Then, the image synthesis unit 1302 synthesizes a plurality of image data captured by the imaging unit 1301 by the same process as in the first embodiment, generates higher-resolution composite image data, and generates the generated composite image data Is output to the card I / F 1303.

カードI/F1303は、接続されたカードメモリ1304に対して、入力された合成画像データの書き込み処理を行う。   The card I / F 1303 writes input composite image data to the connected card memory 1304.

本変形例にかかるデジタルスチルカメラ1300は、撮像ユニット1301に、従来よりも低解像度のセンサーや、安価な光学系を適用した場合でも、複数の画像データを合成することで、高解像度の画像データを生成することができる。   The digital still camera 1300 according to the present modified example combines high-resolution image data by combining a plurality of image data even when a lower-resolution sensor or an inexpensive optical system is applied to the imaging unit 1301. Can be generated.

(第2の実施の形態)
第1の実施の形態にかかる画像合成装置100では、画像データの部分領域を抽出する際に、類似する特徴を有する画素の集合を、部分領域として分割した例について説明した。しかしながら、分割する部分領域を、類似する特徴を有する画素の集合毎に制限するものではない。そこで、第2の実施の形態にかかる画像合成装置では、所定のサイズの領域毎に分割する例について説明する。
(Second Embodiment)
In the image synthesizing apparatus 100 according to the first embodiment, the example in which a set of pixels having similar features is divided into partial areas when extracting the partial areas of the image data has been described. However, the partial area to be divided is not limited to each set of pixels having similar characteristics. Therefore, an example in which the image composition apparatus according to the second embodiment divides into regions of a predetermined size will be described.

ところで、第1の実施の形態では、類似する特徴と有する部分領域毎に画像データを分割した。これは類似する特徴をもつ領域内では画質が一定であるという仮定に基づいている。しかしながら、このような画像データの分割手法は、計算コストが高い上、誤識別が含まれる可能性がある。これに対し、本実施の形態にかかる画像合成装置1400では、予め設定されたサイズ又は分割数で、画像データをタイル状に分割することとした。これにより分割に関する計算コストを削減できる。   By the way, in the first embodiment, image data is divided for each partial region having similar characteristics. This is based on the assumption that the image quality is constant in regions with similar characteristics. However, such an image data dividing method has a high calculation cost and may include erroneous identification. On the other hand, in the image composition device 1400 according to the present embodiment, the image data is divided into tiles with a preset size or division number. Thereby, the calculation cost regarding a division | segmentation can be reduced.

図13は、第2の実施の形態にかかる画像合成装置1400の構成を示すブロック図である。画像合成装置1400は、上述した第1の実施の形態にかかる画像合成装置100とは、領域分割部105とは処理が異なる領域分割部1401に変更された構成を有している点で異なる。以下の説明では、上述した第1の実施の形態と同一の構成要素には同一の符号を付してその説明を省略している。   FIG. 13 is a block diagram illustrating a configuration of an image composition device 1400 according to the second embodiment. The image composition device 1400 is different from the image composition device 100 according to the first embodiment described above in that the configuration is changed to an area division unit 1401 that is different in processing from the region division unit 105. In the following description, the same components as those in the first embodiment described above are denoted by the same reference numerals and description thereof is omitted.

領域分割部1401は、画像記憶部101に記憶された画像データ毎に対して、所定のサイズの部分領域毎に分割する。また、所定のサイズに分割することに制限するのではなく、所定の分割数で分割することにしても良い。所定の分割数で分割する場合でも、所定のサイズで分割するのと同様の効果を得られる。   The area dividing unit 1401 divides each image data stored in the image storage unit 101 into partial areas having a predetermined size. Moreover, it is not limited to dividing into a predetermined size, but may be divided into a predetermined number of divisions. Even when dividing by a predetermined number of divisions, the same effect as that obtained by dividing at a predetermined size can be obtained.

図14は、領域分割部1401により部分領域毎に分割された画像データを示した説明図である。図14に示すように、領域分割部1401は、合成する対象となる画像データを、タイル状に分割する。   FIG. 14 is an explanatory diagram showing image data divided for each partial area by the area dividing unit 1401. As shown in FIG. 14, the area dividing unit 1401 divides image data to be combined into tiles.

そして、評価値算出部106により各部分領域毎に評価値が算出された後、部分領域毎の評価値が、評価値格納部1402に格納される。   Then, after the evaluation value is calculated for each partial region by the evaluation value calculation unit 106, the evaluation value for each partial region is stored in the evaluation value storage unit 1402.

図15は、評価値格納部1402のテーブル構造の例を示した図である。図15に示すように、評価値格納部1402は、部分領域を識別する部分領域IDと、各画像データの評価値と、を対応付けて記憶する。そして、評価値格納部1402は、分割された部分領域の数だけ、上述した値が対応付けられたレコードが格納されているものとする。   FIG. 15 is a diagram showing an example of the table structure of the evaluation value storage unit 1402. As illustrated in FIG. 15, the evaluation value storage unit 1402 stores a partial area ID for identifying a partial area and an evaluation value of each image data in association with each other. Assume that the evaluation value storage unit 1402 stores records in which the above-described values are associated with the number of divided partial areas.

その後、画像合成部108が、部分領域毎の評価値を重み付けとして用いた上で、合成画像データを生成する。なお、合成手法については第1の実施の形態と同様として説明を省略する。   Thereafter, the image composition unit 108 generates composite image data after using the evaluation value for each partial region as a weight. The synthesizing method is the same as in the first embodiment, and a description thereof is omitted.

本実施の形態にかかる画像合成装置1400では領域分割部1401が上述した分割を行うことで、分割手法に関する計算コストを削減すると共に、誤識別による悪影響を低減することができる。これにより、合成画像データをより高速に生成することができる。   In the image composition device 1400 according to the present embodiment, the region dividing unit 1401 performs the above-described division, so that the calculation cost related to the division method can be reduced and the adverse effects due to misidentification can be reduced. Thereby, synthetic image data can be generated at higher speed.

図16は、画像合成装置(100、1400)のハードウェア構成を示した図である。上述した実施の形態の画像合成装置(100,1400)は、CPU1501と、ROM(Read Only Memory)1502と、RAM1503と、外部装置と通信する通信インターフェース(I/F)1504と、キーボードやマウスなどの入力装置1505と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。   FIG. 16 is a diagram illustrating a hardware configuration of the image composition device (100, 1400). The image composition apparatus (100, 1400) according to the above-described embodiment includes a CPU 1501, a ROM (Read Only Memory) 1502, a RAM 1503, a communication interface (I / F) 1504 that communicates with an external device, a keyboard, a mouse, and the like. Input device 1505, and has a hardware configuration using a normal computer.

上述した実施の形態にかかる画像合成装置(100、1400)で実行される画像合成プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   An image composition program executed by the image composition apparatus (100, 1400) according to the above-described embodiment is a file in an installable format or an executable format, and is a CD-ROM, a flexible disk (FD), a CD-R, The program is recorded on a computer-readable recording medium such as a DVD (Digital Versatile Disk).

また、上述した実施の形態にかかる画像合成装置(100、1400)で実行される画像合成プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施の形態にかかる画像合成装置(100、1400)で実行される画像合成プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   The image composition program executed by the image composition apparatus (100, 1400) according to the above-described embodiment is provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. You may comprise. Further, the image composition program executed by the image composition apparatus (100, 1400) according to the present embodiment may be provided or distributed via a network such as the Internet.

また、上述した実施の形態にかかる画像合成装置(100、1400)で実行される画像合成プログラムを、ROM等に予め組み込んで提供するように構成してもよい。   In addition, the image composition program executed by the image composition apparatus (100, 1400) according to the above-described embodiment may be provided by being incorporated in advance in a ROM or the like.

上述した実施の形態の画像合成装置(100、1400)で実行される画像合成プログラムは、上述した各部(画像入力部、画像選択部、基準画像選択部、領域分割部、評価算出部、画像合成部、画像出力部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から画像合成プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、画像入力部、画像選択部、基準画像選択部、領域分割部、評価算出部、画像合成部、画像出力部が主記憶装置上に生成されるようになっている。   The image composition program executed by the image composition apparatus (100, 1400) of the above-described embodiment includes the above-described units (image input unit, image selection unit, reference image selection unit, region division unit, evaluation calculation unit, image synthesis unit). Module, and an image output unit). As actual hardware, a CPU (processor) reads an image synthesis program from the storage medium and executes it to load each unit on the main storage device. The image input unit, the image selection unit, the reference image selection unit, the region division unit, the evaluation calculation unit, the image synthesis unit, and the image output unit are generated on the main storage device.

100、1400 画像合成装置
101 画像記憶部
102 画像入力部
103 画像選択部
104 基準画像選択部
105、1401 領域分割部
106 評価値算出部
107、1402 評価値格納部
108 画像合成部
109 画像出力部
150 ネットワーク
160 データベース
170 プリンタ
1201 デジタルカメラ
1202 記憶装置
1203 画像合成装置
1300 デジタルスチルカメラ
1301 撮像ユニット
1302 画像合成ユニット
1303 カードI/F
1304 カードメモリ
1501 CPU
1502 ROM
1503 RAM
1504 通信インターフェースI/F
1505 入力装置
DESCRIPTION OF SYMBOLS 100, 1400 Image composition apparatus 101 Image memory | storage part 102 Image input part 103 Image selection part 104 Reference | standard image selection part 105,1401 Area division part 106 Evaluation value calculation part 107,1402 Evaluation value storage part 108 Image composition part 109 Image output part 150 Network 160 Database 170 Printer 1201 Digital camera 1202 Storage device 1203 Image composition device 1300 Digital still camera 1301 Imaging unit 1302 Image composition unit 1303 Card I / F
1304 Card memory 1501 CPU
1502 ROM
1503 RAM
1504 Communication interface I / F
1505 input device

国際公開第2004/093011号International Publication No. 2004/093011

Claims (2)

複数の入力画像情報を入力する画像入力手段と、
前記入力画像情報毎に対して、色、輝度、及びエッジ、及びテクスチャのうちいずれか一つ以上が類似する部分領域毎に分割する分割手段と、
各前記入力画像情報の、分割された前記部分領域毎に、明るさ、コントラストの高さ、鮮鋭さ、及び色合いのうちいずれか一つ以上の評価を示した評価値を算出する算出手段と、
前記複数の入力画像情報の合成された際の合成画像データのうち基準として定められた画素と位置が対応する、前記入力画像情報の第1の画素からの距離の逆数と、当該第1の画素からの距離に存在する前記部分領域の前記評価値と、によるで画素毎に算出されたパラメータを、当該部分領域に含まれる各画素の画素値に対する重み付けとして用いて、前記複数の入力画像データ毎の画素値を合成し、入力された画像データより画素数が多い合成画像データを生成する合成手段と、
を備えたことを特徴とする画像合成装置。
Image input means for inputting a plurality of input image information;
A dividing unit that divides the input image information into partial areas in which any one or more of color, luminance, edge, and texture are similar;
Calculating means for calculating an evaluation value indicating any one or more of brightness, contrast height, sharpness, and hue for each of the divided partial areas of the input image information;
The reciprocal of the distance from the first pixel of the input image information, the position of which corresponds to the pixel determined as a reference in the composite image data when the plurality of input image information are combined , and the first pixel the parameters calculated for each pixel in the evaluation value and, due to the product of the partial area that exists at a distance from, be used as a weight for the pixel values of the pixels included in the partial area, the plurality of input images Combining means for combining pixel values for each data and generating combined image data having a larger number of pixels than the input image data;
An image composition device comprising:
複数の入力画像情報を入力する画像入力ステップと、
前記入力画像情報毎に対して、色、輝度、及びエッジ、及びテクスチャのうちいずれか一つ以上が類似する部分領域毎に分割する分割ステップと、
各前記入力画像情報の、分割された前記部分領域毎に、明るさ、コントラストの高さ、鮮鋭さ、及び色合いのうちいずれか一つ以上の評価を示した評価値を算出する算出ステップと、
前記複数の入力画像情報の合成された際の合成画像データのうち基準として定められた画素と位置が対応する、前記入力画像情報の第1の画素からの距離の逆数と、当該第1の画素からの距離に存在する前記部分領域の前記評価値と、によるで画素毎に算出されたパラメータを、当該部分領域に含まれる各画素の画素値に対する重み付けとして用いて、前記複数の入力画像データ毎の画素値を合成し、入力された画像データより画素数が多い合成画像データを生成する合成ステップと、
をコンピュータに実行させるための画像合成プログラム。
An image input step for inputting a plurality of input image information;
A division step for dividing each of the input image information into partial regions in which any one or more of color, luminance, edge, and texture are similar;
A calculation step of calculating an evaluation value indicating any one or more of brightness, contrast height, sharpness, and hue for each of the divided partial areas of the input image information;
The reciprocal of the distance from the first pixel of the input image information, the position of which corresponds to the pixel determined as a reference in the composite image data when the plurality of input image information are combined , and the first pixel the parameters calculated for each pixel in the evaluation value and, due to the product of the partial area that exists at a distance from, be used as a weight for the pixel values of the pixels included in the partial area, the plurality of input images A synthesis step of synthesizing pixel values for each data and generating synthesized image data having a larger number of pixels than the input image data;
Composition program for causing a computer to execute.
JP2009060299A 2009-03-12 2009-03-12 Image composition device and image composition program Expired - Fee Related JP5453858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009060299A JP5453858B2 (en) 2009-03-12 2009-03-12 Image composition device and image composition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009060299A JP5453858B2 (en) 2009-03-12 2009-03-12 Image composition device and image composition program

Publications (2)

Publication Number Publication Date
JP2010219574A JP2010219574A (en) 2010-09-30
JP5453858B2 true JP5453858B2 (en) 2014-03-26

Family

ID=42977994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009060299A Expired - Fee Related JP5453858B2 (en) 2009-03-12 2009-03-12 Image composition device and image composition program

Country Status (1)

Country Link
JP (1) JP5453858B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8921205B2 (en) 2002-08-14 2014-12-30 Asm America, Inc. Deposition of amorphous silicon-containing films

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6324155B2 (en) * 2014-03-27 2018-05-16 キヤノン株式会社 Image processing apparatus, image processing method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354124A (en) * 2004-06-08 2005-12-22 Seiko Epson Corp Production of high pixel density image from a plurality of low pixel density images
JP2006203716A (en) * 2005-01-24 2006-08-03 Seiko Epson Corp Formation of high resolution image using a plurality of low resolution images
JP2008306651A (en) * 2007-06-11 2008-12-18 Olympus Corp Imaging system and program
JP5243833B2 (en) * 2008-04-04 2013-07-24 株式会社日立製作所 Image signal processing circuit, image display device, and image signal processing method
JP5146159B2 (en) * 2008-07-01 2013-02-20 株式会社ニコン Image restoration method, image restoration program, and image restoration apparatus
JP2010034964A (en) * 2008-07-30 2010-02-12 Sharp Corp Image composition apparatus, image composition method and image composition program
JP5212046B2 (en) * 2008-11-25 2013-06-19 株式会社ニコン Digital camera, image processing apparatus, and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8921205B2 (en) 2002-08-14 2014-12-30 Asm America, Inc. Deposition of amorphous silicon-containing films

Also Published As

Publication number Publication date
JP2010219574A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
US7511730B2 (en) Image processing apparatus and method and image pickup apparatus
JP4658223B2 (en) Image generating method, apparatus, program thereof, and recording medium recording program
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
JP2009282979A (en) Image processor and image processing method
TW201029443A (en) Method and device for generating a depth map
JPWO2006093266A1 (en) Image processing apparatus, image processing program, image processing method, and electronic camera for correcting color misregistration
US20050281536A1 (en) Generation of image file
JP6319972B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2020129276A (en) Image processing device, image processing method, and program
JP4821642B2 (en) Image processing method, image processing apparatus, digital camera, and image processing program
JP5238767B2 (en) Parallax image generation method and apparatus
JP4818393B2 (en) Image processing method and image processing apparatus
JPWO2013032008A1 (en) Image processing apparatus and program
JP2018174502A (en) Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program
JP5531865B2 (en) Image processing apparatus, image processing method, and program
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP5453858B2 (en) Image composition device and image composition program
JP7057079B2 (en) Image processing device, image pickup device, image processing method, and program
JP2011176557A (en) Image processor, and method and program thereof
JP6381273B2 (en) Imaging apparatus, image processing system, and control method thereof
WO2014077024A1 (en) Image processing device, image processing method and image processing program
JP4708866B2 (en) Lookup table creation device and method, and lookup table creation program
JP6218520B2 (en) Image processing apparatus, image processing method, and program
JP2011053456A (en) Image display method, program, image display device, and imaging apparatus with the image display device
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131223

R151 Written notification of patent or utility model registration

Ref document number: 5453858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees