JP6339964B2 - Image generating apparatus and computer program - Google Patents

Image generating apparatus and computer program Download PDF

Info

Publication number
JP6339964B2
JP6339964B2 JP2015077982A JP2015077982A JP6339964B2 JP 6339964 B2 JP6339964 B2 JP 6339964B2 JP 2015077982 A JP2015077982 A JP 2015077982A JP 2015077982 A JP2015077982 A JP 2015077982A JP 6339964 B2 JP6339964 B2 JP 6339964B2
Authority
JP
Japan
Prior art keywords
image
original
space
original image
teacher data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015077982A
Other languages
Japanese (ja)
Other versions
JP2016197381A (en
Inventor
麻理子 五十川
麻理子 五十川
弾 三上
弾 三上
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015077982A priority Critical patent/JP6339964B2/en
Publication of JP2016197381A publication Critical patent/JP2016197381A/en
Application granted granted Critical
Publication of JP6339964B2 publication Critical patent/JP6339964B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像生成装置及びコンピュータプログラムに関する。   The present invention relates to an image generation apparatus and a computer program.

写真などの静止画像や映像などの動画像を撮影する際に、撮影したい被写体に被さって不要なものを撮影してしまうことがある。被写体に被さった不要なものが撮影された静止画像や動画像は視聴の体感品質を大きく損なってしまうおそれがあり、静止画像や動画像に含まれる不要なものを見た目に違和感なく除去する手法に対する需要は極めて高い。   When shooting a still image such as a photograph or a moving image such as a video, an unnecessary object may be shot over the subject to be shot. Still images and moving images shot with unnecessary objects on the subject may seriously impair the quality of viewing experience, and it is possible to remove unnecessary things contained in still images and moving images without feeling uncomfortable. Demand is extremely high.

また、自由視点映像合成と呼ばれる技術では、複数のカメラで撮影された映像群から任意の視点からの画像を合成する。このとき、オブジェクトによる遮蔽などが原因で、合成された任意の視点からの映像の一部が欠損してしまうことがある。このような欠損も画像の視聴の体感品質を大きく損なうおそれがあるため、欠損を見た目に違和感なく補完する手法に対する需要は高い。   In a technique called free viewpoint video composition, an image from an arbitrary viewpoint is synthesized from a group of images taken by a plurality of cameras. At this time, part of the synthesized video from an arbitrary viewpoint may be lost due to occlusion by the object. Since such a defect may greatly impair the quality of viewing the image, there is a great demand for a method that complements the defect without a sense of incongruity.

以下、静止画像や動画像における、不要なものの映り込みを除去したい領域及び遮蔽などで観測されていない領域などの補完したい領域を欠損領域という。また、欠損領域がマスクで与えられた画像を入力して、入力した画像において欠損領域が、欠損領域以外の領域(以下、「欠損周辺領域」という。)との見た目に違和感なく補完された画像を取得する処理をコンプリーション(Completion)処理という。   Hereinafter, a region to be complemented, such as a region in which a reflection of unnecessary objects in a still image or a moving image is to be removed and a region that has not been observed due to occlusion, is referred to as a missing region. In addition, an image in which the defect area is given by a mask is input, and the defect area in the input image is complemented without a sense of incongruity with the area other than the defect area (hereinafter referred to as “defect peripheral area”). The process of acquiring the process is referred to as a completion process.

欠損領域の位置や大きさを示すマスクは、静止画像や動画像に拘わらず手動又は公知の技術によって与えられるものとする。マスクを取得する公知の技術としては、例えば非特許文献1に記載の技術がある。なお、マスクとは、画像処理の対象となる画像において、当該画像処理を行う領域であるか否かを示す情報である。   The mask indicating the position and size of the defect area is given manually or by a known technique regardless of whether it is a still image or a moving image. As a known technique for acquiring a mask, for example, there is a technique described in Non-Patent Document 1. Note that a mask is information indicating whether or not an image to be subjected to image processing is an area on which image processing is to be performed.

図5は、欠損領域を表すマスクの例を示す図である。図5(A)は、マスクを二値の画像で与える一例である。図5(A)に示すマスクは、画像処理を施す対象の画像とは別に与えられる。このマスクは、領域91aで示す領域に対して画像処理を行うことを示し、領域91bで示す領域に対して画像処理を行わないことを示している。図5(B)は、画像処理を施す対象の画像にマスクを重畳した画像でマスクを与える一例である。図5(B)に示すマスクは、領域92で示す領域に対して画像処理を行うことを示し、他の領域に対して画像処理を行わないことを示している。図5(B)のようにマスクを与える場合には、領域92は、他の領域との区別が容易な色やパターンなどで与えられる。   FIG. 5 is a diagram illustrating an example of a mask representing a defective region. FIG. 5A is an example in which a mask is given as a binary image. The mask shown in FIG. 5A is given separately from the image to be subjected to image processing. This mask indicates that image processing is performed on the region indicated by the region 91a, and indicates that image processing is not performed on the region indicated by the region 91b. FIG. 5B is an example in which a mask is given by an image in which a mask is superimposed on an image to be subjected to image processing. The mask shown in FIG. 5B indicates that image processing is performed on the region indicated by the region 92, and that image processing is not performed on other regions. In the case of providing a mask as shown in FIG. 5B, the region 92 is provided in a color or pattern that can be easily distinguished from other regions.

コンプリーション手法の一つにパッチベースの手法がある。パッチベースのコンプリーションは以下の手順によって行うことができる。
(手順1)コンプリーション対象の領域の中から欠損領域と欠損周辺領域とを共に含む小領域(以下、「コンプリーション対象パッチ」という。)を選択する。この方法としては、欠損領域の輪郭上に存在し、かつ、周辺のエッジの強いパッチを選定する方法などが挙げられる(例えば、非特許文献2参照)。
(手順2)手順1で選択されたコンプリーション対象パッチの欠損周辺領域の画素を基に、類似パッチを探索する。探索範囲としては、同一画像又は動画像内やストレージ上に保存されている静止画像や動画像等が挙げられる。
(手順3)手順2で探索した類似パッチを、手順1で選択されたコンプリーション対象パッチにコピーする。
以上の手順1〜3がコンプリーション対象の領域が無くなるまで繰り返し行なわれる。
One of the completion methods is a patch-based method. Patch-based completion can be done by the following procedure.
(Procedure 1) A small region (hereinafter referred to as “completion target patch”) including both a defective region and a defective peripheral region is selected from the regions to be completed. Examples of this method include a method of selecting a patch that exists on the outline of a defect region and has a strong peripheral edge (see, for example, Non-Patent Document 2).
(Procedure 2) A similar patch is searched based on the pixels in the defect peripheral region of the completion target patch selected in Procedure 1. Examples of the search range include still images and moving images stored in the same image or moving image or on a storage.
(Procedure 3) The similar patch searched in Procedure 2 is copied to the completion target patch selected in Procedure 1.
The above steps 1 to 3 are repeated until there is no area to be completed.

Xue Bai, Jue Wang, David Simons and Guillermo Sapiro, "Video SnapCut: Robust Video Object Cutout Using Localized Classifiers", ACM Transactions on Graphics(TOG)- Proceedings of ACM SIGGRAPH 2009, Volume 28, Issue 3, August 2009, Article No.70Xue Bai, Jue Wang, David Simons and Guillermo Sapiro, "Video SnapCut: Robust Video Object Cutout Using Localized Classifiers", ACM Transactions on Graphics (TOG)-Proceedings of ACM SIGGRAPH 2009, Volume 28, Issue 3, August 2009, Article No .70 A. Criminisi, P. Perez, and K. Toyama, “Region filling and object removal by exemplar-based image inpainting,” IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 9, pp. 1200-1212, Sept. 2004.A. Criminisi, P. Perez, and K. Toyama, “Region filling and object removal by exemplar-based image inpainting,” IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 9, pp. 1200-1212, Sept. 2004 .

しかしながら、コンプリーション処理はコンプリーション処理を行う特徴量空間によって結果が異なる。そのため、コンプリーション対象の領域に応じた特徴量空間内でコンプリーション処理を実施することが必要である。しかし、入力画像・映像と異なる特徴量空間で得られたコンプリーション結果を、変換前の元の特徴量空間へ戻す変換は多くの場合1対多変換となるため線形に変換処理が行えない。また、グレースケール空間からRGB空間への変換を行うカラリゼーション(Colorization)等の処理も存在するが、そのバリエーションは非常に少なく、あらゆる特徴量空間でコンプリーション処理を行い、その結果をRGB特徴量空間に戻すことは困難であるという問題があった。   However, the result of the completion process varies depending on the feature space in which the completion process is performed. Therefore, it is necessary to perform the completion process in the feature amount space corresponding to the area to be completed. However, the conversion that returns the completion result obtained in the feature amount space different from that of the input image / video to the original feature amount space before the conversion is often a one-to-many conversion, so that the conversion process cannot be performed linearly. There are also processes such as colorization that convert from grayscale space to RGB space, but there are very few variations. Completion processing is performed in every feature space, and the results are converted into RGB feature values. There was a problem that it was difficult to return to space.

上記事情に鑑み、本発明は、所定の変換後の特徴量空間から変換前の特徴量空間への変換を容易に行うことができる技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique capable of easily performing conversion from a predetermined feature amount space to a feature amount space before conversion.

本発明の一態様は、欠損領域の除去対象の原画像と前記欠損領域を示すマスク情報とに基づいて前記原画像から前記欠損領域の画像を除去することによって第1画像を生成する画像生成装置であって、前記原画像を表すパラメータで定められる原画像空間と異なる画像空間への変換を前記原画像に対して行うことにより、前記異なる画像空間における第2画像を生成する変換部と、前記マスク情報と前記第2画像とに基づいて、前記第2画像における前記欠損領域に対するコンプリーション処理を行うことにより第3画像を生成するコンプリーション処理部と、前記原画像及び前記第2画像において前記欠損領域に該当しない領域をそれぞれ第1教師データ及び第2教師データとし、前記第1教師データと前記第2教師データとに基づいて、前記第2教師データにおける前記異なる画像空間から前記第1教師データにおける原画像空間への変換に用いられる逆変換を学習する逆変換学習部と、前記第3画像に対して、学習された前記逆変換を用いることによって、前記第3画像を前記異なる画像空間から前記原画像空間へ変換することによって前記第1画像を生成する特徴量空間逆変換部と、を備える画像生成装置である。   One aspect of the present invention is an image generation device that generates a first image by removing an image of the defect area from the original image based on an original image to be removed of the defect area and mask information indicating the defect area. A conversion unit that generates a second image in the different image space by performing conversion on the original image to an image space different from an original image space defined by a parameter representing the original image; Based on mask information and the second image, a completion processing unit that generates a third image by performing a completion process on the missing area in the second image, and the original image and the second image Regions that do not correspond to missing regions are first teacher data and second teacher data, respectively, and based on the first teacher data and the second teacher data, The inverse transformation learning unit for learning the inverse transformation used for the transformation from the different image space in the second teacher data to the original image space in the first teacher data, and the learned inverse for the third image An image generation device comprising: a feature space inverse transform unit that generates the first image by transforming the third image from the different image space to the original image space by using transformation.

本発明の一態様は、上記の画像生成装置であって、前記逆変換学習部は、前記原画像及び前記第2画像の全ての領域を前記第1教師データ及び前記第2教師データとする。   One aspect of the present invention is the above-described image generation apparatus, wherein the inverse transformation learning unit sets all regions of the original image and the second image as the first teacher data and the second teacher data.

本発明の一態様は、上記の画像生成装置であって、前記逆変換学習部は、所定の割合で示される前記原画像の領域及び前記原画像の領域に対応する前記第2画像の領域を前記第1教師データ及び前記第2教師データとする。   One aspect of the present invention is the above-described image generation device, wherein the inverse transformation learning unit calculates the region of the original image and the region of the second image corresponding to the region of the original image indicated at a predetermined ratio. The first teacher data and the second teacher data are used.

本発明の一態様は、上記の画像生成装置であって、前記逆変換学習部は、前記原画像及び前記第2画像において、エッジが所定の閾値以上である領域のうち、所定の割合で示される領域を前記第1教師データ及び前記第2教師データとする。   One aspect of the present invention is the image generation device described above, wherein the inverse transformation learning unit indicates a predetermined ratio of regions in the original image and the second image in which edges are equal to or greater than a predetermined threshold. The areas to be processed are the first teacher data and the second teacher data.

本発明の一態様は、上記の画像生成装置としてコンピュータを機能させるためのコンピュータプログラムである。   One embodiment of the present invention is a computer program for causing a computer to function as the above-described image generation apparatus.

本発明により、所定の変換後の特徴量空間から変換前の特徴量空間への変換を容易に行うことが可能となる。   According to the present invention, it is possible to easily perform conversion from a predetermined feature amount space to a feature amount space before conversion.

画像生成装置10の構成例を示すブロック図である。2 is a block diagram illustrating a configuration example of an image generation device 10. FIG. 画像生成装置10が入力する原画像とマスク情報との一例を示す図である。It is a figure which shows an example of the original image and mask information which the image generation apparatus 10 inputs. 変換後空間における特徴量の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of the feature-value in the space after conversion. 画像生成装置10の処理の流れを示すフローチャートである。3 is a flowchart illustrating a processing flow of the image generation apparatus 10. 欠損領域を表すマスクの例を示す図である。It is a figure which shows the example of the mask showing a defect | deletion area | region.

以下、本発明の一実施形態を、図面を参照しながら説明する。
画像生成装置は、入力される静止画像又は動画像において指定される欠損領域における画像を補完することにより、欠損領域の画像を除去した静止画像又は動画像を生成する装置である。以下、静止画像と動画像とを区別しない場合に静止画像と動画像とを単に画像という。なお、動画像は、複数の連続した静止画像(フレーム)の集合である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
The image generation apparatus is an apparatus that generates a still image or a moving image from which an image of a defective area is removed by complementing an image in a defective area specified in an input still image or moving image. Hereinafter, when a still image and a moving image are not distinguished, the still image and the moving image are simply referred to as an image. A moving image is a set of a plurality of continuous still images (frames).

図1は、画像生成装置10の構成例を示すブロック図である。
画像生成装置10は、欠損領域Damagedを補完するコンプリーション処理の対象とする画像である原画像I_Originalと、欠損領域Damagedを示すマスク情報Maskとを外部から入力する。画像生成装置10は、原画像I_Originalとマスク情報Maskとに基づいて原画像I_Originalから欠損領域Damagedの画像を除去することによって欠損領域Damagedの画像が除去された画像を(第1画像)生成する。
FIG. 1 is a block diagram illustrating a configuration example of the image generation apparatus 10.
The image generation apparatus 10 receives from the outside an original image I_Original that is an image to be subjected to a completion process that complements the missing area Damaged, and mask information Mask that indicates the missing area Damaged. The image generation apparatus 10 generates an image from which the image of the defective area Damaged is removed (first image) by removing the image of the defective area Damaged from the original image I_Original based on the original image I_Original and the mask information Mask.

図1に示すように、画像生成装置10は、画像取得部101、参照画像記憶部102、変換部103、変換後画像記憶部104、コンプリーション処理部105、逆変換学習部106、特徴量空間逆変換部107を備える。図2は、画像生成装置10が入力する原画像I_Originalとマスク情報Maskとの一例を示す図である。画像生成装置10は、図2(A)及び(B)に示すように、原画像I_Originalとマスク情報Maskとを個別に入力する。或いは画像生成装置10は、図2(C)に示すように、原画像I_Originalに対してマスクが重畳された画像を入力する。   As illustrated in FIG. 1, the image generation apparatus 10 includes an image acquisition unit 101, a reference image storage unit 102, a conversion unit 103, a post-conversion image storage unit 104, a completion processing unit 105, an inverse conversion learning unit 106, a feature amount space. An inverse conversion unit 107 is provided. FIG. 2 is a diagram illustrating an example of the original image I_Original and the mask information Mask input by the image generation apparatus 10. As shown in FIGS. 2A and 2B, the image generation apparatus 10 individually inputs the original image I_Original and the mask information Mask. Alternatively, as illustrated in FIG. 2C, the image generation apparatus 10 inputs an image in which a mask is superimposed on the original image I_Original.

画像取得部101は、コンプリーションを施す対象の原画像I_Originalと、欠損領域Damagedを示すマスク情報Maskと、マスク領域を表す色情報Mask_colorを外部から取得する。マスク情報Maskは、原画像I_Originalと同じサイズを有する画像であり、欠損領域Damagedの画素値が1(図2(B)では白)、欠損周辺領域の画素値が0(図2(B)では黒)で表される。ただし、マスク情報における画素値は、欠損領域Damagedと欠損周辺領域とが区別できれば上述の値以外の値であってもよい。また、色情報Mask_colorはRGB値をもつ三次元ベクトルであり、例えばマゼンダがマスク領域として指定されている場合はMask_color=(255,0,255)のように表すことができる。なお、図2(A)、(B)のように原画像I_Originalと、欠損領域Damagedを示すマスク情報Maskが別で与えられた場合にはマスクで示された領域を欠損領域Damagedとして用いる。このとき、マスク領域を表す色情報Mask_colorが指定される必要はない。   The image acquisition unit 101 acquires an original image I_Original to be subjected to completion, mask information Mask indicating a missing area Damaged, and color information Mask_color indicating a mask area from the outside. The mask information Mask is an image having the same size as the original image I_Original, the pixel value of the defective region Damaged is 1 (white in FIG. 2B), and the pixel value of the defective peripheral region is 0 (in FIG. 2B). Black). However, the pixel value in the mask information may be a value other than the above-described values as long as the defective region Damaged and the defective peripheral region can be distinguished. The color information Mask_color is a three-dimensional vector having RGB values. For example, when magenta is specified as a mask area, it can be expressed as Mask_color = (255, 0, 255). 2A and 2B, when the original image I_Original and the mask information Mask indicating the missing area Damaged are separately provided, the area indicated by the mask is used as the missing area Damaged. At this time, the color information Mask_color indicating the mask area does not need to be specified.

また、図2(C)に示したような原画像I_Originalにマスクが重畳された画像が画像生成装置10に入力された場合には、画像取得部101は入力された画像においてマスクを表す色情報Mask_colorで表されたマスク領域と、欠損周辺領域とを二値で表したマスク情報Maskを生成する。画像生成装置10は、マスク領域で示された領域を欠損領域Damagedとして用いる。欠損領域Damagedは、欠損として指定されたピクセルの位置の集合{(dx,dy)、・・・、(dxn,dyn)}で表されても良いし、原画像I_Originalと同じ大きさの画像で欠損領域Damagedを1、欠損周辺領域を0とした2値画像として保持されてもよい。 When an image in which a mask is superimposed on the original image I_Original as shown in FIG. 2C is input to the image generation apparatus 10, the image acquisition unit 101 displays color information representing a mask in the input image. Mask information Mask in which a mask area represented by Mask_color and a defect peripheral area are represented by binary values is generated. The image generation apparatus 10 uses the area indicated by the mask area as the defect area Damaged. The missing area Damaged may be represented by a set of pixel positions designated as missing {(dx 1 , dy 1 ),..., (Dxn, dyn)}, and has the same size as the original image I_Original. The image may be held as a binary image in which the defect area Damaged is 1 and the defect peripheral area is 0.

参照画像記憶部102は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。参照画像記憶部102は、類似パッチの探索候補として使用される画像である参照画像I_Source={I,・・・,I}を記憶している。ここで、Mは2以上の整数である。類似パッチは、コンプリーション対象パッチの欠損周辺領域の画素と類似するパッチである。なお、参照画像I_Sourceに原画像I_Originalが含まれてもよい。原画像I_Originalを格納する場合は、欠損領域Damagedの領域を除去するなどして参照画像I_Sourceに含めないよう処理すればよい。 The reference image storage unit 102 includes a storage device such as a magnetic hard disk device or a semiconductor storage device. The reference image storage unit 102 stores reference images I_Source = {I 1 ,..., I M } that are images used as search candidates for similar patches. Here, M is an integer of 2 or more. The similar patch is a patch similar to a pixel in a defect peripheral region of the completion target patch. Note that the original image I_Original may be included in the reference image I_Source. When the original image I_Original is stored, it may be processed so as not to be included in the reference image I_Source by removing the area of the missing area Damaged.

変換部103は、入力された原画像I_Originalを、原画像I_Originalを表すパラメータで定められる空間と異なる空間の画像へ変換する。以下、原画像I_Originalを表すパラメータで定められる特徴量空間を原画像空間という。原画像I_Originalの変換先の空間であって原画像空間と異なる特徴量空間を変換後空間という。本実施形態では、原画像空間はRGB特徴量空間である。変換部103は、RGB特徴量空間から、ある所定の変換後空間Fへと変換することによって変換後原画像I_Converted(第2画像)を生成する。また、変換部103は、参照画像I_Sourceも原画像I_Originalと同様にRGB特徴量空間から、ある所定の変換後空間Fへと変換することによって変換後参照画像I_Source_convを生成する。   The conversion unit 103 converts the input original image I_Original to an image in a space different from the space defined by the parameter representing the original image I_Original. Hereinafter, a feature amount space defined by a parameter representing the original image I_Original is referred to as an original image space. A feature space that is a conversion destination space of the original image I_Original and that is different from the original image space is referred to as a post-conversion space. In the present embodiment, the original image space is an RGB feature amount space. The conversion unit 103 generates a converted original image I_Converted (second image) by converting the RGB feature amount space into a certain predetermined converted space F. Further, the conversion unit 103 generates the converted reference image I_Source_conv by converting the reference image I_Source from the RGB feature amount space to a certain predetermined converted space F in the same manner as the original image I_Original.

所定の変換後空間Fへの変換例としては、グレースケール変換、HOG(Histogram of Oriented Gradients)特徴量への変換、GIST特徴量への変換などが挙げられるが、本発明は特にこれを制限するものではない。また、上記のような特徴量空間に加え、1/2解像度といった画像の解像度を変化させた特徴量空間も変換後空間Fに包含させることが可能である。また、変換先の変換後空間を与える方法や変換を実施する方法に関しても特に制限はない。例えば、以下の方法1、方法2のような方法で実施することが可能である。この時、変換後原画像I_Convertedの生成アルゴリズムや原画像I_Originalから変換後原画像I_Convertedへの変換フィルタをユーザが把握する必要はない。これは、事前に実施された変換の情報が得られなくても問題ないためである。   Examples of conversion to the predetermined post-conversion space F include gray scale conversion, conversion to HOG (Histogram of Oriented Gradients) feature quantity, conversion to GIST feature quantity, etc., but the present invention particularly restricts this. It is not a thing. In addition to the feature amount space as described above, a feature amount space in which the resolution of the image is changed, such as ½ resolution, can be included in the converted space F. Further, there is no particular limitation on the method for providing the converted space at the conversion destination and the method for performing the conversion. For example, it can be carried out by the following methods 1 and 2. At this time, it is not necessary for the user to know the generation algorithm of the converted original image I_Converted and the conversion filter from the original image I_Original to the converted original image I_Converted. This is because there is no problem even if information on conversion performed in advance is not obtained.

(方法1:所定の特徴量変換を行う方法)
変換部103は、原画像I_OriginalをRGB特徴量空間から所定の変換後空間Fへ変換し、変換後原画像I_Convertedを生成する。変換はユーザ独自のアルゴリズムにより実施してもよいし、市販の画像処理ソフトウェア等により実施してもよい。
(Method 1: Method for performing predetermined feature value conversion)
The conversion unit 103 converts the original image I_Original from the RGB feature amount space to a predetermined post-conversion space F, and generates a post-conversion original image I_Converted. The conversion may be performed by a user-specific algorithm, or may be performed by commercially available image processing software.

(方法2:予め与えた変換後空間の候補の中から選択された空間に特徴量変換する方法)
変換後空間Fの候補F(i)(1≦i≦N、N:特徴量候補の総数)を、特徴量Featureの組み合わせにより予め与えておく。与える特徴量Featureの具体例としては、画素値(RGB、グレースケールなど)、HOG特徴量、GIST特徴量などが挙げられる。特徴量Featureの組み合わせを与える方法に関して特に制限はないが、例えば図3のように与えることが可能である。
(Method 2: Method of converting feature quantity into a space selected from pre-converted space candidates)
A candidate F (i) (1 ≦ i ≦ N, N: total number of feature amount candidates) of the converted space F is given in advance by a combination of feature amounts Feature. Specific examples of the feature value Feature to be given include pixel values (RGB, gray scale, etc.), HOG feature values, GIST feature values, and the like. Although there is no particular limitation on the method for giving the combination of feature amounts Feature, for example, it can be given as shown in FIG.

図3は、変換後空間における特徴量の組み合わせの一例を示す図である。
図3に示される例では、特徴量空間ID毎に、各特徴量の利用有無が示されている。特徴量空間IDは、原画像空間と異なる特徴量空間である変換後空間を識別するための識別情報を表す。変換後空間の具体例として、R空間、G空間、B空間、グレースケール空間、HOG特徴量空間などがある。また、特徴量空間ID毎に、特徴量R、G、B、Gray、HOG、GISTの各項目が0又は1で示されている。1の場合には変換後空間F(i)に該当特徴量を利用することを意味し、0の場合には利用しないことを意味する。例えば、特徴量空間ID“1”で示される変換後空間は、特徴量Rのみを利用することが示されている。つまり、特徴量空間ID“1”で示される変換後空間は、R空間である。同様に、特徴量空間ID“4”で示される変換後空間は、特徴量Grayのみを利用することが示されている。つまり、特徴量空間ID“4”で示される変換後空間は、グレースケール空間である。図3の例では、N通りの特徴量空間の候補が登録されている。ユーザは、上記のように与えた特徴量空間の候補F(i)から1つ以上の候補を選択し、その変換後空間F(i)への変換を実施する。
FIG. 3 is a diagram illustrating an example of combinations of feature amounts in the converted space.
In the example illustrated in FIG. 3, whether or not each feature amount is used is indicated for each feature amount space ID. The feature amount space ID represents identification information for identifying a converted space that is a feature amount space different from the original image space. Specific examples of the converted space include an R space, a G space, a B space, a gray scale space, and a HOG feature amount space. For each feature amount space ID, each item of feature amounts R, G, B, Gray, HOG, and GIST is indicated by 0 or 1. The case of 1 means that the corresponding feature amount is used in the converted space F (i), and the case of 0 means that it is not used. For example, the post-conversion space indicated by the feature amount space ID “1” indicates that only the feature amount R is used. That is, the converted space indicated by the feature amount space ID “1” is the R space. Similarly, it is shown that the converted space indicated by the feature amount space ID “4” uses only the feature amount Gray. That is, the converted space indicated by the feature amount space ID “4” is a gray scale space. In the example of FIG. 3, N feature amount space candidates are registered. The user selects one or more candidates from the feature amount space candidates F (i) given as described above, and performs conversion to the converted space F (i).

変換後画像記憶部104は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。変換後画像記憶部104は、変換部103によって所定の変換後空間Fへと変換された変換後参照画像I_Source_convを記憶する。
コンプリーション処理部105は、変換後原画像I_Convertedと、欠損領域Damagedと、変換後画像記憶部104に記憶されている変換後参照画像I_Source_convとに基づいて、コンプリーション処理を行うことによって欠損領域Damagedの画像が除去された変換後画像を生成する。以下、具体的な処理について説明する。
The post-conversion image storage unit 104 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The post-conversion image storage unit 104 stores the post-conversion reference image I_Source_conv converted to the predetermined post-conversion space F by the conversion unit 103.
The completion processing unit 105 performs the completion processing based on the converted original image I_Converted, the missing region Damaged, and the converted reference image I_Source_conv stored in the converted image storage unit 104, thereby performing the missing region Damaged. A post-conversion image from which the image is removed is generated. Specific processing will be described below.

ステップ1:コンプリーション処理部105は、変換後原画像I_Convertedからコンプリーション対象パッチDamaged_Patchを選択する。この方法としては、欠損領域Damagedの輪郭上に存在し、周辺のエッジの強いパッチから選定する方法などが挙げられる。なお、パッチの大きさは欠損領域Damagedと欠損周辺領域とを共に含む小領域の大きさであればどのような大きさであってもよい。   Step 1: The completion processing unit 105 selects a completion target patch Damaged_Patch from the converted original image I_Converted. As this method, there is a method of selecting from patches having a strong edge around the outline of the defect region Damaged. Note that the size of the patch may be any size as long as it is the size of a small region that includes both the defect region Damaged and the defect peripheral region.

ステップ2:コンプリーション処理部105は、コンプリーション対象パッチDamaged_Patchの類似パッチSimilar_Patchを、変換後参照画像I_Source_convから探索し、探索して得られた類似パッチSimilar_Patchを用いてコンプリーション処理を実施することによって欠損領域Damagedの画像が除去された変換後画像I_Completed_conv(第3画像)を生成する。類似パッチSimilar_Patchは、コンプリーション対象パッチDamaged_Patchの欠損周辺領域の画素と類似するパッチである。このようにして、コンプリーション処理部105は、変換後原画像I_Convertedと同じ特徴量空間内における変換後画像I_Completed_convを取得する。   Step 2: The completion processing unit 105 searches for the similar patch Similar_Patch of the completion target patch Damaged_Patch from the converted reference image I_Source_conv, and performs the completion process using the similar patch Similar_Patch obtained by the search. A converted image I_Completed_conv (third image) from which the image of the missing area Damaged is removed is generated. The similar patch Similar_Patch is a patch similar to the pixel in the defective peripheral region of the completion target patch Damaged_Patch. In this way, the completion processing unit 105 acquires the converted image I_Completed_conv in the same feature amount space as the converted original image I_Converted.

なお、画像に対するコンプリーション処理に関する研究は多数行われており、コンプリーション処理部105は、公知の技術を用いて原画像I_Originalにコンプリーション処理を行う。コンプリーション処理部105は、コンプリーション処理が施された画像と、変換後原画像I_Convertedと、原画像I_Originalと、マスク情報Maskとを逆変換学習部106に出力する。   Note that many studies on the completion processing for an image have been performed, and the completion processing unit 105 performs the completion processing on the original image I_Original using a known technique. The completion processing unit 105 outputs the image that has been subjected to the completion processing, the converted original image I_Converted, the original image I_Original, and the mask information Mask to the inverse conversion learning unit 106.

逆変換学習部106は、変換後画像I_Completed_convと、変換後原画像I_Convertedと、原画像I_Originalと、マスク情報Maskとを取得する。逆変換学習部106は、取得した原画像I_Originalと、変換後原画像I_Convertedと、欠損領域Damagedとに基づいて、変換後画像I_Completed_convの特徴量空間から原画像I_Originalの特徴量空間への変換を行う変換処理を学習によって求める。   The inverse conversion learning unit 106 acquires the converted image I_Completed_conv, the converted original image I_Converted, the original image I_Original, and the mask information Mask. The inverse transformation learning unit 106 performs transformation from the feature amount space of the converted image I_Completed_conv to the feature amount space of the original image I_Original based on the acquired original image I_Original, converted original image I_Converted, and missing region Damaged. The conversion process is obtained by learning.

この処理をfで表す。fはフィルタ行列である。また、コンプリーション処理が施された画像の特徴量空間と原画像I_Originalの特徴量空間の次元数は同じであるとは限らない。そのため、逆変換フィルタfは、線形変換で表すことができない一対多変換である場合もある。そこで、逆変換学習部106は、以下のような処理によって学習に基づいて逆変換フィルタfを求める。   This process is represented by f. f is a filter matrix. Further, the dimension number of the feature amount space of the image subjected to the completion processing and the feature amount space of the original image I_Original is not always the same. Therefore, the inverse transform filter f may be a one-to-many transformation that cannot be expressed by a linear transformation. Therefore, the inverse transformation learning unit 106 obtains the inverse transformation filter f based on learning by the following process.

ステップ1:逆変換学習部106は、原画像I_Original及び変換部103で得られた変換後原画像I_Convertedにおいて、欠損領域Damagedに該当しない部分を学習用教師データとして設定する。原画像I_Original及び変換後原画像I_Convertedから得られた教師データをそれぞれ、原画像教師データI_train_orig(第1教師データ)、変換後原画像教師データI_train_conv(第2教師データ)とする。
ステップ2:逆変換学習部106は、変換後原画像教師データI_train_convから原画像教師データI_train_origへの変換を学習することによって逆変換フィルタfを求める。逆変換フィルタfを求める手法は特に制限しないが、例えば以下の参考文献1の技術が用いられてもよい。
[参考文献1]A Hertzmann, CE Jacobs, N Oliver, B Curless, DH Salesin, “Image Analigies”, Proceedings of the 28th annual conference on Computer graphics and interactive techniques, pp.327-340, 2001.
Step 1: The inverse transformation learning unit 106 sets a portion that does not correspond to the missing region Damaged as learning teacher data in the original image I_Original and the converted original image I_Converted obtained by the conversion unit 103. The teacher data obtained from the original image I_Original and the converted original image I_Converted are set as original image teacher data I_train_orig (first teacher data) and converted original image teacher data I_train_conv (second teacher data), respectively.
Step 2: The inverse transformation learning unit 106 obtains the inverse transformation filter f by learning the transformation from the converted original image teacher data I_train_conv to the original image teacher data I_train_orig. Although the method for obtaining the inverse transform filter f is not particularly limited, for example, the technique of Reference Document 1 below may be used.
[Reference 1] A Hertzmann, CE Jacobs, N Oliver, B Curless, DH Salesin, “Image Analigies”, Proceedings of the 28th annual conference on Computer graphics and interactive techniques, pp.327-340, 2001.

逆変換フィルタfを求める際の学習用教師データとして用いる画像(原画像I_Original及び変換後原画像I_Converted)の領域をA_trainとする。A_trainの決定方法として以下の3つの決定方法がある。   A region of an image (original image I_Original and converted original image I_Converted) used as learning teacher data for obtaining the inverse transform filter f is A_train. There are the following three methods for determining A_train.

(決定方法1)
画像の全ての領域をA_trainとする方法。
この方法では、逆変換学習部106は、原画像I_Originalの全ての領域を原画像教師データI_train_origとする。また、逆変換学習部106は、変換後原画像I_Convertedの全ての領域を変換後原画像教師データI_train_convとする。
(Determination method 1)
A method in which all areas of an image are A_train.
In this method, the inverse transformation learning unit 106 sets all areas of the original image I_Original as original image teacher data I_train_orig. Further, the inverse conversion learning unit 106 sets all regions of the converted original image I_Converted as converted original image teacher data I_train_conv.

(決定方法2)
学習に用いる画像の割合を指定する方法。
具体的には、逆変換学習部106は、予め定められた0以上100以下の実数で表される、学習に用いる教師データの割合Rを用いて原画像I_Originalの解像度のR%を学習用教師データとして用いる。Rは、学習に要する所望の計算時間から定めればよい。例えば、学習アルゴリズムの計算時間オーダーがO(n)、ここでnはデータ画像の画素数で表され、画像中の全ての領域をA_trainとする場合の半分の時間で学習したい場合には、R=0.5としデータ画像の画素数を半分に指定すればよい。
この方法では、逆変換学習部106は、指定された割合Rで示される原画像I_Originalの領域を原画像教師データI_train_origとする。また、逆変換学習部106は、変換後原画像I_Convertedに対しても上記で求めた原画像I_Originalの領域に対応する領域を変換後原画像教師データI_train_convとする。
(Determination method 2)
A method to specify the ratio of images used for learning.
Specifically, the inverse transformation learning unit 106 uses the ratio R of the teacher data used for learning represented by a predetermined real number of 0 or more and 100 or less to calculate R% of the resolution of the original image I_Original. Use as data. R may be determined from a desired calculation time required for learning. For example, when the calculation time order of the learning algorithm is O (n), where n is represented by the number of pixels of the data image and learning is performed in half the time when all regions in the image are A_train, R = 0.5 and the number of pixels of the data image may be specified as half.
In this method, the inverse transformation learning unit 106 sets the original image I_Original area indicated by the designated ratio R as original image teacher data I_train_orig. In addition, the inverse transformation learning unit 106 sets a region corresponding to the region of the original image I_Original obtained above for the converted original image I_Converted as converted original image teacher data I_train_conv.

(決定方法3)
顕著性のある領域を用いる方法。
具体的には、まず逆変換学習部106は、フィルタを畳み込み、原画像I_Originalのエッジを求める。フィルタとしてはラプラシアン・フィルタなどを適用することができる。次に、逆変換学習部106は、エッジが所定の閾値以上である領域は顕著性が高いと判断し、予め定められた0以上100以下の実数で表される、学習に用いる教師データの割合Rに応じて顕著性の高い領域を原画像教師データI_train_origとする。また、逆変換学習部106は、変換後原画像I_Convertedに対しても上記で求めた原画像I_Originalのエッジが所定の閾値以上である領域に対応する領域を変換後原画像教師データI_train_convとする。
(Determination method 3)
A method that uses a region having a saliency.
Specifically, first, the inverse transformation learning unit 106 convolves the filter to obtain the edge of the original image I_Original. As a filter, a Laplacian filter or the like can be applied. Next, the inverse transformation learning unit 106 determines that a region whose edge is equal to or greater than a predetermined threshold is highly significant, and the ratio of teacher data used for learning represented by a predetermined real number of 0 or more and 100 or less. A region having high saliency in accordance with R is set as original image teacher data I_train_orig. In addition, the inverse transformation learning unit 106 sets a region corresponding to a region in which the edge of the original image I_Original obtained above is equal to or greater than a predetermined threshold for the converted original image I_Converted as converted original image teacher data I_train_conv.

以上のように、逆変換学習部106は、3つの決定方法の中からいずれかの方法によりA_trainを決定する。決定方法1のように原画像I_Originalの全ての領域を教師データとして用いれば高精度な変換フィルタが生成可能であるが、決定方法2、3のような方法を選択することで計算量を削減しながら効率の良い学習が可能となる。   As described above, the inverse transformation learning unit 106 determines A_train by any one of the three determination methods. If all regions of the original image I_Original are used as teacher data as in the determination method 1, a high-accuracy conversion filter can be generated. However, the calculation amount can be reduced by selecting a method such as the determination methods 2 and 3. However, efficient learning is possible.

特徴量空間逆変換部107は、逆変換学習部106によって得られた逆変換フィルタfと、コンプリーション処理部105で得られたコンプリーション処理が施された画像とに基づいて、逆変換フィルタfとコンプリーション処理が施された画像との畳み込み演算を行うことによって、コンプリーション処理が施された画像を原画像I_Originalと同じ特徴量空間であるRGB特徴量空間へ逆変換し、RGB特徴量空間におけるコンプリーション結果I_Completedを生成する。特徴量空間逆変換部107は、取得したコンプリーション結果I_Completedを、欠損領域Damagedの画像が除去された画像として出力する。   The feature space inverse transform unit 107 performs an inverse transform filter f based on the inverse transform filter f obtained by the inverse transform learning unit 106 and the image obtained by the completion processing obtained by the completion processing unit 105. By performing a convolution operation between the image and the image subjected to the completion processing, the image subjected to the completion processing is inversely converted to the RGB feature amount space which is the same feature amount space as the original image I_Original, and the RGB feature amount space Completion result I_Completed in is generated. The feature space inverse transform unit 107 outputs the acquired completion result I_Completed as an image from which the image of the missing area Damaged is removed.

図4は、画像生成装置10の処理の流れを示すフローチャートである。なお、図3の説明では、画像生成装置10には原画像I_Originalと、マスク情報とが個別に入力される場合を例に説明する。また、図3の説明において、参照画像記憶部102に記憶されている参照画像I_Sourceの全てが変換部103によってRGB特徴量空間から、ある所定の変換後空間Fへと変換されて変換後画像記憶部104に変換後参照画像I_Source_convとして記憶されている場合を例に説明する。   FIG. 4 is a flowchart showing a process flow of the image generation apparatus 10. In the description of FIG. 3, the case where the original image I_Original and the mask information are individually input to the image generation apparatus 10 will be described as an example. In the description of FIG. 3, all of the reference images I_Source stored in the reference image storage unit 102 are converted from the RGB feature amount space into a predetermined post-conversion space F by the conversion unit 103, and the converted image storage is performed. An example in which the converted reference image I_Source_conv is stored in the unit 104 will be described.

画像取得部101は、外部から原画像I_Original及びマスク情報Maskを個別に取得する(ステップS101)。画像取得部101は、取得した原画像I_Originalを変換部103に出力し、原画像I_Original及びマスク情報Maskをコンプリーション処理部105に出力する。変換部103は、出力された原画像I_Originalを、原画像I_Originalの特徴量空間であるRGB空間から所定の変換後空間に変換することによって変換後原画像I_Convertedを生成する(ステップS102)。変換部103は、変換後原画像I_Convertedをコンプリーション処理部105に出力する。   The image acquisition unit 101 individually acquires the original image I_Original and the mask information Mask from the outside (step S101). The image acquisition unit 101 outputs the acquired original image I_Original to the conversion unit 103, and outputs the original image I_Original and the mask information Mask to the completion processing unit 105. The conversion unit 103 generates the converted original image I_Converted by converting the output original image I_Original from the RGB space, which is the feature amount space of the original image I_Original, to a predetermined converted space (step S102). The conversion unit 103 outputs the converted original image I_Converted to the completion processing unit 105.

コンプリーション処理部105は、変換後原画像I_Convertedと、欠損領域Damagedと、原画像I_Originalとを取得する。コンプリーション処理部105は、取得した変換後原画像I_Convertedからコンプリーション対象パッチDamaged_Patchを選択する(ステップS103)。次に、コンプリーション処理部105は、変換後画像記憶部104に記憶されている変換後参照画像I_Source_convから、コンプリーション対象パッチDamaged_Patchの類似パッチSimilar_Patchを探索する(ステップS104)。   The completion processing unit 105 acquires the converted original image I_Converted, the missing area Damaged, and the original image I_Original. The completion processing unit 105 selects a completion target patch Damaged_Patch from the acquired converted original image I_Converted (step S103). Next, the completion processing unit 105 searches for a similar patch Similar_Patch of the completion target patch Damaged_Patch from the converted reference image I_Source_conv stored in the converted image storage unit 104 (step S104).

コンプリーション処理部105は、探索した類似パッチSimilar_Patchを用いて、マスク情報Maskで示される欠損領域Damagedに対して、コンプリーション処理を行う(ステップS105)。その後、コンプリーション処理部105は、コンプリーション対象領域全てに対してコンプリーション処理を行ったか否か判断する(ステップS106)。コンプリーション対象領域全てに対してコンプリーション処理を行った場合(ステップS106−YES)、コンプリーション処理部105はコンプリーション処理がなされた画像を、コンプリーション処理が施された画像(変換後画像I_Completed_conv)として逆変換学習部106及び特徴量空間逆変換部107に出力する。
一方、コンプリーション対象領域全てに対してコンプリーション処理を行っていない場合(ステップS106−NO)、画像生成装置10はコンプリーション対象領域全てに対してコンプリーション処理が終了するまでステップS103〜105の処理を繰り返し実行する。
The completion processing unit 105 performs a completion process on the missing area Damaged indicated by the mask information Mask using the searched similar patch Similar_Patch (step S105). Thereafter, the completion processing unit 105 determines whether or not the completion processing has been performed on all of the completion target regions (step S106). When the completion process has been performed on all the completion target areas (YES in step S106), the completion processing unit 105 converts the image that has been subjected to the completion process into an image that has been subjected to the completion process (post-conversion image I_Completed_conv). ) To the inverse transformation learning unit 106 and the feature amount space inverse transformation unit 107.
On the other hand, when the completion processing is not performed on all the completion target regions (step S106: NO), the image generation apparatus 10 performs steps S103 to S105 until the completion processing is completed for all the completion target regions. Repeat the process.

逆変換学習部106は、コンプリーション処理が施された画像と、変換後原画像I_Convertedと、原画像I_Originalと、マスク情報Maskとを取得する。逆変換学習部106は、取得した原画像I_Originalと、変換後原画像I_Convertedと、欠損領域Damagedとに基づいて逆変換フィルタfを算出する(ステップS107)。その後、特徴量空間逆変換部107は、算出された逆変換フィルタfと、コンプリーション処理が施された画像との畳み込み演算を行うことによって、コンプリーション処理が施された画像を原画像I_Originalと同じ特徴量空間であるRGB特徴量空間へ逆変換する。この処理によって、特徴量空間逆変換部107は、RGB特徴量空間におけるコンプリーション結果I_Completedを生成する。特徴量空間逆変換部107は、生成したコンプリーション結果I_Completedを、原画像における欠損領域が除去された画像として出力する。   The inverse transformation learning unit 106 acquires the image that has been subjected to the completion process, the converted original image I_Converted, the original image I_Original, and the mask information Mask. The inverse transformation learning unit 106 calculates the inverse transformation filter f based on the acquired original image I_Original, converted original image I_Converted, and missing area Damaged (step S107). After that, the feature space inverse transform unit 107 performs a convolution operation on the calculated inverse transform filter f and the image subjected to the completion process, thereby converting the image subjected to the completion process into the original image I_Original. Inverse conversion to the RGB feature amount space, which is the same feature amount space. By this processing, the feature amount space inverse transform unit 107 generates a completion result I_Completed in the RGB feature amount space. The feature space inverse transform unit 107 outputs the generated completion result I_Completed as an image from which the missing area is removed from the original image.

以上のように構成された画像生成装置10によれば、所定の変換後の特徴量空間から変換前の特徴量空間への変換を容易に行うことができる。以下、この効果について詳細に説明する。
画像生成装置10は、コンプリーション処理を行う対象の原画像を、原画像であるカラー画像の画像空間と異なる画像空間に変換してからコンプリーション処理を行う。画像生成装置10は、コンプリーション処理が施された画像(変換後画像I_Completed_conv)を、変換前の画像空間に逆変換するための変換処理を学習により求める。そして、画像生成装置10は、学習の結果に基づいて、コンプリーション処理が施された画像に対して逆変換フィルタfの畳み込み演算を施すことによって、変換前の画像空間に逆変換することができる。このように、画像生成装置10は、学習によって逆変換するための変換処理を学習して逆変換を行うため、所定の変換後の特徴量空間から変換前の特徴量空間への変換を容易に行うことが可能になる。
According to the image generating apparatus 10 configured as described above, conversion from a predetermined feature amount space to a feature amount space before conversion can be easily performed. Hereinafter, this effect will be described in detail.
The image generation apparatus 10 performs the completion process after converting the original image to be subjected to the completion process into an image space different from the image space of the color image that is the original image. The image generation apparatus 10 obtains, through learning, a conversion process for inversely converting the image that has been subjected to the completion process (the converted image I_Completed_conv) to the image space before the conversion. Then, the image generation apparatus 10 can perform inverse conversion to the image space before conversion by performing a convolution operation of the inverse conversion filter f on the image subjected to the completion processing based on the learning result. . As described above, the image generation apparatus 10 learns the conversion process for performing the inverse conversion by learning and performs the inverse conversion. Therefore, it is easy to convert the feature amount space after the predetermined conversion into the feature amount space before the conversion. It becomes possible to do.

<変形例>
本実施形態では、コンプリーション対象となる画像を外部から画像生成装置10に入力する構成を示したが、これに限定される必要はない。例えば、画像生成装置10がコンプリーション対象となる画像を記憶する画像記憶部をさらに備え、画像記憶部に記憶されている画像に対してコンプリーション処理を行ってもよい。このように構成される場合、マスク情報は、外部から入力される。
画像取得部101、参照画像記憶部102、変換部103、変換後画像記憶部104、コンプリーション処理部105、逆変換学習部106、特徴量空間逆変換部107の各機能部は、それぞれ別の装置に実装されてもよいし、各機能部の一部が別の装置に実装されてもよい。
<Modification>
In the present embodiment, a configuration in which an image to be completed is input to the image generation apparatus 10 from the outside has been described. However, the present invention is not limited to this. For example, the image generation apparatus 10 may further include an image storage unit that stores an image to be completed, and the completion process may be performed on the image stored in the image storage unit. In such a configuration, the mask information is input from the outside.
The functional units of the image acquisition unit 101, the reference image storage unit 102, the conversion unit 103, the post-conversion image storage unit 104, the completion processing unit 105, the inverse transformation learning unit 106, and the feature quantity space inverse transformation unit 107 are different from each other. It may be mounted on a device, or a part of each functional unit may be mounted on another device.

上述した実施形態における画像生成装置10をコンピュータで実現するようにしてもよい。その場合、画像生成装置10が有する構成要素を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。更に「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した構成要素の一部を実現するためのものであってもよく、更に前述した構成要素をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve the image generation apparatus 10 in embodiment mentioned above with a computer. In that case, it is realized by recording a program for realizing the constituent elements of the image generating apparatus 10 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. May be. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” is a program that dynamically holds a program for a short time, like a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the above-described constituent elements, and may be realized by combining the above-described constituent elements with a program already recorded in a computer system. It may be realized by using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

10…画像生成装置, 101…画像取得部, 102…参照画像記憶部, 103…変換部, 104…変換後画像記憶部, 105…コンプリーション処理部, 106…逆変換学習部, 107…特徴量空間逆変換部 DESCRIPTION OF SYMBOLS 10 ... Image generation apparatus, 101 ... Image acquisition part, 102 ... Reference image memory | storage part, 103 ... Conversion part, 104 ... Conversion image memory | storage part, 105 ... Completion process part, 106 ... Inverse conversion learning part, 107 ... Feature-value Spatial inverse transform unit

Claims (5)

欠損領域の除去対象の原画像と前記欠損領域を示すマスク情報とに基づいて前記原画像から前記欠損領域の画像を除去することによって第1画像を生成する画像生成装置であって、
前記原画像を表すパラメータで定められる原画像空間と異なる画像空間への変換を前記原画像に対して行うことにより、前記異なる画像空間における第2画像を生成する変換部と、
前記マスク情報と前記第2画像とに基づいて、前記第2画像における前記欠損領域に対するコンプリーション処理を行うことにより第3画像を生成するコンプリーション処理部と、
前記原画像及び前記第2画像において前記欠損領域に該当しない領域をそれぞれ第1教師データ及び第2教師データとし、前記第1教師データと前記第2教師データとに基づいて、前記第2教師データにおける前記異なる画像空間から前記第1教師データにおける原画像空間への変換に用いられる逆変換を学習する逆変換学習部と、
前記第3画像に対して、学習された前記逆変換を用いることによって、前記第3画像を前記異なる画像空間から前記原画像空間へ変換することによって前記第1画像を生成する特徴量空間逆変換部と、
を備える画像生成装置。
An image generation device that generates a first image by removing an image of the defect area from the original image based on an original image to be removed of the defect area and mask information indicating the defect area,
A conversion unit that generates a second image in the different image space by performing conversion on the original image to an image space different from an original image space defined by a parameter representing the original image;
A completion processing unit that generates a third image by performing a completion process on the missing region in the second image based on the mask information and the second image;
In the original image and the second image, regions that do not correspond to the missing region are set as first teacher data and second teacher data, respectively, and the second teacher data is based on the first teacher data and the second teacher data. An inverse transformation learning unit that learns an inverse transformation used for transformation from the different image space to the original image space in the first teacher data;
Feature space inverse transform that generates the first image by transforming the third image from the different image space to the original image space by using the learned inverse transform for the third image. And
An image generation apparatus comprising:
前記逆変換学習部は、前記原画像及び前記第2画像の全ての領域を前記第1教師データ及び前記第2教師データとする、請求項1に記載の画像生成装置。   The image generation apparatus according to claim 1, wherein the inverse transformation learning unit sets all regions of the original image and the second image as the first teacher data and the second teacher data. 前記逆変換学習部は、所定の割合で示される前記原画像の領域及び前記原画像の領域に対応する前記第2画像の領域を前記第1教師データ及び前記第2教師データとする、請求項1に記載の画像生成装置。   The inverse transformation learning unit uses the original image area and the second image area corresponding to the original image area shown at a predetermined ratio as the first teacher data and the second teacher data, respectively. The image generating apparatus according to 1. 前記逆変換学習部は、前記原画像及び前記第2画像において、エッジが所定の閾値以上である領域のうち、所定の割合で示される領域を前記第1教師データ及び前記第2教師データとする、請求項1に記載の画像生成装置。   The inverse transformation learning unit uses, as the first teacher data and the second teacher data, a region indicated by a predetermined ratio among regions whose edges are equal to or greater than a predetermined threshold in the original image and the second image. The image generation apparatus according to claim 1. 請求項1から4のいずれか一項に記載の画像生成装置としてコンピュータを機能させるためのコンピュータプログラム。   The computer program for functioning a computer as an image generation apparatus as described in any one of Claim 1 to 4.
JP2015077982A 2015-04-06 2015-04-06 Image generating apparatus and computer program Active JP6339964B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015077982A JP6339964B2 (en) 2015-04-06 2015-04-06 Image generating apparatus and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015077982A JP6339964B2 (en) 2015-04-06 2015-04-06 Image generating apparatus and computer program

Publications (2)

Publication Number Publication Date
JP2016197381A JP2016197381A (en) 2016-11-24
JP6339964B2 true JP6339964B2 (en) 2018-06-06

Family

ID=57358160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015077982A Active JP6339964B2 (en) 2015-04-06 2015-04-06 Image generating apparatus and computer program

Country Status (1)

Country Link
JP (1) JP6339964B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7014648B2 (en) * 2018-03-14 2022-02-01 キヤノンメディカルシステムズ株式会社 Signal recovery device, signal recovery method, signal recovery program, model learning method, and model learning program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4686200B2 (en) * 2005-01-27 2011-05-18 パナソニック株式会社 Image conversion method and apparatus
JP5178662B2 (en) * 2009-07-31 2013-04-10 富士フイルム株式会社 Image processing apparatus and method, data processing apparatus and method, and program
US8693771B2 (en) * 2011-11-18 2014-04-08 Mitsubishi Electric Research Laboratories, Inc. Method for pan-sharpening panchromatic and multispectral images using dictionaries

Also Published As

Publication number Publication date
JP2016197381A (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP4690339B2 (en) Image processing
EP3255586A1 (en) Method, program, and apparatus for comparing data graphs
JP2016505186A (en) Image processor with edge preservation and noise suppression functions
JP2016513320A (en) Method and apparatus for image enhancement and edge verification using at least one additional image
KR101723738B1 (en) Apparatus and method for resolution enhancement based on dictionary learning
KR20220113800A (en) Coding scheme for video data
JP2019194821A (en) Target recognition device, target recognition method, and program
EP2889833A1 (en) Method and apparatus for image quality assessment
JP2016509805A (en) High frame rate of image stream
US20160198051A1 (en) Image processing system, image output device, and image processing method
WO2013161111A1 (en) Image evaluation device, image selection device, image evaluation method, recording medium, and program
JP6404794B2 (en) Image information acquisition method, image evaluation method, image information acquisition device, image evaluation device, and image processing program
JP6339964B2 (en) Image generating apparatus and computer program
KR20180014149A (en) Apparatus and method for generating depth information
JP2019125207A (en) Label data generation device, label data generation method and program
JP6317180B2 (en) Image generating apparatus and program
WO2004077355A1 (en) Image processing method
Chavda et al. Survey on image inpainting techniques: Texture synthesis, convolution and exemplar based algorithms
JP6243825B2 (en) Image generation method, image generation apparatus, and computer program
Alilou et al. Fast exemplar-based image inpainting using a new pruning technique
Pawar et al. A comparative study of effective way to modify different object in image and video using different inpainting methods
JP5248719B1 (en) Image evaluation apparatus, image selection apparatus, image evaluation method, recording medium, and program
CN117036758B (en) Two-dimensional image target matching method, electronic device and storage medium
Banday et al. Image Inpainting a [euro]" An Inclusive Review of the Underlying Algorithm and Comparative Study of the Associated Techniques
JP6139608B2 (en) Image enhancement based on pseudo-skeleton for document image reproduction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180511

R150 Certificate of patent or registration of utility model

Ref document number: 6339964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150