JP6317180B2 - Image generating apparatus and program - Google Patents

Image generating apparatus and program Download PDF

Info

Publication number
JP6317180B2
JP6317180B2 JP2014110633A JP2014110633A JP6317180B2 JP 6317180 B2 JP6317180 B2 JP 6317180B2 JP 2014110633 A JP2014110633 A JP 2014110633A JP 2014110633 A JP2014110633 A JP 2014110633A JP 6317180 B2 JP6317180 B2 JP 6317180B2
Authority
JP
Japan
Prior art keywords
image
space
original
information
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014110633A
Other languages
Japanese (ja)
Other versions
JP2015225552A (en
Inventor
麻理子 五十川
麻理子 五十川
弾 三上
弾 三上
小澤 史朗
史朗 小澤
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014110633A priority Critical patent/JP6317180B2/en
Publication of JP2015225552A publication Critical patent/JP2015225552A/en
Application granted granted Critical
Publication of JP6317180B2 publication Critical patent/JP6317180B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像生成装置及びプログラムに関する。   The present invention relates to an image generation apparatus and a program.

写真などの静止画像や映像などの動画像を撮影する際に、撮影したい被写体に被さって不要なものを撮影してしまうことがある。被写体に被さった不要なものが撮影された静止画像や動画像は視聴の体感品質を大きく損なってしまう恐れがあり、静止画像や動画像に含まれる不要なものを見た目に違和感なく除去する手法に対する需要は極めて高い。   When shooting a still image such as a photograph or a moving image such as a video, an unnecessary object may be shot over the subject to be shot. Still images and moving images shot with unnecessary objects covered by the subject may greatly impair the quality of viewing experience, and it is possible to remove unnecessary images contained in still images and moving images without feeling uncomfortable. Demand is extremely high.

また、自由視点映像合成と呼ばれる技術では、複数のカメラで撮影された映像群から任意の視点からの画像を合成する。このとき、オブジェクトによる遮蔽などが原因で、合成された任意の視点からの映像の一部が欠損してしまうことがある。このような欠損も画像の視聴の体感品質を大きく損なう恐れがあるため、欠損を見た目に違和感なく補完する手法に対する需要は高い。   In a technique called free viewpoint video composition, an image from an arbitrary viewpoint is synthesized from a group of images taken by a plurality of cameras. At this time, part of the synthesized video from an arbitrary viewpoint may be lost due to occlusion by the object. Since such a defect may greatly impair the quality of viewing the image, there is a great demand for a technique that complements the defect without a sense of incongruity.

以下、静止画像や動画像における、不要なものの映り込みを除去したい領域及び遮蔽などで観測されていない領域などの補完したい領域を欠損領域という。また、欠損領域がマスクで与えられた画像を入力して、入力した画像において欠損領域が欠損領域以外の領域との見た目に違和感なく補完された画像を取得する処理をコンプリーション(Completion)処理という。   Hereinafter, a region to be complemented, such as a region in which a reflection of unnecessary objects in a still image or a moving image is to be removed and a region that has not been observed due to occlusion, is referred to as a missing region. Further, a process of inputting an image in which a defective area is given by a mask and obtaining an image in which the defective area is complemented with an area other than the defective area in the input image without a sense of incongruity is referred to as a completion process. .

欠損領域の位置や大きさを示すマスクは、静止画像や動画像に拘わらず手動又は公知の技術によって与えられるものとする。マスクを取得する公知の技術としては、例えば非特許文献1に記載の技術がある。なお、マスクとは、画像処理の対象となる画像において、当該画像処理を行う領域であるか否かを示す情報である。   The mask indicating the position and size of the defect area is given manually or by a known technique regardless of whether it is a still image or a moving image. As a known technique for acquiring a mask, for example, there is a technique described in Non-Patent Document 1. Note that a mask is information indicating whether or not an image to be subjected to image processing is an area on which image processing is to be performed.

図3は、欠損領域を表すマスクの例を示す図である。図3(A)は、マスクを二値の画像で与える一例である。図3(A)に示すマスクは、画像処理を施す対象の画像とは別に与えられる。このマスクは、領域91aで示す領域に対して画像処理を行うことを示し、領域91bで示す領域に対して画像処理を行わないことを示している。図3(B)は、画像処理を施す対象の画像にマスクを重畳した画像でマスクを与える一例である。図3(B)に示すマスクは、領域92で示す領域に対して画像処理を行うことを示し、他の領域に対して画像処理を行わないことを示している。図3(B)のようにマスクを与える場合には、領域92は、他の領域との区別が容易な色やパターンなどで与えられる。   FIG. 3 is a diagram illustrating an example of a mask representing a defective region. FIG. 3A shows an example in which a mask is given as a binary image. The mask shown in FIG. 3A is given separately from the image to be subjected to image processing. This mask indicates that image processing is performed on the region indicated by the region 91a, and indicates that image processing is not performed on the region indicated by the region 91b. FIG. 3B is an example in which a mask is given by an image in which a mask is superimposed on an image to be subjected to image processing. The mask shown in FIG. 3B indicates that image processing is performed on the region indicated by the region 92, and that image processing is not performed on other regions. When a mask is provided as shown in FIG. 3B, the region 92 is provided in a color or pattern that can be easily distinguished from other regions.

Xue Bai, Jue Wang, David Simons and Guillermo Sapiro, "Video SnapCut: Robust Video Object Cutout Using Localized Classifiers", ACM Transactions on Graphics(TOG)-Proceedings of ACM SIGGRAPH 2009, Volume 28, Issue 3, August 2009, Article No.70Xue Bai, Jue Wang, David Simons and Guillermo Sapiro, "Video SnapCut: Robust Video Object Cutout Using Localized Classifiers", ACM Transactions on Graphics (TOG) -Proceedings of ACM SIGGRAPH 2009, Volume 28, Issue 3, August 2009, Article No .70

しかしながら、複雑な構造や色変化を含む静止画像又は複雑な構造や色変化、激しい動きを有する動画像に対してコンプリーション処理を行って得られた画像において、欠損領域内外で見た目に違和感が生じることがあるという問題があった。   However, in a still image including a complicated structure or color change or an image obtained by performing a completion process on a moving image having a complicated structure, color change or intense motion, a strange feeling is observed inside and outside the defective area. There was a problem that there was something.

上記事情に鑑み、本発明は、欠損領域に対してコンプリーション処理を行った画像において、欠損領域内外における見た目の違和感を低減させる画像生成装置及びプログラムを提供することを目的としている。   In view of the above circumstances, an object of the present invention is to provide an image generation apparatus and a program that reduce an uncomfortable appearance in and out of a defective area in an image that has been subjected to completion processing on the defective area.

本発明の一態様は、欠損領域の除去対象の原画像と前記欠損領域を示すマスク情報とから前記原画像内の欠損領域を除去した画像を生成する画像生成装置であって、前記原画像の各画素値を示すパラメータで定められる原画像空間と異なる画像空間への変換を前記原画像に対して行うことにより、前記異なる画像空間における第1の画像を生成する情報量空間変換部と、前記マスク情報と前記第1の画像とに基づいて、前記第1の画像における前記欠損領域に対するコンプリーション処理を行うことにより第2の画像を生成するコンプリーション処理部と、前記原画像及び前記第2の画像の画素値に基づいて、前記異なる画像空間から前記画像空間への変換を前記第2の画像に対して行う情報量空間逆変換部とを備えることを特徴とする画像生成装置である。   One aspect of the present invention is an image generation apparatus that generates an image in which a defective area in the original image is removed from an original image to be deleted of a defective area and mask information indicating the defective area. An information amount space conversion unit that generates a first image in the different image space by performing conversion on the original image to an image space different from the original image space defined by a parameter indicating each pixel value; Based on mask information and the first image, a completion processing unit that generates a second image by performing a completion process on the missing area in the first image, the original image, and the second image An information amount space inverse transform unit that performs transformation from the different image space to the image space on the second image based on pixel values of the image of It is formed apparatus.

また、本発明の一態様は、上記の画像生成装置において、前記情報量空間変換部は、前記原画像空間における画素値よりも画素の特徴を示す値の取り得る範囲が狭い前記異なる画像空間への変換を、前記原画像に対して行うことを特徴とする。   In addition, according to one aspect of the present invention, in the image generation device, the information amount space conversion unit may be configured to enter the different image space in which a range indicating a value indicating a pixel characteristic is narrower than a pixel value in the original image space. The conversion is performed on the original image.

また、本発明の一態様は、上記の画像生成装置において、前記情報量空間変換部は、前記原画像空間であるカラー画像からグレイスケール画像空間への変換を、前記原画像に対して行うことにより前記第1の画像としてグレイスケール画像を生成し、前記情報量空間逆変換部は、グレイスケール画像空間からカラー画像空間への変換を前記第2の画像に対して行うことを特徴とする。   According to another aspect of the present invention, in the image generation apparatus, the information amount space conversion unit performs conversion from a color image, which is the original image space, to a grayscale image space, on the original image. To generate a gray scale image as the first image, and the information space inverse transform unit performs conversion from the gray scale image space to the color image space on the second image.

また、本発明の一態様は、上記の画像生成装置において、前記情報量空間変換部は、前記グレイスケール画像に対して、グレイスケール画像空間から特徴量空間への変換を行うことにより特徴量画像を生成し、前記コンプリーション処理部は、前記特徴量画像における前記欠損領域に対してコンプリーション処理を行うことにより第3の画像を生成し、前記マスク情報と前記グレイスケール画像と前記第3の画像とに基づいて、前記グレイスケール画像における前記欠損領域に対するコンプリーション処理を行うことにより前記第2の画像を生成することを特徴とする。   According to another aspect of the present invention, in the above image generation device, the information amount space conversion unit converts the gray scale image from a gray scale image space to a feature amount space, thereby converting the feature amount image. The completion processing unit generates a third image by performing a completion process on the missing region in the feature image, and generates the mask information, the grayscale image, and the third image. Based on the image, the second image is generated by performing a completion process on the missing area in the grayscale image.

また、本発明の一態様は、上記の画像生成装置としてコンピュータを機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as the above-described image generation device.

本発明によれば、コンプリーション処理の対象となる第1の画像を原画像空間から異なる画像空間への変換を原画像に対して行うことにより取得し、コンプリーション処理を施して得られた第2の画像を原画像空間へ逆変換を原画像及び第2の画像の画素値に基づいて行うことにより、欠損領域における画素値を原画像に基づいた画素値にするとともに、異なる画像空間における画素値が取り得る値域による制約によって欠損領域における画素値のばらつきを抑えることができ、欠損領域内外における見た目の違和感を低減させることが可能となる。   According to the present invention, the first image to be subjected to the completion process is obtained by performing conversion from the original image space to a different image space on the original image, and the completion process is performed. By performing inverse transformation of the image of 2 into the original image space based on the pixel values of the original image and the second image, the pixel value in the defective area is changed to the pixel value based on the original image, and the pixels in different image spaces Variations in pixel values in the defective region can be suppressed by the restriction by the range of values that can be taken, and it is possible to reduce the uncomfortable appearance in and out of the defective region.

画像生成装置1の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image generation device 1. FIG. 画像生成装置1が入力する原画像とマスク情報との一例を示す図である。It is a figure which shows an example of the original image and mask information which the image generation apparatus 1 inputs. 欠損領域を表すマスクの例を示す図である。It is a figure which shows the example of the mask showing a defect | deletion area | region.

[本発明の実施形態の概要]
画像生成装置は、入力される静止画像又は動画像において指定される欠損領域における画像を補完することにより、欠損領域を除去した静止画像又は動画像を生成する装置である。以下、静止画像と動画像とを区別しない場合に静止画像と動画像とを画像という。なお、動画像は、複数の連続した静止画像(フレーム)の集合である。図1は、画像生成装置1の構成例を示すブロック図である。図1に示すように、画像生成装置1は、情報量空間変換部11、コンプリーション処理部12及び情報量空間逆変換部13を備える。
[Outline of Embodiment of the Present Invention]
The image generation apparatus is an apparatus that generates a still image or a moving image from which a missing area is removed by complementing an image in a missing area specified in an input still image or moving image. Hereinafter, when a still image and a moving image are not distinguished, the still image and the moving image are referred to as an image. A moving image is a set of a plurality of continuous still images (frames). FIG. 1 is a block diagram illustrating a configuration example of the image generation apparatus 1. As illustrated in FIG. 1, the image generation apparatus 1 includes an information amount space conversion unit 11, a completion processing unit 12, and an information amount space inverse conversion unit 13.

画像生成装置1は、欠損領域の画像を補完するコンプリーション処理の対象とする静止画像又は動画像である原画像と、欠損領域を示すマスク情報とを外部から入力する。図2は、画像生成装置1が入力する原画像とマスク情報との一例を示す図である。画像生成装置1は、図2(A)に示すように、原画像とマスク情報とを個別に入力する。或いは画像生成装置1は、図2(B)に示すように、原画像に対してマスクが重畳された画像を入力する。   The image generation apparatus 1 inputs an original image that is a still image or a moving image that is a target of a completion process for complementing an image of a defective area, and mask information indicating the defective area from the outside. FIG. 2 is a diagram illustrating an example of an original image and mask information input by the image generation apparatus 1. As shown in FIG. 2A, the image generation apparatus 1 individually inputs an original image and mask information. Alternatively, the image generation apparatus 1 inputs an image in which a mask is superimposed on the original image, as shown in FIG.

情報量空間変換部11は、入力された原画像を、原画像を表すパラメータで定められる空間と異なる空間の画像へ変換する。以下、原画像を表すパラメータで定められる空間を原画像空間という。原画像の変換先の空間であって原画像空間と異なる空間を変換後空間という。   The information amount space conversion unit 11 converts the input original image into an image in a space different from the space defined by the parameter representing the original image. Hereinafter, a space defined by parameters representing the original image is referred to as an original image space. A space that is a conversion destination of the original image and is different from the original image space is referred to as a post-conversion space.

なお、図2(B)に示したように原画像にマスクが重畳された画像が入力された場合には、情報量空間変換部11は、以下の手順で、原画像を変換後空間の画像に変換する。
(手順1)情報量空間変換部11は、入力された画像においてマスクが示す欠損領域と欠損領域以外の領域とを二値で表したマスク情報を生成する。
(手順2)情報量空間変換部11は、入力された画像のうち欠損領域以外の領域に対して、原画像空間から変換後空間への変換を行って変換後空間における画像を取得する。
In addition, when the image on which the mask is superimposed on the original image is input as illustrated in FIG. 2B, the information amount space conversion unit 11 converts the original image into an image in the post-conversion space according to the following procedure. Convert to
(Procedure 1) The information amount space conversion unit 11 generates mask information in which the missing area indicated by the mask and the area other than the missing area in the input image are expressed in binary.
(Procedure 2) The information space conversion unit 11 performs conversion from the original image space to the post-conversion space for an area other than the missing area in the input image, and acquires an image in the post-conversion space.

コンプリーション処理部12は、外部から入力されたマスク情報と、情報量空間変換部11が取得した変換後空間の画像とを取得する。コンプリーション処理部12は、変換後空間の画像においてマスク情報で示される欠損領域に対してコンプリーション処理を行う。静止画像及び動画像に対するコンプリーション処理に関する研究は多数行われており、コンプリーション処理部12は、公知の技術を用いて変換後空間の画像にコンプリーション処理を行う。なお、マスクが原画像に重畳された画像を画像生成装置1が入力した場合には、コンプリーション処理部12はマスク情報を情報量空間変換部11から取得する。   The completion processing unit 12 acquires the mask information input from the outside and the image of the converted space acquired by the information amount space conversion unit 11. The completion processing unit 12 performs a completion process on the missing area indicated by the mask information in the image in the converted space. Many studies on the completion processing for still images and moving images have been performed, and the completion processing unit 12 performs the completion processing on the image in the converted space using a known technique. When the image generation apparatus 1 inputs an image in which a mask is superimposed on the original image, the completion processing unit 12 acquires mask information from the information amount space conversion unit 11.

情報量空間逆変換部13は、コンプリーション処理部12によってコンプリーション処理が施された画像を取得する。情報量空間逆変換部13は、情報量空間変換部11が行う変換と逆の変換を取得した画像に対して行うことにより、原画像空間における画像を生成する。情報量空間逆変換部13は、生成した画像を、原画像における欠損領域が除去された画像として出力する。   The information-space inverse transform unit 13 acquires an image that has been subjected to the completion processing by the completion processing unit 12. The information amount space inverse transform unit 13 generates an image in the original image space by performing the inverse conversion to the conversion performed by the information amount space conversion unit 11 on the acquired image. The information-space inverse transform unit 13 outputs the generated image as an image from which the missing area in the original image is removed.

画像生成装置1は、情報量空間変換部11、コンプリーション処理部12及び情報量空間逆変換部13が上述の動作を行うことにより、入力される原画像の欠損領域を除去した画像を生成する。   The image generation device 1 generates an image in which a missing area of an input original image is removed by the information amount space conversion unit 11, the completion processing unit 12, and the information amount space inverse conversion unit 13 performing the above-described operations. .

[第1の実施形態]
第1の実施形態における画像生成装置1では、情報量空間変換部11がカラー画像空間からグレイスケール画像空間への変換を行う。第1の実施形態においては、原画像がカラーの画像であり、原画像空間がカラー画像空間である。また、情報量空間変換部11は、原画像の各画素における3つのパラメータである画素値(R,G,B)で定められるカラー画像空間から1つのパラメータである画素値Yで定められるグレイスケール画像空間への変換を行う。情報量空間変換部11は、変換により生成したグレイスケール画像をコンプリーション処理部12に出力する。
[First Embodiment]
In the image generation apparatus 1 according to the first embodiment, the information amount space conversion unit 11 performs conversion from a color image space to a grayscale image space. In the first embodiment, the original image is a color image, and the original image space is a color image space. In addition, the information space conversion unit 11 is a gray scale determined by a pixel value Y that is one parameter from a color image space that is determined by a pixel value (R, G, B) that is three parameters in each pixel of the original image. Perform conversion to image space. The information space conversion unit 11 outputs the gray scale image generated by the conversion to the completion processing unit 12.

例えば、情報量空間変換部11は、次式(1)を用いて、原画像の画素それぞれに対して、原画像空間(カラー画像空間)の画素値(R,G,B)から変換後空間(グレイスケール画像空間)の画素値Yへの変換を行う。
Y=0.299×R+0.587×G+0.114×B …(1)
For example, the information space conversion unit 11 uses the following equation (1) to convert the original image space (color image space) from the pixel values (R, G, B) into the post-conversion space for each pixel of the original image. Conversion to a pixel value Y in (grayscale image space) is performed.
Y = 0.299 × R + 0.587 × G + 0.114 × B (1)

コンプリーション処理部12は、情報量空間変換部11が生成したグレイスケール画像において、マスク情報で示される欠損領域に対してコンプリーション処理を行う。コンプリーション処理部12は、コンプリーション処理を施したグレイスケール画像を情報量空間逆変換部13に出力する。   The completion processing unit 12 performs the completion processing on the missing area indicated by the mask information in the grayscale image generated by the information amount space conversion unit 11. The completion processing unit 12 outputs the grayscale image that has been subjected to the completion processing to the information amount space inverse conversion unit 13.

情報量空間逆変換部13は、グレイスケール画像空間の画像をカラー画像空間の画像に変換する。情報量空間逆変換部13は、コンプリーション処理部12によってコンプリーション処理が施されたグレイスケール画像を取得する。情報量空間逆変換部13は、取得したグレイスケール画像に対してカラリゼーション(Colorization)を行うことにより、カラー画像空間における画素値(R,G,B)を有するカラー画像を復元する。   The information amount space inverse transform unit 13 transforms an image in the grayscale image space into an image in the color image space. The information-space inverse transform unit 13 acquires the grayscale image that has been subjected to the completion processing by the completion processing unit 12. The information-space inverse transform unit 13 restores a color image having pixel values (R, G, B) in the color image space by performing colorization on the acquired gray scale image.

情報量空間逆変換部13は、カラー画像を復元する際に、コンプリーション処理が施された画像と原画像との対応する画素における画素値の組み合わせを一定数サンプルとして取得する。情報量空間逆変換部13は、取得したサンプルにおける画素値の対応に基づいて、グレイスケール画像をカラー画像に復元する。情報量空間逆変換部13は、復元したカラー画像を、原画像における欠損領域が除去された画像として出力する。   When restoring the color image, the information amount space inverse transform unit 13 acquires a combination of pixel values in corresponding pixels of the image subjected to the completion process and the original image as a certain number of samples. The information space inverse transform unit 13 restores the grayscale image to a color image based on the correspondence of the pixel values in the acquired sample. The information-space inverse transform unit 13 outputs the restored color image as an image from which the missing area in the original image is removed.

なお、画像に対するカラリゼーションは、画像における隣接画素のうち輝度の等しい領域は等しい色成分をもつという仮定に基づいて、画像内の少数を占めるRGBサンプル点から画像全体のRGB画素値を最適化により求める技術である。情報量空間逆変換部13は、公知の技術を用いて、コンプリーション処理が施されたグレイスケール画像に対してカラリゼーションを行う。カラリゼーションには、例えば参考文献1や参考文献2などに記載の技術を用いることができる。
[参考文献1]Anat Levin, Dani Lischinski and Yair Weiss, "Colorization Using Optimization," SIGGRAPH'04 ACM SIGGRAPH 2004 Papers, August 2004, p.689-694
[参考文献2]Tomihisa Welsh, Michael Ashikhmin and Klaus Mueller, "Transferring Color to Greyscale Images," SIGGRAPH'02 Proceedings of the 29th annual conference on Computer graphics and interactive techniques, July 2002, P.277-280
Note that colorization for an image is based on the assumption that regions of equal brightness among adjacent pixels in the image have the same color component, by optimizing the RGB pixel values of the entire image from RGB sample points that occupy a small number in the image. This is the technology that we want. The information-space inverse transform unit 13 performs colorization on the grayscale image that has been subjected to the completion process using a known technique. For the colorization, for example, the techniques described in Reference 1 and Reference 2 can be used.
[Reference 1] Anat Levin, Dani Lischinski and Yair Weiss, "Colorization Using Optimization,"SIGGRAPH'04 ACM SIGGRAPH 2004 Papers, August 2004, p.689-694
[Reference 2] Tomihisa Welsh, Michael Ashikhmin and Klaus Mueller, "Transferring Color to Greyscale Images,"SIGGRAPH'02 Proceedings of the 29th annual conference on Computer graphics and interactive techniques, July 2002, P.277-280

情報量空間逆変換部13によるサンプルの取得は、例えば以下の手順で行われる。
(手順A)情報量空間逆変換部13の入力であるカラー画像と、コンプリーション処理部12の入力であるグレイスケール画像とにおける特徴点を取得し、カラー画像とグレイスケール画像とにおける特徴点のマッチングをとる。特徴点のマッチングをとる際には、例えばSIFTやSURFによる特徴点検出・特徴量抽出を用いることができる。
(手順B)マッチングのとれた特徴点の組に対し、カラー画像の画素値(R,G,B)をグレイスケール画像の画素値Yに対するサンプルとして取得する。
The acquisition of the sample by the information amount space inverse transform unit 13 is performed by the following procedure, for example.
(Procedure A) The feature points in the color image that is the input of the information space inverse transform unit 13 and the gray scale image that is the input of the completion processing unit 12 are acquired, and the feature points in the color image and the gray scale image are obtained. Take matching. When matching feature points, for example, feature point detection / feature amount extraction by SIFT or SURF can be used.
(Procedure B) The pixel value (R, G, B) of the color image is acquired as a sample for the pixel value Y of the grayscale image for the set of matched feature points.

第1の実施形態における画像生成装置1は、コンプリーション処理を行う対象の画像を、原画像であるカラー画像の画像空間より各画素の特徴を示す画素値の取り得る値の範囲が狭いグレイスケール画像の画像空間に変換している。各画素の特徴を示す画素値が取り得る値の範囲を狭くしてコンプリーション処理を行うことにより、欠損領域の各画素に割り当てられる画素値のばらつきを抑えることができ、カラー画像に復元した際に欠損領域内外における見た目の違和感を低減できる。   The image generation apparatus 1 according to the first embodiment uses a gray scale in which a range of possible values of pixel values indicating characteristics of each pixel is smaller than an image space of a color image that is an original image, as a target image to be subjected to completion processing. The image is converted to the image space. By performing the completion process by narrowing the range of values that can be taken by the pixel values indicating the characteristics of each pixel, it is possible to suppress variations in the pixel values assigned to each pixel in the defective area, and when restoring to a color image In addition, it is possible to reduce discomfort in appearance inside and outside the defect region.

[第2の実施形態]
第2の実施形態における画像生成装置1では、情報量空間変換部11がカラー画像空間から動きベクトル空間への変換を行う。第2の実施形態においては、原画像がカラーの動画像であり、原画像空間がカラー画像空間である。情報量空間変換部11は、原画像の各画素又は予め定められた各部分領域に対して動きベクトルを算出し、動画像に含まれる各静止画像の画素又は部分領域それぞれに動きベクトルを割り当てた画像を生成する。情報量空間変換部11は、生成した画像をコンプリーション処理部12に出力する。
[Second Embodiment]
In the image generation apparatus 1 according to the second embodiment, the information amount space conversion unit 11 performs conversion from a color image space to a motion vector space. In the second embodiment, the original image is a color moving image, and the original image space is a color image space. The information space conversion unit 11 calculates a motion vector for each pixel of the original image or each predetermined partial area, and assigns a motion vector to each pixel or partial area of each still image included in the moving image. Generate an image. The information space conversion unit 11 outputs the generated image to the completion processing unit 12.

カラー画像空間から動きベクトル空間への変換には、Lucas-Kanade法を用いて動画像のオプティカルフローを取得する公知の技術を用いることができる。例えば、オプティカルフローを取得する公知の技術には、参考文献3や参考文献4などに記載の技術がある。
[参考文献3]Bruce D. Lucas and Takeo Kanade, "An Iterative Image Registration Technique with an Application to Stereo Vision," IJCAI'81 Proceedings of the 7th international joint conference on Artificial intelligence - Volume.2, 1981, P.674-679
[参考文献4]Jean-Yves Bouguet, "Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the algorithm," In Intel Research Laboratory, Technical Report, 1999
For the conversion from the color image space to the motion vector space, a known technique for acquiring an optical flow of a moving image using the Lucas-Kanade method can be used. For example, known techniques for acquiring an optical flow include techniques described in Reference 3 and Reference 4.
[Reference 3] Bruce D. Lucas and Takeo Kanade, "An Iterative Image Registration Technique with an Application to Stereo Vision,"IJCAI'81 Proceedings of the 7th international joint conference on Artificial intelligence-Volume.2, 1981, P.674 -679
[Reference 4] Jean-Yves Bouguet, "Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the algorithm," In Intel Research Laboratory, Technical Report, 1999

コンプリーション処理部12は、情報量空間変換部11が生成した動きベクトル空間における各画像において、マスク情報で示される欠損領域に対してコンプリーション処理を行う。コンプリーション処理部12は、コンプリーション処理を施した画像を情報量空間逆変換部13に出力する。   The completion processing unit 12 performs the completion processing on the missing region indicated by the mask information in each image in the motion vector space generated by the information amount space conversion unit 11. The completion processing unit 12 outputs the image subjected to the completion processing to the information amount space inverse conversion unit 13.

情報量空間逆変換部13は、コンプリーション処理部12によってコンプリーション処理が施された画像を取得する。情報量空間逆変換部13は、動きベクトル空間からカラー画像空間への変換を、取得した画像に対して行う。この変換は、例えば参考文献5に記載の技術で行われているように、ある画素αに対する動きベクトルの情報から前のフレームのどの画素が画素αに移動しているかを検出し、検出した画素の画素値を原画像の前のフレームから取得して画素αに対する画素値にすることにより行われる。
[参考文献5]Takaaki Shiratori, Yasuyuki Matsushita, Sing Bing Kang and Xiaoou Tang, " Video Completion by Motion Field Transfer," In IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR 2006), Volume 1, 2006
The information-space inverse transform unit 13 acquires an image that has been subjected to the completion processing by the completion processing unit 12. The information space inverse transform unit 13 performs transformation from the motion vector space to the color image space on the acquired image. This conversion is performed by, for example, the technique described in Reference 5, by detecting which pixel in the previous frame has moved to the pixel α from the motion vector information for a certain pixel α and detecting the detected pixel. Is obtained from the previous frame of the original image and converted to the pixel value for the pixel α.
[Reference 5] Takaaki Shiratori, Yasuyuki Matsushita, Sing Bing Kang and Xiaoou Tang, "Video Completion by Motion Field Transfer," In IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2006), Volume 1, 2006

情報量空間逆変換部13は、上述の手法で、コンプリーション処理が施された画像における各画素又は各部分領域の動きベクトルを画素値(R,G,B)に置き換えることにより、動きベクトル空間における画像をカラー画像空間のカラー画像に復元する。情報量空間逆変換部13は、復元したカラー画像を、欠損領域が除去された画像として出力する。   The information amount space inverse transform unit 13 replaces the motion vector of each pixel or each partial area in the image subjected to the completion processing with the pixel value (R, G, B) by the above-described method, thereby moving the motion vector space. The image at is restored to a color image in the color image space. The information space inverse transform unit 13 outputs the restored color image as an image from which the missing area is removed.

第2の実施形態における画像生成装置1は、コンプリーション処理を行う対象の動画像を、原画像であるカラー画像の画像空間より各画素の特徴を示すパラメータ(動きベクトル)の取り得る値の範囲が狭い動きベクトル空間の画像に変換している。カラー画像は前述の通り画素値(R,G,B)の3次元のパラメータであるのに対して、動きベクトルは画像上におけるベクトルであるため2次元のパラメータである。すなわち、情報量空間変換部11は、原画像の画像空間より各画素に対するパラメータが取り得る値の範囲が狭められた画像空間の画像へ原画像を変換している。動画像を構成する各静止画像を動きベクトル空間の画像に変換して、欠損領域における画素それぞれの動きベクトルを補完することにより、激しい動きを含む動画像においても、欠損領域内外における見た目の違和感を低減できる。更に、動きベクトル空間の画像をカラー画像空間に変換する際に、原画像である動画像を構成する静止画像における画素値を用いてカラー画像に復元することにより、画素値(R,G,B)が取り得る値の範囲を狭くしているので、欠損領域内外における見た目の違和感を低減できる。   The image generation apparatus 1 according to the second embodiment uses a range of values that can be taken by a parameter (motion vector) indicating a feature of each pixel from an image space of a color image that is an original image, as a moving image to be subjected to completion processing. Is converted into an image of a narrow motion vector space. A color image is a three-dimensional parameter of pixel values (R, G, B) as described above, whereas a motion vector is a two-dimensional parameter because it is a vector on the image. That is, the information space conversion unit 11 converts the original image into an image in an image space in which the range of values that can be taken by the parameters for each pixel is narrower than the image space of the original image. By converting each still image that makes up a moving image into an image in the motion vector space and complementing the motion vector of each pixel in the defective region, even in moving images that contain intense motion, the visual discomfort inside and outside the defective region can be felt. Can be reduced. Further, when converting an image in the motion vector space into a color image space, the pixel values (R, G, B) are restored by using the pixel values in the still image constituting the moving image that is the original image. Since the range of values that can be taken is reduced, it is possible to reduce discomfort in appearance inside and outside the defect region.

[第3の実施形態]
第3の実施形態における画像生成装置1では、情報量空間変換部11がカラー画像空間からグレイスケール画像空間への変換を原画像に対して行い、更にグレイスケール画像空間の画像を特徴量空間に変換する。コンプリーション処理部12が、特徴量空間の画像に基づいて、グレイスケール画像空間の画像に対してコンプリーション処理を行う。第3の実施形態においては、原画像がカラー画像であり、原画像空間がカラー画像空間である。
[Third Embodiment]
In the image generation apparatus 1 according to the third embodiment, the information amount space conversion unit 11 performs conversion from the color image space to the grayscale image space on the original image, and further converts the image in the grayscale image space into the feature amount space. Convert. The completion processing unit 12 performs a completion process on the image in the gray scale image space based on the image in the feature amount space. In the third embodiment, the original image is a color image, and the original image space is a color image space.

情報量空間変換部11は、第1の実施形態と同様に、カラー画像空間からグレイスケール画像空間への変換を原画像に対して行い、グレイスケール画像を生成する。情報量空間変換部11は、生成したグレイスケール画像を複製する。情報量空間変換部11は、複製したグレイスケール画像に対してグレイスケール画像空間から特徴量空間への変換を行うことにより、特徴量空間の画像を生成する。情報量空間変換部11は、グレイスケール画像と特徴量空間の画像とをコンプリーション処理部12に出力する。なお、特徴量空間として、例えばCanny特徴量空間やHog特徴量空間などが用いられる。   As in the first embodiment, the information space conversion unit 11 performs conversion from a color image space to a grayscale image space on the original image to generate a grayscale image. The information space conversion unit 11 duplicates the generated grayscale image. The information amount space conversion unit 11 generates an image of the feature amount space by performing conversion from the gray scale image space to the feature amount space with respect to the copied gray scale image. The information amount space conversion unit 11 outputs the grayscale image and the feature amount space image to the completion processing unit 12. As the feature amount space, for example, a Canny feature amount space, a Hog feature amount space, or the like is used.

コンプリーション処理部12は、情報量空間変換部11が生成した特徴量空間の画像において、マスク情報で示される欠損領域に対してコンプリーション処理を行う。コンプリーション処理部12は、コンプリーション処理により得られた特徴量空間の画像を事前知識として用いて、グレイスケール画像の欠損領域に対してコンプリーション処理を行う。コンプリーション処理部12は、例えば特徴量空間の画像の欠損領域における位置(x,y)=(x1,y1)の画素に対して位置(x,y)=(x2,y2)の画素の画素値をコピーしたことを事前知識として用い、グレイスケール画像の欠損領域における位置(x,y)=(x1,y1)の画素に対してコンプリーション処理を行う際に、位置(x,y)=(x2,y2)の画素の画素値をコピーする。コンプリーション処理部12は、コンプリーション処理を施したグレイスケール画像を情報量空間逆変換部13に出力する。   The completion processing unit 12 performs a completion process on the missing region indicated by the mask information in the image of the feature amount space generated by the information amount space converting unit 11. The completion processing unit 12 performs the completion processing on the missing region of the gray scale image using the feature amount space image obtained by the completion processing as prior knowledge. For example, the completion processing unit 12 has a pixel at a position (x, y) = (x2, y2) with respect to a pixel at a position (x, y) = (x1, y1) in an image defect region in the feature amount space. When the completion processing is performed on the pixel at the position (x, y) = (x1, y1) in the missing region of the grayscale image, using the copied value as prior knowledge, the position (x, y) = The pixel value of the pixel (x2, y2) is copied. The completion processing unit 12 outputs the grayscale image that has been subjected to the completion processing to the information amount space inverse conversion unit 13.

情報量空間逆変換部13は、コンプリーション処理部12から出力されるグレイスケール画像を、カラー画像空間のカラー画像に変換する。第3の実施形態における情報量空間逆変換部13は、第1の実施形態における情報量空間逆変換部13と同様に、グレイスケール画像空間からカラー画像空間への変換をグレイスケール画像に対して行うことにより、カラー画像を復元する。情報量空間逆変換部13は、復元したカラー画像を、欠損領域が除去された画像として出力する。   The information amount space inverse conversion unit 13 converts the grayscale image output from the completion processing unit 12 into a color image in the color image space. The information amount space inverse transform unit 13 in the third embodiment performs the conversion from the gray scale image space to the color image space on the gray scale image, similarly to the information amount space inverse transform unit 13 in the first embodiment. By doing so, the color image is restored. The information space inverse transform unit 13 outputs the restored color image as an image from which the missing area is removed.

第3の実施形態における画像生成装置1は、コンプリーション処理の対象の画像を、原画像であるカラー画像の画像空間より各画素の特徴を示す画素値の取り得る値の範囲が狭いグレイスケール画像の画像空間に変換している。各画素の特徴を示す画素値が取り得る値の範囲を狭くしてコンプリーション処理を行うことにより、欠損領域の各画素に割り当てられる画素値のばらつきを抑えることができ、カラー画像に復元した際に欠損領域内外における見た目の違和感を低減できる。   The image generation apparatus 1 according to the third embodiment uses a grayscale image in which a range of values that can be taken by pixel values indicating the characteristics of each pixel is narrower than an image space of a color image that is an original image, as a target image for completion processing. The image space is converted. By performing the completion process by narrowing the range of values that can be taken by the pixel values indicating the characteristics of each pixel, it is possible to suppress variations in the pixel values assigned to each pixel in the defective area, and when restoring to a color image In addition, it is possible to reduce discomfort in appearance inside and outside the defect region.

更に、画像生成装置1は、グレイスケール画像から得られた特徴量空間の画像に対するコンプリーション処理結果に基づいて、グレイスケール画像に対してコンプリーション処理を行う。すなわち、画像生成装置1は、特徴量空間の画像内における欠損領域の近傍に類似した特徴を有する領域に基づいてコンプリーション処理を行うので、カラー画像に復元した際に欠損領域内外における見た目の違和感をより低減できる。   Furthermore, the image generation apparatus 1 performs a completion process on the grayscale image based on the completion process result for the image in the feature amount space obtained from the grayscale image. That is, the image generation device 1 performs the completion process based on a region having a feature similar to the vicinity of the missing region in the image of the feature amount space, and thus, when the image is restored to the color image, the unnatural appearance in and out of the missing region. Can be further reduced.

以上の各実施形態において説明した画像生成装置1は、原画像空間より各画素の画素値が取り得る値域が狭い画像空間においてコンプリーション処理を行うことにより、原画像が複雑な構成や色変化、激しい動きを有する場合においても、欠損領域の画素に割り当てる画素値の範囲を抑制することができる。その結果、画像における欠損領域内外で或いは動画像におけるフレーム間で、画像構造や輝度などの一貫性を保った状態で原画像の欠損領域を除去することが可能となる。   The image generation apparatus 1 described in each of the above embodiments performs a completion process in an image space in which a pixel value of each pixel can be smaller than that in the original image space, so that the original image has a complicated configuration, color change, Even in the case of intense movement, it is possible to suppress the range of pixel values assigned to the pixels in the defective area. As a result, it is possible to remove the missing area of the original image while maintaining the consistency of the image structure and the brightness between the inside and outside of the missing area in the image or between frames in the moving image.

また、原画像の画像空間と異なる画像空間へ原画像を変換した後にコンプリーション処理を行うことにより、限られた個数のデータから学習に用いることのできるサンプルが多く得られるので、密に学習を行うことができる。また、それに伴い学習に用いるデータの数が少なくても精度の高い学習ができるため、学習に必要な演算コストを低くすることができるといった利点を享受することができる。   In addition, by performing completion processing after converting the original image to an image space different from the image space of the original image, many samples that can be used for learning are obtained from a limited number of data, so that learning is performed closely. It can be carried out. In addition, since it is possible to perform highly accurate learning even if the number of data used for learning is small, it is possible to enjoy the advantage that the calculation cost required for learning can be reduced.

上述した実施形態における画像生成装置をコンピュータで実現するようにしてもよい。その場合、画像生成装置が有する構成要素を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。更に「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した構成要素の一部を実現するためのものであってもよく、更に前述した構成要素をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve the image generation apparatus in embodiment mentioned above with a computer. In that case, it is realized by recording a program for realizing the constituent elements of the image generation apparatus on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. Also good. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” is a program that dynamically holds a program for a short time, like a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the above-described constituent elements, and may be realized by combining the above-described constituent elements with a program already recorded in a computer system. It may be realized by using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

静止画像又は動画像における欠損領域に対するコンプリーション処理において、欠損領域内外の見た目の違和感を低減することが不可欠な用途にも適用できる。   In the completion processing for a defective area in a still image or a moving image, the present invention can be applied to a use in which it is indispensable to reduce the uncomfortable appearance inside and outside the defective area.

1…画像生成装置
11…情報量空間変換部
12…コンプリーション処理部
13…情報量空間逆変換部
DESCRIPTION OF SYMBOLS 1 ... Image generation apparatus 11 ... Information amount space conversion part 12 ... Completion processing part 13 ... Information amount space reverse conversion part

Claims (5)

欠損領域の除去対象である1枚の原静止画像と前記欠損領域を示すマスク情報とから前記1枚の静止画像内の欠損領域を除去した画像を生成する画像生成装置であって、
前記1枚の静止画像の各画素値を示すパラメータで定められる原画像空間と異なる画像空間への変換を前記1枚の静止画像に対して行うことにより、前記異なる画像空間における第1の画像を生成する情報量空間変換部と、
前記マスク情報と前記第1の画像とに基づいて、前記第1の画像における前記欠損領域に対するコンプリーション処理を行うことにより第2の画像を生成するコンプリーション処理部と、
前記1枚の静止画像及び前記第2の画像の画素値に基づいて、前記異なる画像空間から前記原画像空間への変換を前記第2の画像に対して行う情報量空間逆変換部と
を備えることを特徴とする画像生成装置。
An image generation apparatus that generates an image obtained by removing a defect area in the one original still image from one original still image that is a removal target of the defect area and mask information indicating the defect area,
The first original still image is converted into an image space different from the original image space defined by the parameter indicating each pixel value of the one original still image, whereby the first image in the different image space is changed. An information space conversion unit for generating an image;
A completion processing unit that generates a second image by performing a completion process on the missing region in the first image based on the mask information and the first image;
An information space inverse transform unit that performs transformation from the different image space to the original image space on the second image based on the pixel values of the one original still image and the second image; An image generation apparatus comprising:
前記情報量空間変換部は、前記原画像空間における画素値よりも画素の特徴を示す値の取り得る範囲が狭い前記異なる画像空間への変換を、前記1枚の静止画像に対して行う
ことを特徴とする請求項1に記載の画像生成装置。
The information amount space conversion unit performs conversion on the one original still image to the different image space in which a range of values indicating pixel characteristics is narrower than a pixel value in the original image space. The image generation apparatus according to claim 1.
欠損領域の除去対象の原画像と前記欠損領域を示すマスク情報とから前記原画像内の欠損領域を除去した画像を生成する画像生成装置であって、
前記原画像の各画素値を示すパラメータで定められる原画像空間と異なる画像空間への変換を前記原画像に対して行うことにより、前記異なる画像空間における第1の画像を生成する情報量空間変換部と、
前記マスク情報と前記第1の画像とに基づいて、前記第1の画像における前記欠損領域に対するコンプリーション処理を行うことにより第2の画像を生成するコンプリーション処理部と、
前記原画像及び前記第2の画像の画素値に基づいて、前記異なる画像空間から前記原画像空間への変換を前記第2の画像に対して行う情報量空間逆変換部と
を備え、
前記情報量空間変換部は、前記原画像空間であるカラー画像からグレイスケール画像空間への変換を、前記原画像に対して行うことにより前記第1の画像としてグレイスケール画像を生成し、
前記情報量空間逆変換部は、グレイスケール画像空間からカラー画像空間への変換を前記第2の画像に対して行う
ことを特徴とする画像生成装置。
An image generating apparatus that generates an image in which a defective area in the original image is removed from an original image to be removed of a defective area and mask information indicating the defective area,
Information amount space conversion for generating a first image in the different image space by performing conversion on the original image to an image space different from the original image space defined by a parameter indicating each pixel value of the original image And
A completion processing unit that generates a second image by performing a completion process on the missing region in the first image based on the mask information and the first image;
An information space inverse transform unit that performs transformation on the second image from the different image space to the original image space based on pixel values of the original image and the second image;
With
The information amount space conversion unit generates a grayscale image as the first image by performing conversion on the original image from a color image that is the original image space to a grayscale image space,
The amount of information space inverse conversion section images generator you and performs conversion to the color image space with respect to the second image from a gray scale image space.
前記情報量空間変換部は、前記グレイスケール画像に対して、グレイスケール画像空間から特徴量空間への変換を行うことにより特徴量画像を生成し、
前記コンプリーション処理部は、前記特徴量画像における前記欠損領域に対してコンプリーション処理を行うことにより第3の画像を生成し、前記マスク情報と前記グレイスケール画像と前記第3の画像とに基づいて、前記グレイスケール画像における前記欠損領域に対するコンプリーション処理を行うことにより前記第2の画像を生成する
ことを特徴とする請求項3に記載の画像生成装置。
The information amount space conversion unit generates a feature amount image by performing conversion from a gray scale image space to a feature amount space with respect to the gray scale image,
The completion processing unit generates a third image by performing a completion process on the missing region in the feature amount image, and based on the mask information, the grayscale image, and the third image. The image generation apparatus according to claim 3, wherein the second image is generated by performing a completion process on the defect area in the grayscale image.
請求項1から請求項4のいずれか一項に記載の画像生成装置としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as an image generation apparatus as described in any one of Claims 1-4.
JP2014110633A 2014-05-28 2014-05-28 Image generating apparatus and program Active JP6317180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014110633A JP6317180B2 (en) 2014-05-28 2014-05-28 Image generating apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014110633A JP6317180B2 (en) 2014-05-28 2014-05-28 Image generating apparatus and program

Publications (2)

Publication Number Publication Date
JP2015225552A JP2015225552A (en) 2015-12-14
JP6317180B2 true JP6317180B2 (en) 2018-04-25

Family

ID=54842234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014110633A Active JP6317180B2 (en) 2014-05-28 2014-05-28 Image generating apparatus and program

Country Status (1)

Country Link
JP (1) JP6317180B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6609327B2 (en) * 2016-01-28 2019-11-20 日本電信電話株式会社 Virtual environment construction device, virtual environment construction method, program, and recording medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004264919A (en) * 2003-02-26 2004-09-24 Rikogaku Shinkokai Image processing method
JP2007148945A (en) * 2005-11-30 2007-06-14 Tokyo Institute Of Technology Image restoration method
JP2011035567A (en) * 2009-07-30 2011-02-17 Ricoh Co Ltd Image processing apparatus and method thereof, and computer readable recording medium

Also Published As

Publication number Publication date
JP2015225552A (en) 2015-12-14

Similar Documents

Publication Publication Date Title
Wadhwa et al. Synthetic depth-of-field with a single-camera mobile phone
Zhang et al. Densely connected pyramid dehazing network
US8665341B2 (en) Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
JP7003994B2 (en) Image processing equipment and methods
JP7403528B2 (en) Method and system for reconstructing color and depth information of a scene
KR101991766B1 (en) Adaptive multi-dimensional data decomposition
JP5945255B2 (en) Virtual viewpoint video generation device, virtual viewpoint video generation method, and virtual viewpoint video generation program
JP2019057248A (en) Image processing system, image processing device, image processing method and program
JP2007201533A (en) Blur conversion apparatus and method
EP2898473A1 (en) Systems and methods for reducing noise in video streams
WO2013190862A1 (en) Image processing device and image processing method
Chandramouli et al. Convnet-based depth estimation, reflection separation and deblurring of plenoptic images
US20210295467A1 (en) Method for merging multiple images and post-processing of panorama
JP2008191072A (en) Three-dimensional shape restoration method, three-dimensional shape restoring device, three-dimensional shape restoration program implemented with the method, and recording medium with the program stored
CN111179159B (en) Method and device for eliminating target image in video, electronic equipment and storage medium
JP5824155B2 (en) Anisotropic gradient regularization for image denoising, compression and interpolation
JP2018067106A (en) Image processing system, image processing program, and image processing method
JP2016015037A (en) Information processing apparatus and control method, and video camera
TW201436552A (en) Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream
JP6317180B2 (en) Image generating apparatus and program
KR101566459B1 (en) Concave surface modeling in image-based visual hull
JP2012169701A (en) Image processing device, image processing method, and program
KR101152525B1 (en) Methods of removing motion blur and apparatuses for the same
Cho et al. Depth image processing technique for representing human actors in 3DTV using single depth camera
JP6339964B2 (en) Image generating apparatus and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180329

R150 Certificate of patent or registration of utility model

Ref document number: 6317180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150