JP6711031B2 - Image processing apparatus, image processing method, image processing system and program - Google Patents

Image processing apparatus, image processing method, image processing system and program Download PDF

Info

Publication number
JP6711031B2
JP6711031B2 JP2016043932A JP2016043932A JP6711031B2 JP 6711031 B2 JP6711031 B2 JP 6711031B2 JP 2016043932 A JP2016043932 A JP 2016043932A JP 2016043932 A JP2016043932 A JP 2016043932A JP 6711031 B2 JP6711031 B2 JP 6711031B2
Authority
JP
Japan
Prior art keywords
pixel
image
unknown
pixel value
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016043932A
Other languages
Japanese (ja)
Other versions
JP2017162035A (en
Inventor
佐々木 信
信 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2016043932A priority Critical patent/JP6711031B2/en
Publication of JP2017162035A publication Critical patent/JP2017162035A/en
Application granted granted Critical
Publication of JP6711031B2 publication Critical patent/JP6711031B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置、画像処理方法、画像処理システム、プログラムに関する。 The present invention relates to an image processing device, an image processing method, an image processing system, and a program.

画像加工の分野では、画像の欠損した領域である未知領域に関して、周囲の領域からあるべき画素値を予測する(Inpainting処理)ことが行われることがある。また切り出し境界の質感を表現するなどの画像処理を行なうことがある。さらに前景と後景に分離された二値画像の境界部において前景度合いを表す画素値を多値で表わすMatting処理を行なうことがある。 In the field of image processing, with respect to an unknown area, which is a defective area of an image, pixel values that should be present may be predicted from surrounding areas (Inpainting processing). Also, image processing such as expressing the texture of the cutout boundary may be performed. Furthermore, a matting process may be performed in which a pixel value representing the degree of foreground is represented by multivalues at the boundary between binary images separated into the foreground and the background.

非特許文献1には、写真の落書きの除去や、スキャンした古い写真の折り目の領域を指示し、指示した領域の画素値を周囲の画素から予測することが記載されている。 Non-Patent Document 1 describes that graffiti on a photograph is removed, a fold area of an old scanned picture is designated, and a pixel value of the designated area is predicted from surrounding pixels.

また非特許文献2および非特許文献3には、画像中で前景と後景に分離された領域の境界部に関して、前景と後景のどちらに属する画素かを、2値ではなく多値(度合い)で表す手法(Matting処理)が記載されている。この手法では、境界部の画素は、前景と後景のどちらでもないとみなす未知領域を指定し、この未知領域の画素に対して、前景成分として近似できる画素値と、後景成分として近似できる画素値の両方を求め、それから前景度合いを表す多値の画像(Matting画像)を作成する。 In Non-Patent Document 2 and Non-Patent Document 3, regarding the boundary portion of the region separated into the foreground and the foreground in the image, whether the pixel belonging to the foreground or the foreground is a multi-valued (degree ) Method (Matting process) is described. In this method, the boundary pixels specify an unknown region that is considered to be neither the foreground nor the foreground, and the pixel values that can be approximated as the foreground component and the background component can be approximated to the pixels in the unknown region. Both pixel values are obtained, and then a multivalued image (Matting image) representing the foreground degree is created.

M.Bertalmio, G.Sapiro,V.Caselles and C.Ballester, "Image Inpainting", Proc. of Siggraph 2000, New Orleans, LA, July 2000.M. Bertalmio, G. Sapiro, V. Caselles and C. Ballester, "Image Inpainting", Proc. of Siggraph 2000, New Orleans, LA, July 2000. J. Sun, J. Jia, C.-K. Tang, and H.-Y. Shum, "Poisson matting," Proc.Siggraph, pp. 315-321, 2004.J. Sun, J. Jia, C.-K. Tang, and H.-Y. Shum, "Poisson matting," Proc. Siggraph, pp. 315-321, 2004. M. Gong, L. Wang, R. Yang, and Y-H. Yang. Real-Time Video Matting Using MultiChannel Poisson Equations. In Proc. Graphics Interface (GI), 2010.M. Gong, L. Wang, R. Yang, and Y-H. Yang. Real-Time Video Matting Using MultiChannel Poisson Equations. In Proc. Graphics Interface (GI), 2010.

例えば、Matting処理を行なうときには、前景と後景との境界部の未知領域に対する前景成分と後景成分を予測する。即ち、Matting処理を行なうときには、前景と後景との境界部において、前景や後景に相当する画素値を予測する処理が必要となる。そして境界付近の画素に対し、前景領域と後景領域の各々から推定した前景成分と後景成分を予測した後、それらを結合係数で結んで、原画像の画素値になるようにする。このとき前景成分への係数が、前景度合いを表す画像(Matting画像)となる。
しかしながら、未知領域の画素に対する前景成分の予測または後景成分の予測は、基本的には位置が最も近い画素を探すといった探索処理が必要となり、1画素につき、周辺で最も近い画素を探す処理を未知領域内の全画素で行なう必要が出てくる。
本発明は、画素値を決定したい未知領域における画素値を予測する処理を、1画素ごとに最も近い周辺画素を探索する探索処理を行う場合よりも、高速に行なうことができる画像処理装置等を提供することを目的とする。
For example, when performing the matting process, the foreground component and the foreground component for the unknown region at the boundary between the foreground and the foreground are predicted. That is, when performing the matting process, it is necessary to perform a process of predicting pixel values corresponding to the foreground and the foreground at the boundary between the foreground and the foreground. Then, for pixels near the boundary, the foreground component and the foreground component estimated from each of the foreground region and the foreground region are predicted, and then they are connected by a coupling coefficient to obtain the pixel value of the original image. At this time, the coefficient for the foreground component becomes an image (Matting image) representing the foreground degree.
However, the foreground component prediction or the foreground component prediction for pixels in an unknown region basically requires a search process such as searching for a pixel whose position is the closest, and a process for searching for a pixel closest to the periphery for each pixel. It becomes necessary to do this for all pixels in the unknown area.
The present invention provides an image processing apparatus or the like that can perform a process of predicting a pixel value in an unknown region whose pixel value is to be determined at a higher speed than a case of performing a search process of searching for a nearest neighboring pixel for each pixel. The purpose is to provide.

請求項1に記載の発明は、画像の画像情報を取得する画像情報取得部と、画像の中から画素値を決定したい未知領域を設定する未知領域設定部と、前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重として当該起点の画素と当該未知領域に含まれる画素との画素値の近さを表す数値に基づいて当該未知領域中の画素の画素値を予測する画素値予測部と、を備える画像処理装置である。
請求項2に記載の発明は、前記画素値予測部は、前記起点の画素の強さおよび当該起点の画素の前記未知領域に含まれる画素に及ぼす加重に基づいて当該未知領域に含まれる画素の画素値を決定し、画素値が決定した画素を新たな起点の画素としてさらに当該決定を行なうことを繰り返すことで当該未知領域中の画素の画素値を予測することを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記画素値予測部は、新たに起点となった画素の画素値を前記起点の画素の画素値とすることを特徴とする請求項に記載の画像処理装置である。
請求項に記載の発明は、前記未知領域設定部は、ユーザの指示により未知領域を設定することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置である。
請求項に記載の発明は、前記未知領域設定部は、本来の画像中にはない欠損領域を未知領域として設定することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置である。
請求項6に記載の発明は、画像の画像情報を取得する画像情報取得部と、画像の中から画素値を決定したい未知領域を設定する未知領域設定部と、前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重に基づいて当該未知領域中の画素の画素値を予測する画素値予測部と、を備え、前記画素値予測部は、前記起点の画素の強さと当該起点の画素の前記未知領域に含まれる画素に及ぼす加重とを乗じた値が最も大きくなる起点の画素の画素値に基づいて当該未知領域中の画素の画素値を予測する像処理装置である。
請求項7に記載の発明は、画像の画像情報を取得する画像情報取得部と、画像の中から画素値を決定したい未知領域を設定する未知領域設定部と、前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重に基づいて当該未知領域中の画素の画素値を予測する画素値予測部と、二値画像生成部と、多値画像生成部と、をえ、前記二値画像生成部は、前記画像情報から前景または後景であることを示す二値で表された二値画像を生成し、前記未知領域設定部は、前記二値画像を使用して、前景および後景の境界部で前記未知領域を設定し、前記画素値予測部は、前記画像情報を使用して、前記既知領域の中で前景に属する画素と後景に属する画素とでそれぞれ基準画素を設定し、前記未知領域中の画素に対する画素値をそれぞれの場合について予測し、前記多値画像生成部は、前記画素値予測部により予測された前記未知領域の中の画素に対する画素値から前景度合いを表す多値の画素値を求めることを特徴とする像処理装置である。
請求項8に記載の発明は、前記未知領域設定部は、前景および後景の境界部の画素を中心として二値の画素値の設定を解除するフィルタを適用することで前記未知領域を設定することを特徴とする請求項7に記載の画像処理装置である。
請求項9に記載の発明は、画像の画像情報を取得し、画像の中から画素値を決定したい未知領域を設定し、前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重として当該起点の画素と当該未知領域に含まれる画素との画素値の近さを表す数値に基づいて当該未知領域中の画素の画素値を予測する画像処理方法である。
請求項10に記載の発明は、画像を表示する表示装置と、前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、を備え、前記画像処理装置は、前記画像の画像情報を取得する画像情報取得部と、画像の中から画素値を決定したい未知領域を設定する未知領域設定部と、前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重として当該起点の画素と当該未知領域に含まれる画素との画素値の近さを表す数値に基づいて当該未知領域中の画素の画素値を予測する画素値予測部と、を備える画像処理システムである。
請求項11に記載の発明は、コンピュータに、画像の画像情報を取得する画像情報取得機能と、画像の中から画素値を決定したい未知領域を設定する未知領域設定機能と、前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重として当該起点の画素と当該未知領域に含まれる画素との画素値の近さを表す数値に基づいて当該未知領域中の画素の画素値を予測する画素値予測機能と、を実現させるプログラムである。
The invention according to claim 1 provides an image information acquisition unit that acquires image information of an image, an unknown region setting unit that sets an unknown region whose pixel value is to be determined from the image, and a known region other than the unknown region. A pixel having a numerical value indicating the degree of possibility of belonging to a plurality of known regions as the included strength is set as a starting pixel, and the strength of the starting pixel and the unknown region of the starting pixel are included. A pixel value prediction unit that predicts a pixel value of a pixel in the unknown region based on a numerical value that represents the closeness of the pixel value of the pixel of the starting point and the pixel included in the unknown region as a weight exerted on the pixel. The image processing apparatus includes the image processing apparatus.
The invention according to claim 2, wherein the pixel value predicting unit of a pixel included in the unknown region on the basis of the weighting on pixels included in the unknown region of the pixel intensity and the origin of the pixels of the starting point The pixel value of a pixel in the unknown region is predicted by determining a pixel value, and further repeating the determination with the pixel having the pixel value determined as a pixel of a new starting point. The described image processing apparatus.
Invention of claim 3, wherein the pixel value prediction unit, an image processing apparatus according to pixel values of pixels that are newly starting point to claim 2, characterized in that the pixel values of the pixels of the starting point Is.
The invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3 , wherein the unknown area setting unit sets an unknown area according to a user's instruction.
The invention described in claim 5, wherein the unknown region setting unit, an image according to any one of claims 1 to 4, characterized in that to set the defective area is not in the original image as an unknown region It is a processing device.
According to a sixth aspect of the present invention, an image information acquisition unit that acquires image information of an image, an unknown region setting unit that sets an unknown region whose pixel value is to be determined from the image, and a known region other than the unknown region are provided. A pixel having a numerical value indicating the degree of possibility of belonging to a plurality of known regions as the included strength is set as a starting pixel, and the strength of the starting pixel and the unknown region of the starting pixel are included. A pixel value predicting unit that predicts a pixel value of a pixel in the unknown region based on a weight exerted on the pixel, and the pixel value predicting unit determines the strength of the starting point pixel and the unknown value of the starting point pixel. a images processing apparatus for predicting a pixel value of a pixel in the unknown region based on the pixel value of the origin of the pixel value obtained by multiplying the weight on the pixel becomes maximum included in the area.
The invention according to claim 7 is an image information acquisition unit that acquires image information of an image, an unknown region setting unit that sets an unknown region whose pixel value is to be determined from the image, and a known region other than the unknown region. A pixel having a numerical value indicating the degree of possibility of belonging to a plurality of known regions as the included strength is set as a starting pixel, and the strength of the starting pixel and the unknown region of the starting pixel are included. a pixel value predicting unit for predicting a pixel value of a pixel in the unknown region based on the weighted on pixels, the binary image generating unit, e Bei and the multi-level image generating unit, wherein the binary image generating unit Generates a binary image represented by a binary value indicating the foreground or the foreground from the image information, and the unknown region setting unit uses the binary image to define a boundary between the foreground and the foreground. Section sets the unknown region, and the pixel value prediction unit uses the image information to set reference pixels for pixels belonging to the foreground and pixels belonging to the foreground in the known region, respectively. A pixel value for a pixel in an unknown region is predicted for each case, and the multi-valued image generation unit represents a multi-value representing a foreground degree from the pixel value for the pixel in the unknown region predicted by the pixel value prediction unit. determining the pixel values are images processing device according to claim.
In the invention according to claim 8, the unknown region setting unit sets the unknown region by applying a filter for canceling the setting of a binary pixel value centering on a pixel at the boundary between the foreground and the foreground. The image processing apparatus according to claim 7, characterized in that.
The invention according to claim 9 acquires image information of an image, sets an unknown region for which a pixel value is desired to be determined from the image, and includes a plurality of known regions as strengths included in a known region other than the unknown region. A pixel having a numerical value indicating the magnitude of the possibility of belonging to the pixel of the starting point, and the pixel of the starting point as a weight exerted on the strength of the pixel of the starting point and the pixel included in the unknown region of the pixel of the starting point. And an image processing method for predicting the pixel value of a pixel in the unknown region based on a numerical value indicating the closeness of the pixel value to the pixel included in the unknown region .
The invention according to claim 10 comprises a display device for displaying an image, and an image processing device for performing image processing on image information of the image displayed on the display device, wherein the image processing device comprises: An image information acquisition unit that acquires image information of an image, an unknown region setting unit that sets an unknown region whose pixel value is desired to be determined from an image, and a plurality of known regions as strengths included in a known region other than the unknown region. Of the starting point, a pixel having a numerical value indicating the magnitude of the possibility of belonging to the starting point is defined as the starting point pixel, and the strength of the starting point pixel and the weighting of the starting point pixel on the pixel included in the unknown area of the starting point. An image processing system comprising: a pixel value prediction unit that predicts a pixel value of a pixel in the unknown region based on a numerical value indicating a pixel value proximity of the pixel and a pixel included in the unknown region .
In the invention according to claim 11, an image information acquisition function of acquiring image information of an image, an unknown area setting function of setting an unknown area for which a pixel value is desired to be determined from an image, and an area other than the unknown area A pixel having a numerical value indicating the possibility of belonging to a plurality of known regions included in the known region is set as a starting pixel, and the strength of the starting pixel and the unknown value of the starting pixel A pixel value prediction function for predicting the pixel value of a pixel in the unknown area based on a numerical value indicating the closeness of the pixel value of the pixel of the starting point and the pixel included in the unknown area as a weight exerted on the pixel included in the area It is a program that realizes and.

請求項1の発明によれば、画素値を決定したい未知領域における画素値を予測する処理を、1画素ごとに最も近い周辺画素を探索する探索処理を行う場合よりも、高速に行なうことができる画像処理装置を提供できる。
請求項2の発明によれば、画素値を予測する処理をさらに高速化できる。
請求項3の発明によれば、画素値の決定がより容易となる。
請求項の発明によれば、ユーザが望む箇所を未知領域として設定できる。
請求項の発明によれば、欠損領域を予測する処理を行なうことができる。
請求項6の発明によれば、未知領域における画素値をより正確に決定することができる。
請求項7の発明によれば、前景と後景に分離された二値画像の境界部において前景度合いを表す画素値を多値で表わすMatting処理を行なうことができる。
請求項8の発明によれば、未知領域の設定がより容易になる。
請求項9の発明によれば、画素値を決定したい未知領域における画素値を予測する処理を、1画素ごとに最も近い周辺画素を探索する探索処理を行う場合よりも、高速に行なうことができる画像処理方法を提供できる。
請求項10の発明によれば、画像処理がより容易に行える画像処理システムが提供できる。
請求項11の発明によれば、画素値を決定したい未知領域における画素値を予測する処理を、1画素ごとに最も近い周辺画素を探索する探索処理を行う場合よりも、高速に行なうことができる機能をコンピュータにより実現できる。
According to the invention of claim 1, the process of predicting the pixel value in the unknown region for which the pixel value is desired to be determined can be performed faster than the case of performing the search process of searching for the nearest neighboring pixel for each pixel. An image processing device can be provided.
According to the invention of claim 2, the process of predicting the pixel value can be further speeded up.
According to the invention of claim 3 , the determination of the pixel value becomes easier.
According to the invention of claim 4, the portion desired by the user can be set as the unknown region.
According to the invention of claim 5 , it is possible to perform a process of predicting a defective area.
According to the invention of claim 6 , the pixel value in the unknown region can be determined more accurately.
According to the seventh aspect of the present invention, it is possible to perform a matting process in which the pixel value representing the foreground degree is represented by multiple values at the boundary between the binary images separated into the foreground and the background.
According to the invention of claim 8, the setting of the unknown region becomes easier.
According to the invention of claim 9, the process of predicting the pixel value in the unknown region in which the pixel value is desired to be determined can be performed faster than the case of performing the search process of searching for the nearest neighboring pixel for each pixel. An image processing method can be provided.
According to the invention of claim 10, it is possible to provide an image processing system capable of performing image processing more easily.
According to the invention of claim 11, the process of predicting the pixel value in the unknown region for which the pixel value is desired to be determined can be performed at a higher speed than the case of performing the search process of searching for the nearest neighboring pixel for each pixel. The function can be realized by a computer.

本実施の形態における画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system in this Embodiment. 本実施の形態における画像処理装置の機能構成例を表すブロック図である。It is a block diagram showing an example of functional composition of an image processing device in this embodiment. (a)〜(b)は、未知領域を指定する作業をユーザインタラクティブに行なう方法の例を示した図である。(A)-(b) is the figure which showed the example of the method of performing the work which designates an unknown area|region interactively by a user. 欠損領域の他の例について示した図である。It is the figure shown about the other example of a deficient area. (a)〜(b)は、加重について説明した図である。(A)-(b) is a figure explaining weighting. (a)〜(b)は、加重を決定する方法について示した図である。(A)-(b) is the figure shown about the method of determining a weight. (a)は、平滑化を行なう前の画像を示し、(b)は、平滑化を行なった後の画像を示している。(A) shows the image before the smoothing, and (b) shows the image after the smoothing. (a)〜(i)は、未知領域の画素値を、既知領域の画素値を基に決定する過程を示した図である。(A)-(i) is the figure which showed the process which determines the pixel value of an unknown area|region based on the pixel value of a known area|region. (a)は、図5−4(i)と同様の図であり、1ループが終了したときの画素値の様子を示している。(b)は、この処理を複数ループ行い、収束したときの画素値の様子を示している。FIG. 5A is a diagram similar to FIG. 5-4(i) and shows the state of pixel values when one loop is completed. (B) shows the state of the pixel value when the process converges by performing a plurality of loops. (a)〜(i)は、他の方法で未知領域の画素値を、既知領域の画素値を基に決定する過程を示した図である。(A)-(i) is the figure which showed the process which determines the pixel value of an unknown area|region by another method based on the pixel value of a known area|region. (a)は、図5−6(i)と同様の図であり、1ループが終了したときの画素値の様子を示している。(b)は、この処理を複数ループ行い、収束したときの画素値の様子を示している。(A) is a diagram similar to FIG. 5-6(i), and shows the state of pixel values when one loop is completed. (B) shows the state of the pixel value when the process converges by performing a plurality of loops. (a)〜(b)は、図3(b)の画像について未知領域中の画素の画素値を決定した例を示している。(A)-(b) has shown the example which determined the pixel value of the pixel in an unknown area about the image of FIG.3(b). (a)〜(b)は、図4の画像について未知領域を入力し、この未知領域中の画素の画素値を決定した例を示している。(A)-(b) has shown the example which input the unknown area about the image of FIG. 4 and determined the pixel value of the pixel in this unknown area. (a)〜(c)は、Retinex処理を行い、原画像に対し視認性向上を行なった場合の概念図である。(A)-(c) is a conceptual diagram at the time of performing Retinex processing and improving the visibility with respect to an original image. (a)〜(b)は、未知領域設定部が、画像中のノイズが発生している領域に未知領域を設定した例を示している。(A)-(b) has shown the example which the unknown area setting part set the unknown area to the area|region where the noise in the image has generate|occur|produced. (a)は、ノイズが発生している領域は、周辺とは著しく値の異なる画素値となることを示した図である。(b)は、(a)に示す画素値を平滑化したものである。FIG. 7A is a diagram showing that a region in which noise is generated has a pixel value whose value is significantly different from that in the surrounding area. (B) is a smoothed version of the pixel value shown in (a). (a)は、ノイズが発生している領域の画素値を別の画素値へ置き換えた場合を示した図である。(b)は、(a)に示す画素値を平滑化したものである。(A) is a figure showing a case where a pixel value in a region where noise is generated is replaced with another pixel value. (B) is a smoothed version of the pixel value shown in (a). (a)〜(b)は、図8(a)の原画像について視認性を向上させるとともにノイズを除去した例を示している。FIGS. 8A and 8B show an example in which the original image of FIG. 8A is improved in visibility and noise is removed. 第1の実施形態および第2の実施形態における画像処理装置の動作について説明したフローチャートである。6 is a flowchart illustrating an operation of the image processing apparatus according to the first and second embodiments. 第3の実施形態における画像処理装置の機能構成例を表すブロック図である。It is a block diagram showing an example of functional composition of an image processing device in a 3rd embodiment. (a)〜(b)は、二値画像生成部が行なう処理について示した図である。(A)-(b) is a figure shown about processing which a binary image generation part performs. (a)〜(b)は、未知領域設定部が、未知領域を設定する処理について示した図である。(A)-(b) is the figure which showed the process which an unknown area setting part sets an unknown area. 原画像に対し前景および後景の境界部で未知領域を設定した場合を示している。The case where an unknown region is set at the boundary between the foreground and the foreground for the original image is shown. 画素値予測部が行なう処理の概念図である。It is a conceptual diagram of the process which a pixel value prediction part performs. (a)〜(d)は、具体的に画素値予測部が行なう処理の様子を説明するための図である。(A)-(d) is a figure for demonstrating the mode of the process which a pixel value prediction part specifically performs. (a)〜(i)は、前景領域のみからの画素値を伝搬する場合を示している。(A)-(i) has shown the case where a pixel value from only a foreground area is propagated. (a)は、図16−3(i)と同様の図であり、一通り未知領域の画素値が決定したときの画素値の様子を示している。(b)は、さらにループを繰り返し、収束したときの画素値の様子を示している。16A is a diagram similar to FIG. 16C, and shows the state of the pixel values when the pixel values of the unknown region are generally determined. (B) shows the state of pixel values when the loop is further repeated and converged. (a)〜(i)は、後景領域のみからの画素値を伝搬する場合を示している。(A)-(i) has shown the case where a pixel value is propagated only from a foreground area. (a)は、図16−5(i)と同様の図であり、一通り未知領域の画素値が決定したときの画素値の様子を示している。(b)は、さらにループを繰り返し、収束したときの画素値の様子を示している。FIG. 16A is a diagram similar to FIG. 16-5(i) and shows the state of the pixel values when the pixel values of the unknown region are generally determined. (B) shows the state of pixel values when the loop is further repeated and converged. (a)は、シード1を設定して前景から未知領域内の画素の画素値を求めた結果を示す。(b)は、シード2を設定して後景から未知領域内の画素の画素値を求めた結果を示す。(A) shows the result of setting the seed 1 and obtaining the pixel value of the pixel in the unknown region from the foreground. (B) shows the result of setting the seed 2 and obtaining the pixel value of the pixel in the unknown region from the background. 多値画像生成部により求められた前景度合いを画像化したものである。The foreground degree obtained by the multivalued image generation unit is imaged. 第3の実施形態における画像処理装置の動作について説明したフローチャートである。9 is a flowchart illustrating an operation of the image processing apparatus according to the third exemplary embodiment. 画像処理装置のハードウェア構成を示した図である。It is a figure showing the hardware constitutions of an image processing device.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<画像処理システム全体の説明>
図1は、本実施の形態における画像処理システム1の構成例を示す図である。
図示するように本実施の形態の画像処理システム1は、表示装置20に表示される画像の画像情報に対し画像処理を行なう画像処理装置10と、画像処理装置10により作成された画像情報が入力され、この画像情報に基づき画像を表示する表示装置20と、画像処理装置10に対しユーザが種々の情報を入力するための入力装置30とを備える。
<Explanation of the entire image processing system>
FIG. 1 is a diagram showing a configuration example of an image processing system 1 according to the present embodiment.
As shown in the figure, the image processing system 1 according to the present embodiment inputs an image processing device 10 that performs image processing on image information of an image displayed on the display device 20, and image information created by the image processing device 10. The display device 20 displays an image based on this image information, and the input device 30 for the user to input various information to the image processing device 10.

画像処理装置10は、例えば、所謂汎用のパーソナルコンピュータ(PC)である。そして、画像処理装置10は、OS(Operating System)による管理下において、各種アプリケーションソフトウェアを動作させることで、画像情報の作成等が行われるようになっている。 The image processing device 10 is, for example, a so-called general-purpose personal computer (PC). Then, the image processing apparatus 10 is configured to create image information and the like by operating various application software under the control of an OS (Operating System).

表示装置20は、表示画面21に画像を表示する。表示装置20は、例えばPC用の液晶ディスプレイ、液晶テレビあるいはプロジェクタなど、加法混色にて画像を表示する機能を備えたもので構成される。したがって、表示装置20における表示方式は、液晶方式に限定されるものではない。なお、図1に示す例では、表示装置20内に表示画面21が設けられているが、表示装置20として例えばプロジェクタを用いる場合、表示画面21は、表示装置20の外部に設けられたスクリーン等となる。 The display device 20 displays an image on the display screen 21. The display device 20 is composed of, for example, a liquid crystal display for a PC, a liquid crystal television or a projector, and the like having a function of displaying an image in an additive color mixture. Therefore, the display system of the display device 20 is not limited to the liquid crystal system. In the example shown in FIG. 1, the display screen 21 is provided in the display device 20, but when a projector is used as the display device 20, the display screen 21 is, for example, a screen provided outside the display device 20. Becomes

入力装置30は、キーボードやマウス等で構成される。入力装置30は、画像処理を行なうためのアプリケーションソフトウェアの起動、終了や、詳しくは後述するが、画像処理を行なう際に、ユーザが画像処理装置10に対し画像処理を行なうための指示を入力するのに使用する。 The input device 30 is composed of a keyboard, a mouse and the like. The input device 30 activates and terminates application software for performing image processing, and the user inputs an instruction for performing image processing to the image processing device 10 when performing image processing, which will be described in detail later. Used to.

画像処理装置10および表示装置20は、DVI(Digital Visual Interface)を介して接続されている。なお、DVIに代えて、HDMI(登録商標)(High-Definition Multimedia Interface)やDisplayPort等を介して接続するようにしてもかまわない。
また画像処理装置10と入力装置30とは、例えば、USB(Universal Serial Bus)を介して接続されている。なお、USBに代えて、IEEE1394やRS−232C等を介して接続されていてもよい。
The image processing device 10 and the display device 20 are connected via a DVI (Digital Visual Interface). Note that the connection may be made via HDMI (registered trademark) (High-Definition Multimedia Interface), DisplayPort, or the like instead of DVI.
The image processing device 10 and the input device 30 are connected via, for example, a USB (Universal Serial Bus). It should be noted that instead of USB, it may be connected via IEEE1394, RS-232C, or the like.

このような画像処理システム1において、表示装置20には、まず最初に画像処理を行なう前の画像である原画像が表示される。そしてユーザが入力装置30を使用して、画像処理装置10に対し画像処理を行なうための指示を入力すると、画像処理装置10により原画像の画像情報に対し画像処理がなされる。この画像処理の結果は、表示装置20に表示される画像に反映され、画像処理後の画像が再描画されて表示装置20に表示されることになる。この場合、ユーザは、表示装置20を見ながらインタラクティブに画像処理を行なうことができ、より直感的に、またより容易に画像処理の作業を行える。 In such an image processing system 1, the display device 20 first displays an original image which is an image before image processing. When the user uses the input device 30 to input an instruction for performing image processing to the image processing device 10, the image processing device 10 performs image processing on the image information of the original image. The result of this image processing is reflected on the image displayed on the display device 20, and the image after image processing is redrawn and displayed on the display device 20. In this case, the user can perform the image processing interactively while looking at the display device 20, and can more intuitively and easily perform the image processing work.

なお本実施の形態における画像処理システム1は、図1の形態に限られるものではない。例えば、画像処理システム1としてタブレット端末を例示することができる。この場合、タブレット端末は、タッチパネルを備え、このタッチパネルにより画像の表示を行なうとともにユーザの指示が入力される。即ち、タッチパネルが、表示装置20および入力装置30として機能する。また同様に表示装置20および入力装置30を統合した装置として、タッチモニタを用いることもできる。これは、上記表示装置20の表示画面21としてタッチパネルを使用したものである。この場合、画像処理装置10により画像情報が作成され、この画像情報に基づきタッチモニタに画像が表示される。そしてユーザは、このタッチモニタをタッチ等することで画像処理を行なうための指示を入力する。 The image processing system 1 according to the present embodiment is not limited to the one shown in FIG. For example, a tablet terminal can be exemplified as the image processing system 1. In this case, the tablet terminal includes a touch panel, which displays an image and inputs a user instruction. That is, the touch panel functions as the display device 20 and the input device 30. Similarly, a touch monitor can be used as a device in which the display device 20 and the input device 30 are integrated. This uses a touch panel as the display screen 21 of the display device 20. In this case, the image processing device 10 creates image information, and the image is displayed on the touch monitor based on this image information. Then, the user inputs an instruction for performing image processing by touching the touch monitor or the like.

<画像処理装置の説明>
[第1の実施形態]
次に画像処理装置10の第1の実施形態について説明を行なう。
第1の実施形態では、画像処理装置10を画像中の欠損領域を埋める(Inpainting)処理に適用する例について説明する。
図2は、第1の実施形態における画像処理装置10の機能構成例を表すブロック図である。なお図2では、画像処理装置10が有する種々の機能のうち第1の実施形態に関係するものを選択して図示している。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、ユーザ指示受付部12と、未知領域設定部13と、画素値予測部14と、画像情報出力部15とを備える。
<Description of image processing device>
[First Embodiment]
Next, a first embodiment of the image processing device 10 will be described.
In the first embodiment, an example will be described in which the image processing apparatus 10 is applied to a process of filling a defective area in an image (Inpainting).
FIG. 2 is a block diagram showing a functional configuration example of the image processing apparatus 10 according to the first embodiment. Note that, in FIG. 2, among various functions of the image processing apparatus 10, those relating to the first embodiment are selected and shown.
As shown in the figure, the image processing apparatus 10 according to the present embodiment includes an image information acquisition unit 11, a user instruction reception unit 12, an unknown area setting unit 13, a pixel value prediction unit 14, and an image information output unit 15. Prepare

画像情報取得部11は、画像処理を行なう画像の画像情報を取得する。即ち、画像情報取得部11は、画像処理を行なう前の原画像の画像情報を取得する。この画像情報は、表示装置20で表示を行なうための、例えば、RGB(Red、Green、Blue)のビデオデータ(RGBデータ)である。 The image information acquisition unit 11 acquires image information of an image on which image processing is performed. That is, the image information acquisition unit 11 acquires the image information of the original image before performing the image processing. The image information is, for example, RGB (Red, Green, Blue) video data (RGB data) for display on the display device 20.

ユーザ指示受付部12は、入力装置30により入力された画像処理に関するユーザによる指示を受け付ける。
具体的には、ユーザ指示受付部12は、表示装置20で表示している画像の中から、ユーザが画素値を決定したい未知領域を指定する指示をユーザ指示情報として受け付ける。
The user instruction receiving unit 12 receives a user instruction input by the input device 30 regarding image processing.
Specifically, the user instruction receiving unit 12 receives, as user instruction information, an instruction to specify an unknown region in which the user wants to determine a pixel value from the image displayed on the display device 20.

本実施の形態では、未知領域を指定する作業を下記に説明するユーザインタラクティブに行なう方法を採用する。
図3(a)〜(b)は、未知領域を指定する作業をユーザインタラクティブに行なう方法の例を示した図である。
このうち図3(a)は、画像処理を行なう前の画像であり、画像情報取得部11が取得した画像情報に基づき表示装置20に表示した原画像G1を示している。この原画像G1は、前景として写る人物と、人物の背後に写る後景とからなる写真をスキャナ等で読み取った画像である。また元の写真に折り目が付いており、これが原画像G1でも折り目画像D1として読み取られている。この場合、折り目画像D1は、本来の画像中にはないものであり、欠損領域と考えることができる。つまりこの欠損領域は、本来の画素値が不明の領域である。ここでは、欠損領域である折り目画像D1の箇所を未知領域として設定する。未知領域は、他の画素の画像情報を基に穴埋めの対象となる領域であり、画素値を決定したい領域である。
In the present embodiment, a method of performing the work of designating an unknown area by user interaction described below is adopted.
3A and 3B are diagrams showing an example of a method of interactively performing the work of designating an unknown region.
Of these, FIG. 3A is an image before image processing, and shows the original image G1 displayed on the display device 20 based on the image information acquired by the image information acquisition unit 11. The original image G1 is an image obtained by reading a photograph including a person appearing as the foreground and a background appearing behind the person with a scanner or the like. Further, the original photograph has a crease, which is also read as the crease image D1 in the original image G1. In this case, the fold image D1 does not exist in the original image and can be considered as a defective region. That is, this defective region is a region where the original pixel value is unknown. Here, the location of the fold image D1 that is the missing area is set as the unknown area. The unknown region is a region to be filled in based on the image information of other pixels, and is a region for which the pixel value is desired to be determined.

図3(b)は、ユーザが、折り目画像D1の部分を未知領域Mとして原画像G1に対し入力した場合を示している。この場合、ユーザは、折り目画像D1の部分を覆うように未知領域Mを入力する。 FIG. 3B shows a case where the user inputs the portion of the fold image D1 as the unknown region M into the original image G1. In this case, the user inputs the unknown region M so as to cover the portion of the fold image D1.

この未知領域Mは、入力装置30により描くことで入力することができる。例えば、入力装置30がマウスであった場合は、マウスを操作して表示装置20の表示画面21で表示している原画像G1をドラッグし未知領域Mを描く。また入力装置30がタッチパネルであった場合は、ユーザの指やタッチペン等により原画像G1をなぞりスワイプすることで同様に未知領域Mを描く。 This unknown region M can be input by drawing with the input device 30. For example, when the input device 30 is a mouse, the unknown region M is drawn by operating the mouse to drag the original image G1 displayed on the display screen 21 of the display device 20. If the input device 30 is a touch panel, the unknown area M is similarly drawn by swiping the original image G1 with the user's finger, touch pen, or the like.

また未知領域Mは、同方向で描く場合に限られるものではなく、往復動作を行い描いてもよい。またこの未知領域Mは細い線よりもより太い線にて描いた方が、入力はより容易になる。これは例えば、画像加工を行なう画像加工ソフトウェア等で用いられるブラシツールの中でペンサイズが太いサイズのものを実装する方法で実現してもよい。 The unknown region M is not limited to the case of drawing in the same direction, and may be drawn by performing a reciprocating operation. In addition, it is easier to input the unknown region M with a thicker line than a thin line. This may be realized by, for example, a method of mounting a brush tool having a thick pen size among brush tools used in image processing software for performing image processing.

なお欠損領域を有する画像は、折り目画像D1を有する場合に限られるものではない。
図4は、欠損領域の他の例について示した図である。
図示する原画像G2は、前景として写る人物と、人物の背後に写る後景とからなる写真をスキャナ等で読み取った画像である。そして元の写真に落書きがされており、これが原画像G2でも落書き画像D2として読み取られている。この場合、落書き画像D2は、本来の画像中にはないものであり、欠損領域である。
Note that the image having the defective area is not limited to the case where the fold image D1 is provided.
FIG. 4 is a diagram showing another example of the defective region.
The illustrated original image G2 is an image obtained by scanning, with a scanner or the like, a photograph including a person who appears in the foreground and a background which appears behind the person. Then, the original photograph has graffiti, which is also read as the graffiti image D2 in the original image G2. In this case, the graffiti image D2 is a missing area that is not in the original image.

この場合も図3(b)のように、ユーザは、落書き画像D2の部分を覆うように未知領域Mを入力することができる。また落書き画像D2は、通常は色が単調であるためユーザがこの色を入力することで未知領域Mを定めることもできる。 Also in this case, as shown in FIG. 3B, the user can input the unknown region M so as to cover the portion of the graffiti image D2. Further, since the graffiti image D2 is usually monotonous in color, the user can define the unknown region M by inputting this color.

未知領域設定部13は、画像の中から画素値を決定したい未知領域を設定する。
ここでは、未知領域設定部13は、上述したような方法でユーザが入力した箇所を未知領域Mとして設定する。この場合、未知領域設定部13は、ユーザの指示により未知領域Mを設定する。ただしこれに限られるものではなく、未知領域設定部13がいわば自動的に未知領域Mを設定することもできる。欠損領域が周囲の画像と比較して、明確に区別できるものであれば、未知領域設定部13が欠損領域を検出し、未知領域Mを設定することは困難ではない。例えば、未知領域設定部13は、周囲と異なる色を有する画像中の領域を未知領域Mとして設定してもよい。なおこの場合、ユーザ指示受付部12は、必ずしも設ける必要はない。
The unknown area setting unit 13 sets an unknown area for which a pixel value is desired to be determined from the image.
Here, the unknown area setting unit 13 sets the location input by the user as the unknown area M by the method described above. In this case, the unknown area setting unit 13 sets the unknown area M according to a user's instruction. However, the present invention is not limited to this, and the unknown area setting unit 13 can automatically set the unknown area M, so to speak. It is not difficult for the unknown area setting unit 13 to detect the missing area and set the unknown area M if the missing area is clearly distinguishable from the surrounding image. For example, the unknown area setting unit 13 may set an area in the image having a color different from the surroundings as the unknown area M. In this case, the user instruction receiving unit 12 does not necessarily have to be provided.

画素値予測部14は、未知領域M中の画素の画素値を予測する。具体的には、画素値予測部14は、未知領域Mの周囲の画素の画素値から、未知領域M内の画素へ画素値を伝搬していくことで、未知領域M中の画素値を予測する。以下、この画素値の伝搬方法の具体例を説明する。 The pixel value prediction unit 14 predicts the pixel value of the pixel in the unknown region M. Specifically, the pixel value prediction unit 14 predicts the pixel value in the unknown region M by propagating the pixel value from the pixel values of the pixels around the unknown region M to the pixels in the unknown region M. To do. Hereinafter, a specific example of this pixel value propagation method will be described.

ここでは、図3(b)や図4で説明した未知領域Mに対し、未知領域M以外の周辺の領域の画素に基づき未知領域Mの画素を決定する方法を示す。なお未知領域M以外の周辺の領域の画素の画素値は確定しているため、以後、この領域を「既知領域」と言うことがある。
前述のように、本発明では、未知領域M以外の既知領域の画素の画素値を、未知領域Mの画素へ画素値の伝搬をすることで未知領域Mの画素値を決めることが基本的な方法である。この方法として、画素が持つ強さの伝搬により、領域を拡張していく原理が適用できる。
Here, a method for determining the pixels of the unknown region M based on the pixels of the peripheral region other than the unknown region M with respect to the unknown region M described in FIG. Since the pixel values of the pixels in the peripheral area other than the unknown area M are fixed, this area may be referred to as “known area” hereinafter.
As described above, in the present invention, it is fundamental to determine the pixel value of the unknown region M by propagating the pixel value of the pixel of the known region other than the unknown region M to the pixel of the unknown region M. Is the way. As this method, the principle of expanding the area by propagating the strength of the pixel can be applied.

具体的には、以下の方法を応用することができる。この方法は、特開2016−006645号公報に記載された方法である。
例えば、画像の領域を前景と後景に分離する際に、シードと呼ばれるユーザーが指定するラフな曲線などを与え、シードが与えられた画素にラベル(例えば、前景なら1、後景なら0というラベル)を設ける。そしてシードが与えられた画素には強さ1を設定しておき、シードが与えられた画素から、まだシードが与えられていない画素に対して、強さを伝搬していきながら、かつ、強さ同士を比較しながら強い方のラベルが採用されていく方法がある。この方法によれば、前景と後景とのそれぞれに与えられたシードからそれぞれのラベルを有する画素がその領域を拡張していき、最終的に前景と後景に分離される。
このとき1つの画素から隣接する画素への強さの影響度として加重を考える。そして例えば、この1つの画素から隣接する画素へ強さを伝搬する際には、1つの画素の持つ強さと加重を乗じ、乗じた値が隣接画素の強さになるように行なうことを基本とする。このとき「強さ」は、ラベルに対応する前景や後景に属する強さであり、ある画素がラベルに対応する前景や後景に属する可能性の大きさを表す。強さが大きいほどその画素がラベルに対応する前景や後景に属する可能性が高く、強さが小さいほどその画素がラベルに対応する前景や後景に属する可能性が低い。
また「加重」については、次のように考えることができる。
Specifically, the following method can be applied. This method is the method described in JP-A-2016-006645.
For example, when a region of an image is separated into a foreground and a foreground, a rough curve called a seed, which is specified by the user, is given, and a pixel to which a seed is given is labeled (for example, 1 for the foreground and 0 for the foreground). Provide a label). Then, the strength 1 is set to the seed-given pixel, and the strength is propagated from the seed-given pixel to the pixel to which the seed has not been applied yet. There is a method in which the stronger label is adopted while comparing the sizes. According to this method, pixels having respective labels are expanded from the seeds given to the foreground and the background, respectively, and finally the regions are separated into the foreground and the foreground.
At this time, weighting is considered as the degree of influence of strength from one pixel to an adjacent pixel. Then, for example, when propagating the strength from this one pixel to an adjacent pixel, it is basically performed by multiplying the strength possessed by one pixel by a weight and the multiplied value becomes the strength of the adjacent pixel. To do. At this time, the “strength” is the strength of belonging to the foreground or the foreground corresponding to the label, and represents the magnitude of the possibility that a certain pixel will belong to the foreground or the background of the label. The higher the strength, the higher the possibility that the pixel will belong to the foreground or the foreground corresponding to the label, and the lower the strength, the lower the possibility that the pixel will belong to the foreground or the background corresponding to the label.
The "weight" can be considered as follows.

図5−1(a)〜(b)は、加重について説明した図である。
図5−1(a)では、対象画素Tに対して加重を決定する隣接画素Rを示している。この場合、隣接画素Rは、対象画素Tに隣接する8画素である。そして加重は、原画像の画素情報を用いて決定される。つまり対象画素Tに対する隣接画素Rへの加重は、画素値が近いものほどより大きく、画素値が遠いものほどより小さくなるように決められる。画素値が近いか否かは、例えば、画素値(例えば、RGB値)のユークリッド距離などを使用して決めることができる。
FIGS. 5-1(a)-(b) are the figures explaining weighting.
In FIG. 5A, the adjacent pixel R that determines the weighting on the target pixel T is shown. In this case, the adjacent pixel R is 8 pixels adjacent to the target pixel T. The weight is then determined using the pixel information of the original image. That is, the weight of the adjacent pixel R with respect to the target pixel T is determined such that the closer the pixel value is, the larger the weight is, and the farther the pixel value is, the smaller the weight is. Whether or not the pixel values are close to each other can be determined by using, for example, the Euclidean distance of pixel values (for example, RGB values).

例えば、対象画素Tの画素値をP=(R、G、B)とし、隣接画素Rの画素値をP=(R、G、B)とすると、RGB値のユークリッド距離dは、下記数1式で定義できる。 For example, if the pixel value of the target pixel T is P 0 =(R 0 , G 0 , B 0 ), and the pixel value of the adjacent pixel R is P i =(R i , G i , B i ), the RGB value The Euclidean distance d i can be defined by the following formula 1.

またRGB値のユークリッド距離dの代わりに下記数2式に示したYCbCr値を使用したユークリッド距離d を考えてもよい。数2式は、対象画素Tの画素値が、P=(Y、Cb、Cr)であり、隣接画素Rの画素値が、P=(Y、Cb、Cr)であったときのユークリッド距離d を示している。また数2式のユークリッド距離d は、重み係数W、WCb、WCrを使用した重みづけユークリッド距離となっている。 Further, instead of the Euclidean distance d i of the RGB value, the Euclidean distance d i w using the YCbCr value shown in the following Expression 2 may be considered. In Equation 2, the pixel value of the target pixel T is P 0 =(Y 0 , Cb 0 , Cr 0 ), and the pixel value of the adjacent pixel R is P i =(Y i , Cb i , Cr i ). Is the Euclidean distance d i w . Further, the Euclidean distance d i w of the equation 2 is a weighted Euclidean distance using the weighting factors W Y , W Cb , and W Cr .

さらに画素値は、3成分からなるものに限定されるものではない。例えば、n次元色空間を使用し、n個の色成分によるユークリッド距離d を考えてもよい。
例えば、下記数3式は、色成分が、X、X、…、Xである場合である。そして数3式は、対象画素Tの画素値が、P=(X10、X20、…、Xn0)であり、隣接画素Rの画素値が、P=(X1i、X2i、…、Xni)であったときのユークリッド距離d を示している。なお数3式のユークリッド距離d も重み係数WX1、WX2、…、WXnを使用した重みづけユークリッド距離となっている。
Further, the pixel value is not limited to one having three components. For example, it is possible to use an n-dimensional color space and consider the Euclidean distance d i w by n color components.
For example, the following Expression 3 is a case where the color components are X 1 , X 2 ,..., X n . Then, in Expression 3, the pixel value of the target pixel T is P 0 =(X 10 , X 20 ,..., X n0 ), and the pixel value of the adjacent pixel R is P i =(X 1i , X 2i , , X ni ), the Euclidean distance d i w is shown. Note that the Euclidean distance d i w in Equation 3 is also a weighted Euclidean distance using the weighting factors W X1 , W X2 ,..., W Xn .

図5−1(b)では、対象画素Tに対して決められる加重の大きさを図示している。ここでは、対象画素Tに対して決められる加重がより大きい隣接画素Rについては、より太い線で示し、対象画素Tに対して決められる加重がより小さい隣接画素Rについては、より細い線で示している。 FIG. 5-1(b) shows the magnitude of the weight determined for the target pixel T. Here, the adjacent pixel R having a larger weight determined for the target pixel T is indicated by a thicker line, and the adjacent pixel R having a smaller weight determined for the target pixel T is indicated by a thinner line. ing.

なおユークリッド距離dから加重を決定するのは、具体的には以下の方法で行なっている。
図5−2(a)〜(b)は、加重を決定する方法について示した図である。図5−2(a)〜(b)において、横軸は、ユークリッド距離dを表し、縦軸は、加重を表す。
このユークリッド距離dは、強さを与えられた画素とその画素の周辺に位置する画素との間で決まる画素値のユークリッド距離dである。そして例えば、図5−2(a)に図示するように非線形の単調減少関数を定め、ユークリッド距離dに対し、この単調減少関数により決まる値を加重とする。
つまりユークリッド距離dが小さいほど、加重はより大きくなり、ユークリッド距離dが大きいほど、加重はより小さくなる。
なお単調減少関数は、図5−2(a)のような形状のものに限られるものではなく、単調減少関数であれば特に限られるものではない。よって図5−2(b)のような線形の単調減少関数であってもよい。またユークリッド距離dの特定の範囲で線形であり、他の範囲で非線形であるような区分線形の単調減少関数であってもよい。
Note that the weight is determined from the Euclidean distance d i by the following method.
FIGS. 5-2(a) and 5-2(b) are diagrams showing a method for determining the weight. In FIGS. 5-2(a) and 5-2(b), the horizontal axis represents the Euclidean distance d i and the vertical axis represents the weight.
The Euclidean distance d i is the Euclidean distance d i of the pixel value determined between the pixels located around the pixel and the pixel given strength. Then, for example, as shown in FIG. 5-2(a), a non-linear monotonic decreasing function is determined, and a value determined by this monotonic decreasing function is weighted with respect to the Euclidean distance d i .
That enough Euclidean distance d i is small, the weights become larger, as the Euclidean distance d i is large, weighting is smaller.
The monotonically decreasing function is not limited to the one having the shape shown in FIG. 5-2(a), and is not particularly limited as long as it is a monotonically decreasing function. Therefore, a linear monotonic decreasing function as shown in FIG. Further, it may be a piecewise linear monotone decreasing function that is linear in a specific range of the Euclidean distance d i and nonlinear in other ranges.

以上のように、強さの伝搬と強さの比較により、結果的に「ラベル」が伝搬され領域を分離することができる。この場合、ラベルと強さが伝搬し、領域の切り分けを行なうと考えることができる。 As described above, as a result of the propagation of strength and the comparison of strength, the “label” is propagated and the regions can be separated. In this case, it can be considered that the label and the strength are propagated and the region is divided.

本実施の形態では、この方法をさらに応用し、強さの伝搬と強さの比較により、「画素値」を伝搬することで、未知領域Mの画素値を、既知領域の画素値を基に決定することを特徴とする。そしてこの場合、画素値と強さが伝搬し、未知領域Mの画素値を決定すると考えることができる。 In the present embodiment, this method is further applied to propagate the “pixel value” by propagating the strength and comparing the strength, and thereby the pixel value of the unknown region M is determined based on the pixel value of the known region. It is characterized by making a decision. Then, in this case, it can be considered that the pixel value and the strength propagate and the pixel value of the unknown region M is determined.

未知領域Mの画素値を、既知領域の画素値を基に決定するのに、前述の画素値の伝搬の原理で行うためには、図5−1(a)〜(b)で説明したような加重の算出が必要となる。加重の算出に使用する画素値は、原画像の画素値であるが、欠損領域についても画素値をそのまま使用することができる。欠損領域は、図3に示した折り目画像D1であれば、ユーザーが指定したペンの色であり、図4に示した落書き画像D2であれば落書きのペンの色そのものであると解釈できる。なおペンの色は予めわかっているので、処理を行なうのに都合のよい別の色に置き換えてもよい。 In order to determine the pixel value of the unknown region M based on the pixel value of the known region, and to perform the above-mentioned principle of pixel value propagation, as described in FIGS. 5-1(a) and (b). It is necessary to calculate the weight. The pixel value used to calculate the weight is the pixel value of the original image, but the pixel value can be used as it is for the defective area. The missing area can be interpreted as the pen color specified by the user in the case of the fold image D1 shown in FIG. 3, and can be interpreted as the color of the scribble pen itself in the scribble image D2 shown in FIG. Since the color of the pen is known in advance, it may be replaced with another color convenient for the processing.

また欠損領域の画素が持つ色をそのまま使って、例えば、平滑化を行えば、隣接画素Rと関係が滑らかになり、加重を求める計算がしやすくなる。
図5−3(a)は、平滑化を行なう前の画像を示し、図5−3(b)は、平滑化を行なった後の画像を示している。
Further, if the color of the pixel in the defective area is used as it is, for example, smoothing is performed, the relationship with the adjacent pixel R is smoothed, and the calculation for obtaining the weight becomes easy.
FIG. 5-3(a) shows an image before smoothing, and FIG. 5-3(b) shows an image after smoothing.

図5−4(a)〜(i)は、未知領域Mの画素値を、既知領域の画素値を基に決定する過程を示した図である。
図5−4(a)は、未知領域Mの画素値を決定する前の画像であり、未知領域Mが存在している。また未知領域Mの周囲は、既知領域である。このとき原画像の画素値を基に加重の算出は既に終了しているものとする。また未知領域Mにおける画素の強さは全て0が設定され、未知領域M以外の既知領域における画素の強さは全て1が設定される。この場合、「強さ」は、現在の画素値を有する可能性を表すと考えることができる。例えば、既知領域において現在の画素値を有する可能性は、1である。また未知領域Mにおいて現在の画素値を有する可能性は、0である。
5-4(a) to (i) are diagrams showing a process of determining the pixel value of the unknown region M based on the pixel value of the known region.
FIG. 5-4(a) is an image before the pixel value of the unknown region M is determined, and the unknown region M exists. The area around the unknown area M is a known area. At this time, it is assumed that the weight calculation has already been completed based on the pixel values of the original image. Further, all the pixel intensities in the unknown region M are set to 0, and all the pixel intensities in the known regions other than the unknown region M are set to 1. In this case, "strength" can be considered to represent the likelihood of having the current pixel value. For example, the probability of having the current pixel value in the known region is 1. Further, the probability of having the current pixel value in the unknown region M is 0.

ここで画素値を決定する対象となるのは、、図5−4(a)に示した未知領域Mの画素である。前述のように既知領域の画素は1という強さを持ち、これら予め強さを持つ既知領域の画素が未知領域Mの画素へ画素値を伝搬する。例えば、この例では、最初に更新の対象画素Tとなるのは、図5−4(b)に示す枠の中心の画素であり、8近傍の隣接画素のうち、画素の強さと対象画素Tとの加重に応じて算出された強さを受け取る。このとき対象画素Tに対し、強さを及ぼすのは、既に強さを有している画素であり、この場合、既知領域の画素である。そしてそのうち(強さ×加重(強さと加重とを乗じた値))が最大であったものを受け止め、8近傍の隣接画素のうち、その(強さ×加重)を持った隣接画素の画素値へ更新される。この例では、図5−4(b)に示すように、既知領域に属する右隣りの隣接画素R1から受けた(強さ×加重)が最も強いとして、対象画素Tの画素値が右隣りの画素値へ変更されていることがわかる。例えば、右隣りの隣接画素R1の強さが1で、対象画素Tから隣接画素R1への加重が0.9だった場合、対象画素Tに与えられる強さは、1×0.9=0.9となる。 Here, the pixels whose pixel values are to be determined are the pixels of the unknown region M shown in FIG. As described above, the pixels in the known area have a strength of 1, and the pixels in the known area having these strengths propagate the pixel value to the pixels in the unknown area M. For example, in this example, the target pixel T to be updated first is the pixel in the center of the frame shown in FIG. 5B, and the pixel strength and the target pixel T among the neighboring pixels in 8 neighborhoods. Receive the strength calculated according to the weight of and. At this time, it is the pixels that already have the strength that exert the strength on the target pixel T, and in this case, the pixels in the known area. Then, the pixel value of the adjacent pixel having the (strength×weight) among the neighboring pixels in 8 neighborhoods is accepted, and the one having the maximum (strength×weight (value multiplied by the strength and weight)) is accepted. Is updated to. In this example, as shown in FIG. 5-4(b), assuming that the strength (strength×weight) received from the adjacent right pixel R1 belonging to the known region is the strongest, the pixel value of the target pixel T is adjacent to the right. It can be seen that the pixel value has been changed. For example, when the strength of the adjacent pixel R1 on the right side is 1 and the weight from the target pixel T to the adjacent pixel R1 is 0.9, the strength given to the target pixel T is 1×0.9=0. It becomes .9.

つまりこの場合、既に強さを有する既知領域の画素が「起点の画素」となり、起点の画素の強さおよび起点の画素の未知領域Mに含まれる画素に及ぼす加重に基づいて未知領域M中の画素の画素値を予測する。 In other words, in this case, the pixels in the known area that already have strength become the “starting point pixel”, and the pixels in the unknown area M are determined based on the strength of the starting point pixel and the weight exerted on the pixels included in the unknown area M of the starting point pixel. Predict the pixel value of a pixel.

またこの場合、画素値と強さの伝搬(更新)は、対象画素Tと隣接画素Rとの(強さ×加重)の比較によりすぐに行なわれる(非同期型)。また対象画素Tは、隣接画素Rから受ける(強さ×加重)の比較で、自分の強さが更新される(受け身型)。また対象画素Tが既に強さを持っている場合は、その時点の対象画素Tの(強さ×加重)より隣接画素Rの(強さ×加重)が強ければ、強さと画素値とがともに更新される。 Further, in this case, the propagation (update) of the pixel value and the strength is immediately performed by comparing (strength×weight) of the target pixel T and the adjacent pixel R (asynchronous type). Further, the strength of the target pixel T is updated (passive type) by comparing (strength×weight) received from the adjacent pixel R. Further, when the target pixel T already has strength, if (strength×weight) of the adjacent pixel R is stronger than (strength×weight) of the target pixel T at that time, both the strength and the pixel value are Will be updated.

対象画素Tは、未知領域Mの画素から順次選択され、同様の処理が行われる。
次に対象となるのは図5−4(c)の枠の中心の画素であり、これが対象画素Tとなる。そして図5−4(b)の場合と同様に画素値が変更される。以降、図5−4(d)〜(i)まで同様の処理が繰り返される。
The target pixel T is sequentially selected from the pixels in the unknown region M, and the same process is performed.
Next, the target pixel is the pixel in the center of the frame in FIG. 5C, and this is the target pixel T. Then, the pixel value is changed as in the case of FIG. 5-4(b). After that, the same processing is repeated from FIGS. 5D to 5D.

つまりこの場合、既に強さを有する既知領域の画素とともに画素値が決定した画素を新たな「起点の画素」としてさらに決定を行なうことを繰り返す。 That is, in this case, the pixel whose pixel value has been determined together with the pixel in the already known area having the strength is further determined as a new "starting pixel".

図5−4において実線で図示した矢印は、対象画素Tが次の画素に移る場合の矢印で、点線で図示した矢印は対象画素Tが次の次以降の画素になる場合の矢印を表す。このとき図5−4(a)〜(i)を1ループとし、未知領域M中の全画素を一通り処理したときの画素値の様子は、図5−4(i)に示すようになる。そして同様の処理をさらに繰り返し、収束するまで行なう。 In FIG. 5-4, an arrow shown by a solid line is an arrow when the target pixel T moves to the next pixel, and an arrow shown by a dotted line shows an arrow when the target pixel T is a pixel after the next next pixel. At this time, the state of the pixel values when all the pixels in the unknown region M are processed once is as shown in FIG. 5-4(i) with one loop of FIGS. 5-4(a) to (i). .. Then, the same processing is repeated further until the convergence.

図5−5(a)は、図5−4(i)と同様の図であり、上記1ループが終了したときの画素値の様子を示している。また図5−5(b)は、この処理を複数ループ行い、収束したときの画素値の様子を示している。
図5−4(a)の段階では、未知領域Mの画素は、強さが0であったが、図5−5(a)に図示するように、1ループが終了後は、何かしらの強さと伝搬された画素値を有する。そして2回目以降のループの更新では、その状態からのスタートとなる。そして受け取った強さが、現在の自分の強さより強ければ、強さと画素値とがともに変更される規則で更新される。
FIG. 5-5(a) is a diagram similar to FIG. 5-4(i) and shows the state of pixel values when the above-mentioned one loop is completed. Further, FIG. 5-5(b) shows a state of the pixel value when the process is performed in a plurality of loops and converges.
At the stage of FIG. 5-4(a), the intensity of the pixel in the unknown region M is 0. However, as shown in FIG. And the propagated pixel value. Then, the second and subsequent loop updates start from that state. If the received strength is stronger than the current strength, the strength and the pixel value are both updated according to the rule.

また図5−6(a)〜(i)は、他の方法で未知領域Mの画素値を、既知領域の画素値を基に決定する過程を示した図である。
この場合、画素値と強さの伝搬は、対象画素Tと隣接画素Rとの(強さ×加重)の比較によりすぐに行なわれる点では、図5−4の場合と同様である(非同期型)。一方、対象画素Tは、隣接画素Rに対し画素値と強さを伝搬し、隣接画素Rの画素値と強さを更新する(攻撃型)。
5A to 5I are diagrams showing a process of determining the pixel value of the unknown region M based on the pixel value of the known region by another method.
In this case, the pixel value and the strength are similar to those in FIG. 5-4 in that the propagation of the pixel value and the strength is immediately performed by comparing (strength×weight) of the target pixel T and the adjacent pixel R (asynchronous type). ). On the other hand, the target pixel T propagates the pixel value and strength to the adjacent pixel R, and updates the pixel value and strength of the adjacent pixel R (attack type).

例えば、図5−6(b)では、対象画素Tは、真下の隣接画素R2に対して強さと画素値を伝搬している。
また図5−6(d)においても、対象画素Tが8近傍の隣接画素Rに、強さと画素値を伝搬するが、例えば4行3列の位置にある画素は、図5−6(b)において、4行2列に位置する対象画素Tだった画素から伝搬された強さを既に持っている。この場合、図5−6(d)では、3行3列に位置する画素から強さが伝搬されるが、このとき、対象画素Tからの(強さ×加重)が既に持っている強さを上回っていれば、上回っている方に更新される。
For example, in FIG. 5-6(b), the target pixel T propagates the strength and the pixel value to the adjacent pixel R2 immediately below.
Also in FIG. 5-6(d), the target pixel T propagates the strength and the pixel value to the adjacent pixel R in the vicinity of 8. However, for example, the pixel at the position of row 4 and column 3 is shown in FIG. ), it already has the strength propagated from the pixel that was the target pixel T located in row 4 and column 2. In this case, in FIG. 5-6(d), the strength is propagated from the pixels located in the third row and the third column, but at this time, the strength (strength×weight) from the target pixel T already has If it is above, it will be updated to the one above.

この場合も、既に強さを有する既知領域の画素が「起点の画素」となり(この場合、起点の画素は、対象画素Tでもある)、起点の画素の強さおよび起点の画素の未知領域Mに含まれる画素に及ぼす加重に基づいて未知領域M中の画素の画素値を予測する。そして既に強さを有する既知領域の画素とともに画素値が決定した画素を新たな「起点の画素」としてさらに決定を行なうことを繰り返す。 In this case as well, the pixel in the known area that already has strength becomes the “starting pixel” (in this case, the starting pixel is also the target pixel T), and the strength of the starting pixel and the unknown area M of the starting pixel The pixel values of the pixels in the unknown region M are predicted based on the weights exerted on the pixels included in. Then, the pixel whose pixel value has been determined together with the pixel in the already known region having the strength is further determined as a new "starting pixel".

そして図5−6(a)〜(i)を1ループとし、未知領域M中の全画素を一通り処理したときの画素値の様子は、図5−6(i)に示すようになる。そして同様の処理をさらに繰り返し、収束するまで行なう。 5-6(a) to (i) are set as one loop, and the state of the pixel value when all the pixels in the unknown region M are processed once is as shown in FIG. 5-6(i). Then, the same processing is repeated further until the convergence.

図5−7(a)は、図5−6(i)と同様の図であり、上記1ループが終了したときの画素値の様子を示している。また図5−7(b)は、この処理を複数ループ行い、収束したときの画素値の様子を示している。
未知領域Mの画素は図5−4(a)の段階では、未知領域Mの画素は、強さが0であったが、図5−7(a)に図示するように、1ループが終了後は、何かしらの強さと伝搬された画素値を有する。そして2回目以降のループの更新では、その状態からのスタートとなる。
FIG. 5-7(a) is a diagram similar to FIG. 5-6(i) and shows the state of the pixel value when the above-mentioned one loop is completed. Further, FIG. 5-7(b) shows a state of the pixel value when the process is performed in a plurality of loops and converges.
The pixel of the unknown area M has a strength of 0 at the stage of FIG. 5-4(a), but as shown in FIG. 5-7(a), one loop ends. The rest has some strength and propagated pixel values. Then, the second and subsequent loop updates start from that state.

なお、図5−4や図5−7で示すように、更新の仕方が異なれば、収束状態も変わることがある。ただしどちらが真の状態かが決められているわけではないので、どちらを採用してもよい。 As shown in FIGS. 5-4 and 5-7, the convergence state may change if the updating method is different. However, since it is not decided which is the true state, either one may be adopted.

またこの他にも、更新された画素の状態(強さと画素値)をすぐに反映させずに、1ループの処理が終わるまで別メモリに保存しておき、1ループが終わったときに一斉に更新する方法でもよいものとする(同期型)。 In addition to this, the updated pixel state (strength and pixel value) is not immediately reflected, but is saved in another memory until the processing of one loop is completed, and when the one loop is completed, Update method may be used (synchronous type).

以上のように、本実施の形態では、最初の未知領域Mの画素の強さは0とし、未知領域M以外の既知領域の画素に強さは1を設定する。そして未知領域Mの画素へ強さと画素値とを伝搬し、更新の過程で強さを比較しながら、強さの大きい方の画素値を伝搬していくことで、未知領域Mの画素を予測することを基本的な特徴とする。 As described above, in the present embodiment, the strength of the pixel of the first unknown area M is set to 0, and the strength of the pixel of the known area other than the unknown area M is set to 1. Then, by propagating the strength and the pixel value to the pixel of the unknown area M, and comparing the strength in the process of updating, the pixel value of the larger strength is propagated to predict the pixel of the unknown area M. The basic feature is to do.

これは画素値予測部14は、未知領域M以外の既知領域に含まれ強さを有する画素を起点の画素とし、起点の画素の強さおよび起点の画素の未知領域に含まれる画素に及ぼす加重に基づいて未知領域M中の画素の画素値を予測する、ということもできる。またこのとき画素値予測部14は、起点の画素の強さおよび起点の画素の未知領域Mに含まれる画素に及ぼす加重に基づいて未知領域Mに含まれる画素の画素値を決定し、画素値が決定した画素を新たな起点の画素としてさらに決定を行なうことを繰り返すことで未知領域M中の画素の画素値を予測する、ということもできる。さらにこのとき画素値予測部14は、起点の画素の強さと起点の画素の未知領域Mに含まれる画素に及ぼす加重とを乗じた値が最も大きくなる起点の画素の画素値に基づいて未知領域M中の画素値を決定する。そして決定される画素値は、起点の画素の画素値であり、画素値がそのまま伝搬する。 This is because the pixel value prediction unit 14 sets a pixel having a strength included in a known area other than the unknown area M as a starting point pixel, and a weight applied to the strength of the starting point pixel and a pixel included in the unknown area of the starting point pixel. It can also be said that the pixel value of the pixel in the unknown region M is predicted based on. Further, at this time, the pixel value prediction unit 14 determines the pixel value of the pixel included in the unknown region M based on the strength of the pixel of the starting point and the weight exerted on the pixel included in the unknown region M of the pixel of the starting point. It can also be said that the pixel value of the pixel in the unknown region M is predicted by repeating the determination with the pixel determined in step 1 as the pixel of the new starting point. Further, at this time, the pixel value prediction unit 14 determines the unknown region based on the pixel value of the starting pixel, which has the largest value obtained by multiplying the strength of the starting pixel and the weight exerted on the pixels included in the unknown region M of the starting pixel. Determine the pixel values in M. The determined pixel value is the pixel value of the starting pixel, and the pixel value propagates as it is.

画像情報出力部15は、以上のように画像処理がなされた後の画像情報を出力する。画像処理がなされた後の画像情報は、表示装置20に送られる。そして表示装置20にてこの画像情報に基づき画像が表示される。 The image information output unit 15 outputs the image information that has been subjected to the image processing as described above. The image information after the image processing is sent to the display device 20. Then, an image is displayed on the display device 20 based on this image information.

図6(a)〜(b)は、図3(b)の画像について未知領域M中の画素の画素値を決定した例を示している。
図6(a)は、図3(a)と同様の図であり、折り目画像D1が存在している原画像G1である。そして図3(b)で示したように未知領域Mを入力し、画素値予測部14が未知領域Mの画素値を予測すると、図6(b)のような画像G1’となる。図6(b)の画像G1’は、折り目画像D1が消滅している。
FIGS. 6A and 6B show an example in which the pixel value of the pixel in the unknown region M is determined for the image of FIG.
FIG. 6A is a diagram similar to FIG. 3A and is an original image G1 in which the fold image D1 is present. Then, when the unknown area M is input as shown in FIG. 3B and the pixel value prediction unit 14 predicts the pixel value of the unknown area M, an image G1′ as shown in FIG. 6B is obtained. In the image G1′ of FIG. 6B, the fold image D1 disappears.

また図7(a)〜(b)は、図4の画像について未知領域Mを入力し、この未知領域M中の画素の画素値を決定した例を示している。
図7(a)は、図4と同様の図であり、落書き画像D2が存在している原画像G2である。そして未知領域Mを入力し、画素値予測部14が未知領域Mの画素値を予測すると、図7(b)のような画像G2’となる。図7(b)の画像G2’は、落書き画像D2が消滅している。
Further, FIGS. 7A and 7B show an example in which the unknown area M is input for the image of FIG. 4 and the pixel value of the pixel in the unknown area M is determined.
FIG. 7A is a diagram similar to FIG. 4, and is an original image G2 in which a graffiti image D2 exists. Then, when the unknown area M is input and the pixel value prediction unit 14 predicts the pixel value of the unknown area M, an image G2′ as shown in FIG. 7B is obtained. In the image G2′ of FIG. 7B, the graffiti image D2 disappears.

[第2の実施形態]
次に画像処理装置10の第2の実施形態について説明を行なう。
第2の実施形態では、画像処理装置10を画像中のノイズの除去に対して適用する例について説明する。なお第2の実施形態における画像処理装置10の機能構成例を表すブロック図は、第1の実施形態と同様である。
ノイズは、画像にもともと存在する場合や、コントラスト調整や視認性の向上など、画像処理を行なうことによって発生または目立つことがある。
[Second Embodiment]
Next, a second embodiment of the image processing device 10 will be described.
In the second embodiment, an example in which the image processing device 10 is applied to remove noise in an image will be described. A block diagram showing a functional configuration example of the image processing apparatus 10 according to the second embodiment is the same as that of the first embodiment.
Noise may be generated or conspicuous when originally present in an image, or by performing image processing such as contrast adjustment and visibility improvement.

画像の視認性の向上を図る手段として、例えば、Retinex処理を行なう方法がある。
画像の画素位置(x、y)の画素値(輝度値)をI(x、y)として、視認性を高めた画像の画素値I’(x、y)とすると、Retinex処理によって、以下の数4式を使用して視認性を向上させることができる。
As a means for improving the visibility of an image, for example, there is a method of performing Retinex processing.
Assuming that the pixel value (luminance value) at the pixel position (x, y) of the image is I(x, y) and the pixel value I′(x, y) of the image with improved visibility, the following Retinex processing is performed. The visibility can be improved by using the equation (4).

kは、反射率を強調するパラメータ、R(x、y)は推定反射率成分であり、Retinexモデルでは、反射率成分を強調することで視認性を高めることができる。本実施の形態では、R(x、y)の算出は、既存のRetinexモデルのいかなる方法でもよいものとする。0≦k≦1とすれば、k=0のときは原画像を表し、k=1のときは反射率画像(最大の視認性)を表す。kはユーザが調整してもよいし、または画像の暗さに応じて、対応づけておいてもよい。 k is a parameter for emphasizing the reflectance, and R(x, y) is an estimated reflectance component. In the Retinex model, the visibility can be enhanced by emphasizing the reflectance component. In the present embodiment, R(x, y) may be calculated by any method of the existing Retinex model. When 0≦k≦1, k=0 represents the original image, and k=1 represents the reflectance image (maximum visibility). The k may be adjusted by the user or may be associated with the darkness of the image.

図8(a)〜(c)は、Retinex処理を行い、原画像に対し視認性向上を行なった場合の概念図である。
このうち図8(a)は、原画像G3であり、図8(b)は、Retinex処理を行なった後の画像G3’である。
8A to 8C are conceptual diagrams when the Retinex process is performed to improve the visibility of the original image.
Of these, FIG. 8A is an original image G3, and FIG. 8B is an image G3′ after the Retinex process.

Retinex処理などで視認性の向上を図った場合は、明度に関して暗部の視認性を高める処理が行われる。そのためもともと画素の色相や彩度などの色情報がばらついているような暗部領域の画素は、ノイズとなってしまうことがある。 When the visibility is improved by the Retinex process or the like, the process of increasing the visibility of the dark part is performed with respect to the lightness. Therefore, the pixels in the dark area where the color information such as the hue and saturation of the pixels originally varies may become noise.

図8(c)は、図8(b)の画像G3’の一部を拡大した図であり、暗部領域の画素にノイズが生じた場合を示している。
暗部領域は明度が小さいため、色情報を視認することが難しいが、明度以外の色成分である色度成分(例えば、HSV色空間では色相Hと彩度S、L色空間では色度a)が大きくばらつくため、カラーノイズとなって表れることがある。または、Retinex処理が原因で、明度そのものも、ばらつきを生じることもある。さらにこれらが複合してノイズとなって表れることもある。
FIG. 8C is an enlarged view of a part of the image G3′ of FIG. 8B, and illustrates a case where noise occurs in the pixels in the dark area.
Since the dark area has a low lightness, it is difficult to visually recognize the color information, but a chromaticity component that is a color component other than the lightness (for example, in the HSV color space, the hue H and the saturation S, the L * a * b * color space). In this case, the chromaticity a * b * ) greatly varies, and may appear as color noise. Alternatively, the brightness itself may vary due to the Retinex process. Further, these may be combined to appear as noise.

本実施の形態では、未知領域設定部13は、画像G3’の中から画素値を決定したい未知領域Mとしてノイズと思われる画素または領域を設定する。なおこの場合、ノイズは、本来の画像中にはないものであり、欠損領域と考えることもできる。 In the present embodiment, the unknown area setting unit 13 sets a pixel or area that is considered to be noise as the unknown area M in which the pixel value is to be determined from the image G3'. In this case, noise is not present in the original image and can be considered as a defective region.

未知領域設定部13が未知領域Mを設定するには、ユーザがノイズの領域を入力装置30により入力し、ユーザ指示受付部12が、これをユーザ指示情報として受け付けることで行なうことができる。 The unknown region setting unit 13 can set the unknown region M by the user inputting a noise region with the input device 30 and the user instruction receiving unit 12 receiving this as user instruction information.

一方、未知領域設定部13が、ノイズの領域を検出し、この領域を未知領域Mとして設定することもできる。例えば、原画像G3の状態で、暗部であった領域を未知領域Mとする。また暗部であった領域中の画素で、明度、色度などの色情報が周辺とかけ離れている画素や、例えば3×3や5×5などの画素領域の平均が周辺画素の平均から離れている画素領域とすることができる。 On the other hand, the unknown area setting unit 13 may detect a noise area and set this area as the unknown area M. For example, in the state of the original image G3, a region that was a dark part is set as an unknown region M. Further, in the pixels in the area that is a dark part, the pixels whose color information such as lightness and chromaticity is far from the surroundings, or the average of the pixel area such as 3×3 or 5×5 is far from the average of the surrounding pixels. The pixel area can be

図9−1(a)〜(b)は、未知領域設定部13が、画像G3’中のノイズが発生している領域に未知領域Mを設定した例を示している。
このうち図9−1(a)は、図8(b)と同様の画像G3’であり、図示する領域にノイズが発生していることを示している。
また図9−1(b)は、画像G3’中のノイズが発生している領域に未知領域Mを設定した場合を示している。
FIGS. 9-1(a) and 9-1(b) show an example in which the unknown area setting unit 13 sets the unknown area M in the area in the image G3′ where noise is generated.
Of these, FIG. 9-1(a) is an image G3′ similar to that of FIG. 8(b), and shows that noise is generated in the illustrated area.
Further, FIG. 9-1(b) shows a case where the unknown region M is set in a region in the image G3′ where noise is generated.

具体的には、図9−2(a)に示すように、ノイズが発生している領域Nは、周辺とは著しく値の異なる画素値となる。よって例えば、隣接画素の画素値の差に着目し、閾値を設けて検出することができる。つまり隣接画素に対し、予め定められた閾値を超える場合は、ノイズであると判断する。 Specifically, as shown in FIG. 9-2(a), the area N in which noise is generated has a pixel value whose value is significantly different from that of the surrounding area. Therefore, for example, it is possible to detect by setting a threshold value by paying attention to the difference between the pixel values of the adjacent pixels. That is, when the adjacent pixel exceeds a predetermined threshold value, it is determined to be noise.

また上述した加重を算出する場合、ノイズが発生している領域Nの画素値をそのまま用いて行ってもよい。また、図9−2(b)に示すように図9−2(a)に示す画素値を平滑化したものを用いて加重を算出してもよい。
または、図9−3(a)に示すようにノイズが発生している領域Nの画素値を別の画素値へ置き換えた上で(図では黒色の画素で置き換えた場合を示す)、図9−3(b)に示すように平滑化してもよいものとする。
Further, when calculating the above-mentioned weight, the pixel value of the area N in which noise is generated may be used as it is. Alternatively, the weight may be calculated by using a smoothed pixel value shown in FIG. 9-2(a) as shown in FIG. 9-2(b).
Alternatively, as shown in FIG. 9-3(a), the pixel value of the area N in which noise is generated is replaced with another pixel value (in the figure, the case where the pixel value is replaced with a black pixel is shown). -3(b) may be smoothed.

また未知領域Mを設定した後は、画素値予測部14が、未知領域Mの画素値を、既知領域の画素値を基に決定することは、第1の実施形態と同様である。 In addition, after setting the unknown region M, the pixel value prediction unit 14 determines the pixel value of the unknown region M based on the pixel value of the known region, as in the first embodiment.

図10(a)〜(b)は、図8(a)の原画像G3について視認性を向上させるとともにノイズを除去した例を示している。
図10(a)は、図8(a)と同様の図であり、原画像G3を示している。そして図10(b)は、図8(a)の原画像G3について視認性を向上させるとともにノイズを除去した画像G3”を示している。つまり図10(b)の画像G3”は、Retinex処理により視認性を向上させた後に、図9(b)で示したようにノイズが発生している領域に未知領域Mを設定し、画素値予測部14が、未知領域M中の画素の画素値を決定した後の画像である。
FIGS. 10A and 10B show an example in which the original image G3 of FIG. 8A is improved in visibility and noise is removed.
FIG. 10A is a diagram similar to FIG. 8A and shows an original image G3. And FIG.10(b) has shown the image G3" which improved the visibility and removed the noise about the original image G3 of FIG.8(a). That is, the image G3" of FIG.10(b) is Retinex process. After the visibility is improved by, the unknown area M is set in the area where noise is generated as shown in FIG. 9B, and the pixel value prediction unit 14 causes the pixel value of the pixel in the unknown area M to be increased. It is an image after determining.

図11は、第1の実施形態および第2の実施形態における画像処理装置10の動作について説明したフローチャートである。
以下、図2および図11を主に使用して、第1の実施形態および第2の実施形態における画像処理装置10の動作について説明を行なう。
FIG. 11 is a flowchart illustrating the operation of the image processing device 10 according to the first and second embodiments.
The operation of the image processing apparatus 10 according to the first and second embodiments will be described below mainly using FIGS. 2 and 11.

まず画像情報取得部11が、画像処理を行なう画像の画像情報としてRGBデータを取得する(ステップ101)。このRGBデータは、表示装置20に送られ、画像処理を行なう前の画像が表示される。 First, the image information acquisition unit 11 acquires RGB data as image information of an image to be subjected to image processing (step 101). This RGB data is sent to the display device 20, and an image before image processing is displayed.

そしてユーザが、例えば、折り目画像D1や落書き画像D2の欠損領域を未知領域Mとして設定する。このユーザ指示情報は、ユーザ指示受付部12が受け付ける(ステップ102)。 Then, the user sets the missing area of the fold image D1 or the graffiti image D2 as the unknown area M, for example. The user instruction receiving unit 12 receives the user instruction information (step 102).

次に未知領域設定部13が、画像の中から画素値を決定したい未知領域Mを設定する(ステップ103)。これは、ステップ102で受け付けたユーザ指示情報に基づき行われる。なお上述したように未知領域設定部13が、未知領域Mを自動的に設定することもできる。この場合、ステップ102は不要となる。 Next, the unknown area setting unit 13 sets an unknown area M for which a pixel value is desired to be determined from the image (step 103). This is performed based on the user instruction information received in step 102. The unknown area setting unit 13 can also automatically set the unknown area M as described above. In this case, step 102 is unnecessary.

また画素値予測部14が、未知領域M中の画素の画素値を予測する(ステップ104)。本実施の形態では、画素値予測部14は、未知領域Mの周囲の画素値を基にして領域拡張方法により、未知領域M中の画素の画素値を予測する。 Further, the pixel value prediction unit 14 predicts the pixel value of the pixel in the unknown area M (step 104). In the present embodiment, the pixel value prediction unit 14 predicts the pixel value of the pixel in the unknown area M by the area expansion method based on the pixel values around the unknown area M.

そして画像情報出力部15が、画像処理がなされた後の画像情報を出力する(ステップ105)。この画像情報は、RGBデータであり、このRGBデータは、表示装置20に送られ、表示画面21に画像処理後の画像が表示される。 Then, the image information output unit 15 outputs the image information after the image processing (step 105). This image information is RGB data, and this RGB data is sent to the display device 20, and the image after image processing is displayed on the display screen 21.

[第3の実施形態]
次に画像処理装置10の第3の実施形態について説明を行なう。
第3の実施形態では、画像処理装置10をMattingに対して適用する例について説明する。
画像加工では、画像から特定の領域を切り抜く場合は、切り抜き対象となる前景とそれ以外の後景の2値に分類されるとともに、境界が曖昧な領域を多値で表すMattingの手法を用いてマスクを生成する場合がある。境界が曖昧な領域を有する画像の例として、フサフサした衣類の毛や人の髪の毛の画像などがある。このような画像は、前景に光が透過して後景が透けるような領域を有する画像とも言い換えることができる。以下、Mattingの手法を用いてマスクを作成する方法について説明を行なう。
[Third Embodiment]
Next, a third embodiment of the image processing device 10 will be described.
In the third embodiment, an example in which the image processing device 10 is applied to Matting will be described.
In image processing, when cutting out a specific area from an image, it is classified into two values, that is, the foreground to be cut out and the other foreground, and the method of Matting is used to represent an area with an ambiguous boundary in multivalue. May generate a mask. An example of an image having an ambiguous boundary is an image of fluffy clothing hair or human hair. Such an image can be rephrased as an image having a region in which light is transmitted through the foreground and the background is transparent. Hereinafter, a method of creating a mask using the method of Matting will be described.

図12は、第3の実施形態における画像処理装置10の機能構成例を表すブロック図である。
図示するように本実施の形態の画像処理装置10は、画像情報取得部11と、二値画像生成部16と、未知領域設定部13と、画素値予測部14と、多値画像生成部17と、画像情報出力部15とを備える。
図示する画像処理装置10は、図2の画像処理装置10に対し、ユーザ指示受付部12がなく、二値画像生成部16および多値画像生成部17が加わっている。
FIG. 12 is a block diagram showing a functional configuration example of the image processing apparatus 10 according to the third embodiment.
As shown in the figure, the image processing apparatus 10 according to the present embodiment includes an image information acquisition unit 11, a binary image generation unit 16, an unknown area setting unit 13, a pixel value prediction unit 14, and a multi-valued image generation unit 17. And an image information output unit 15.
The illustrated image processing apparatus 10 does not include the user instruction receiving unit 12 in the image processing apparatus 10 of FIG. 2, but includes a binary image generating unit 16 and a multivalued image generating unit 17.

画像情報取得部11については、第1の実施形態と同様である。即ち、画像情報取得部11は、画像処理を行なう画像の画像情報を取得する。 The image information acquisition unit 11 is the same as in the first embodiment. That is, the image information acquisition unit 11 acquires image information of an image on which image processing is performed.

二値画像生成部16は、画像情報を前景または後景であることを示す二値で表された二値画像を生成する。
図13(a)〜(b)は、二値画像生成部16が行なう処理について示した図である。
ここで図13(a)は、画像処理を行なう前の画像であり、画像情報取得部11が取得した画像情報に基づき表示装置20に表示した原画像G4を示している。この原画像G4は、前景である人の髪の毛の画像と後景であるその背後の画像からなる。そして前景と後景との境界は、曖昧である。
また図13(b)は、二値画像生成部16で原画像G4の処理を行った後の二値画像G4’である。
ここでは、画像情報取得部11が取得した画像情報を、前景である髪の毛の部分を、例えば、「1」とし、後景の部分を「0」とすることで二値化し、二値画像G4’としたものである。
The binary image generation unit 16 generates a binary image in which the image information is represented by a binary value indicating the foreground or the foreground.
13A and 13B are diagrams showing the processing performed by the binary image generation unit 16.
Here, FIG. 13A is an image before image processing, and shows an original image G4 displayed on the display device 20 based on the image information acquired by the image information acquisition unit 11. The original image G4 is composed of an image of human hair, which is the foreground, and an image behind it, which is the background. And the boundary between the foreground and the foreground is ambiguous.
Further, FIG. 13B shows a binary image G4′ after the original image G4 is processed by the binary image generation unit 16.
Here, the image information acquired by the image information acquisition unit 11 is binarized by setting the foreground hair portion to, for example, “1” and the rearground portion to “0”, and the binary image G4. '

二値画像生成部16が、画像情報を二値化するには、第1の実施形態において画素値予測部14が行った処理が適用できる。つまり二値画像生成部16は、前景に属する画素に基準画素であるシード1を設定する。また後景に属する画素に基準画素であるシード2を設定する。そしてこのシード1およびシード2を基にして領域拡張方法により、それぞれの領域を拡張する。その結果、前景であるラベル1が付与された領域の画素値を「1」とし、後景であるラベル2が付与された領域の画素値を「0」とする。 In order for the binary image generation unit 16 to binarize the image information, the processing performed by the pixel value prediction unit 14 in the first embodiment can be applied. That is, the binary image generation unit 16 sets the seed 1, which is the reference pixel, to the pixels belonging to the foreground. Further, the seed 2 which is the reference pixel is set to the pixel belonging to the background. Then, based on the seed 1 and the seed 2, each area is expanded by the area expansion method. As a result, the pixel value of the area to which the label 1 that is the foreground is set to "1", and the pixel value of the area to which the label 2 that is the foreground is set to "0".

未知領域設定部13は、二値画像G4’を使用して、前景および後景の境界部で未知領域Mを設定する。これは、前景および後景の境界部で画素に付与されていたラベルをリセットする、と言うこともできる。 The unknown area setting unit 13 uses the binary image G4' to set the unknown area M at the boundary between the foreground and the foreground. It can also be said that this resets the label given to the pixel at the boundary between the foreground and the foreground.

本実施の形態では、未知領域設定部13は、二値画像G4’の中で隣接画素の画素値が異なる画素に対し、未知領域Mを設定するフィルタを適用する。具体的には、前景および後景の境界部の画素を中心として二値の画素値の設定を解除する(ラベルをリセットする)フィルタを適用することで未知領域Mを設定する。 In the present embodiment, the unknown area setting unit 13 applies a filter that sets the unknown area M to the pixels in the binary image G4' where the adjacent pixels have different pixel values. Specifically, the unknown region M is set by applying a filter that cancels the setting of the binary pixel value (resets the label) around the pixel at the boundary between the foreground and the foreground.

図14(a)〜(b)は、未知領域設定部13が、未知領域Mを設定する処理について示した図である。
このうち図14(a)は、未知領域Mを設定するフィルタを示している。このフィルタは、隣接画素の画素値が異なる画素を中心として設定される。図14(a)では、この中心となる画素を中心画素とし、この中心画素に対して設定されるフィルタを図示している。中心画素の画素値は、「1」および「0」の何れであってもよい。またフィルタの大きさは、例えば、10画素×10画素である。
FIGS. 14A and 14B are diagrams showing a process of setting the unknown region M by the unknown region setting unit 13.
Of these, FIG. 14A shows a filter for setting the unknown region M. This filter is set centering on a pixel whose adjacent pixels have different pixel values. In FIG. 14A, the center pixel is set as the center pixel, and a filter set for the center pixel is illustrated. The pixel value of the central pixel may be either "1" or "0". The size of the filter is, for example, 10 pixels×10 pixels.

図14(b)は、このフィルタを使用して未知領域Mを設定した後について示した図である。図14(b)で示すように図14(a)で図示した画素値が「1」と「0」との境界部において未知領域Mが設定される。 FIG. 14B is a diagram showing the state after setting the unknown region M using this filter. As shown in FIG. 14B, the unknown region M is set at the boundary between the pixel values “1” and “0” shown in FIG. 14A.

図15は、原画像G4に対し前景および後景の境界部で未知領域Mを設定した場合を示している。
図示するように前景である人の髪の毛の画像と後景であるその背後の画像との境界部に、未知領域設定部13で設定した未知領域Mが適用される。
FIG. 15 shows a case where an unknown region M is set at the boundary between the foreground and the foreground for the original image G4.
As shown in the figure, the unknown region M set by the unknown region setting unit 13 is applied to the boundary between the image of the human hair, which is the foreground, and the image behind it, which is the background.

画素値予測部14は、画像情報を使用して、既知領域の中で前景に属する画素と後景に属する画素とでそれぞれ基準画素を設定し、未知領域M中の画素に対する画素値をそれぞれの場合について予測する。 The pixel value prediction unit 14 uses the image information to set reference pixels for pixels belonging to the foreground and pixels belonging to the background in the known region, and sets pixel values for pixels in the unknown region M to the respective pixel values. Predict about the case.

図16−1は、画素値予測部14が行なう処理の概念図である。
図示するように未知領域M内の画素の画素値は、前景から画素値を予測する場合と、後景から画素値を予測する場合について求められ、2通りの結果が得られる。
FIG. 16-1 is a conceptual diagram of a process performed by the pixel value prediction unit 14.
As shown in the figure, the pixel value of the pixel in the unknown region M is obtained in the case of predicting the pixel value from the foreground and the case of predicting the pixel value from the foreground, and two kinds of results are obtained.

図16−2(a)〜(d)は、具体的にこの様子を説明するための図である。
例えば、図16−2(a)は、画像の領域を分離する境界を表したものである。また図16−2(b)は、二値画像生成部16で領域を分離したもので、前景と後景を表す二値のラベルがついている。さらに図16−2(c)は、図14で生成された未知領域Mの境界を表し、図16−2(d)は、未知領域Mの画素を黒で表した図を示す。
16-2(a) to 16(d) are diagrams for specifically explaining this state.
For example, FIG. 16-2(a) shows a boundary that separates image regions. In addition, in FIG. 16-2(b), areas are separated by the binary image generation unit 16, and binary labels representing the foreground and the foreground are attached. Further, FIG. 16-2(c) shows the boundary of the unknown region M generated in FIG. 14, and FIG. 16-2(d) shows the pixel of the unknown region M in black.

ここで、本実施の形態が、第1の実施形態や第2の実施形態と異なる点は、前景領域のみからの画素値を伝搬する場合と、後景領域のみから画素値を伝搬する場合の2通りがあることである。 Here, the present embodiment is different from the first and second embodiments in that the pixel value is propagated from only the foreground area and the pixel value is propagated from only the foreground area. There are two ways.

図16−3(a)〜(i)は、前景領域のみからの画素値を伝搬する場合を示している。
この場合、画素値と強さの伝搬は、対象画素Tと隣接画素Rとの(強さ×加重)の比較によりすぐに行なわれる(非同期型)。また対象画素Tは、隣接画素Rから受ける(強さ×加重)の比較で、自分の強さが更新される(受け身型)。
FIGS. 16-3(a) to 16(i) show a case where pixel values are propagated only from the foreground area.
In this case, the propagation of the pixel value and the strength is immediately performed (asynchronous type) by comparing (strength×weight) of the target pixel T and the adjacent pixel R. Further, the strength of the target pixel T is updated (passive type) by comparing (strength×weight) received from the adjacent pixel R.

この場合の加重の算出は、図16−2(a)に示す原画像で行ってもよく、または図16−2(a)に示す原画像を平滑化してから行ってよい。または、図16−2(d)の未知領域Mに何かしらの画素値を設定して平滑化してもよいものとする。 Calculation of the weight in this case may be performed on the original image shown in FIG. 16-2(a), or may be performed after smoothing the original image shown in FIG. 16-2(a). Alternatively, it is possible to set some pixel value in the unknown region M of FIG.

図16−3(a)〜(i)では、未知領域M以外の既知領域の画素で、かつ、前景に属する画素のみが強さ1を持つ。まず、図16−3(b)に示す枠の中心の対象画素Tが、右下の前景の属する隣接画素R3の影響のみを受け、加重を乗じた強さが伝搬される。同様に、図16−3(c)では、枠中心の対象画素Tは、左隣りの隣接画素R4と真下の隣接画素R5から影響を受け、強さが強い方の画素値に更新される。この場合は、まだ対象画素Tは、強さを持たないので、この2つの強さの比較でよい。
対象画素Tは、未知領域Mの画素から順次選択され、図16−3(a)〜(i)の処理が行われる。なおこの例では、何ループかの結果、一通り未知領域Mの画素値が決定することになり、図16−3(i)は、一通り決定した結果を示す。
図16−3の場合は、後景に属する画素からの影響は受けず、伝搬されるのは前景に属する画素からということになる。
16-3(a) to (i), only the pixels in the known area other than the unknown area M and belonging to the foreground have the strength 1. First, the target pixel T at the center of the frame shown in FIG. 16C is affected only by the adjacent pixel R3 to which the lower right foreground belongs, and the strength multiplied by the weight is propagated. Similarly, in FIG. 16C, the target pixel T at the center of the frame is affected by the adjacent pixel R4 on the left side and the adjacent pixel R5 on the lower side, and is updated to a pixel value having a stronger strength. In this case, the target pixel T does not yet have strength, so comparison of these two strengths is sufficient.
The target pixel T is sequentially selected from the pixels in the unknown region M, and the processes of FIGS. 16-3(a) to 16(i) are performed. In this example, as a result of the number of loops, the pixel values of the unknown region M are generally determined, and FIG. 16C(i) shows the result of the determination.
In the case of FIG. 16C, the pixels belonging to the foreground are not affected, and the pixels propagated are those belonging to the foreground.

図16−4(a)は、図16−3(i)と同様の図であり、一通り未知領域Mの画素値が決定したときの画素値の様子を示している。また図16−4(b)は、さらにループを繰り返し、収束したときの画素値の様子を示している。
以上のように、未知領域Mの画素に対して、前景からの画素値を予測することができる。
FIG. 16-4(a) is a diagram similar to FIG. 16-3(i) and shows the state of the pixel values when the pixel values of the unknown region M are generally determined. Further, FIG. 16-4(b) shows a state of pixel values when the loop is further repeated and converged.
As described above, the pixel value from the foreground can be predicted for the pixels in the unknown region M.

また図16−5(a)〜(i)は、後景領域のみからの画素値を伝搬する場合を示している。
図16−5(a)〜(i)で行なう処理は、図16−3(a)〜(i)の場合と同様である。ただしこの場合は、前景に属する画素からの影響は受けず、伝搬されるのは後景に属する画素からということになる。
16-5(a) to 16(i) show a case where the pixel value is propagated only from the foreground area.
The processes performed in FIGS. 16-5(a) to (i) are the same as those in FIGS. 16-3(a) to (i). However, in this case, the pixels belonging to the foreground are not affected, and the pixels propagated from the background are propagated.

図16−6(a)は、図16−5(i)と同様の図であり、一通り未知領域Mの画素値が決定したときの画素値の様子を示している。また図16−6(b)は、さらにループを繰り返し、収束したときの画素値の様子を示している。 FIG. 16-6(a) is a diagram similar to FIG. 16-5(i) and shows the state of the pixel values when the pixel values of the unknown region M are generally determined. Further, FIG. 16-6(b) shows the state of the pixel value when the loop is further repeated and converged.

図17(a)は、前景から未知領域M内の画素の画素値を求めた結果を示す。また図17(b)は、後景から未知領域M内の画素の画素値を求めた結果を示す。 FIG. 17A shows the result of obtaining the pixel value of the pixel in the unknown region M from the foreground. Further, FIG. 17B shows the result of obtaining the pixel value of the pixel in the unknown region M from the background.

ここで未知領域M中の画素における画像情報の画素値(原画像G4の画素値)をCとすると、Cは、以下の数5式で表すことができる。 Assuming that the pixel value of the image information (pixel value of the original image G4) in the pixel in the unknown region M is C, C can be expressed by the following formula 5.

ここでFは、前景から予測された画素値である。またBは、後景から予測された画素値である。なおC、F、Bの画素値は、RGB色空間やL色空間では、ベクトルで表すことができ、グレースケールであればスカラーで表すことができる。 Here, F is a pixel value predicted from the foreground. B is a pixel value predicted from the background. The C, F, and B pixel values can be represented by a vector in the RGB color space or the L * a * b * color space, and can be represented by a scalar in the case of gray scale.

またαは、0≦α≦1であり、前景度合いを表すパラメータである。即ち、αが1のときC=FとなりCの画素値は、前景から予測された画素値と同じになる。またαが0のときC=BとなりCの画素値は、後景から予測された画素値と同じになる。よってαが大きいほど前景の度合いが高まると考えることができる。 Further, α is 0≦α≦1, and is a parameter indicating the foreground degree. That is, when α is 1, C=F and the pixel value of C becomes the same as the pixel value predicted from the foreground. Further, when α is 0, C=B, and the pixel value of C becomes the same as the pixel value predicted from the background. Therefore, it can be considered that the degree of the foreground increases as α increases.

つまり境界部の画素は、前景から予測された画素値と後景から予測された画素値とがある割合で混合した画素値を有すると考え、画素値Cを上記数5式のように表す。 That is, it is considered that the pixel at the boundary has a pixel value in which the pixel value predicted from the foreground and the pixel value predicted from the foreground are mixed at a certain ratio, and the pixel value C is expressed by the above-mentioned expression 5.

多値画像生成部17は、画素値予測部14により予測された未知領域Mの中の画素に対する画素値から前景度合いαを表す多値の画素値を求める。即ち、画素値予測部14により予測された2通りの画素値から前景度合いαを表す多値の画素値を求める。
数5式をαについて解くと、下記数6式が得られる。
The multi-valued image generation unit 17 obtains a multi-valued pixel value representing the foreground degree α from the pixel values of the pixels in the unknown region M predicted by the pixel value prediction unit 14. That is, a multivalued pixel value representing the foreground degree α is obtained from the two types of pixel values predicted by the pixel value prediction unit 14.
By solving the equation 5 for α, the following equation 6 is obtained.

多値画像生成部17は、例えば、数6式を使用して前景度合いαを求めるが、これに限られるものではない。本実施の形態では、既知の画素値から領域拡張法により未知領域Mの画素値を高速に算出することにある。よって算出されたF、Bの画素値と基本の式である数5式に基づけば、前景度合いαはいかなる方法により求めてもよい。最もシンプルな計算としてここでは数6式を例に挙げたが、画素値がベクトルで表される場合は、前景度合いαによってCの画素値を正確に表現することが難しいことがある。その場合は、FやBの画素値を微調整したり、近似解を算出する方法などを適用してもよい。
また図17に示す画像で、前景と後景に相当する部分は滑らかであってもよいので、図16−4(b)や図16−6(b)で生成された前景や後景の予測結果の画像を平滑化したものを使用してもよいものとする。
The multi-valued image generation unit 17 obtains the foreground degree α by using, for example, Formula 6, but the present invention is not limited to this. In the present embodiment, the pixel value of the unknown area M is calculated at high speed from the known pixel value by the area expansion method. Therefore, based on the calculated pixel values of F and B and the basic equation (5), the foreground degree α may be obtained by any method. As the simplest calculation, Expression 6 is given as an example here, but when the pixel value is represented by a vector, it may be difficult to accurately represent the pixel value of C by the foreground degree α. In that case, a method of finely adjusting the pixel values of F or B, a method of calculating an approximate solution, or the like may be applied.
Further, in the image shown in FIG. 17, the portions corresponding to the foreground and the foreground may be smooth, so that the prediction of the foreground and the foreground generated in FIGS. 16-4(b) and 16-6(b) is performed. A smoothed version of the resulting image may be used.

図18は、多値画像生成部17により求められた前景度合いαを画像化したものである。
この画像G4”は、前景である人の髪の毛の画像の画素値は、「1」である。また後景であるその背後の画像の画素値は、「0」である。さらに前景と後景との境界部では、前景度合いαにより表される0〜1の数値となる。この画像G4”は、前景と後景との境界部における曖昧な領域を多値で表すマスクとして使用することができる。そしてこのマスクにより原画像G4から前景を切り出すことができる。
FIG. 18 is an image of the foreground degree α obtained by the multivalued image generation unit 17.
In this image G4″, the pixel value of the image of the human hair, which is the foreground, is “1”. The pixel value of the image behind it, which is the background, is “0”. Further, at the boundary between the foreground and the foreground, the numerical value is 0 to 1 represented by the foreground degree α. This image G4″ can be used as a mask that represents an ambiguous region at the boundary between the foreground and the foreground with multiple values. Then, the mask can cut out the foreground from the original image G4.

図19は、第3の実施形態における画像処理装置10の動作について説明したフローチャートである。
以下、図2および図19を主に使用して、第3の実施形態における画像処理装置10の動作について説明を行なう。
FIG. 19 is a flowchart illustrating the operation of the image processing device 10 according to the third embodiment.
The operation of the image processing apparatus 10 according to the third embodiment will be described below mainly with reference to FIGS. 2 and 19.

まず画像情報取得部11が、画像処理を行なう画像の画像情報としてRGBデータを取得する(ステップ201)。 First, the image information acquisition unit 11 acquires RGB data as image information of an image to be subjected to image processing (step 201).

次に二値画像生成部16が、画像情報を前景または後景であることを示す二値で表された二値画像を生成する(ステップ202)。その結果、図13(b)に示すような二値画像G4’が生成される。 Next, the binary image generation unit 16 generates a binary image in which the image information is represented by a binary value indicating the foreground or the foreground (step 202). As a result, a binary image G4' as shown in FIG. 13B is generated.

次に未知領域設定部13が、二値画像を使用して、前景および後景の境界部で未知領域Mを設定する(ステップ203)。この処理は、図14で示したような未知領域Mを設定するフィルタを使用することで行なう。その結果、図15で示すような未知領域Mが設定される。 Next, the unknown area setting unit 13 sets the unknown area M at the boundary between the foreground and the foreground using the binary image (step 203). This process is performed by using a filter for setting the unknown area M as shown in FIG. As a result, the unknown area M as shown in FIG. 15 is set.

さらに画素値予測部14は、元の画像情報を使用して、前景に属する画素と後景に属する画素とでそれぞれシードを設定し、未知領域M中の画素に対する画素値をそれぞれの場合について予測する(ステップ204)。その結果、図17に示したような2通りの結果が得られる。 Further, the pixel value prediction unit 14 uses the original image information to set seeds for pixels belonging to the foreground and pixels belonging to the foreground, and predicts pixel values for pixels in the unknown region M in each case. (Step 204). As a result, two kinds of results as shown in FIG. 17 are obtained.

そして多値画像生成部17が、画素値予測部14により予測された未知領域Mの中の画素に対する画素値から前景度合いαを表す多値の画素値を求める(ステップ205)。前景度合いαは、例えば、数6式を使用することで求めることができる。 Then, the multi-valued image generation unit 17 obtains a multi-valued pixel value representing the foreground degree α from the pixel values for the pixels in the unknown region M predicted by the pixel value prediction unit 14 (step 205). The foreground degree α can be obtained, for example, by using Expression 6.

以上説明した画像処理装置10によれば、画素値を決定したい未知領域における画素値を予測する処理を、より高速に行なうことができる。 According to the image processing device 10 described above, the process of predicting the pixel value in the unknown region whose pixel value is desired to be determined can be performed at higher speed.

なお以上説明した画素値予測部14で行われる処理は、画像の画像情報を取得し、画像の中から画素値を決定したい未知領域Mを設定し、未知領域M以外の既知領域に含まれ既知領域に属する強さを有する画素を基準画素とすると共に未知領域Mに含まれる画素を対象画素とし、基準画素の強さおよび基準画素の対象画素に及ぼす影響力に基づいて未知領域M中の画素の画素値を予測する画像処理方法として捉えることもできる。 Note that the processing performed by the pixel value prediction unit 14 described above acquires image information of an image, sets an unknown region M for which a pixel value is desired to be determined from the image, and is included in a known region other than the unknown region M. Pixels in the unknown region M are defined based on the strength of the reference pixel and the influence of the reference pixel on the target pixel, with the pixel having the strength belonging to the region as the reference pixel and the pixel included in the unknown region M as the target pixel. It can be understood as an image processing method for predicting the pixel value of.

<画像処理装置のハードウェア構成例>
次に、画像処理装置10のハードウェア構成について説明する。
図20は、画像処理装置10のハードウェア構成を示した図である。
画像処理装置10は、上述したようにパーソナルコンピュータ等により実現される。そして図示するように、画像処理装置10は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92、およびHDD(Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーションソフトウェア等の各種プログラムを実行する。また、メインメモリ92は、各種プログラムやその実行に用いるデータ等を記憶する記憶領域であり、HDD93は、各種プログラムに対する入力データや各種プログラムからの出力データ等を記憶する記憶領域である。
さらに、画像処理装置10は、外部との通信を行なうための通信インターフェース(以下、「通信I/F」と表記する)94を備える。
<Example of hardware configuration of image processing device>
Next, the hardware configuration of the image processing apparatus 10 will be described.
FIG. 20 is a diagram showing the hardware configuration of the image processing apparatus 10.
The image processing device 10 is realized by a personal computer or the like as described above. As shown in the figure, the image processing apparatus 10 includes a CPU (Central Processing Unit) 91 that is a calculation unit, a main memory 92 that is a storage unit, and an HDD (Hard Disk Drive) 93. Here, the CPU 91 executes various programs such as an OS (Operating System) and application software. Further, the main memory 92 is a storage area for storing various programs and data used for execution thereof, and the HDD 93 is a storage area for storing input data to the various programs, output data from the various programs, and the like.
Further, the image processing apparatus 10 includes a communication interface (hereinafter, referred to as “communication I/F”) 94 for performing communication with the outside.

<プログラムの説明>
ここで以上説明を行った本実施の形態における画像処理装置10が行なう処理は、例えば、アプリケーションソフトウェア等のプログラムとして用意される。
<Explanation of program>
The processing performed by the image processing apparatus 10 according to the present embodiment described above is prepared as a program such as application software.

よって本実施の形態で、画像処理装置10が行なう処理は、コンピュータに、画像の画像情報を取得する画像情報取得機能と、画像の中から画素値を決定したい未知領域Mを設定する未知領域設定機能と、未知領域M以外の既知領域に含まれ強さを有する画素を起点の画素とし、起点の画素の強さおよび起点の画素の未知領域に含まれる画素に及ぼす加重に基づいて未知領域M中の画素の画素値を予測する画素値予測機能と、を実現させるプログラムとして捉えることもできる。 Therefore, in the present embodiment, the processing performed by the image processing apparatus 10 includes an image information acquisition function for acquiring image information of an image and an unknown area setting for setting an unknown area M whose pixel value is to be determined from the image in the computer. The function and a pixel included in a known area other than the unknown area M and having a strength is set as a starting pixel, and the unknown area M is determined based on the strength of the starting pixel and the weight of the starting pixel on the pixels included in the unknown area. It can be understood as a program that realizes a pixel value prediction function of predicting the pixel value of a pixel inside.

なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。 It should be noted that the program that realizes the present embodiment can be provided not only by communication means but also by being stored in a recording medium such as a CD-ROM and provided.

以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。 Although the present embodiment has been described above, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is apparent from the scope of the claims that the various modifications and improvements made to the above embodiment are also included in the technical scope of the present invention.

1…画像処理システム、10…画像処理装置、11…画像情報取得部、12…ユーザ指示受付部、13…未知領域設定部、14…画素値予測部、15…画像情報出力部、16…二値画像生成部、17…多値画像生成部、20…表示装置、30…入力装置 DESCRIPTION OF SYMBOLS 1... Image processing system, 10... Image processing apparatus, 11... Image information acquisition part, 12... User instruction acceptance part, 13... Unknown area setting part, 14... Pixel value prediction part, 15... Image information output part, 16... Two Value image generation unit, 17... Multi-valued image generation unit, 20... Display device, 30... Input device

Claims (11)

画像の画像情報を取得する画像情報取得部と、
画像の中から画素値を決定したい未知領域を設定する未知領域設定部と、
前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重として当該起点の画素と当該未知領域に含まれる画素との画素値の近さを表す数値に基づいて当該未知領域中の画素の画素値を予測する画素値予測部と、
を備える画像処理装置。
An image information acquisition unit that acquires image information of an image,
An unknown area setting unit that sets an unknown area whose pixel value is to be determined from the image,
A pixel having a numerical value indicating the magnitude of the possibility of belonging to a plurality of known regions included in a known region other than the unknown region as a starting pixel, and the strength of the starting pixel and the starting point Predict the pixel value of the pixel in the unknown area based on the numerical value indicating the closeness of the pixel value of the pixel of the starting point and the pixel included in the unknown area as a weight exerted on the pixel included in the unknown area of A pixel value prediction unit that
An image processing apparatus including.
前記画素値予測部は、前記起点の画素の強さおよび当該起点の画素の前記未知領域に含まれる画素に及ぼす加重に基づいて当該未知領域に含まれる画素の画素値を決定し、画素値が決定した画素を新たな起点の画素としてさらに当該決定を行なうことを繰り返すことで当該未知領域中の画素の画素値を予測することを特徴とする請求項1に記載の画像処理装置。 The pixel value prediction unit determines a pixel value of a pixel included in the unknown region based on the weighted on pixels included in the unknown region of the pixel intensity and the origin of the pixels of the starting point, pixel value The image processing apparatus according to claim 1, wherein the pixel value of the pixel in the unknown region is predicted by repeating the determination by using the determined pixel as a pixel of a new starting point. 前記画素値予測部は、新たに起点となった画素の画素値を前記起点の画素の画素値とすることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the pixel value prediction unit sets a pixel value of a pixel which is a new starting point as a pixel value of the pixel of the starting point. 前記未知領域設定部は、ユーザの指示により未知領域を設定することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。 The unknown region setting unit, an image processing apparatus according to any one of claims 1 to 3, characterized in that setting the unknown region in accordance with a user instruction. 前記未知領域設定部は、本来の画像中にはない欠損領域を未知領域として設定することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。 The unknown region setting unit, an image processing apparatus according to any one of claims 1 to 4, characterized in that to set the defective area is not in the original image as an unknown region. 画像の画像情報を取得する画像情報取得部と、
画像の中から画素値を決定したい未知領域を設定する未知領域設定部と、
前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重に基づいて当該未知領域中の画素の画素値を予測する画素値予測部と、
を備え、
前記画素値予測部は、前記起点の画素の強さと当該起点の画素の前記未知領域に含まれる画素に及ぼす加重とを乗じた値が最も大きくなる起点の画素の画素値に基づいて当該未知領域中の画素の画素値を予測する像処理装置。
An image information acquisition unit that acquires image information of an image,
An unknown area setting unit that sets an unknown area whose pixel value is to be determined from the image,
A pixel having a numerical value indicating the magnitude of the possibility of belonging to a plurality of known regions included in a known region other than the unknown region as a starting pixel, and the strength of the starting pixel and the starting point A pixel value prediction unit that predicts a pixel value of a pixel in the unknown region based on a weighting of the pixel of the pixel included in the unknown region,
Equipped with
The pixel value prediction unit, based on the pixel value of the pixel of the starting point that the value obtained by multiplying the strength of the pixel of the starting point and the weight of the pixel of the starting point that affects the pixels included in the unknown images processing device for predicting a pixel value of a pixel in.
画像の画像情報を取得する画像情報取得部と、
画像の中から画素値を決定したい未知領域を設定する未知領域設定部と、
前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重に基づいて当該未知領域中の画素の画素値を予測する画素値予測部と、
二値画像生成部と、多値画像生成部と、をえ、
前記二値画像生成部は、前記画像情報から前景または後景であることを示す二値で表された二値画像を生成し、
前記未知領域設定部は、前記二値画像を使用して、前景および後景の境界部で前記未知領域を設定し、
前記画素値予測部は、前記画像情報を使用して、前記既知領域の中で前景に属する画素と後景に属する画素とでそれぞれ基準画素を設定し、前記未知領域中の画素に対する画素値をそれぞれの場合について予測し、
前記多値画像生成部は、前記画素値予測部により予測された前記未知領域の中の画素に対する画素値から前景度合いを表す多値の画素値を求めることを特徴とする像処理装置。
An image information acquisition unit that acquires image information of an image,
An unknown area setting unit that sets an unknown area whose pixel value is to be determined from the image,
A pixel having a numerical value indicating the magnitude of the possibility of belonging to a plurality of known regions included in a known region other than the unknown region as a starting pixel, and the strength of the starting pixel and the starting point A pixel value prediction unit that predicts a pixel value of a pixel in the unknown region based on a weighting of the pixel of the pixel included in the unknown region,
A binary image generating unit, and the multi-level image generating unit, a Bei example,
The binary image generation unit generates a binary image represented by a binary value indicating the foreground or the foreground from the image information,
The unknown area setting unit uses the binary image to set the unknown area at the boundary between the foreground and the foreground,
The pixel value prediction unit uses the image information to set reference pixels for pixels belonging to the foreground and pixels belonging to the foreground in the known area, and sets pixel values for pixels in the unknown area. Make predictions for each case,
The multi-value image generation unit, images processing device and obtains the pixel values of the multi-level representative of the foreground degree from the pixel values for the pixels in the predicted the unknown regions by the pixel value prediction unit.
前記未知領域設定部は、前景および後景の境界部の画素を中心として二値の画素値の設定を解除するフィルタを適用することで前記未知領域を設定することを特徴とする請求項7に記載の画像処理装置。 8. The unknown region setting unit sets the unknown region by applying a filter that cancels the setting of a binary pixel value centered on a pixel at the boundary between the foreground and the foreground. The image processing device described. 画像の画像情報を取得し、
画像の中から画素値を決定したい未知領域を設定し、
前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重として当該起点の画素と当該未知領域に含まれる画素との画素値の近さを表す数値に基づいて当該未知領域中の画素の画素値を予測する画像処理方法。
Get the image information of the image,
Set an unknown region whose pixel value you want to determine from the image,
A pixel having a numerical value indicating the magnitude of the possibility of belonging to a plurality of known regions included in a known region other than the unknown region as a starting pixel, and the strength of the starting pixel and the starting point Predict the pixel value of the pixel in the unknown area based on the numerical value indicating the closeness of the pixel value of the pixel of the starting point and the pixel included in the unknown area as a weight exerted on the pixel included in the unknown area of Image processing method.
画像を表示する表示装置と、
前記表示装置に表示される前記画像の画像情報に対し画像処理を行なう画像処理装置と、
を備え、
前記画像処理装置は、
前記画像の画像情報を取得する画像情報取得部と、
画像の中から画素値を決定したい未知領域を設定する未知領域設定部と、
前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重として当該起点の画素と当該未知領域に含まれる画素との画素値の近さを表す数値に基づいて当該未知領域中の画素の画素値を予測する画素値予測部と、
を備える画像処理システム。
A display device for displaying an image,
An image processing device that performs image processing on image information of the image displayed on the display device,
Equipped with
The image processing device,
An image information acquisition unit that acquires image information of the image,
An unknown area setting unit that sets an unknown area whose pixel value is to be determined from the image,
A pixel having a numerical value indicating the magnitude of the possibility of belonging to a plurality of known regions included in a known region other than the unknown region as a starting pixel, and the strength of the starting pixel and the starting point Predict the pixel value of the pixel in the unknown area based on the numerical value indicating the closeness of the pixel value of the pixel of the starting point and the pixel included in the unknown area as a weight exerted on the pixel included in the unknown area of A pixel value prediction unit that
An image processing system including.
コンピュータに、
画像の画像情報を取得する画像情報取得機能と、
画像の中から画素値を決定したい未知領域を設定する未知領域設定機能と、
前記未知領域以外の既知領域に含まれ強さとして複数の既知領域の何れに属するかの可能性の大きさを表す数値を有する画素を起点の画素とし、当該起点の画素の強さおよび当該起点の画素の当該未知領域に含まれる画素に及ぼす加重として当該起点の画素と当該未知領域に含まれる画素との画素値の近さを表す数値に基づいて当該未知領域中の画素の画素値を予測する画素値予測機能と、
を実現させるプログラム。
On the computer,
Image information acquisition function to acquire the image information of the image,
An unknown area setting function that sets an unknown area whose pixel value you want to determine from the image,
A pixel having a numerical value indicating the magnitude of the possibility of belonging to a plurality of known regions included in a known region other than the unknown region as a starting pixel, and the strength of the starting pixel and the starting point Predict the pixel value of the pixel in the unknown area based on the numerical value indicating the closeness of the pixel value of the pixel of the starting point and the pixel included in the unknown area as a weight exerted on the pixel included in the unknown area of Pixel value prediction function
A program that realizes.
JP2016043932A 2016-03-07 2016-03-07 Image processing apparatus, image processing method, image processing system and program Expired - Fee Related JP6711031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016043932A JP6711031B2 (en) 2016-03-07 2016-03-07 Image processing apparatus, image processing method, image processing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016043932A JP6711031B2 (en) 2016-03-07 2016-03-07 Image processing apparatus, image processing method, image processing system and program

Publications (2)

Publication Number Publication Date
JP2017162035A JP2017162035A (en) 2017-09-14
JP6711031B2 true JP6711031B2 (en) 2020-06-17

Family

ID=59853931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016043932A Expired - Fee Related JP6711031B2 (en) 2016-03-07 2016-03-07 Image processing apparatus, image processing method, image processing system and program

Country Status (1)

Country Link
JP (1) JP6711031B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435159A (en) * 2019-08-26 2021-03-02 珠海金山办公软件有限公司 Image processing method and device, computer storage medium and terminal

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3442466B2 (en) * 1993-04-12 2003-09-02 株式会社リコー Image processing apparatus and image processing method
JP2004061500A (en) * 2002-06-03 2004-02-26 Fuji Photo Film Co Ltd Method of detecting image defect

Also Published As

Publication number Publication date
JP2017162035A (en) 2017-09-14

Similar Documents

Publication Publication Date Title
US8013870B2 (en) Image masks generated from local color models
JP5645842B2 (en) Image processing apparatus and method using scale space
US8406566B1 (en) Methods and apparatus for soft edge masking
JPH11313202A (en) Image processing unit and image processing method
US9792695B2 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer readable medium
JP4772819B2 (en) Image search apparatus and image search method
JP6287337B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP2016058879A (en) Image processing apparatus and image processing method
JP2013105245A (en) Image processing method, device and program
JP4251635B2 (en) Image processing apparatus and method
JP6241320B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP5286215B2 (en) Outline extracting apparatus, outline extracting method, and outline extracting program
JP6711031B2 (en) Image processing apparatus, image processing method, image processing system and program
KR101887929B1 (en) Image Processing Apparatus, Image Processing Method, Computer Readable Recording Medium and Image Forming Apparatus
JP2018206260A (en) Image processing system, evaluation model construction method, image processing method, and program
JP4756436B2 (en) Pattern recognition apparatus, pattern recognition method, and pattern recognition program
CN109509237B (en) Filter processing method and device and electronic equipment
JP2018097415A (en) Image processing apparatus, image processing method, image processing system, and program
JP5672168B2 (en) Image processing apparatus, image processing method, and program
JP6919433B2 (en) Image processing equipment, image processing methods, image processing systems and programs
JP5903315B2 (en) Image processing apparatus and image processing program
CN111626935B (en) Pixel map scaling method, game content generation method and device
EP3719740B1 (en) Image processing device, image processing method, and image processing program
JP2009070103A (en) Image processor and image processing method
KR102369248B1 (en) Object segmentation apparatus and method using gaussian mixture model and total variation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200511

R150 Certificate of patent or registration of utility model

Ref document number: 6711031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees