JP6407467B1 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP6407467B1 JP6407467B1 JP2018097104A JP2018097104A JP6407467B1 JP 6407467 B1 JP6407467 B1 JP 6407467B1 JP 2018097104 A JP2018097104 A JP 2018097104A JP 2018097104 A JP2018097104 A JP 2018097104A JP 6407467 B1 JP6407467 B1 JP 6407467B1
- Authority
- JP
- Japan
- Prior art keywords
- small
- region
- area
- unit
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
【課題】画像から対象領域を背景領域と区別して切り出すために、画素に対して前景ラベル、背景ラベルを十分に正確に振り分けることができる画像処理装置、画像処理方法およびプログラムを提供すること。【解決手段】元画像を入力する画像入力部と、入力された前記元画像に対して、DNNを用いて、一次的な対象領域を算出して、前記一次的な対象領域以外の領域に背景ラベルを振り分ける一次対象領域算出部と、前記一次的な対象領域内において小領域の枠をスライドさせながら、前記小領域の抽出を行う小領域スライド部と、前記小領域の特徴を平均値や分散を用いて統計的に評価して数値化する小領域特徴数値化部と、前記小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、前記小領域に含まれる情報に基づいてニューラルネットワークを用いて前記各小領域のクラスタリングを行い、前記小領域内の前記元画像の類似性または特徴ごとにノードとして記憶する小領域クラスタリング部と、前記小領域スライド部によって抽出された前記小領域と入力された前記元画像、前記小領域クラスタリング部による前記各ノードとの関係性などを評価することで、前記一次的な対象領域内の各位置に前記小領域をリンクする小領域リンク部と、前記小領域クラスタリング部による前記各小領域のクラスと、入力された前記画像との位置関係を評価し、前記小領域の連続性について評価して評価値を算出する小領域つながり評価部と、前記小領域つながり評価部による前記評価値を用いて、前記一次対象領域算出部によって切り出された前記一次的な対象領域を二次的な前記対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、前記背景ラベルの振り分けを行ない、また、前記小領域内の前記各画素ごとについても個別に前記前景ラベル、前記背景ラベルの振り分けを行なう二次対象領域背景領域切分部と、前記二次対象領域背景領域切分部により、前記前景ラベル、前記背景ラベルを振り分けた結果をグラフカットの初期値として用いることで、前記グラフカットにより前記二次的な対象領域と前記背景領域でさらに前記前景ラベル、前記背景ラベルの振り分けを行なうグラフカット部と、前記グラフカット部によって前記前景ラベルとされた前記画素のみを対象画像として生成して出力する画像生成部とを備える画像処理装置。【選択図】図2To provide an image processing apparatus, an image processing method, and a program capable of sufficiently and accurately assigning a foreground label and a background label to pixels in order to distinguish a target area from a background area and cut it out from an image. An image input unit that inputs an original image, and a primary target area is calculated using DNN for the input original image, and a background is set in an area other than the primary target area. A primary target area calculation unit that distributes labels, a small area slide unit that extracts a small area while sliding a small area frame within the primary target area, and an average value or variance of the characteristics of the small area The information included in the small area is converted into a vector by converting the information including the position information and features in the pixel in the small area into a small area characteristic digitizing unit that is statistically evaluated and digitized using A small area clustering unit that performs clustering of each of the small areas using a neural network and stores as a node for each similarity or feature of the original image in the small area; and By evaluating the relationship between the small region extracted by the node and the original image inputted, the nodes by the small region clustering unit, etc., the small region is positioned at each position in the primary target region. A small area linking unit for linking areas, a class of each small area by the small area clustering unit, and a positional relationship between the input images and the continuity of the small areas are evaluated to obtain an evaluation value. Using the evaluation values obtained by the small region connection evaluation unit and the small region connection evaluation unit to calculate the primary target region cut out by the primary target region calculation unit, the secondary target region and the background region The foreground label and the background label are assigned to each of the pixels, and the foreground label, By using the result of distributing the foreground label and the background label by the secondary target area background area cut-out section that performs background label distribution and the secondary target area background area cut-out section as the initial value of the graph cut. A graph cut unit for further distributing the foreground label and the background label in the secondary target region and the background region by the graph cut, and only the pixels that are made the foreground label by the graph cut unit An image processing apparatus comprising: an image generation unit that generates and outputs an image. [Selection] Figure 2
Description
本発明は、画像処理技術に関し、特に、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing technique, and more particularly to an image processing apparatus, an image processing method, and a program.
従来、写真画像からファッションアイテム(例えば洋服である。)だけを対象領域として背景領域と区別して切り出すことは難しかった。グレースケール等で画素の濃淡だけで判断すると、洋服は繊維であり凸凹を有しており、また光の加減、模様などにより、ノイズとして検出されてしまうことが多かった。 Conventionally, it has been difficult to cut out only a fashion item (for example, clothes) from a photographic image as a target area separately from a background area. Judging from the gray scale or the like only by the shading of the pixels, the clothes are fibers and have irregularities, and are often detected as noise due to light intensity and patterns.
ここで、関連技術として、以下のものがある。 Here, there are the following as related technologies.
特許文献1では以下の内容が開示されている。
対象領域を高精度に抽出するための技術として、画像を対象領域と背景領域とに分割することを画素間のリンクの切断でモデル化するグラフカット法が知られており、例えば、各画素をノードに見立てたグラフを作成して当該グラフを最小のエネルギーにて対象物領域のノード群と背景領域のノード群とに分割する切断を導出する。
しかし、各特徴量が適さない部位で抽出精度が低下する問題があった。
例えば、白いシャツを着た人物が棚及び白い壁の前を歩いているとき、シャツ付近では色の特徴量が抽出に適さずに抽出精度が低下し、脚部では形状の特徴量が抽出に適さずに抽出精度が低下する。
すなわちシャツ付近では、シャツと壁との境界以外にシャツの領域内でも壁の領域内でも色特徴のエネルギーが小さくなり得るため、シャツの一部が欠けた人物領域が抽出されたり、壁の領域を含んだ人物領域が抽出されたりしやすくなる。
一方、脚部付近では足のエッジに対しても棚のエッジに対しても形状特徴のエネルギーが小さくなり得るため、足の一部が欠けた人物領域が抽出されたり、棚の領域を含んだ人物領域が抽出されたりしやすくなる。
このように人物と背景との間で色が似ている部分が発生したり、人物付近に背景のエッジが存在する状況で抽出精度の低下が生じるが、人物の色は様々であり、また人物の移動によって人物周囲の背景の色やエッジは変わるため、色特徴のエネルギー及び形状特徴のエネルギーの適切な寄与率の配置を予め設定することは困難である。
上記問題を鑑みて、例えば、頭部では色重視の領域分割を行い、脚部では形状重視の領域分割を行う、というように1つの対象物でも部位ごとに特徴量の寄与が調整されることにより、対象物の部位ごとに異なる精度低下要因が生じても対象物の領域を高精度に抽出できる技術が提案されている(特許文献1参照)。
Patent Document 1 discloses the following contents.
As a technique for extracting a target region with high accuracy, a graph cut method is known in which an image is divided into a target region and a background region by modeling a link between pixels. A graph that looks like a node is created, and a cut that divides the graph into a node group of the object region and a node group of the background region with the minimum energy is derived.
However, there is a problem that the extraction accuracy is lowered at a site where each feature amount is not suitable.
For example, when a person wearing a white shirt is walking in front of a shelf and a white wall, the color feature is not suitable for extraction near the shirt, and the extraction accuracy is reduced. Inadequate extraction accuracy decreases.
In other words, in the vicinity of the shirt, the energy of the color feature can be reduced in both the shirt area and the wall area in addition to the boundary between the shirt and the wall. It is easy to extract a person area including.
On the other hand, because the energy of the shape feature can be reduced near the leg edge and the edge of the shelf near the leg, a person area lacking a part of the foot is extracted or includes the area of the shelf It becomes easy to extract a person area.
In this way, there are parts where the color is similar between the person and the background, or there is a background edge near the person, but the extraction accuracy decreases, but the color of the person varies, and the person Since the background color and edges around the person change due to the movement of, it is difficult to preset the arrangement of appropriate contribution ratios of the energy of the color features and the energy of the shape features.
In view of the above problems, the contribution of the feature amount is adjusted for each part of even one target object, for example, color-based region division is performed at the head and shape-oriented region division is performed at the leg. Thus, a technique has been proposed in which a region of an object can be extracted with high accuracy even when a different factor of decreasing accuracy occurs for each part of the object (see Patent Document 1).
特許文献2では以下の内容が開示されている。
グラフカットでは、人手で物体と背景の代表画素(以下、シードとも呼ぶ)、シードを元に物体切出しを行うため、人手でシードを設定しなければならないという欠点を持つ。
一方、シードを人手で設定しない手法としては、シードを自動計算する手法がある、予め抽出したい対象を別手法で学習しておき、領域を大まかに推定した後、領域内部と外部の画素をシードとして使用するといったものである。
グラフカットでは、画像各画素をノードとし、これに背景(又は前景)ラベルに対応するソースノードと前景(又は背景)ラベルに対応するシンクノードの2つのノードを加えたノードを持つグラフが作成される。
隣接する画素ノード間には、Nリンクと呼ばれるリンクが張ってあり、また、ソースノードと画素ノード間、シンクノードと画素ノード間にはTリンクと呼ばれるリンクが張ってある。
ここで、従来技術では、画素ノードの一部に、人手または学習によって、背景・前景の正解ラベルを付与する。正解ラベルは、シードとも呼ぶ。
背景の正解ラベルを付与されたものが背景シード、前景の正解ラベルを付与されたものが前景シードである。これらのシードをユーザが指定するといったものであり、これらのシードを別手法により目的とする物体領域を推定し、領域の内側又は外側から前景シード又は背景シードを求めるといったものである。
シードを求めた後は、シードの特徴とシード以外の画素の特徴との関係からTリンクに付与するコストが計算される。TリンクとNリンクとのコストの和で定義されたエネルギー関数値が最小となるように、グラフを2つのサブグラフにカットすることで、前景と背景との分離を行うのがグラフカットの手法である。
シードを手で設定したり、多量なデータを収集して学習したりせずに、データコストを計算する必要があるため、グラフカットの手法を用いるが、シードをユーザが手で設定せずに、また、学習を必要としないパターン抽出を可能とする技術が提案されている(特許文献2参照)。
The graph cut has a drawback that the seed must be set manually because the object and background representative pixels (hereinafter also referred to as seeds) and the object are cut out manually based on the seed.
On the other hand, there is a method that does not manually set the seed. There is a method that automatically calculates the seed. After learning the target to be extracted in advance using another method and roughly estimating the region, seed the pixels inside and outside the region. It is used as.
In graph cut, a graph is created with each image pixel as a node, plus two nodes: a source node corresponding to the background (or foreground) label and a sink node corresponding to the foreground (or background) label. The
A link called an N link is extended between adjacent pixel nodes, and a link called a T link is extended between the source node and the pixel node and between the sink node and the pixel node.
Here, in the prior art, correct labels for the background and the foreground are assigned to a part of the pixel nodes manually or by learning. The correct answer label is also called a seed.
A background seed is assigned a background correct label, and a foreground seed is assigned a foreground correct label. These seeds are specified by the user, the target object region is estimated by another method using these seeds, and the foreground seed or background seed is obtained from the inside or outside of the region.
After obtaining the seed, the cost to be given to the T link is calculated from the relationship between the characteristics of the seed and the characteristics of the pixels other than the seed. The graph cut technique is used to separate the foreground and the background by cutting the graph into two subgraphs so that the energy function value defined by the sum of the costs of the T link and N link is minimized. is there.
Since it is necessary to calculate the data cost without setting the seed by hand or collecting and learning a large amount of data, the graph cut method is used, but the seed is not set by the user by hand. In addition, a technique that enables pattern extraction that does not require learning has been proposed (see Patent Document 2).
しかし、上記の特許文献1および特許文献2に開示されている技術でも、画像から対象領域を背景領域と区別して切り出すために、画素に対して前景ラベル、背景ラベルを十分に正確に振り分けることは未だ困難であった。
However, even with the techniques disclosed in Patent Document 1 and
本発明の目的は、画像から対象領域を背景領域と区別して切り出すために、画素に対して前景ラベル、背景ラベルを十分に正確に振り分けることができる画像処理装置、画像処理方法およびプログラムを提供することにある。 An object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of sufficiently and accurately assigning foreground labels and background labels to pixels in order to distinguish a target area from a background area and cut out from an image. There is.
本発明の画像処理装置は、
元画像を入力する画像入力部と、
入力された前記元画像に対して、DNNを用いて、一次的な対象領域を算出して、前記一次的な対象領域以外の領域に背景ラベルを振り分ける一次対象領域算出部と、
前記一次的な対象領域内において小領域の枠をスライドさせながら、前記小領域の抽出を行う小領域スライド部と、
前記小領域の特徴を平均値や分散を用いて統計的に評価して数値化する小領域特徴数値化部と、
前記小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、前記小領域に含まれる情報に基づいてニューラルネットワークを用いて前記各小領域のクラスタリングを行い、前記小領域内の前記元画像の類似性または特徴ごとにノードとして記憶する小領域クラスタリング部と、
前記小領域スライド部によって抽出された前記小領域と入力された前記元画像、前記小領域クラスタリング部による前記各ノードとの関係性を評価することで、前記一次的な対象領域内の各位置に前記小領域をリンクする小領域リンク部と、
前記小領域クラスタリング部による前記各小領域のクラスと、入力された前記画像との位置関係を評価し、前記小領域の連続性について評価して評価値を算出する小領域つながり評価部と、
前記小領域つながり評価部による前記評価値を用いて、前記一次対象領域算出部によって切り出された前記一次的な対象領域を二次的な前記対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、前記背景ラベルの振り分けを行ない、また、前記小領域内の前記各画素ごとについても個別に前記前景ラベル、前記背景ラベルの振り分けを行なう二次対象領域背景領域切分部と、
前記二次対象領域背景領域切分部により、前記前景ラベル、前記背景ラベルを振り分けた結果をグラフカットの初期値として用いることで、前記グラフカットにより前記二次的な対象領域と前記背景領域でさらに前記前景ラベル、前記背景ラベルの振り分けを行なうグラフカット部と、
前記グラフカット部によって前記前景ラベルとされた前記画素のみを対象画像として生成して出力する画像生成部と
を備える。
The image processing apparatus of the present invention
An image input unit for inputting an original image;
A primary target area calculation unit that calculates a primary target area using DNN and assigns a background label to an area other than the primary target area for the input original image;
A small area slide unit that extracts the small area while sliding a frame of the small area in the primary target area;
A small region feature quantification unit that statistically evaluates and quantifies the features of the small region using an average value and variance;
By vectorizing the position information in the pixel in the small region and the information including the feature, the small region is clustered using a neural network based on the information included in the small region. A small area clustering unit that stores as a node for each similarity or feature of the original image,
By evaluating the relationship between the small region extracted by the small region slide unit and the input original image, and each node by the small region clustering unit, each position in the primary target region is evaluated. A small area link portion that links the small areas;
A small region connection evaluation unit that evaluates the positional relationship between the class of each small region by the small region clustering unit and the input image, evaluates the continuity of the small region, and calculates an evaluation value;
Using the evaluation value by the small region connection evaluation unit, the primary target region cut out by the primary target region calculation unit is divided into the secondary target region and the background region, and foreground A label, a background label, and a secondary target area background area separation unit that performs the foreground label and the background label individually for each pixel in the small area;
By using the result of sorting the foreground label and the background label as the initial value of the graph cut by the secondary target region background region segmentation unit, the secondary target region and the background region by the graph cut are used. Furthermore, the foreground label, the graph cut part for sorting the background label,
An image generation unit that generates and outputs only the pixels that have been used as the foreground label by the graph cut unit as a target image.
本発明の画像処理方法は、
画像入力部により、元画像を入力するステップと、
一次対象領域算出部により、入力された前記元画像に対して、DNNを用いて、一次的な対象領域を算出して、前記一次的な対象領域以外の領域に背景ラベルを振り分けるステップと、
小領域スライド部により、前記一次的な対象領域内において小領域の枠をスライドさせながら、前記小領域の抽出を行うステップと、
小領域特徴数値化部により、前記小領域の特徴を平均値や分散を用いて統計的に評価して数値化するステップと、
小領域クラスタリング部により、前記小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、前記小領域に含まれる情報に基づいてニューラルネットワークを用いて前記各小領域のクラスタリングを行い、前記小領域内の前記元画像の類似性または特徴ごとにノードとして記憶するステップと、
小領域リンク部により、前記小領域スライド部によって抽出された前記小領域と入力された前記元画像、前記小領域クラスタリング部による前記各ノードとの関係性を評価することで、前記一次的な対象領域内の各位置に前記小領域をリンクするステップと、
小領域つながり評価部により、前記小領域クラスタリング部による前記各小領域のクラスと、入力された前記画像との位置関係を評価し、前記小領域の連続性について評価して評価値を算出するステップと、
二次対象領域背景領域切分部により、前記小領域つながり評価部による前記評価値を用いて、前記一次対象領域算出部によって切り出された前記一次的な対象領域を二次的な前記対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、前記背景ラベルの振り分けを行ない、また、前記小領域内の前記各画素ごとについても個別に前記前景ラベル、前記背景ラベルの振り分けを行なうステップと、
グラフカット部により、前記二次対象領域背景領域切分部で、前記前景ラベル、前記背景ラベルを振り分けた結果をグラフカットの初期値として用いることで、前記グラフカットで前記二次的な対象領域と前記背景領域でさらに前記前景ラベル、前記背景ラベルの振り分けを行なうステップと、
画像生成部により、前記グラフカット部によって前記前景ラベルとされた前記画素のみを対象画像として生成して出力するステップと
を有する。
The image processing method of the present invention includes:
A step of inputting an original image by an image input unit;
A step of calculating a primary target area using DNN for the input original image by the primary target area calculation unit and allocating a background label to an area other than the primary target area;
Extracting the small area while sliding the frame of the small area in the primary target area by the small area slide unit;
A step of quantifying the characteristics of the small region statistically using an average value or variance by the small region feature digitizing unit;
The small area clustering unit vectorizes the position information in the pixel in the small area and information including the features, thereby performing clustering of the small areas using a neural network based on the information included in the small area. And storing as a node for each similarity or feature of the original image in the small region;
The small area link portion, the small region sliding part the original image input and extracted the small area by the to assess the relationship between each node of the Sub area clustering unit, the primary subject Linking the subregion to each position within the region;
A step of evaluating a positional relationship between the class of each small region by the small region clustering unit and the inputted image by a small region connection evaluation unit, evaluating the continuity of the small regions, and calculating an evaluation value; When,
By using the evaluation value obtained by the small region connection evaluation unit, the primary target region cut out by the primary target region calculation unit is determined as a secondary target region by the secondary target region background region cutting unit. Dividing into background areas, foreground labels and background labels are assigned to each, and foreground labels and background labels are individually assigned for each pixel in the small area;
By using the result of distributing the foreground label and the background label by the graph cut unit as the initial value of the graph cut in the secondary target region background region dividing unit, the secondary target region in the graph cut And further sorting the foreground label and the background label in the background region;
And a step of generating and outputting only the pixels set as the foreground label by the graph cut unit as a target image by an image generation unit.
本発明のプログラムは、
情報処理装置に、
画像入力部により、元画像を入力させる処理と、
一次対象領域算出部により、入力された前記元画像に対して、DNNを用いて、一次的な対象領域を算出して、前記一次的な対象領域以外の領域に背景ラベルを振り分けさせる処理と、
小領域スライド部により、前記一次的な対象領域内において小領域の枠をスライドさせながら、前記小領域の抽出を行わせる処理と、
小領域特徴数値化部により、前記小領域の特徴を平均値や分散を用いて統計的に評価して数値化させる処理と、
小領域クラスタリング部により、前記小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、前記小領域に含まれる情報に基づいてニューラルネットワークを用いて前記各小領域のクラスタリングを行い、前記小領域内の前記元画像の類似性または特徴ごとにノードとして記憶させる処理と、
小領域リンク部により、前記小領域スライド部によって抽出された前記小領域と入力された前記元画像、前記小領域クラスタリング部による前記各ノードとの関係性を評価することで、前記一次的な対象領域内の各位置に前記小領域をリンクさせる処理と、
小領域つながり評価部により、前記小領域クラスタリング部による前記各小領域のクラスと、入力された前記画像との位置関係を評価し、前記小領域の連続性について評価して評価値を算出させる処理と、
二次対象領域背景領域切分部により、前記小領域つながり評価部による前記評価値を用いて、前記一次対象領域算出部によって切り出された前記一次的な対象領域を二次的な前記対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、前記背景ラベルの振り分けを行ない、また、前記小領域内の前記各画素ごとについても個別に前記前景ラベル、前記背景ラベルの振り分けを行わせる処理と、
グラフカット部により、前記二次対象領域背景領域切分部で、前記前景ラベル、前記背景ラベルを振り分けた結果をグラフカットの初期値として用いることで、前記グラフカットで前記二次的な対象領域と前記背景領域でさらに前記前景ラベル、前記背景ラベルの振り分けを行わせる処理と、
画像生成部により、前記グラフカット部によって前記前景ラベルとされた前記画素のみを対象画像として生成して出力させる処理と
を実行させる。
The program of the present invention
In the information processing device,
A process of inputting an original image by the image input unit;
A process of calculating a primary target area using the DNN and distributing a background label to an area other than the primary target area for the input original image by the primary target area calculation unit;
A process of extracting the small area while sliding a frame of the small area in the primary target area by the small area slide unit;
A process of statistically evaluating and quantifying the features of the small region using an average value and variance by the small region feature digitizing unit;
The small area clustering unit vectorizes the position information in the pixel in the small area and information including the features, thereby performing clustering of the small areas using a neural network based on the information included in the small area. Processing to store as a node for each similarity or feature of the original image in the small area,
The small area link portion, the small region sliding part the original image input and extracted the small area by the to assess the relationship between each node of the Sub area clustering unit, the primary subject Linking the small area to each position within the area;
A process of evaluating a positional relationship between the class of each small region by the small region clustering unit and the input image by the small region connection evaluation unit, evaluating the continuity of the small regions, and calculating an evaluation value When,
By using the evaluation value obtained by the small region connection evaluation unit, the primary target region cut out by the primary target region calculation unit is determined as a secondary target region by the secondary target region background region cutting unit. A process of dividing the background area into the foreground label and the background label for each of the background areas, and separately assigning the foreground label and the background label to each of the pixels in the small area; ,
By using the result of distributing the foreground label and the background label by the graph cut unit as the initial value of the graph cut in the secondary target region background region dividing unit, the secondary target region in the graph cut And processing for further sorting the foreground label and the background label in the background region,
The image generation unit executes a process of generating and outputting only the pixels that have been set as the foreground label by the graph cut unit as a target image.
本発明によれば、画像から対象領域を背景領域と区別して切り出すために、画素に対して前景ラベル、背景ラベルを十分に正確に振り分けることができる画像処理装置、画像処理方法およびプログラムを提供することができる。 According to the present invention, there is provided an image processing apparatus, an image processing method, and a program capable of sufficiently and accurately assigning a foreground label and a background label to a pixel in order to distinguish a target area from a background area from an image. be able to.
以下、本発明の実施の形態を図面を参照しつつ説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施の形態における画像処理装置の構成の一例を示す図である。図1に示す例では、画像処理装置10は、撮像部20に接続されている。
撮像部20は、カメラ等であってよく、例えば、新商品のファッションアイテムを着用したモデルやマネキンを撮像する。
画像処理装置10は、ここでは撮像部20と別構成として示すが、同じ装置内に設けてもよく、また、表示部などを設けてもよい。
FIG. 1 is a diagram illustrating an example of a configuration of an image processing apparatus according to the present embodiment. In the example illustrated in FIG. 1, the
The
The
画像処理装置10は、例えば、撮像部20により撮像された画像に対してパターン抽出などの画像処理を実行する、パーソナル・コンピュータ(Personal Computer)、タブレット端末、スマートフォンなどの情報処理装置であり、ハードウェアとして、制御部101、主記憶部102、補助記憶部103、通信部104およびドライブ装置105などの周知の構成を備えている。なお、各部は、バスを介して相互にデータ送受信可能に接続されている。
The
制御部101は、所定の情報処理装置において、各装置の制御やデータの演算、加工を行うCPU(Central Processing Unit)である。また、制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力装置や記憶装置からデータを受け取り、演算、加工したうえで、所定の出力装置(不図示)や記憶装置に出力する。
The
主記憶部102は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部102は、制御部101が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
The
補助記憶部103は、例えばHDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。補助記憶部103は、例えば撮像部20から取得した画像のデータなどを記憶する。
The
通信部104は、有線又は無線で周辺機器とデータ通信を行う。通信部104は、例えば、ネットワークを介して、パターンを含む画像を取得して、補助記憶部103に記憶する。
The
ドライブ装置105は、記録媒体106、例えば、フレキシブルディスク、CD(Compact Disc)、光磁気ディスクなどから所定のプログラムを読み出し、記憶装置にインストールする。インストールされた所定のプログラムは、画像処理装置10により実行可能となる。なお、所定のネットワークを介して他の装置から所定のプログラムを取得することであってもよい。
The
図2は、本実施の形態における画像処理装置10の機能ブロック図である。図2に示す例では、画像処理装置10は、画像入力部201、一次対象領域算出部202、小領域スライド部203、小領域特徴数値化部204、小領域クラスタリング部205、小領域リンク部206、小領域つながり評価部207、二次対象領域背景領域切分部208、グラフカット部209および画像生成部210を有している。
FIG. 2 is a functional block diagram of the
図2に示す各部は、例えば、制御部101が、補助記憶部103に記憶される画像処理プログラムを主記憶部102にロードし、実行することで機能する。すなわち、図2に示す各部は、例えば、制御部101およびワークメモリとしての主記憶部102により実現され得るし、ハードウェア的に実現されることであってもよい。
Each unit illustrated in FIG. 2 functions, for example, when the
画像入力部201は、例えば、撮像部20により撮像された画像(元画像)を入力する機能を有している。入力される画像は、カラー画像でもよい。画像入力部201は、入力された画像を主記憶部102に記憶する。
For example, the
一次対象領域算出部202は、入力された画像(記憶部102に記憶された元画像)に対して、DNN(多層ニューラルネットワーク)を用いた手法により、一次的な対象領域(最終的な背景領域の一部を含んだものであってよい。)を算出して、対象領域(一次的な)以外の領域に背景ラベルを振り分ける機能を有している。
The primary target
小領域スライド部203は、対象領域内において小領域の枠をスライドさせながらその小領域の抽出を行う機能を有している。例えば、図3に示すように、3×3の合計9マスを1つの小領域の枠として、左右や上下方向に1マス分ずつスライドさせていくことであってもよい。
The small
小領域特徴数値化部204は、小領域スライド部203によって抽出された小領域の特徴を定量的に評価して数値化する機能を有している。
The small region
小領域クラスタリング部205は、各小領域の特徴をクラスタリングし、小領域内の画像の類似性または特徴ごとにノードとして記憶する機能を有している。小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、これらの小領域に含まれる情報を用いてニューラルネットワークを用いて各小領域のクラスタリング(分類)を行う。
The small
小領域リンク部206は、小領域スライド部203によって抽出された小領域と入力された画像(記憶部102に記憶された元画像)、小領域クラスタリング部205における各ノードとの関係性をリンクによって表現する機能を有している。背景ラベルが振り分けられた領域とのつながりと、対象領域(一次的な)における重心に位置する小領域のつながりなどを評価することで、対象領域(一次的な)内の各位置に小領域をリンクする。
The small
小領域つながり評価部207は、小領域クラスタリング部205における各小領域のクラスと、入力された画像(記憶部102に記憶された元画像)との位置関係を評価し、小領域の連続性について評価を行う機能を有している。類似した小領域のつながりとラベルの類似性を評価する。
The small region
二次対象領域背景領域切分部208は、小領域つながり評価部207による評価値を用いて、各小領域ごとにラベルを振り分ける、すなわち、一次対象領域算出部202によって切り出された対象領域(一次的な)を二次的な対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、背景ラベルの振り分けを行ない、また、小領域内の各画素ごとについても個別に前景ラベル、背景ラベルの振り分けを行ない、ラベル付けを行う機能を有している。
The secondary target area background
グラフカット部209は、二次対象領域背景領域切分部208によりラベル付けされた情報をもとに、対象領域(二次的な)と背景領域でさらに前景ラベル、背景ラベルの振り分けを行ない、ラベル付けを行う機能を有している。
The graph cut
画像生成部210は、グラフカット部209によって前景ラベルとされた画素のみを画像(対象画像)として生成する機能を有している。
The
次に、図4のフローチャートを参照して、本実施の形態における画像処理装置10の処理動作を詳細に説明する。以下では、画像の対象領域と背景領域に対してそれぞれ前景ラベル、背景ラベルを振り分けることを前提として説明する。
Next, the processing operation of the
まず、画像処理装置10の画像入力部201は、例えば、撮像部20により撮像された画像を入力する(ステップS01)。画像入力部201は、入力された画像を主記憶部102に記憶する。
First, the
次に、画像処理装置10の一次対象領域算出部202は、画像入力部201により入力された画像に対して、DNN(多層ニューラルネットワーク)を用いて、一次的な対象領域(最終的な前景領域・背景領域の一部を含んだものであってよい。)を算出し、対象領域(一次的な)以外の領域に背景ラベルを振り分ける(ステップS02)。なお、このとき対象領域(一次的な)内にはまだ前景ラベルは振り分けない。
Next, the primary target
次に、画像処理装置10の小領域スライド部203は、対象領域(一次的な)内において小領域の枠をスライドさせながら(図3参照)、その小領域の抽出を行う(ステップS03)。なお、小領域の枠のスライドとともに随時、以下に述べるような処理により、背景ラベルが振り分けられた領域とのつながりと、対象領域(一次的な)における重心に位置する小領域のつながりを評価することで、二次的な対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、背景ラベルの振り分けを行うこととなる。
Next, the small
画像処理装置10の小領域特徴数値化部204は、小領域の特徴を定量的に評価し数値化する(ステップS04)。例えば、濃淡でなく(白黒の細かいチェックだと人間の視覚によるとグレーだが、機械はそれぞれ認識してしまうので所定のマスは平均でグレーと認識したい)、各小領域における画素のパターンを平均値や分散を用いて統計的に評価して数値化する。
The small area
画像処理装置10の小領域クラスタリング部205は、各小領域の特徴をクラスタリングし、小領域内の画像の類似性または特徴ごとにノードとして記憶する(ステップS05)。すなわち、小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、これらの小領域に含まれる情報に基づいてニューラルネットワークを用いて各小領域のクラスタリング(分類)を行う。
The small
画像処理装置10の小領域リンク部206は、小領域スライド部203によって抽出された小領域と入力された画像(記憶部102に記憶された元画像)、小領域クラスタリング部205による各ノードとの関係性などを評価することで、対象領域(一次的な)内の各位置に小領域をリンクする(ステップS06)。背景ラベルが振り分けられた領域とのつながりと、対象領域(一次的な)における重心に位置する小領域のつながりなどを評価することで、対象領域(一次的な)内の各位置に小領域をリンクする。
The small
画像処理装置10の小領域つながり評価部207は、小領域クラスタリング部205による各小領域のクラスと、入力された画像(記憶部102に記憶された元画像)との位置関係を評価し、小領域の連続性について評価して評価値を算出する(ステップS07)。類似した小領域のつながりとラベルの類似性を評価する。
The small region
画像処理装置10の二次対象領域背景領域切分部208は、小領域つながり評価部207による評価値を用いて、各小領域ごとにラベルを振り分ける、すなわち、一次対象領域算出部202によって切り出された対象領域(一次的な)を二次的な対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、背景ラベルの振り分けを行ない、また、小領域内の各画素ごとについても個別に前景ラベル、背景ラベルの振り分けを行ない、ラベル付けを行う(ステップS08)。
The secondary target region background
DNNを用いた前処理(一次的な)による背景領域のラベリングと、これらのラベル情報を用いてさらにニューラルネッワークを用いた、画像の各位置と関連づけられた小領域のクラスタリングによる少なくとも2つ以上の多段階方式が実現される。
このように、多段階的に切り分けることで、より詳細に前景領域と背景領域を徐々に切り分けることが可能となる。また、各画像の位置と関連づけられた小領域に対してラベルを振り分け、ニューラルネットワークを用いて小領域のクラスタリングを行うことで、小領域ごとの特徴のトポロジー(関連性)を抽出することができる。
At least two or more by the labeling of the background area by the pre-processing (primary) using DNN and the clustering of the small area associated with each position of the image using the label information and further using the neural network A multi-stage scheme is realized.
In this way, by separating in multiple stages, it becomes possible to gradually separate the foreground area and the background area in more detail. In addition, by assigning labels to small areas associated with the position of each image and clustering the small areas using a neural network, it is possible to extract the topology (relevance) of features for each small area. .
次に、画像処理装置10のグラフカット部209は、二次対象領域背景領域切分部208により、入力された画像の対象領域(二次的な)と背景領域に前景ラベル、背景ラベルを振り分けた結果をグラフカットの初期値として用いることで、グラフカットによるさらなる詳細な対象領域の抽出、すなわち対象領域(二次的な)と背景領域でさらに前景ラベル、背景ラベルの振り分けを行ない、ラベル付けを行う(ステップS09)。グラフカットの際、エネルギーの評価関数の和を最小化することで、小領域に含まれる画素を前景領域と背景領域にさらに精度よく切り分ける。すなわち、小領域の前景ラベル、背景ラベルを用いて小領域自体を切り分けるのではなく、小領域内の画素における前景ラベルと背景ラベルを用いて各小領域における画素を前景領域と背景領域に切り分ける。換言すれば、小領域の塊を切り分けるのではなく、小領域が含む画素に対しての切り分けを可能にする。
Next, the graph cut
そして、画像処理装置10の画像生成部210は、グラフカット部209によって前景ラベルとされた画素のみを対象画像として生成して所定の出力装置(画像表示装置)などに出力する(ステップS10)。これにより、入力された画像から最終的な対象領域のみを最終的な背景領域と区別して切り出すことができる。すなわち、例えば、写真画像からファッションアイテム(例えば洋服である。)だけを対象画像として最終的な背景領域と区別して切り出すことが可能となる。
Then, the
本実施の形態によれば、画像から対象領域(最終的な)を背景領域(最終的な)と区別して切り出すために、画素に対して前景ラベル、背景ラベルを十分に正確に振り分けることができる。 According to the present embodiment, the foreground label and the background label can be allocated to the pixel sufficiently accurately in order to distinguish the target region (final) from the image and distinguish it from the background region (final). .
また、本実施の形態によれば、ニューラルネットワークにより、入力された画像の各位置に関連付けられた小領域の対象領域および背景領域をラベリングすることにより、入力された画像を間接的に対象領域と背景領域に切り分けるため、従来のような所定の閾値(濃淡など)を用いることなく、各小領域に関連付けられた画像の特徴をふるいわけることで、非線形な特徴トポロジーをもった小領域の分類が可能になる。すなわち、より、周辺領域との画像の特徴のつながりを考慮した分類およびラベリングが可能となる。 Further, according to the present embodiment, the input image is indirectly identified as the target region by labeling the target region and the background region of the small region associated with each position of the input image by the neural network. By classifying the features of the image associated with each small region without using a predetermined threshold (such as shading) as in the past, it is possible to classify the small region with a non-linear feature topology. It becomes possible. That is, classification and labeling can be performed in consideration of the connection of image features with the peripheral region.
また、本実施の形態によれば、これまでのように画像を素領域ごとに振り分けるのではなく、小領域の枠を対象領域内でスライドさせることで、小領域を画像の各位置とリンクさせ、リンクされた小領域を対象領域か背景領域かのどちらかに切り分ける、つまり、関連づけされた小領域にラベルを振り分けることとなり、関連付けされた小領域をラベル付けし、さらにクラスタリングに用いることで、小領域の特徴のつながりを評価し、また、DNNにおいて背景と判断された領域と対象領域にリンクされた小領域とのつながりを考慮し、より詳細に部分ごとの特徴のつながりを評価することができる。 Further, according to the present embodiment, the image is not divided into the elementary regions as in the past, but the small region is linked with each position of the image by sliding the frame of the small region within the target region. By dividing the linked small region into either the target region or the background region, that is, the label is assigned to the associated small region, and the associated small region is labeled and used for clustering. It is possible to evaluate the connection of features in each small area in detail, considering the connection between the area determined to be the background in DNN and the small area linked to the target area. it can.
また、これまでの隣接する画素間で分類(グルーピング)を行う手法は、様々な模様や質感のあるファッションアイテム(例えば洋服である。)の画像にはノイズとして検出される可能性が高いため適さないが、本実施の形態によれば、画像の各位置を初めから小領域に関連付けることで、画素単位では無く、画像の周辺領域を含んだ広い範囲を考慮しニューラルネットワークにより分類(グルーピング)を行うため、周辺領域内で類似画素が連続しない場合でも輪郭の抽出が可能となる。例えば、小領域ごとの境界の傾きをみて、小領域の画像全体に対する連接角度が連続していくような輪郭の抽出が可能となる。 In addition, the conventional method of performing classification (grouping) between adjacent pixels is suitable because it is highly likely to be detected as noise in images of fashion items having various patterns and textures (for example, clothes). However, according to the present embodiment, by associating each position of an image with a small region from the beginning, classification (grouping) is performed by a neural network in consideration of a wide range including a peripheral region of the image, not a pixel unit. Therefore, the contour can be extracted even when the similar pixels are not continuous in the peripheral region. For example, it is possible to extract a contour such that the concatenation angle of the small region with respect to the entire image is continuous by looking at the inclination of the boundary for each small region.
また、本実施の形態によれば、前景(対象領域)と背景における画像と関連付けられた小領域を、ニューラルネットワークを用いて分類するため、各画像上に複数関連付けられた小領域を考慮することで、それぞれの複数領域における画像の特徴の統計的違いを考慮することが可能である。 In addition, according to the present embodiment, the small areas associated with the images in the foreground (target area) and the background are classified using a neural network, so that a plurality of small areas associated with each image are considered. Thus, it is possible to take into account statistical differences in image features in each of the plurality of regions.
また、本実施の形態によれば、特定の確率モデルを使用するのでは無く、ニューラルネットによるより柔軟な非線形な解析が期待できる。 Further, according to the present embodiment, a more flexible nonlinear analysis using a neural network can be expected instead of using a specific probability model.
以下では、本実施の形態による画像処理方法を活用したサービス例を説明する。
自動タグ付サービス:ATS(Auto Tagging Service)、すなわち、オンラインストア運営に伴う説明文・検索ワード付業務の最適化・効率化に活用することができる。
Hereinafter, an example of a service using the image processing method according to the present embodiment will be described.
Automatic tagging service: ATS (Auto Tagging Service), that is, it can be used for optimizing and improving the efficiency of operations with explanatory texts and search words associated with online store operations.
まず、従来のオンラインストア運営業務の流れとして、(1)商品撮影、すなわち、新商品をモデルやマネキンに着せて撮影し、(2)オンラインストア登録、すなわち、商品毎に検索ワード付・説明文を手作業(例えば、1着10分程度かかる。)で作成していた。 First, the flow of conventional online store management operations is as follows: (1) product shooting, that is, shooting a new product on a model or mannequin, and (2) online store registration, that is, with a search word / description for each product. Was created manually (for example, it takes about 10 minutes for each wear).
そこで、自動タグ付サービス:ATSにより説明文・検索ワード付の自動化を図る。
図5に示すように、AIで類似画像の画像特徴量から最適な説明文とタグを自動生成する。そうすることで、費用削減と品質レベル標準化を図ることができる。
Therefore, an automatic tagging service: ATS is used to automate explanations and search words.
As shown in FIG. 5, an optimal description and tag are automatically generated from image feature amounts of similar images by AI. By doing so, cost reduction and quality level standardization can be achieved.
図6に示すように、
(1)ATSに画像をアップロードする。
(2)洋服領域に特化したアルゴリズムで対象画像(対象領域)を抽出する(本実施の形態による画像処理方法)。
(3)画像解析アルゴリズムで特徴量を算出する。ベクトル化、例えば、各画素の色の特徴量(RGB値)と形状の特徴量を特徴ベクトル(次元数3)としてクラスタリングを行う。
(4)高次元データの高速検索アルゴリズムで類似画像を検出する。例えば、100万件以上のファッションアイテム画像を収集し、人手で教師データを作成して画像認識技術精度の向上を図ることであってもよい。また、誤分類された画像はDBに保存し誤分類の特徴をAIで学習して精度の向上を図ることであってもよい。
(5)商品マスタDBを検索する。例えば、写真画像(過去の類似のもの)との比較を行う。
(6)類似商品から「カテゴリ」、「タグ(ハッシュタグ)」、「説明文」の候補から最適なものを選択して自動生成する。
As shown in FIG.
(1) Upload an image to ATS.
(2) A target image (target region) is extracted by an algorithm specialized for a clothing region (an image processing method according to the present embodiment).
(3) A feature amount is calculated by an image analysis algorithm. Vectorization, for example, clustering is performed by using the color feature quantity (RGB value) and shape feature quantity of each pixel as a feature vector (dimension number 3).
(4) A similar image is detected by a high-speed search algorithm for high-dimensional data. For example, it is possible to collect 1 million or more fashion item images and manually create teacher data to improve the accuracy of image recognition technology. Further, misclassified images may be stored in a DB, and misclassified features may be learned by AI to improve accuracy.
(5) Search the product master DB. For example, a comparison with a photographic image (similar in the past) is performed.
(6) An optimum product is selected from candidates of “category”, “tag (hash tag)”, and “description” from similar products and automatically generated.
なお、上述する実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、各装置の機能を実現するためのプログラムを各装置等に読込ませて実行することにより各装置等の機能を実現する処理を行ってもよい。さらに、そのプログラムは、コンピュータ読み取り可能な記録媒体であるCD−ROMまたは光磁気ディスクなどを介して、または伝送媒体であるインターネット、電話回線等を介して伝送波により他のコンピュータシステムに伝送されてもよい。また、一部のシステムが人の動作を介在して実現されてもよい。 The above-described embodiment is a preferred embodiment of the present invention, and various modifications can be made without departing from the gist of the present invention. For example, a process for realizing the function of each device may be performed by causing each device or the like to read and execute a program for realizing the function of each device. Further, the program is transmitted to another computer system by a transmission wave through a CD-ROM or a magneto-optical disk as a computer-readable recording medium, or through the Internet or a telephone line as a transmission medium. Also good. Also, some systems may be realized through human actions.
10 画像処理装置
20 撮像部
101 制御部
102 主記憶部
103 補助記憶部
104 通信部
105 ドライブ装置
106 記録媒体
201 画像入力部
202 一次対象領域算出部
203 小領域スライド部
204 小領域特徴数値化部
205 小領域クラスタリング部
206 小領域リンク部
207 小領域つながり評価部
208 二次対象領域背景領域切分部
209 グラフカット部
210 画像生成部
DESCRIPTION OF
Claims (3)
入力された前記元画像に対して、DNNを用いて、一次的な対象領域を算出して、前記一次的な対象領域以外の領域に背景ラベルを振り分ける一次対象領域算出部と、
前記一次的な対象領域内において小領域の枠をスライドさせながら、前記小領域の抽出を行う小領域スライド部と、
前記小領域の特徴を平均値や分散を用いて統計的に評価して数値化する小領域特徴数値化部と、
前記小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、前記小領域に含まれる情報に基づいてニューラルネットワークを用いて前記各小領域のクラスタリングを行い、前記小領域内の前記元画像の類似性または特徴ごとにノードとして記憶する小領域クラスタリング部と、
前記小領域スライド部によって抽出された前記小領域と入力された前記元画像、前記小領域クラスタリング部による前記各ノードとの関係性を評価することで、前記一次的な対象領域内の各位置に前記小領域をリンクする小領域リンク部と、
前記小領域クラスタリング部による前記各小領域のクラスと、入力された前記画像との位置関係を評価し、前記小領域の連続性について評価して評価値を算出する小領域つながり評価部と、
前記小領域つながり評価部による前記評価値を用いて、前記一次対象領域算出部によって切り出された前記一次的な対象領域を二次的な前記対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、前記背景ラベルの振り分けを行ない、また、前記小領域内の前記各画素ごとについても個別に前記前景ラベル、前記背景ラベルの振り分けを行なう二次対象領域背景領域切分部と、
前記二次対象領域背景領域切分部により、前記前景ラベル、前記背景ラベルを振り分けた結果をグラフカットの初期値として用いることで、前記グラフカットにより前記二次的な対象領域と前記背景領域でさらに前記前景ラベル、前記背景ラベルの振り分けを行なうグラフカット部と、
前記グラフカット部によって前記前景ラベルとされた前記画素のみを対象画像として生成して出力する画像生成部と
を備える画像処理装置。 An image input unit for inputting an original image;
A primary target area calculation unit that calculates a primary target area using DNN and assigns a background label to an area other than the primary target area for the input original image;
A small area slide unit that extracts the small area while sliding a frame of the small area in the primary target area;
A small region feature quantification unit that statistically evaluates and quantifies the features of the small region using an average value and variance;
By vectorizing the position information in the pixel in the small region and the information including the feature, the small region is clustered using a neural network based on the information included in the small region. A small area clustering unit that stores as a node for each similarity or feature of the original image,
By evaluating the relationship between the small region extracted by the small region slide unit and the input original image, and each node by the small region clustering unit, each position in the primary target region is evaluated. A small area link portion that links the small areas;
A small region connection evaluation unit that evaluates the positional relationship between the class of each small region by the small region clustering unit and the input image, evaluates the continuity of the small region, and calculates an evaluation value;
Using the evaluation value by the small region connection evaluation unit, the primary target region cut out by the primary target region calculation unit is divided into the secondary target region and the background region, and foreground A label, a background label, and a secondary target area background area separation unit that performs the foreground label and the background label individually for each pixel in the small area;
By using the result of sorting the foreground label and the background label as the initial value of the graph cut by the secondary target region background region segmentation unit, the secondary target region and the background region by the graph cut are used. Furthermore, the foreground label, the graph cut part for sorting the background label,
An image generation apparatus comprising: an image generation unit that generates and outputs only the pixels that have been used as the foreground label by the graph cut unit as a target image.
一次対象領域算出部により、入力された前記元画像に対して、DNNを用いて、一次的な対象領域を算出して、前記一次的な対象領域以外の領域に背景ラベルを振り分けるステップと、
小領域スライド部により、前記一次的な対象領域内において小領域の枠をスライドさせながら、前記小領域の抽出を行うステップと、
小領域特徴数値化部により、前記小領域の特徴を平均値や分散を用いて統計的に評価して数値化するステップと、
小領域クラスタリング部により、前記小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、前記小領域に含まれる情報に基づいてニューラルネットワークを用いて前記各小領域のクラスタリングを行い、前記小領域内の前記元画像の類似性または特徴ごとにノードとして記憶するステップと、
小領域リンク部により、前記小領域スライド部によって抽出された前記小領域と入力された前記元画像、前記小領域クラスタリング部による前記各ノードとの関係性を評価することで、前記一次的な対象領域内の各位置に前記小領域をリンクするステップと、
小領域つながり評価部により、前記小領域クラスタリング部による前記各小領域のクラスと、入力された前記画像との位置関係を評価し、前記小領域の連続性について評価して評価値を算出するステップと、
二次対象領域背景領域切分部により、前記小領域つながり評価部による前記評価値を用いて、前記一次対象領域算出部によって切り出された前記一次的な対象領域を二次的な前記対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、前記背景ラベルの振り分けを行ない、また、前記小領域内の前記各画素ごとについても個別に前記前景ラベル、前記背景ラベルの振り分けを行なうステップと、
グラフカット部により、前記二次対象領域背景領域切分部で、前記前景ラベル、前記背景ラベルを振り分けた結果をグラフカットの初期値として用いることで、前記グラフカットで前記二次的な対象領域と前記背景領域でさらに前記前景ラベル、前記背景ラベルの振り分けを行なうステップと、
画像生成部により、前記グラフカット部によって前記前景ラベルとされた前記画素のみを対象画像として生成して出力するステップと
を有する画像処理方法。 A step of inputting an original image by an image input unit;
A step of calculating a primary target area using DNN for the input original image by the primary target area calculation unit and allocating a background label to an area other than the primary target area;
Extracting the small area while sliding the frame of the small area in the primary target area by the small area slide unit;
A step of quantifying the characteristics of the small region statistically using an average value or variance by the small region feature digitizing unit;
The small area clustering unit vectorizes the position information in the pixel in the small area and information including the features, thereby performing clustering of the small areas using a neural network based on the information included in the small area. And storing as a node for each similarity or feature of the original image in the small region;
The small area link portion, the small region sliding part the original image input and extracted the small area by the to assess the relationship between each node of the Sub area clustering unit, the primary subject Linking the subregion to each position within the region;
A step of evaluating a positional relationship between the class of each small region by the small region clustering unit and the inputted image by a small region connection evaluation unit, evaluating the continuity of the small regions, and calculating an evaluation value; When,
By using the evaluation value obtained by the small region connection evaluation unit, the primary target region cut out by the primary target region calculation unit is determined as a secondary target region by the secondary target region background region cutting unit. Dividing into background areas, foreground labels and background labels are assigned to each, and foreground labels and background labels are individually assigned for each pixel in the small area;
By using the result of distributing the foreground label and the background label by the graph cut unit as the initial value of the graph cut in the secondary target region background region dividing unit, the secondary target region in the graph cut And further sorting the foreground label and the background label in the background region;
An image processing method comprising: a step of generating and outputting only the pixels that have been used as the foreground label by the graph cut unit as an object image by an image generation unit.
画像入力部により、元画像を入力させる処理と、
一次対象領域算出部により、入力された前記元画像に対して、DNNを用いて、一次的な対象領域を算出して、前記一次的な対象領域以外の領域に背景ラベルを振り分けさせる処理と、
小領域スライド部により、前記一次的な対象領域内において小領域の枠をスライドさせながら、前記小領域の抽出を行わせる処理と、
小領域特徴数値化部により、前記小領域の特徴を平均値や分散を用いて統計的に評価して数値化させる処理と、
小領域クラスタリング部により、前記小領域における画素内の位置情報と特徴を含んだ情報をベクトル化することで、前記小領域に含まれる情報に基づいてニューラルネットワークを用いて前記各小領域のクラスタリングを行い、前記小領域内の前記元画像の類似性または特徴ごとにノードとして記憶させる処理と、
小領域リンク部により、前記小領域スライド部によって抽出された前記小領域と入力された前記元画像、前記小領域クラスタリング部による前記各ノードとの関係性を評価することで、前記一次的な対象領域内の各位置に前記小領域をリンクさせる処理と、
小領域つながり評価部により、前記小領域クラスタリング部による前記各小領域のクラスと、入力された前記画像との位置関係を評価し、前記小領域の連続性について評価して評価値を算出させる処理と、
二次対象領域背景領域切分部により、前記小領域つながり評価部による前記評価値を用いて、前記一次対象領域算出部によって切り出された前記一次的な対象領域を二次的な前記対象領域と背景領域に切り分けて、それぞれに対して前景ラベル、前記背景ラベルの振り分けを行ない、また、前記小領域内の前記各画素ごとについても個別に前記前景ラベル、前記背景ラベルの振り分けを行わせる処理と、
グラフカット部により、前記二次対象領域背景領域切分部で、前記前景ラベル、前記背景ラベルを振り分けた結果をグラフカットの初期値として用いることで、前記グラフカットで前記二次的な対象領域と前記背景領域でさらに前記前景ラベル、前記背景ラベルの振り分けを行わせる処理と、
画像生成部により、前記グラフカット部によって前記前景ラベルとされた前記画素のみを対象画像として生成して出力させる処理と
を実行させるプログラム。 In the information processing device,
A process of inputting an original image by the image input unit;
A process of calculating a primary target area using the DNN and distributing a background label to an area other than the primary target area for the input original image by the primary target area calculation unit;
A process of extracting the small area while sliding a frame of the small area in the primary target area by the small area slide unit;
A process of statistically evaluating and quantifying the features of the small region using an average value and variance by the small region feature digitizing unit;
The small area clustering unit vectorizes the position information in the pixel in the small area and information including the features, thereby performing clustering of the small areas using a neural network based on the information included in the small area. Processing to store as a node for each similarity or feature of the original image in the small area,
The small area link portion, the small region sliding part the original image input and extracted the small area by the to assess the relationship between each node of the Sub area clustering unit, the primary subject Linking the small area to each position within the area;
A process of evaluating a positional relationship between the class of each small region by the small region clustering unit and the input image by the small region connection evaluation unit, evaluating the continuity of the small regions, and calculating an evaluation value When,
By using the evaluation value obtained by the small region connection evaluation unit, the primary target region cut out by the primary target region calculation unit is determined as a secondary target region by the secondary target region background region cutting unit. A process of dividing the background area into the foreground label and the background label for each of the background areas, and separately assigning the foreground label and the background label to each of the pixels in the small area; ,
By using the result of distributing the foreground label and the background label by the graph cut unit as the initial value of the graph cut in the secondary target region background region dividing unit, the secondary target region in the graph cut And processing for further sorting the foreground label and the background label in the background region,
A program that causes the image generation unit to execute a process of generating and outputting only the pixels that have been set as the foreground label by the graph cut unit as a target image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018097104A JP6407467B1 (en) | 2018-05-21 | 2018-05-21 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018097104A JP6407467B1 (en) | 2018-05-21 | 2018-05-21 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6407467B1 true JP6407467B1 (en) | 2018-10-17 |
JP2019204163A JP2019204163A (en) | 2019-11-28 |
Family
ID=63855278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018097104A Expired - Fee Related JP6407467B1 (en) | 2018-05-21 | 2018-05-21 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6407467B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020109614A (en) * | 2018-12-28 | 2020-07-16 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, and program |
CN112766092A (en) * | 2021-01-05 | 2021-05-07 | 北京航空航天大学 | Method for quickly identifying background category based on brain-like neural network and application thereof |
WO2023284313A1 (en) * | 2021-07-16 | 2023-01-19 | 稿定(厦门)科技有限公司 | Automatic slicing method and device for psd picture |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115516512A (en) * | 2020-05-29 | 2022-12-23 | 索尼集团公司 | Information processing apparatus, information processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013097584A (en) * | 2011-11-01 | 2013-05-20 | Nec Corp | Image processor, image processing method and program |
JP2013120465A (en) * | 2011-12-07 | 2013-06-17 | Sony Corp | Information processing apparatus, information processing method, and program |
JP2015099563A (en) * | 2013-11-20 | 2015-05-28 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2017220098A (en) * | 2016-06-09 | 2017-12-14 | 日本電信電話株式会社 | Image processing device, image processing method, image processing program and image recognition system |
-
2018
- 2018-05-21 JP JP2018097104A patent/JP6407467B1/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013097584A (en) * | 2011-11-01 | 2013-05-20 | Nec Corp | Image processor, image processing method and program |
JP2013120465A (en) * | 2011-12-07 | 2013-06-17 | Sony Corp | Information processing apparatus, information processing method, and program |
JP2015099563A (en) * | 2013-11-20 | 2015-05-28 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2017220098A (en) * | 2016-06-09 | 2017-12-14 | 日本電信電話株式会社 | Image processing device, image processing method, image processing program and image recognition system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020109614A (en) * | 2018-12-28 | 2020-07-16 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, and program |
CN112766092A (en) * | 2021-01-05 | 2021-05-07 | 北京航空航天大学 | Method for quickly identifying background category based on brain-like neural network and application thereof |
WO2023284313A1 (en) * | 2021-07-16 | 2023-01-19 | 稿定(厦门)科技有限公司 | Automatic slicing method and device for psd picture |
Also Published As
Publication number | Publication date |
---|---|
JP2019204163A (en) | 2019-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6407467B1 (en) | Image processing apparatus, image processing method, and program | |
CN107229932B (en) | Image text recognition method and device | |
CN104408429A (en) | Method and device for extracting representative frame of video | |
CN115082683A (en) | Injection molding defect detection method based on image processing | |
US20070065003A1 (en) | Real-time recognition of mixed source text | |
US9418440B2 (en) | Image segmenting apparatus and method | |
JP6702716B2 (en) | Image processing device, image processing method, and program | |
JP2010140478A (en) | Method and system for classifying document image | |
JP4098021B2 (en) | Scene identification method, apparatus, and program | |
CN104915926A (en) | Image processing equipment and image processing method | |
JP2020053073A (en) | Learning method, learning system, and learning program | |
JP7173309B2 (en) | LEARNING METHOD, LEARNING PROGRAM AND LEARNING APPARATUS | |
US7370059B2 (en) | Model of documents and method for automatically classifying a document | |
JPH05225378A (en) | Area dividing system for document image | |
JP6787844B2 (en) | Object extractor and its superpixel labeling method | |
Biswas et al. | A global-to-local approach to binarization of degraded document images | |
Avuti et al. | A novel pectoral muscle segmentation from scanned mammograms using EMO algorithm | |
Liu et al. | Planogram compliance checking using recurring patterns | |
KR101571681B1 (en) | Method for analysing structure of document using homogeneous region | |
Wang et al. | An improved ISODATA algorithm for hyperspectral image classification | |
KR101672814B1 (en) | Method for recognizing gender using random forest | |
Rotem et al. | Combining region and edge cues for image segmentation in a probabilistic gaussian mixture framework | |
JP2009129253A (en) | Pattern recognition apparatus, pattern recognition program and pattern recognition method | |
JP5979008B2 (en) | Image processing apparatus, image processing method, and program | |
Chang et al. | An efficient thresholding algorithm for degraded document images based on intelligent block detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180521 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180817 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6407467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |