JP2010067252A - Object region extraction device and object region extraction program - Google Patents

Object region extraction device and object region extraction program Download PDF

Info

Publication number
JP2010067252A
JP2010067252A JP2008319727A JP2008319727A JP2010067252A JP 2010067252 A JP2010067252 A JP 2010067252A JP 2008319727 A JP2008319727 A JP 2008319727A JP 2008319727 A JP2008319727 A JP 2008319727A JP 2010067252 A JP2010067252 A JP 2010067252A
Authority
JP
Japan
Prior art keywords
boundary
sub
pixels
region
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008319727A
Other languages
Japanese (ja)
Other versions
JP5120238B2 (en
Inventor
Motofumi Fukui
基文 福井
Sukeji Kato
典司 加藤
Takashi Isozaki
隆司 磯崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2008319727A priority Critical patent/JP5120238B2/en
Publication of JP2010067252A publication Critical patent/JP2010067252A/en
Application granted granted Critical
Publication of JP5120238B2 publication Critical patent/JP5120238B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object region extraction device and program for extracting an arbitrary object only with a target image, without requiring a large number of learning images. <P>SOLUTION: The object region extraction device includes: an image dividing section 12 for dividing an image including an object into sub-regions smaller than the object; a pixel classifying section 13 for classifying all pixels of the image into pixels as boundaries of the sub-regions divided by the image dividing section 12 and non-boundary pixels; a boundary determining section 15 for determining whether or not a pixel classified as a boundary of the sub-regions by the pixel classifying section 13 is a boundary of the object; and a region integrating section 16 for integrating neighboring two sub-regions when a ratio of pixels determined as the boundary of the object by the boundary determining section 15 in pixels on a boundary of the neighboring two sub-regions is smaller than or equal to a predetermined value, regarding all combinations of neighboring two sub-regions. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、オブジェクト領域抽出装置及びオブジェクト領域抽出プログラムに関する。   The present invention relates to an object area extraction device and an object area extraction program.

画像の中からオブジェクト(人、動物、人工物など)を抽出する技術は画像処理の根幹をなすものであり、昔から多くの研究開発が行われている。近年、顔検出や人検出などが実用化されてきているが、これらは特定のオブジェクトを抽出する技術であり、同じアルゴリズムを用いて他のオブジェクトを抽出することができない。言い換えると、画像の中の任意のオブジェクトを抽出する目的では使用不可能である。特定のオブジェクトを抽出するためには、事前知識(色、形状、口や目などの部品、動きなど)を既知のものとして抽出装置に取り込む必要があり、この事前知識はオブジェクトによって異なる。よって、任意のオブジェクトを抽出するためには、顔検出などと同様の手法で、画像の中に存在するすべてのオブジェクトに対する分類器・判別器を作成する必要があり、現実的ではない。   Techniques for extracting objects (people, animals, artifacts, etc.) from images form the basis of image processing, and many researches and developments have been conducted since ancient times. In recent years, face detection, human detection, and the like have been put into practical use, but these are techniques for extracting a specific object, and other objects cannot be extracted using the same algorithm. In other words, it cannot be used for the purpose of extracting an arbitrary object in the image. In order to extract a specific object, prior knowledge (color, shape, parts such as mouth and eyes, movement, etc.) needs to be taken into the extraction device as known information, and this prior knowledge varies depending on the object. Therefore, in order to extract an arbitrary object, it is necessary to create a classifier / discriminator for all objects existing in the image by a method similar to face detection or the like, which is not realistic.

この画像の中からオブジェクトを抽出するという目標を達成するため、従来、輪郭抽出技術や領域分割技術の研究・開発が活発に行われている。例えば、事前知識を与えることなしにボトムアップ的にオブジェクトを抽出する技術(KMeans法、階層クラスタリング法、グラフカット法、MeansShift法、WaterShed法など)が一般的に広まっているが、任意の画像に対して任意のオブジェクトを抽出する技術は未だ存在しない。これは、オブジェクトに対する事前知識がうまく取り込まれていないのが原因の一つと考えられる。   In order to achieve the goal of extracting an object from this image, research and development of contour extraction technology and region segmentation technology have been actively conducted. For example, technologies that extract objects from the bottom up without giving prior knowledge (KMeans method, hierarchical clustering method, graph cut method, MeansShift method, WaterShed method, etc.) are generally widespread. On the other hand, there is no technique for extracting an arbitrary object. This is considered to be one of the reasons that prior knowledge about the object is not taken in well.

また、一方でオブジェクトごとに事前知識を取り込むのではなく、単にオブジェクト間の境界のみに着目し、その境界の様子を正解画像から学習する手法が最近提案されている(例えば、非特許文献1、非特許文献2参照)。これらの手法では、学習画像が大量に必要となる。また、オブジェクトが正しく分割されている正解画像が同時に必要であり、正解画像を得るためには人手による領域分割が避けがたい。
P.Dollar, Z.Tu, and S.Belongie, “Supervised Learning of Edge and Object Boundaries.”, CVPR, 2007 D.Martin, C.Fowlkes, and J.malik, “Learning to Detect Natural Image Boundaries Using Local Brightness, Colar and Texture Cues.” PAMI, 2004
On the other hand, instead of capturing prior knowledge for each object, a method has been recently proposed that focuses on only the boundary between objects and learns the state of the boundary from a correct image (for example, Non-Patent Document 1, Non-patent document 2). These methods require a large amount of learning images. In addition, a correct image in which the object is correctly divided is required at the same time, and it is difficult to avoid manual region division in order to obtain a correct image.
P.Dollar, Z.Tu, and S.Belongie, “Supervised Learning of Edge and Object Boundaries.”, CVPR, 2007 D.Martin, C.Fowlkes, and J.malik, “Learning to Detect Natural Image Boundaries Using Local Brightness, Colar and Texture Cues.” PAMI, 2004

本発明は、大量の学習画像を必要とせず、複雑な画像であってもオブジェクトを含む画像だけで任意のオブジェクトを精度よく抽出するオブジェクト領域抽出装置及びオブジェクト領域抽出プログラムを提供することを目的とする。   An object of the present invention is to provide an object region extraction apparatus and an object region extraction program that do not require a large amount of learning images and accurately extract an arbitrary object only from an image including the object even if it is a complex image. To do.

上記目的を達成するために、請求項1記載のオブジェクト領域抽出装置は、オブジェクトを含む画像を前記オブジェクトよりも小さなサブ領域に分割する画像分割手段と、前記画像の全ての画素を、前記画像分割手段により分割された前記サブ領域の境界である画素と境界でない画素とに分類する画素分類手段と、前記画素分類手段により前記サブ領域の境界であると分類された画素が前記オブジェクトの境界であるか否かを判定する境界判定手段と、前記サブ領域のうち隣接する2つのサブ領域の全ての組合せについて、該隣接する2つのサブ領域の境界上の画素のうち前記境界判定手段により前記オブジェクトの境界であると判定された画素の割合が所定値以下の場合には、該隣接する2つのサブ領域を統合する領域統合手段と、を備えている。   In order to achieve the above object, the object region extraction device according to claim 1, image dividing means for dividing an image including an object into sub-regions smaller than the object, and all pixels of the image are divided into the image dividing device. A pixel classifying unit that classifies the pixel divided into a pixel that is a boundary of the sub-region and a pixel that is not a boundary, and a pixel that is classified as a boundary of the sub-region by the pixel classifying unit is a boundary of the object A boundary determination unit that determines whether or not the object is detected by the boundary determination unit among all the combinations of two adjacent sub-regions of the sub-regions. An area integration unit that integrates the two adjacent sub-areas when the ratio of pixels determined to be a boundary is equal to or less than a predetermined value; There.

請求項2記載のオブジェクト領域抽出装置は、請求項1記載のオブジェクト領域抽出装置において、前記境界判定手段は、前記画素分類手段により前記サブ領域の境界でないと分類された画素の特徴を用いて、判定対象の画素が前記オブジェクトの境界であるか否かを判定する。   The object region extraction device according to claim 2 is the object region extraction device according to claim 1, wherein the boundary determination unit uses a feature of pixels classified as not a boundary of the sub-region by the pixel classification unit, It is determined whether the pixel to be determined is a boundary of the object.

請求項3記載のオブジェクト領域抽出装置は、請求項1又は請求項2記載のオブジェクト領域抽出装置において、前記境界判定手段による判定処理と、前記領域統合手段によるサブ領域の統合処理とを所定回数繰り返す。   The object region extraction device according to claim 3 is the object region extraction device according to claim 1 or 2, wherein the determination processing by the boundary determination unit and the sub region integration processing by the region integration unit are repeated a predetermined number of times. .

請求項4記載のオブジェクト領域抽出装置は、請求項1記載のオブジェクト領域抽出装置において、前記画素分類手段により前記サブ領域の境界でない画素に分類された画素を該画素の特徴に基づいて複数のグループに分類する非境界画素分類手段と、前記領域統合手段によりサブ領域が統合された結果に基づいて、前記領域統合手段によるサブ領域の統合を繰り返して行うか否かを判定する繰り返し処理判定手段と、を更に備え、前記境界判定手段は、前記非境界画素分類手段により分類された各々のグループに属する画素の特徴と、前記画素分類手段により前記サブ領域の境界であると分類された画素の特徴とを比較することにより、前記サブ領域の境界であると分類された画素が前記オブジェクトの境界であるか否かを判定し、前記繰り返し処理判定手段によりサブ領域の統合を繰り返して行うように判定されたときには、前記画素分類手段、前記非境界画素分類手段、前記境界判定手段及び前記領域統合手段による所定の処理を繰り返して行う。   The object region extraction device according to claim 4 is the object region extraction device according to claim 1, wherein pixels classified into pixels that are not boundaries of the sub-region by the pixel classification unit are grouped into a plurality of groups based on the characteristics of the pixels. A non-boundary pixel classifying unit that classifies the sub-region, and a repetitive process determining unit that determines whether or not the sub-region integration by the region integration unit is repeatedly performed based on a result of sub-region integration by the region integration unit. The boundary determination means includes features of pixels belonging to each group classified by the non-boundary pixel classification means, and features of pixels classified as boundaries of the sub-regions by the pixel classification means. To determine whether a pixel classified as a boundary of the sub-region is a boundary of the object. If it is determined to perform repeated integration of the sub-region by return processing determination unit performs the pixel classification unit, the non-boundary pixel classification means, by repeating a predetermined processing by said boundary determining means and the region integrating unit.

請求項5記載のオブジェクト領域抽出装置は、請求項4記載のオブジェクト領域抽出装置において、前記繰り返し処理判定手段は、前記サブ領域を統合する度合いを示すパラメータに基づいて前記領域統合手段によるサブ領域の統合を繰り返して行うか否かの判定を、前記パラメータを前記統合する度合いの低いものから順番に用いて行う。   The object region extraction device according to claim 5 is the object region extraction device according to claim 4, wherein the iterative process determination unit determines the subregions by the region integration unit based on a parameter indicating a degree of integration of the subregions. It is determined whether or not the integration is repeated by using the parameters in order from the lowest degree of integration.

請求項6記載のオブジェクト領域抽出プログラムは、コンピュータを、オブジェクトを含む画像を前記オブジェクトよりも小さなサブ領域に分割する画像分割手段、前記画像の全ての画素を、前記画像分割手段により分割された前記サブ領域の境界である画素と境界でない画素とに分類する画素分類手段、前記画素分類手段により前記サブ領域の境界であると分類された画素が前記オブジェクトの境界であるか否かを判定する境界判定手段、及び前記サブ領域のうち隣接する2つのサブ領域の全ての組合せについて、該隣接する2つのサブ領域の境界上の画素のうち前記境界判定手段により前記オブジェクトの境界であると判定された画素の割合が所定値以下の場合には、該隣接する2つのサブ領域を統合する領域統合手段、として機能させる。   7. The object area extraction program according to claim 6, wherein the computer divides an image including the object into sub-areas smaller than the object, and all pixels of the image are divided by the image dividing means. Pixel classification means for classifying a pixel that is a boundary of a sub-region and a pixel that is not a boundary; a boundary that determines whether a pixel classified as a boundary of the sub-region by the pixel classification means is a boundary of the object With respect to all combinations of two sub-regions adjacent to each other in the determination unit and the sub-regions, it is determined that the boundary determination unit out of the pixels on the boundary between the two adjacent sub-regions is the boundary of the object When the pixel ratio is less than or equal to a predetermined value, it functions as a region integration unit that integrates the two adjacent sub-regions. .

請求項1記載の発明によれば、本構成を有さない場合に比べ、画像内に存在する任意のオブジェクト領域を抽出できる、という効果が得られる。   According to the first aspect of the present invention, an effect that an arbitrary object region existing in an image can be extracted is obtained as compared with the case where the present configuration is not provided.

請求項2記載の発明によれば、本構成を有さない場合に比べ、大量の学習画像を必要とせず、対象画像のみの学習により、オブジェクト領域を抽出できる、という効果が得られる。   According to the second aspect of the present invention, it is possible to extract an object region by learning only the target image without requiring a large amount of learning images as compared with the case without this configuration.

請求項3記載の発明によれば、本構成を有さない場合に比べ、オブジェクト領域の抽出の精度が向上する、という効果が得られる。   According to the third aspect of the present invention, an effect that the accuracy of extracting the object region is improved as compared with the case where this configuration is not provided.

請求項4記載の発明によれば、本構成を有さない場合に比べ、大量の学習画像を必要とせず、対象画像が複雑であっても対象画像のみの学習により、オブジェクト領域を抽出できる、という効果が得られる。   According to the invention of claim 4, compared to the case without this configuration, a large amount of learning images is not required, and even if the target image is complex, the object region can be extracted by learning only the target image. The effect is obtained.

請求項5記載の発明によれば、本構成を有さない場合に比べ、より正確に領域を統合し、オブジェクト領域の抽出の精度が向上する、という効果が得られる。   According to the fifth aspect of the present invention, it is possible to obtain an effect that the areas are more accurately integrated and the accuracy of extracting the object area is improved as compared with the case where the present configuration is not provided.

請求項6記載の発明によれば、本構成を有さない場合に比べ、画像内に存在する任意のオブジェクト領域を抽出できる、という効果が得られる。   According to the sixth aspect of the present invention, an effect that an arbitrary object region existing in an image can be extracted is obtained as compared with the case where the present configuration is not provided.

以下、本発明の実施の形態について図面を参照しながら詳細に説明する。なお、本発明は、以下の実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to the following embodiment, It is applicable also to what changed the design within the range described in the claim.

〔第1の実施の形態〕
以下、図面を参照して本発明の第1の実施の形態を説明する。図1は、本実施の形態に係るオブジェクト領域抽出装置の構成を示すブロック図である。
[First Embodiment]
The first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an object area extracting apparatus according to the present embodiment.

図1に示すように、オブジェクト領域抽出装置は、画像入力部11と、画像分割部12と、画素分類部13と、オブジェクト抽出部14と、境界判定部15と、領域統合部16と、を備えている。   As shown in FIG. 1, the object region extraction device includes an image input unit 11, an image division unit 12, a pixel classification unit 13, an object extraction unit 14, a boundary determination unit 15, and a region integration unit 16. I have.

画像入力部11は、オブジェクト抽出対象となる画像を取り込む。画像入力部11は、カメラ等の装置を伴って構成してもよい。   The image input unit 11 captures an image as an object extraction target. The image input unit 11 may be configured with a device such as a camera.

画像分割部12は、画像入力部11により入力された画像を、抽出対象であるオブジェクトよりも小さなサブ領域(クラスタ)が生成されるように領域分割する。領域分割の方法は、公知の如何なる方法を用いてもよい。ただし、サブ領域を生成する際にオブジェクトの境界をほぼ100%含む程度に十分な数の領域数が存在することが望ましい。   The image division unit 12 divides the image input by the image input unit 11 so that a sub-region (cluster) smaller than the object to be extracted is generated. Any known method may be used as the region dividing method. However, it is desirable that there be a sufficient number of regions to include almost 100% of the object boundary when generating the sub-region.

画素分類部13は、画像分割部12による領域分割の結果からノイズを除去した後に、画像中のすべての画素を境界である画素と非境界である画素とに分類する。   The pixel classification unit 13 classifies all the pixels in the image into a boundary pixel and a non-boundary pixel after removing noise from the result of region division by the image division unit 12.

オブジェクト抽出部14は、境界判定部15と領域統合部16とを含み、境界判定部15及び領域統合部16の実行を制御する。   The object extraction unit 14 includes a boundary determination unit 15 and a region integration unit 16, and controls execution of the boundary determination unit 15 and the region integration unit 16.

境界判定部15は、画素分類部13により非境界と判定された画素に対する特徴ベクトルにより構成された分類器により、画像分割部12により分割されたクラスタの境界部が抽出対象であるオブジェクトの境界(真の境界)であるか否かを判定する。   The boundary determination unit 15 uses a classifier composed of feature vectors for the pixels determined to be non-boundary by the pixel classification unit 13, and the boundary of the cluster divided by the image division unit 12 is the boundary of the object to be extracted ( It is determined whether it is a true boundary.

領域統合部16は境界判定部15により真の境界でないと判定された境界で接しているクラスタを統合する。   The region integration unit 16 integrates clusters that are in contact with the boundary determined by the boundary determination unit 15 as not being a true boundary.

次に、本実施の形態に係るオブジェクト領域抽出装置の作用の流れを、図2に示すフローチャートに沿って説明する。   Next, the flow of operation of the object area extraction apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG.

ステップ100では、画像入力部11が、オブジェクトを抽出したい対象画像を入力する。本実施の形態では対象画像として静止画像を扱うが、動画像や3D画像に拡張しても実施可能である。また、入力する対象画像は外部記憶装置に蓄えられたものでも、デジタルカメラやスキャナなどの画像出力装置を介したものでもよい。   In step 100, the image input unit 11 inputs a target image from which an object is to be extracted. In the present embodiment, a still image is handled as a target image, but the present invention can also be implemented by extending to a moving image or a 3D image. Further, the target image to be input may be stored in an external storage device or via an image output device such as a digital camera or a scanner.

ステップ102では、画像分割部12が、画像入力部11により入力された対象画像を、抽出したいオブジェクトより小さなクラスタに分割するクラスタリングを実行する。このクラスタリングを行うには分割する領域の数をできるだけ増やせばよいが、領域の数を増やし過ぎると過分割という問題が生じ、後の処理に影響を及ぼす。例えば、図地分離が可能な画像(背景を含む画像に動物や人など図を形成するオブジェクトが映っている画像)の場合、そのオブジェクトの約1/10くらいの平均サイズとなるような領域分割を行えばよい。ただし、風景画など図地分離が困難な画像はこの限りではなく、できるだけ大きな領域数、例えば上限を1000などに設定し、その上限値となるように領域分割を実施する。画像を指定された領域数で分割するアルゴリズムは数多く提案されており、公知の如何なるアルゴリズムを使用してもよいが、生成された領域内部に含まれる画素の特徴が互いに類似しており、異なる領域に属する画素はできる限り異なる特徴を持つようなアルゴリズムを採用すべきである。性能、スピードなどを考慮するとKMeans法、グラフ分割を応用したもの(例えば、Normalized Cut(Shi & Malik, PAMI, 2000)やFH法(Felzenswalb & Huttenlocher, IJCV, 2004)などが好適である。本実施の形態では、前記の各手法の中からNormalized Cutを用いて領域分割を行うこととするが、上記の他の手法を用いてもよい。念のため、Normalized Cutアルゴリズムについて、以下に説明する。   In step 102, the image dividing unit 12 performs clustering that divides the target image input by the image input unit 11 into clusters smaller than the object to be extracted. In order to perform this clustering, the number of regions to be divided should be increased as much as possible. However, if the number of regions is increased too much, a problem of excessive division occurs, which affects subsequent processing. For example, in the case of an image that can be separated from the figure (an image that includes an object that forms a figure, such as an animal or a person, in an image that includes the background), the region is divided so that the average size is about 1/10 of that object. Can be done. However, this is not limited to images such as landscape images that are difficult to separate, and the number of areas is set as large as possible, for example, the upper limit is set to 1000, and the area division is performed so that the upper limit is reached. Many algorithms for dividing an image by a specified number of areas have been proposed, and any known algorithm may be used, but the characteristics of pixels included in the generated area are similar to each other, and different areas are used. Pixels belonging to should have an algorithm that has as different characteristics as possible. In consideration of performance, speed, etc., KMeans method and graph partitioning (for example, Normalized Cut (Shi & Malik, PAMI, 2000) and FH method (Felzenswalb & Huttenlocher, IJCV, 2004)) are suitable. In this embodiment, the region division is performed using the Normalized Cut among the above-described methods, but the other methods described above may be used.

Normalized Cutアルゴリズムは、画素をノード、画素間のつながりをリンクとし、画素間の類似度をそのリンクの強度と定義した場合に、そのグラフを所定の数に分割する手法である。ピクセルpiとピクセルpjのリンク強度wijをi行j列成分に持つ正方対称行列をW(その大きさは画像サイズ)とし、各列成分を対角成分に加算し、非対角成分を0とした対角行列をDとするとき、一般化固有値問題である式(1)
(D−W)y=λDy ・・・(1)
において、2番目に小さい固有値及びそれに対する固有ベクトルを計算することに帰着できる。行列Wのサイズが大きいため、そのままでは固有値計算に膨大な時間を要するが、画素間が離れているときにリンク強度を0とすることによって、行列のスパース性を仮定すれば、行列計算の速度を上げることが可能となる。
The Normalized Cut algorithm is a method of dividing a graph into a predetermined number when a pixel is a node, a connection between pixels is a link, and a similarity between pixels is defined as the strength of the link. A square symmetric matrix having the link strength wij of the pixel pi and the pixel pj in the i-th row and j-th column component is W (its size is the image size), each column component is added to the diagonal component, and the non-diagonal component is set to 0. (1) which is a generalized eigenvalue problem when the diagonal matrix is D
(D−W) y = λDy (1)
Can be reduced to computing the second smallest eigenvalue and its eigenvector. Since the size of the matrix W is large, it takes a lot of time to calculate eigenvalues as it is, but if the sparseness of the matrix is assumed by setting the link strength to 0 when the pixels are separated, the speed of the matrix calculation Can be raised.

また、本手法は正確な固有ベクトルを求める必要がないので、Lanczos法等を用いることにより、さらに高速化することも可能である。実際の動作としては、2cutを繰り返すことによりNormalized Cutを実現する。   In addition, since this method does not need to obtain an accurate eigenvector, the speed can be further increased by using the Lanczos method or the like. As an actual operation, Normalized Cut is realized by repeating 2cut.

図3は、対象画像をNormalized Cutを用いてクラスタリングした例を示す図である。図3(a)は対象とする画像例を、図3(b)は画像分割部12によるクラスタリングの結果を示す。また、図4(b)は、対象画像を人手によりオブジェクトを分割した結果を示すものであり、図3(b)で示した画像分割部12の出力する領域の境界は、図4(b)が示す人手で作成した境界を殆ど含むことを示している。よって、画像分割部12で作成した領域を統合することにより、理想的な領域分割結果(即ち、人手による分割結果)に近づけることが可能である。   FIG. 3 is a diagram illustrating an example in which target images are clustered using Normalized Cut. FIG. 3A shows an example of a target image, and FIG. 3B shows the result of clustering by the image dividing unit 12. FIG. 4B shows the result of manually dividing an object in the target image, and the boundary of the region output by the image dividing unit 12 shown in FIG. 3B is shown in FIG. It shows that it includes almost the boundary created manually. Therefore, by integrating the regions created by the image dividing unit 12, it is possible to approach an ideal region division result (that is, a manual division result).

ステップ104では、画素分類部13が、画像分割部12によるクラスタリングの結果からノイズを取り除く処理(前処理)を行う。具体的には、作成されたクラスタ内に属する画素数が非常に少ない場合、そのクラスタを隣接クラスタに併合させる処理を行う。例えば、特定画素の近傍8点の画素が属するクラスタIDを見て、最も多いクラスタIDにその画素のクラスタIDを変更する。   In step 104, the pixel classification unit 13 performs processing (preprocessing) for removing noise from the result of clustering by the image dividing unit 12. Specifically, when the number of pixels belonging to the created cluster is very small, a process of merging the cluster with an adjacent cluster is performed. For example, by looking at the cluster ID to which the eight pixels near the specific pixel belong, the cluster ID of that pixel is changed to the most cluster ID.

ステップ106では、画素分類部13が、対象画像においてクラスタの境界となっている画素と境界となっていない画素とに分類する。クラスタリングの結果は各画素について与えられるので、境界は画素の中間に存在すべきであるが、本実施の形態では図5に示すように、ある画素20において、その右隣の画素21又は直下の画素22が異なるクラスタに割り当てられる場合、その画素20が境界であると定める。結果として、境界を0.5画素分だけ左上にずらすこととなる。   In step 106, the pixel classification unit 13 classifies the target image into pixels that are cluster boundaries and pixels that are not boundaries. Since the result of clustering is given for each pixel, the boundary should be in the middle of the pixel. In this embodiment, as shown in FIG. If a pixel 22 is assigned to a different cluster, it is determined that the pixel 20 is a boundary. As a result, the boundary is shifted to the upper left by 0.5 pixels.

ステップ108では、画素分類部13が、クラスタ境界となっていない各々の画素(図3(b)の30)に相当する特徴ベクトル群Aを算出する。ある画素に対する特徴量はどのようなものでもよいが、例えば、図6に示すように、画素とその近傍8点との特徴の差(色次元なら3次元(l*a*b*)×8の24次元の特徴ベクトル)などとしてもよい。また、色次元に加えてSobelフィルタなどエッジ情報に基づいた情報量を加えるなどしてもよい。なお、このような特徴ベクトルを算出する際には、近傍点の数やエッジフィルタのフィルタサイズは大きい方が学習の安定度の面で都合がよい。しかし、非境界部の特徴ベクトルを算出する際には、図7に示すように小さなサイズのフィルタ31の場合はフィルタがクラスタ内に収まるが、大きなサイズのフィルタ32の場合は隣接するクラスタにかかってしまう。このようにフィルタサイズが大きすぎると正確な非境界部に関する特徴量を表現できない場合が生じるので、このような特徴ベクトルは学習データから除外することにより、分類性を高めることも可能である。 In step 108, the pixel classification unit 13 calculates a feature vector group A corresponding to each pixel (30 in FIG. 3B) that is not a cluster boundary. For example, as shown in FIG. 6, a feature difference between a pixel and eight neighboring points (three-dimensional (l * a * b * ) in the case of a color dimension) × 8 is acceptable. Or a 24-dimensional feature vector). In addition to the color dimension, an information amount based on edge information such as a Sobel filter may be added. Note that when calculating such a feature vector, it is advantageous in terms of learning stability that the number of neighboring points and the filter size of the edge filter are large. However, when calculating the feature vector of the non-boundary part, the filter fits in the cluster in the case of the small size filter 31 as shown in FIG. End up. As described above, if the filter size is too large, it may be impossible to express the feature quantity regarding the accurate non-boundary part. Therefore, it is possible to improve the classification by excluding such feature vectors from the learning data.

ステップ110では、境界判定部15が、画素分類部13により境界となっていると分類された画素について、その画素がオブジェクト間の真の境界か偽の境界かを判定する。判定のための学習要素としては、学習用の画像を用いるのではなく、画像入力部11により入力した対象画像の中の境界でないと判定された画素の特徴を用いる。具体的には、非境界領域の画素の特徴空間がある部分空間を形成するとき、境界領域に含まれる画素のうち、その部分空間に含まれる画素を偽の境界領域と判定し、そうでない画素を真の境界と判定する。   In step 110, the boundary determination unit 15 determines whether the pixel classified as a boundary by the pixel classification unit 13 is a true boundary or a false boundary between objects. As a learning element for determination, a feature of a pixel determined not to be a boundary in the target image input by the image input unit 11 is used instead of using an image for learning. Specifically, when forming a partial space with a feature space of pixels in a non-boundary region, among pixels included in the boundary region, a pixel included in the partial space is determined as a false boundary region, and pixels that are not Is determined to be a true boundary.

分類器を構成する際に複数のグループに属する学習データを取り扱う場合には、SVMやAdaboostなど各種分類器が利用可能であるが、本実施の形態のように、偽りの境界に属するグループのみの学習データの場合、これらを分類器として利用することはできない。学習データが1クラスである分類器としてSVDD(Support Vector Domain Description)などの手法が提案されているが、ここではSVM(Support Vector Machine)を発展させたOCSVM(One-Class Support Vector Machine:B.Scholkopf, J.Platt, JS.Taylor, AJ.Smola, and R.Williamson, Neural Corporation, 2001)を用いる。OCSVMは、入力データを高次の特徴空間に非線形写像し(例えば、ガウシアンカーネル)、その特徴空間上で判別関数を求める手法であり、1クラス分の学習データのみを使用するので、教師なし学習の一種であると考えられる。   When handling learning data belonging to a plurality of groups when configuring a classifier, various classifiers such as SVM and Adaboost can be used. However, as in this embodiment, only groups belonging to false boundaries are used. In the case of learning data, these cannot be used as a classifier. As a classifier whose learning data is one class, a method such as SVDD (Support Vector Domain Description) has been proposed, but here, OCSVM (One-Class Support Vector Machine: B.) which is an extension of SVM (Support Vector Machine). Scholkopf, J. Platt, JS. Taylor, AJ. Smola, and R. Williamson, Neural Corporation, 2001). OCSVM is a technique that non-linearly maps input data to a higher-order feature space (for example, Gaussian kernel) and obtains a discriminant function on that feature space. Since only one class of learning data is used, unsupervised learning is performed. It is considered to be a kind of

図8は、OCSVMによる真の境界か否かの判定処理の流れを示すフローチャートである。   FIG. 8 is a flowchart showing a flow of a determination process of whether or not the true boundary is determined by the OCSVM.

ステップ202では、境界判定部15が、特徴ベクトル群AからOCSVMを生成し、各種パラメータを定めて判別関数を生成する。境界判定部15は、非線形写像された特徴ベクトル群Aを、その特徴空間上で、原点から最大のマージンになるような超平面で分割する。OCSVMにおいては、入力ベクトル(画像分割部12において分割された境界に位置する画素に対する特徴ベクトル)zに対する判別関数は式(2)のように書くことができる。   In step 202, the boundary determination unit 15 generates an OCSVM from the feature vector group A, determines various parameters, and generates a discriminant function. The boundary determination unit 15 divides the non-linearly mapped feature vector group A by a hyperplane that has a maximum margin from the origin on the feature space. In OCSVM, a discriminant function for an input vector (a feature vector for a pixel located at a boundary divided by the image dividing unit 12) z can be written as in Expression (2).

ここでxは学習特徴ベクトルであり、K(x,y)はカーネル関数、αは式(3)を満たすラグランジュ乗数である(ν∈(0,1))。また、wは変数であり、nは特徴ベクトルの数である。   Here, x is a learning feature vector, K (x, y) is a kernel function, and α is a Lagrange multiplier satisfying Equation (3) (ν∈ (0,1)). W is a variable and n is the number of feature vectors.

ステップ204では、境界判定部15が、クラスタの境界に相当する画素の特徴ベクトル群Bを生成する。   In step 204, the boundary determination unit 15 generates a feature vector group B of pixels corresponding to the cluster boundaries.

ステップ206では、境界判定部15が、特徴ベクトルBを上述の判別関数に入力し、クラスタの境界が真の境界であるか否かを判定する。この判定は、以下の様に行われる。   In step 206, the boundary determination unit 15 inputs the feature vector B into the above-described discriminant function, and determines whether or not the cluster boundary is a true boundary. This determination is performed as follows.

判別関数の入力zが非境界領域の画素で構成される特徴空間内のベクトルである場合、その出力は殆ど正の値を返す。従って、図3(b)の境界上の画素に対する特徴ベクトル群Bの特徴ベクトルを入力値として式(2)の判別関数が正の値を返す場合は、その特徴ベクトルは学習データによって構成される空間内に含まれる、即ち、偽の境界だと考えることができる。また、非正値を返す場合は、部分空間から遠い、即ち、真の境界とみなすことができる。   If the input z of the discriminant function is a vector in the feature space composed of pixels in the non-boundary region, the output returns almost positive. Therefore, when the discriminant function of Expression (2) returns a positive value using the feature vector of the feature vector group B for the pixel on the boundary in FIG. 3B as an input value, the feature vector is constituted by learning data. It can be considered to be included in the space, that is, a false boundary. When returning a non-positive value, it can be regarded as a true boundary that is far from the partial space.

本実施の形態では、画像分割部12が対象画像を多めのクラスタに分割している。このようにクラスタを多めに作成した場合、境界のうちある画素はオブジェクトとオブジェクトを分離する真の境界であり、その他の境界はクラスタリング数が大きすぎるために発生した偽の境界である。即ち、クラスタ境界は真の境界を含み、クラスタ境界でない画素は真の境界ではないといえる。よって、クラスタ境界でない領域の特徴を学習して、そのグループに近い特徴を持てば真の境界ではなく、そのグループに近い特徴を持たなければ真の境界である、という図式が成り立つ。従って、図3(b)に示すクラスタ境界でない領域30の局所特徴に近い特徴量を持つ画素は真の境界ではないとする上述の判定方法が可能となる。   In the present embodiment, the image dividing unit 12 divides the target image into larger clusters. When a large number of clusters are created in this way, a certain pixel in the boundary is a true boundary that separates the objects from each other, and the other boundary is a false boundary that occurs because the clustering number is too large. That is, it can be said that a cluster boundary includes a true boundary, and a pixel that is not a cluster boundary is not a true boundary. Therefore, a scheme is established that learns the features of a region that is not a cluster boundary and is not a true boundary if it has a feature close to the group, but a true boundary if it does not have a feature close to the group. Therefore, the above-described determination method is possible, in which a pixel having a feature amount close to a local feature in the region 30 that is not a cluster boundary shown in FIG.

図9は、画像分割部12、画素分類部13及び境界判定部15の出力例を示す図である。図9(a)は画像分割部12の出力結果を、図9(b)は画素分類部13による前処理後の出力結果を、図9(c)は境界判定部15の出力結果を示す。図9(c)で実線で示された画素が真の境界であると判定された画素を表現する。   FIG. 9 is a diagram illustrating an output example of the image division unit 12, the pixel classification unit 13, and the boundary determination unit 15. 9A shows the output result of the image dividing unit 12, FIG. 9B shows the output result after the preprocessing by the pixel classifying unit 13, and FIG. 9C shows the output result of the boundary determining unit 15. A pixel indicated by a solid line in FIG. 9C represents a pixel determined to be a true boundary.

なお、本実施の形態では、前処理(図2のステップ104)の後、非境界であると判定された画素すべてを分類器の学習データとして利用することもできるが、8近傍を見て境界を含まない画素のみに制限してもよい。また、本実施に形態では、近傍8点との特徴値の差を用いて特徴ベクトルを構成したが、近傍数を増やしてもよい(例えば、15点、24点など)。その場合、近傍に境界を含まない画素数は減少するので、学習データは減少する。   In this embodiment, after pre-processing (step 104 in FIG. 2), all the pixels determined to be non-boundary can be used as learning data for the classifier. You may restrict | limit only to the pixel which does not contain. Further, in the present embodiment, the feature vector is configured using the difference between the feature values of the neighboring 8 points, but the number of neighborhoods may be increased (for example, 15 points, 24 points, etc.). In that case, since the number of pixels that do not include a boundary in the vicinity decreases, the learning data decreases.

図2のフローチャートに戻って、ステップ112では、領域統合部16が、境界判定部15の判定結果に基づいてクラスタの統合を行う。図10は、クラスタの統合方法を示す図である。同図に示すように隣接する2つのクラスタ(P1とP2)を取り出し、その境界上の画素に注目する。隣接するとは、2つのクラスタの境界に位置する画素のうち共通な画素が1画素以上存在することである。   Returning to the flowchart of FIG. 2, in step 112, the region integration unit 16 integrates clusters based on the determination result of the boundary determination unit 15. FIG. 10 is a diagram illustrating a cluster integration method. As shown in the figure, two adjacent clusters (P1 and P2) are taken out and attention is paid to pixels on the boundary. “Adjacent” means that there is at least one common pixel among the pixels located at the boundary between two clusters.

図11は、クラスタの統合処理の流れを示すフローチャートである。ここで、|Pi|でクラスタPiの境界に存在する画素数、|Pi∧Pj|でクラスタPiとクラスタPjに共通する境界上に存在する画素数を表すとし、その共通部の画素に対する特徴ベクトルのうち、境界判定部15で真の境界と判定された画素の個数をmijとする。また、画像分割部12により分割されたクラスタ数をnとする。 FIG. 11 is a flowchart showing the flow of cluster integration processing. Here, | Pi | represents the number of pixels existing on the boundary of cluster Pi, | Pi∧Pj | represents the number of pixels existing on the boundary common to cluster Pi and cluster Pj, and the feature vector for the pixels in the common part Among these, the number of pixels determined to be a true boundary by the boundary determination unit 15 is m ij . Further, the number of clusters divided by the image dividing unit 12 is nk .

ステップ300では、領域統合部16が、クラスタIDを示すi,jをそれぞれ“1”と“2”に初期化する。   In step 300, the region integration unit 16 initializes i and j indicating the cluster ID to “1” and “2”, respectively.

ステップ302では、領域統合部16が、PiとPjが隣接するか否かを判定し、隣接するときはステップ304に進み、隣接しないときはステップ306に進む。   In step 302, the region integration unit 16 determines whether Pi and Pj are adjacent to each other. If adjacent to each other, the process proceeds to step 304. If not, the process proceeds to step 306.

ステップ304では、領域統合部16が、S=mij/|Pi∧Pj|を計算し、バッファ(不図示)に蓄える。 In step 304, the region integration unit 16 calculates S = m ij / | Pi∧Pj | and stores it in a buffer (not shown).

ステップ306では、領域統合部16が、i+1がjより小さいときはステップ308に進み、i+1がjより小さいか否かを判定し、i+1がj以上のときはステップ310に進む。   In step 306, the region integration unit 16 proceeds to step 308 when i + 1 is smaller than j, determines whether i + 1 is smaller than j, and proceeds to step 310 when i + 1 is greater than or equal to j.

ステップ308では、領域統合部16が、iを“1”加算した後、ステップ302に進み、ステップ302以降の処理を繰り返す。   In step 308, the region integration unit 16 adds “1” to i, and then proceeds to step 302 to repeat the processing after step 302.

ステップ310では、領域統合部16が、jがnより小さいか否かを判定し、jがnより小さいときhsステップ312に進み、jがn以上のときはステップ314に進む。 In step 310, the region integration unit 16 determines whether j is smaller than nk . When j is smaller than nk , the process proceeds to hs step 312, and when j is equal to or larger than nk , the process proceeds to step 314.

ステップ312では、領域統合部16が、jを“1”加算し、iを“1”に設定した後、ステップ302進み、ステップ302以降の処理を繰り返す。   In step 312, the region integration unit 16 adds “1” to j and sets i to “1”, then proceeds to step 302 and repeats the processing from step 302 onward.

ステップ314では、領域統合部16が、前述のバッファに蓄えられたSを昇順でソートし、最小値をsとする。なお、バッファが空のときには、sを十分に大きな値とする。   In step 314, the region integration unit 16 sorts the S stored in the buffer in ascending order, and sets the minimum value to s. When the buffer is empty, s is set to a sufficiently large value.

ステップ316では、領域統合部16が、ステップ314で設定したsが予め定めた閾値bより大きいか否かを判定し、sがbより大きいときにはステップ318に進み、sがb以下のときには、クラスタの統合処理を終了する。   In step 316, the region integration unit 16 determines whether or not s set in step 314 is larger than a predetermined threshold value b. If s is larger than b, the process proceeds to step 318. This completes the integration process.

ステップ318では、mij/|Pi∧Pj|が閾値b以下であり、PiとPjに共通の境界は偽りと判定されるので、領域統合部16はPiとPjを統合する。また、領域統合部16は、クラスタの統合により消失したクラスタIDに応じてクラスタIDをふり直し、バッファのデータを更新する。 In step 318, m ij / | Pi∧Pj | is equal to or smaller than the threshold value b, and it is determined that the boundary common to Pi and Pj is false. Therefore, the region integration unit 16 integrates Pi and Pj. Further, the region integration unit 16 reassigns the cluster ID according to the cluster ID lost due to the cluster integration, and updates the buffer data.

320では、nを“1”減算した後、ステップ314に進み、ステップ314以降の処理を繰り返す。 In 320, after subtracting “1” from nk , the process proceeds to step 314, and the processes in and after step 314 are repeated.

このようにして、領域統合部16は、すべての隣接しあうクラスタの組について、共通の境界が偽りの境界である場合に、2つのクラスタを統合する。   In this way, the region integration unit 16 integrates two clusters when the common boundary is a false boundary for all adjacent cluster pairs.

また、別の方法として、共通部|Pi∧Pj|が|Pi|及び|Pj|よりも小さい場合、例えばmin(|Pi∧Pj|/|Pi|,|Pi∧Pj|/|Pj|)がある閾値b2以下の場合、統合処理を実施しないという制約条件を加えたりしてもよい。更に、接する2領域の特徴の差(例えば、領域に属する画素の特徴量の平均の差)がある閾値b3以上の場合、統合処理を実施しないという制約条件を加えることも可能である。   As another method, when the common part | Pi∧Pj | is smaller than | Pi | and | Pj |, for example, min (| Pi∧Pj | / | Pi |, | Pi∧Pj | / | Pj |). When the threshold value b2 is less than or equal to a certain threshold value b2, a constraint condition that the integration process is not performed may be added. Further, when the difference between the features of the two adjacent regions (for example, the average difference between the feature amounts of the pixels belonging to the region) is greater than or equal to the threshold value b3, it is possible to add a constraint that the integration process is not performed.

ステップ114では、オブジェクト抽出部14が、境界判定部15と領域統合部16の処理が所定回数行われたか否かを判定し、所定回数行われた場合には処理を終了し、所定回数行われていない場合にはステップ106に戻り、ステップ106からステップ112の処理を繰り返す。この繰り返し処理を実施するたびに非境界領域に相当する画素数は増加する。これに伴って学習データも増加し、また、特徴ベクトルを作成する際に、より次元の大きなベクトルを作成することができる。   In step 114, the object extraction unit 14 determines whether or not the processing of the boundary determination unit 15 and the region integration unit 16 has been performed a predetermined number of times. If the processing has been performed a predetermined number of times, the processing is terminated and the processing is performed a predetermined number of times. If not, the process returns to step 106, and the processing from step 106 to step 112 is repeated. Each time this iterative process is performed, the number of pixels corresponding to the non-boundary region increases. Along with this, learning data also increases, and a vector with a larger dimension can be created when creating a feature vector.

図12は、処理を終了したときの出力例を示す。このようにして作成されたクラスタリング結果は、対象画像をオブジェクトごとに分類することに等しい。   FIG. 12 shows an output example when the processing is completed. The clustering result created in this way is equivalent to classifying the target image for each object.

なお、本実施の形態は、上述の実施の形態に限定されるものではない。例えば、クラスタ統合の手法としては、本実施の形態のみならず、隣接するクラスタの画像特徴に基づいてその類似度を計算し、その値を基準としてクラスタを統合する手法と組み合わせて使うこともできる。具体的には、評価式を(q/p)/D(R1,R2)などとして、この値が閾値θ’よりも小さければ統合するという処理を繰り返す。D(R1,R2)は隣接クラスタR1とR2の類似度を表す関数であり、値が大きいほど類似度が高いことを意味するものである。一例として、式(4)が考えられる。   Note that the present embodiment is not limited to the above-described embodiment. For example, as a cluster integration method, not only this embodiment but also a method of calculating the similarity based on the image features of adjacent clusters and combining the clusters based on the value can be used. . Specifically, the evaluation formula is (q / p) / D (R1, R2), etc., and if this value is smaller than the threshold value θ ′, the process of integration is repeated. D (R1, R2) is a function representing the similarity between the adjacent clusters R1 and R2, and the larger the value, the higher the similarity. As an example, Formula (4) can be considered.

ここで、dはクラスタRの特徴ベクトルであり、例えばクラスタRに属する画素の平均的な特徴値である。σは定数項とする。平均的な特徴が同じ場合は類似度は1となり、特徴が遠ざかるに連れて類似度は0に近づく。 Here, d R is the feature vector of the cluster R, the average feature values of the pixels belonging to the example cluster R. σ is a constant term. When the average feature is the same, the similarity is 1, and the similarity approaches 0 as the feature moves away.

また、図13は本実施の形態の変化形のブロック図を示す。このように、分類器を1つの特徴量のみで構成せずに、複数の特徴量(例えば、色とテクスチャ)を組み合わせて構成してもよい。その際は、領域統合部16において、複数の特徴次元による分類器の結果(例えば、和や積)を統合して、真の境界を確定する処理を行う。   FIG. 13 is a block diagram showing a variation of the present embodiment. In this way, the classifier may be configured by combining a plurality of feature amounts (for example, colors and textures) instead of only one feature amount. In that case, the region integration unit 16 integrates the results (for example, sums and products) of the classifiers based on a plurality of feature dimensions, and performs processing to determine the true boundary.

〔第2の実施の形態〕
次に、本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同一の部位には同一の符号を付し、主に第1の実施の形態と異なる部分について説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the site | part same as 1st Embodiment, and a different part from 1st Embodiment is mainly demonstrated.

図14は、第2の実施の形態に係るオブジェクト領域抽出装置の構成を示すブロック図である。図1の第1の実施の形態のブロック図と異なり、非境界画素分類部18と、繰り返し処理判定部19と、を更に備えている。   FIG. 14 is a block diagram showing a configuration of an object area extracting apparatus according to the second embodiment. Unlike the block diagram of the first embodiment in FIG. 1, it further includes a non-boundary pixel classification unit 18 and an iterative process determination unit 19.

非境界画素分類部18は、画素分類部13により非境界と判定された画素に対する特徴ベクトルを複数の分類器に分類する。また、境界判定部15は、非境界画素分類部18により分類された複数の分類器により、画像分割部12により分割されたクラスタの境界部が抽出対象であるオブジェクトの境界(真の境界)であるか否かを判定する。   The non-boundary pixel classifying unit 18 classifies the feature vectors for the pixels determined as non-boundary by the pixel classifying unit 13 into a plurality of classifiers. Further, the boundary determination unit 15 uses the plurality of classifiers classified by the non-boundary pixel classifying unit 18 as the boundary (true boundary) of the object from which the boundary part of the cluster divided by the image dividing unit 12 is the extraction target. It is determined whether or not there is.

繰り返し処理判定部19は、領域統合部16によるクラスタの統合処理を更に繰り返して実施するか否かを判定する。   The repetitive processing determination unit 19 determines whether or not the cluster integration processing by the region integration unit 16 is further repeated.

次に、本実施の形態に係るオブジェクト領域抽出装置の作用の流れを、図15に示すフローチャートに沿って説明する。図2の第1の実施の形態のフローチャートとはステップ400、ステップ402及びステップ404が異なる。ステップ100の画像入力からステップ108の非境界の画素の特徴ベクトルの作成までは、第1の実施の形態と同様に行い、ステップ400に進む。   Next, the flow of operation of the object area extraction apparatus according to the present embodiment will be described with reference to the flowchart shown in FIG. Step 400, step 402, and step 404 are different from the flowchart of the first embodiment in FIG. The process from the image input in step 100 to the generation of the feature vector of the non-boundary pixel in step 108 is performed in the same manner as in the first embodiment, and the process proceeds to step 400.

ステップ400では、非境界画素分類部18が、画素分類部13により作成されたクラスタ境界となっていない各々の画素に相当する特徴ベクトル群を複数の特徴ベクトル群に分類する。分類方法は公知の如何なる方法を用いてもよいが、本実施の形態では前述のOCSVMを使用する。OCSVMを使用した場合、図16(a)に示すように1種類の特徴ベクトル群40(非境界を示す特徴空間)を教師データとし、特徴空間全体をこれら教師データに近いグループに属するのか(つまり偽りの境界)、逆に教師データに遠いグループに属するのか(つまり真の境界)で2つに分類する。OCSVMでは、これら教師データに遠いグループは特徴空間の原点付近の点となる。従って、分類基準41より原点に近い側が真の境界、分類基準41より原点から遠い側が偽りの境界となる。特徴空間はカーネル法などにより、多次元空間に写像するのが常である。   In step 400, the non-boundary pixel classifying unit 18 classifies the feature vector group corresponding to each pixel that is not a cluster boundary created by the pixel classifying unit 13 into a plurality of feature vector groups. Any known method may be used as the classification method, but the above-described OCSVM is used in the present embodiment. When OCSVM is used, as shown in FIG. 16A, one type of feature vector group 40 (feature space indicating a non-boundary) is used as teacher data, and the entire feature space belongs to a group close to these teacher data (that is, It is classified into two groups depending on whether it belongs to a group far from the teacher data (ie, the true boundary). In OCSVM, these groups far from the teacher data are points near the origin of the feature space. Therefore, the side closer to the origin than the classification standard 41 is a true boundary, and the side farther from the origin than the classification standard 41 is a false boundary. The feature space is usually mapped to a multidimensional space by the kernel method or the like.

このように偽りの境界部に相当する特徴グループが1種類しか存在しない場合、この空間は画像の煩雑さが増加すれば非常に複雑な空間となってしまう。例えば、図17(a)に示すような空を飛ぶ鳥のような画像(つまり図と地が明確な画像)の場合、このような特徴空間に入ってくる特徴ベクトルは空を示す領域に対する画素と鳥を示す領域に対する特徴の高々2種類の特徴であり、形成される特徴空間は比較的単純である。   Thus, when there is only one type of feature group corresponding to a false boundary, this space becomes a very complicated space if the complexity of the image increases. For example, in the case of an image like a bird flying in the sky as shown in FIG. 17A (that is, an image with a clear figure and ground), the feature vector that enters such a feature space is a pixel corresponding to the region showing the sky. There are at most two types of features for the region showing the bird and the feature space formed is relatively simple.

しかしながら、図17(b)に見られるような図地分離が困難な画像が対象の場合、このような特徴空間に入ってくる特徴ベクトルは複数種類であり、その結果、形成される特徴空間は非常に複雑なものになる。これを回避するために本実施の形態では、図16(b)で示すように非境界に対応する特徴ベクトルを複数の集合(特徴ベクトル群42、43、44)に分割し、各々のサブ空間を1つの特徴空間として独立に分類器を作成する。   However, in the case where an image that is difficult to separate as shown in FIG. 17B is a target, there are a plurality of types of feature vectors that enter such a feature space. It becomes very complicated. In order to avoid this, in the present embodiment, as shown in FIG. 16B, feature vectors corresponding to non-boundaries are divided into a plurality of sets (feature vector groups 42, 43, 44), and each subspace is divided. A classifier is created independently as a feature space.

このようなサブ空間の分類方法として幾つかの手法が考えられるが、本実施の形態ではKMeans法を使用する。即ち、特徴ベクトルをf=(f ,f ,f ,・・・,f )とし(kは非境界部と判定された画素のID、dは特徴次元数)、その個数をn、サブ空間の個数をκとする。サブ空間Giの特徴ベクトルをgiとする(giはそのサブ領域に属する特徴ベクトルの重心ベクトル)。このとき、特徴ベクトルfが属するべきサブ領域Gjは、式(5)のように書くことができる。 Several methods are conceivable as such a subspace classification method. In this embodiment, the KMeans method is used. That is, let the feature vector be f k = (f k 1 , f k 2 , f k 3 ,..., F k d ) (k is the ID of the pixel determined to be a non-boundary part, and d is the number of feature dimensions). , The number is n, and the number of subspaces is κ. Let the feature vector of the subspace Gi be gi (gi is the centroid vector of the feature vector belonging to the subregion). At this time, the subregion Gj to which the feature vector f k should belong can be written as in Expression (5).

サブ空間の個数としては、事前に設定(例えば10個程度で固定)しておくか、事前に決めた評価関数(分割数κの個数を評価)の値が基準以下となるような最大のκを設定するなどの方法がある。κを動的に変更するための評価関数の一例として、κを大きくしていき、その度に特徴ベクトルとそれが属するサブ空間の特徴ベクトルとの距離差の総和などが考えられる(κを大きくするに伴い、この値は小さくなる)。また、このように空間をサブ空間に分割するのはカーネル関数を適用する前でも後でもよいが、前の方が自然である。   The number of sub-spaces is set in advance (for example, fixed at about 10), or the maximum κ such that the value of a predetermined evaluation function (evaluates the number of divisions κ) is equal to or less than a reference value. There are methods such as setting. As an example of an evaluation function for dynamically changing κ, we can increase κ and consider the sum of the distance difference between the feature vector and the feature vector of the subspace to which it belongs each time. As this happens, this value decreases). Further, the space may be divided into subspaces before or after the kernel function is applied, but the front is natural.

ステップ402では、境界判定部15が、画素分類部13により境界となっていると分類された画素について、その画素がオブジェクト間の真の境界か偽の境界かを判定する。OCSVMにおいて、入力ベクトルzに対する判別関数は前述の式(2)及び式(3)で表される。判別関数は、入力ベクトルzが偽りの境界領域に属する画素に対する特徴ベクトルである場合は“1”を、そうでない場合、即ち真の境界領域に対する特徴ベクトルである場合は“0”を出力値として返す。本実施の形態では、境界判定部15は、このような分類器を非境界画素分類部18で生成したサブ空間の数(つまりκ)だけ備える。   In step 402, the boundary determination unit 15 determines whether the pixel classified as a boundary by the pixel classification unit 13 is a true boundary or a false boundary between objects. In OCSVM, the discriminant function for the input vector z is expressed by the above-described equations (2) and (3). The discriminant function outputs “1” when the input vector z is a feature vector for a pixel belonging to a false boundary region, and “0” when it is not, that is, a feature vector for a true boundary region. return. In the present embodiment, the boundary determination unit 15 includes such a classifier as many as the number of subspaces (that is, κ) generated by the non-boundary pixel classification unit 18.

κ個の分類器を使った境界の真偽の判定処理の流れを、図18に示すフローチャートに沿って説明する。   The flow of boundary true / false determination processing using κ classifiers will be described with reference to the flowchart shown in FIG.

ステップ500では、境界判定部15が、サブ領域Giに属する学習データを元にして、各分類器ごとにOCSVMに必要とされるパラメータを算出する。必要なパラメータは、ガウシアンカーネルを使う場合には、前述の式(2)及び式(3)のνとK(x,y)である。   In step 500, the boundary determination unit 15 calculates a parameter required for the OCSVM for each classifier based on the learning data belonging to the sub-region Gi. Necessary parameters are ν and K (x, y) in the above equations (2) and (3) when a Gaussian kernel is used.

ステップ502では、境界判定部15が、サブ領域Giごとに判別関数fi(Z)を構成し、画素単位で出力ベクトルa=(a ,a ,…,a )を得る。ここで、kは入力ベクトルのIDであり、a iはfi(Z)の出力値で“0”または“1”の値をとる。 In step 502, the boundary determination unit 15 configures a discriminant function fi (Z k ) for each sub-region Gi, and outputs an output vector a k = (a k 1 , a k 2 ,..., A k k ) in units of pixels. obtain. Here, k is an ID of an input vector, and a k i is an output value of fi (Z k ) and takes a value of “0” or “1”.

ステップ504では、境界判定部15が、判別関数の出力ベクトルaの要素がすべて“0”か否かを判定し、要素がすべて“0”のときはステップ506に進み、その他のときにはステップ508に進む。 In step 504, the boundary determination unit 15 determines whether or not all elements of the output vector a k of the discriminant function are “0”. If all the elements are “0”, the process proceeds to step 506, and otherwise, step 508 is performed. Proceed to

ステップ506では、出力ベクトルaの要素がすべて“0”の場合であり、境界判定部15はIDがkの画素は偽りの境界であると判定する。 In step 506, all the elements of the output vector a k are “0”, and the boundary determination unit 15 determines that the pixel with the ID k is a false boundary.

ステップ508では、出力ベクトルaの要素に1つでも“0”以外のものがある場合であり、境界判定部15はIDがkの画素は真の境界であると判定する。 In step 508, there is a case where at least one element of the output vector a k has a value other than “0”, and the boundary determination unit 15 determines that the pixel whose ID is k is a true boundary.

境界判定部15は、以上の処理を各サブ領域Gi(i=1〜κ)について平行して実施する。   The boundary determination unit 15 performs the above processing in parallel for each sub-region Gi (i = 1 to κ).

なお、本実施の形態では、出力ベクトルaの要素に1つでも“0”以外のものがある場合には当該画素は真の境界と判定するが、出力ベクトルaの要素のうち“0”以外のものが所定の割合以上の場合に真の境界と判定し、所定の割合未満の場合に偽りの境界と判定してもよい。 In the present embodiment, if even one of the elements of the output vector a k is other than “0”, the pixel is determined to be a true boundary, but “0” of the elements of the output vector a k. It may be determined that the boundary is true when anything other than “a” is greater than or equal to a predetermined ratio, and may be determined as a false boundary when less than the predetermined ratio.

図15のフローチャートに戻って、領域統合部16が、境界判定部15の判定結果に基づいてクラスタの統合を行った後、ステップ404に進む。   Returning to the flowchart of FIG. 15, the region integration unit 16 performs cluster integration based on the determination result of the boundary determination unit 15, and then proceeds to step 404.

ステップ404では、繰り返し処理判定部19が、領域統合部16によるクラスタの統合処理を更に繰り返して実施するか否かを判定する。ここで、領域統合部16により統合された後の総クラスタ数をn(k=1,2,…)とする。添え字kは統合処理の実施回数を意味する。更にクラスタの統合を行うか否かを判断する方法として、統合の前後でクラスタ数が変化しなくなるか、その変化の割合が閾値以下の場合(つまり、n/n(k-1)が閾値以上)に、分類器のパラメータを統合能力がより強くなるように変化させて更なる統合を行い、パラメータ値がある値に達した場合に統合処理を終了する方法が考えられる。 In step 404, the repetitive processing determination unit 19 determines whether or not the cluster integration processing by the region integration unit 16 is to be repeated further. Here, it is assumed that the total number of clusters after being integrated by the region integration unit 16 is n k (k = 1, 2,...). The subscript k means the number of times of integration processing. Further, as a method of determining whether or not to perform cluster integration, when the number of clusters does not change before and after integration, or the rate of change is equal to or less than a threshold value (that is, n k / n (k−1) is a threshold value ). As described above, a method is conceivable in which the parameters of the classifier are changed so that the integration capability becomes stronger, further integration is performed, and the integration process is terminated when the parameter value reaches a certain value.

OCSVMを使った場合、そのパラメータ(σ、ν)と統合能力との関係は以下の通りとなる。σの値を固定したときのOCSVMの巡回回数と統合後のクラスタ数は、巡回回数が十分に大きければ(10000程度)、計算結果は収束し、νの値が小さい方が統合能力が強い。また、σを変化させた場合は、巡回回数が十分に大きければ(10000程度)、σが小さい方が統合能力が強い。まとめると、OCSVMにより構成される分類器C(σ,ν)は2つのパラメータから成り、σが小さい方が、またνが小さい方が統合能力が強い。複数の分類器を使用して画像の領域統合を実施する場合、統合に際し発生する統合ミス(境界判定の誤差)の影響を小さくするために、分類器は統合能力が低い分類器から順に使用することが望ましい。統合能力が低い分類器ほど、学習データの不足による統合ミスが殆どないと考えられるからである。統合能力の強弱を不等号で表現すると、C(σ,ν)<C(σ,ν)(ただし、σ>σ,ν>ν)となる。 When OCSVM is used, the relationship between the parameters (σ, ν) and the integration capability is as follows. If the number of cycles of OCSVM and the number of clusters after integration when the value of σ is fixed are sufficiently large (about 10,000), the calculation result converges, and the smaller the value of ν, the stronger the integration ability. When σ is changed, if the number of circulations is sufficiently large (about 10000), the smaller σ is, the stronger the integration ability is. In summary, the classifier C (σ, ν) composed of OCSVM is composed of two parameters, and the integration ability is stronger when σ is smaller and ν is smaller. When performing image region integration using multiple classifiers, the classifiers are used in order from the classifier with the lowest integration capability in order to reduce the effects of integration errors (boundary decision errors) that occur during integration. It is desirable. This is because it is considered that a classifier having a low integration capability has few integration errors due to lack of learning data. When the strength of the integration capability is expressed by an inequality sign, C (σ 1 , ν 1 ) <C (σ 2 , ν 2 ) (where σ 1 > σ 2 , ν 1 > ν 2 ).

本実施の形態では、σは固定し、νと上述の閾値bのパラメータを変更する。具体的には、νを4種類(ν=0.1,0.2,0.4,0.8)に、閾値bを2種類(b=0.1,0.2)に変化させた場合の例を示す。当然ながら閾値bの値が大きい方が統合能力は強く、分類器C(σ,ν,b)において、C(σ,ν,b)<C(σ,ν,b)(ただし、ν>ν,b<b)が成立する。一方で、ν>νかつb>bのとき、2つの分類器C(σ,ν,b)とC(σ,ν,b)の統合能力の強弱は自明ではなく、対象画像および統合前のクラスタ数に依存する。そのため、本実施の形態では便宜上、C(σ,0.8,0.1)、C(σ,0.8,0.2)、C(σ,0.4,0.1)、…、C(σ,0.1,0.2)というように、基本的には統合能力が弱い分類器から順に、νを優先的に変化させるという手法を採る。 In the present embodiment, σ is fixed, and parameters of ν and the above-described threshold value b are changed. Specifically, an example in which ν is changed to four types (ν = 0.1, 0.2, 0.4, 0.8) and threshold value b is changed to two types (b = 0.1, 0.2) is shown. Of course, the larger the threshold value b, the stronger the integration capability. In the classifier C (σ, ν, b), C (σ, ν 1 , b 1 ) <C (σ, ν 2 , b 2 ) (however, , Ν 1 > ν 2 , b 1 <b 2 ). On the other hand, when ν 1 > ν 2 and b 1 > b 2 , the strength of the integration ability of the two classifiers C (σ, ν 1 , b 1 ) and C (σ, ν 2 , b 2 ) is obvious. It depends on the target image and the number of clusters before integration. Therefore, in this embodiment, for convenience, C (σ, 0.8,0.1), C (σ, 0.8,0.2), C (σ, 0.4,0.1),..., C (σ, 0.1,0.2), Basically, a method is adopted in which ν is preferentially changed in order from a classifier having a weak integration ability.

図19は、繰り返し処理判定部による更にクラスタ統合を行うか否かの判定の流れを示すフローチャートである。繰り返し処理判定部19は、領域統合部16によるk回目の統合処理で分類器C(σ,ν,b)を使用して生成されたn個のクラスタについて更に統合処理を行うか否かを判定する。 FIG. 19 is a flowchart showing a flow of determination as to whether or not to perform further cluster integration by the iterative process determination unit. The iterative processing determination unit 19 determines whether or not to perform further integration processing on n k clusters generated using the classifier C (σ, ν, b) in the k-th integration processing by the region integration unit 16. judge.

ステップ602では、繰り返し処理判定部19は、k回目の統合処理後のクラスタ数と前回(k−1回目)の統合処理後のクラスタ数との変化の割合(n/n(k−1))を算出して予め定めたcと比較し、c以上のときにはステップ604に進み、cより小さいときにはステップ608に進む。ここで、cは閾値であり、本実施の形態では、例えば“0.9”に設定する。 In step 602, the iterative processing determination unit 19 determines the rate of change (n k / n (k−1)) between the number of clusters after the k-th integration processing and the number of clusters after the previous (k−1) integration processing. ) Is calculated and compared with a predetermined value c. If c is equal to or greater than c, the process proceeds to step 604, and if smaller than c, the process proceeds to step 608. Here, c is a threshold value, and is set to, for example, “0.9” in the present embodiment.

ステップ604では、繰り返し処理判定部19は、bが“0.1”か否かを判定し、bが“0.1”のときはステップ610に進み、bが“0.1”でないときはステップ606に進む。   In step 604, the iterative processing determination unit 19 determines whether b is “0.1”. When b is “0.1”, the process proceeds to step 610, and when b is not “0.1”, the process proceeds to step 606.

ステップ606では、繰り返し処理判定部19は、νが“0.1”か否かを判定し、νが“0.1”でないときはステップ612に進み、νが“0.1”のときは上述のνとbの全ての組合せを実行し終えたので統合処理を終了する。   In step 606, the iterative processing determination unit 19 determines whether or not ν is “0.1”. When ν is not “0.1”, the process proceeds to step 612, and when ν is “0.1”, the above-described ν and b Since all combinations have been executed, the integration process is terminated.

ステップ608では、同じパラメータの分類器で再び統合処理を行うため、画素分類部13による処理から繰り返して行う。   In step 608, since the integration process is performed again with the classifier having the same parameter, the process is repeated from the process performed by the pixel classification unit 13.

ステップ610では、bを“0.2”に設定した分類器で更に統合処理を行うため、画素分類部13による処理から繰り返して行う。   In step 610, since the integration processing is further performed by the classifier in which b is set to “0.2”, the processing by the pixel classification unit 13 is repeated.

ステップ612では、νを2で除し、bを“0.1”に設定した分類器で更に統合処理を行うため、画素分類部13による処理から繰り返して行う。   In step 612, since the integration process is further performed by the classifier in which ν is divided by 2 and b is set to “0.1”, the process from the pixel classification unit 13 is repeated.

図20は、このようにして分類器のパラメータを変動させながら実施する様子を示す模式図である。同図に示すように、1つの分類器についてパラメータの組合せを変動することにより、8種類の分類器として実施することとなる。   FIG. 20 is a schematic diagram showing a state in which the parameters of the classifier are changed in this way. As shown in the figure, eight kinds of classifiers are implemented by changing the combination of parameters for one classifier.

図21は、本実施の形態の実施結果の例を示す図である。図21(a)は画像分割部12による初期クラスタリングの結果を、図21(b)〜(o)は領域統合部16により領域統合を繰り返して行う際の各工程における統合結果を示す。また、図22は、図21(a)〜(o)の各図に対するパラメータの値およびクラスタ数の変動を示す図である。図21の(d)〜(f)では、分類器のパラメータは変化していないが、統合処理によりクラスタ数が減少するために、分類器に入力される学習データの数が増加し、そのために同じパラメータの分類を使用しても更なる統合処理が期待できる。これらの図に示されるように、統合処理を繰り返して行うことにより、偽りの境界が消去されてクラスタ数が減少し、実際のオブジェクトの境界が抽出されていく。   FIG. 21 is a diagram illustrating an example of an implementation result of the present embodiment. 21A shows the result of the initial clustering by the image dividing unit 12, and FIGS. 21B to 21O show the integration results in each process when the region integration is repeatedly performed by the region integration unit 16. FIG. FIG. 22 is a diagram showing fluctuations in parameter values and the number of clusters for each of FIGS. 21 (a) to 21 (o). In (d) to (f) of FIG. 21, the parameters of the classifier do not change, but the number of learning data input to the classifier increases because the number of clusters decreases due to the integration process. Even if the same parameter classification is used, further integration processing can be expected. As shown in these figures, by repeating the integration process, false boundaries are eliminated, the number of clusters is reduced, and actual object boundaries are extracted.

第1の実施の形態に係るオブジェクト領域抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object area | region extraction apparatus which concerns on 1st Embodiment. 第1の実施の形態に係るオブジェクト領域抽出装置の作用の流れを示すフローチャートである。It is a flowchart which shows the flow of an effect | action of the object area | region extraction apparatus which concerns on 1st Embodiment. 対象画像とそのクラスタリング例を示す図である。It is a figure which shows the target image and its clustering example. 対象画像を人手によってオブジェクトを分割した例を示す図である。It is a figure which shows the example which divided | segmented the object into the target image manually. クラスタ境界の画素の決定方法を示す図である。It is a figure which shows the determination method of the pixel of a cluster boundary. 色を用いた場合の特徴ベクトルの作成方法を示す図である。It is a figure which shows the preparation method of the feature vector at the time of using a color. 特徴ベクトル作成のためのフィルタが境界領域にかかる例を示す図である。It is a figure which shows the example which the filter for feature vector preparations applies to a boundary region. 真の境界か否かの判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the determination process of whether it is a true boundary. 画像分割部、画素分類部及び境界判定部の出力例を示す図である。It is a figure which shows the example of an output of an image division part, a pixel classification | category part, and a boundary determination part. クラスタの統合方法を示す図である。It is a figure which shows the integration method of a cluster. クラスタの統合処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the integration process of a cluster. 処理の終了時の出力例を示す図である。It is a figure which shows the example of an output at the time of completion | finish of a process. 第1の実施の形態の変化形のブロック図である。It is a block diagram of the modification of 1st Embodiment. 第2の実施の形態に係るオブジェクト領域抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object area | region extraction apparatus which concerns on 2nd Embodiment. 第2の実施の形態に係るオブジェクト領域抽出装置の作用の流れを示すフローチャートである。It is a flowchart which shows the flow of an effect | action of the object area | region extraction apparatus which concerns on 2nd Embodiment. 学習に用いる特徴ベクトルを示す図である。It is a figure which shows the feature vector used for learning. 画像の煩雑さを比較する図である。It is a figure which compares the complexity of an image. κ個の分類器を使った境界の真偽の判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the authenticity determination process of the boundary using (kappa) classifiers. 繰り返し処理判定部の判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the determination process of a repetition process determination part. 分類器のパラメータを変動させながら実施する様子を示す模式図である。It is a schematic diagram which shows a mode that it implements, varying the parameter of a classifier. 第2の実施の形態に係るオブジェクト領域抽出装置の実施結果を示す図である。It is a figure which shows the implementation result of the object area | region extraction apparatus which concerns on 2nd Embodiment. 図21の各図に対するパラメータおよびクラスタ数の変動の様子を示す図である。It is a figure which shows the mode of the fluctuation | variation of the parameter with respect to each figure of FIG. 21, and the number of clusters.

符号の説明Explanation of symbols

11 画像入力部
12 画像分割部
13 画素分類部
14 オブジェクト抽出部
15 境界判定部
16 領域統合部
18 非境界画素分類部
19 繰り返し処理判定部
DESCRIPTION OF SYMBOLS 11 Image input part 12 Image division part 13 Pixel classification part 14 Object extraction part 15 Boundary determination part 16 Area integration part 18 Non-boundary pixel classification part 19 Repetitive process determination part

Claims (6)

オブジェクトを含む画像を前記オブジェクトよりも小さなサブ領域に分割する画像分割手段と、
前記画像の全ての画素を、前記画像分割手段により分割された前記サブ領域の境界である画素と境界でない画素とに分類する画素分類手段と、
前記画素分類手段により前記サブ領域の境界であると分類された画素が前記オブジェクトの境界であるか否かを判定する境界判定手段と、
前記サブ領域のうち隣接する2つのサブ領域の全ての組合せについて、該隣接する2つのサブ領域の境界上の画素のうち前記境界判定手段により前記オブジェクトの境界であると判定された画素の割合が所定値以下の場合には、該隣接する2つのサブ領域を統合する領域統合手段と、
を備えたオブジェクト領域抽出装置。
Image dividing means for dividing an image including an object into sub-regions smaller than the object;
Pixel classification means for classifying all pixels of the image into pixels that are boundaries of the sub-region divided by the image dividing means and pixels that are not boundaries;
Boundary determination means for determining whether or not a pixel classified as a boundary of the sub-region by the pixel classification means is a boundary of the object;
For all combinations of two adjacent sub-regions of the sub-regions, a ratio of pixels determined to be the boundary of the object by the boundary determination unit among the pixels on the boundary of the two adjacent sub-regions is In the case of a predetermined value or less, area integration means for integrating the two adjacent sub-areas;
An object area extraction apparatus comprising:
前記境界判定手段は、前記画素分類手段により前記サブ領域の境界でないと分類された画素の特徴を用いて、判定対象の画素が前記オブジェクトの境界であるか否かを判定する請求項1記載のオブジェクト領域抽出装置。   2. The boundary determination unit according to claim 1, wherein the boundary determination unit determines whether the pixel to be determined is a boundary of the object by using a feature of a pixel classified as not being a boundary of the sub-region by the pixel classification unit. Object area extraction device. 前記境界判定手段による判定処理と、前記領域統合手段によるサブ領域の統合処理とを所定回数繰り返す請求項1又は請求項2記載のオブジェクト領域抽出装置。   3. The object region extraction device according to claim 1, wherein the determination processing by the boundary determination unit and the sub-region integration processing by the region integration unit are repeated a predetermined number of times. 前記画素分類手段により前記サブ領域の境界でない画素に分類された画素を該画素の特徴に基づいて複数のグループに分類する非境界画素分類手段と、
前記領域統合手段によりサブ領域が統合された結果に基づいて、前記領域統合手段によるサブ領域の統合を繰り返して行うか否かを判定する繰り返し処理判定手段と、を更に備え、
前記境界判定手段は、前記非境界画素分類手段により分類された各々のグループに属する画素の特徴と、前記画素分類手段により前記サブ領域の境界であると分類された画素の特徴とを比較することにより、前記サブ領域の境界であると分類された画素が前記オブジェクトの境界であるか否かを判定し、
前記繰り返し処理判定手段によりサブ領域の統合を繰り返して行うように判定されたときには、前記画素分類手段、前記非境界画素分類手段、前記境界判定手段及び前記領域統合手段による所定の処理を繰り返して行う請求項1記載のオブジェクト領域抽出装置。
Non-boundary pixel classification means for classifying pixels classified into pixels that are not boundaries of the sub-region by the pixel classification means into a plurality of groups based on the characteristics of the pixels;
Repetitive process determination means for determining whether to repeatedly perform integration of sub areas by the area integration means based on the result of integration of sub areas by the area integration means,
The boundary determination means compares the characteristics of the pixels belonging to each group classified by the non-boundary pixel classification means with the characteristics of the pixels classified as the boundary of the sub-region by the pixel classification means. To determine whether a pixel classified as a boundary of the sub-region is a boundary of the object,
When it is determined by the repetitive processing determining means to repeat the integration of sub-regions, predetermined processing by the pixel classifying means, the non-boundary pixel classifying means, the boundary determining means, and the region integrating means is repeatedly performed. The object area extraction device according to claim 1.
前記繰り返し処理判定手段は、前記サブ領域を統合する度合いを示すパラメータに基づいて前記領域統合手段によるサブ領域の統合を繰り返して行うか否かの判定を、前記パラメータを前記統合する度合いの低いものから順番に用いて行う請求項4記載のオブジェクト領域抽出装置。   The iterative process determination means determines whether to repeatedly perform sub-area integration by the area integration means based on a parameter indicating the degree of integration of the sub-areas, and has a low degree of integration of the parameters. 5. The object region extraction device according to claim 4, wherein the object region extraction device is used in order. コンピュータを、
オブジェクトを含む画像を前記オブジェクトよりも小さなサブ領域に分割する画像分割手段、
前記画像の全ての画素を、前記画像分割手段により分割された前記サブ領域の境界である画素と境界でない画素とに分類する画素分類手段、
前記画素分類手段により前記サブ領域の境界であると分類された画素が前記オブジェクトの境界であるか否かを判定する境界判定手段、及び
前記サブ領域のうち隣接する2つのサブ領域の全ての組合せについて、該隣接する2つのサブ領域の境界上の画素のうち前記境界判定手段により前記オブジェクトの境界であると判定された画素の割合が所定値以下の場合には、該隣接する2つのサブ領域を統合する領域統合手段、
として機能させるためのオブジェクト領域抽出プログラム。
Computer
Image dividing means for dividing an image including an object into sub-regions smaller than the object;
Pixel classification means for classifying all pixels of the image into pixels that are boundaries of the sub-region divided by the image dividing means and pixels that are not boundaries;
Boundary determination means for determining whether or not a pixel classified by the pixel classification means as a boundary of the sub-region is a boundary of the object, and all combinations of two adjacent sub-regions among the sub-regions When the ratio of the pixels determined to be the boundary of the object by the boundary determination means among the pixels on the boundary between the two adjacent sub areas is equal to or less than a predetermined value, the two adjacent sub areas Area integration means to integrate,
Object area extraction program to function as.
JP2008319727A 2008-08-15 2008-12-16 Object area extraction apparatus and object area extraction program Expired - Fee Related JP5120238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008319727A JP5120238B2 (en) 2008-08-15 2008-12-16 Object area extraction apparatus and object area extraction program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008209228 2008-08-15
JP2008209228 2008-08-15
JP2008319727A JP5120238B2 (en) 2008-08-15 2008-12-16 Object area extraction apparatus and object area extraction program

Publications (2)

Publication Number Publication Date
JP2010067252A true JP2010067252A (en) 2010-03-25
JP5120238B2 JP5120238B2 (en) 2013-01-16

Family

ID=42192738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008319727A Expired - Fee Related JP5120238B2 (en) 2008-08-15 2008-12-16 Object area extraction apparatus and object area extraction program

Country Status (1)

Country Link
JP (1) JP5120238B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061876A (en) * 2011-09-14 2013-04-04 Canon Inc Information processing apparatus, control method for information processing apparatus, and program
WO2013073168A1 (en) * 2011-11-17 2013-05-23 パナソニック株式会社 Image processing device, imaging device, and image processing method
JP2013196529A (en) * 2012-03-22 2013-09-30 Nikon Corp Image processing device and image processing program
WO2013145589A1 (en) * 2012-03-26 2013-10-03 パナソニック株式会社 Image-processing device, image-capturing device, and image-processing method
KR101342763B1 (en) 2012-07-13 2013-12-19 고려대학교 산학협력단 Method and apparatus for detecting motion in video surveillance system
JP2014513332A (en) * 2011-03-04 2014-05-29 エルビーティー イノベーションズ リミテッド How to improve the classification results of a classifier
JP2018206437A (en) * 2018-09-20 2018-12-27 株式会社ニコン Image processing device and image processing program
WO2021032062A1 (en) * 2019-08-22 2021-02-25 京东方科技集团股份有限公司 Image processing model generation method, image processing method, apparatus, and electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199379A (en) * 1990-11-29 1992-07-20 Honda Motor Co Ltd Local area dividing method in picture processing
JPH11224337A (en) * 1998-02-05 1999-08-17 Fuji Xerox Co Ltd Area division integration device and area division integration method
JP2002117409A (en) * 2000-10-10 2002-04-19 Canon Inc Image processing method and device thereof
JP2006133990A (en) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd Image processing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04199379A (en) * 1990-11-29 1992-07-20 Honda Motor Co Ltd Local area dividing method in picture processing
JPH11224337A (en) * 1998-02-05 1999-08-17 Fuji Xerox Co Ltd Area division integration device and area division integration method
JP2002117409A (en) * 2000-10-10 2002-04-19 Canon Inc Image processing method and device thereof
JP2006133990A (en) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd Image processing device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014513332A (en) * 2011-03-04 2014-05-29 エルビーティー イノベーションズ リミテッド How to improve the classification results of a classifier
US10037480B2 (en) 2011-03-04 2018-07-31 Lbt Innovations Limited Method for improving classification results of a classifier
JP2016167304A (en) * 2011-03-04 2016-09-15 エルビーティー イノベーションズ リミテッド Method for improving classification result of classifier
JP2013061876A (en) * 2011-09-14 2013-04-04 Canon Inc Information processing apparatus, control method for information processing apparatus, and program
US9171222B2 (en) 2011-11-17 2015-10-27 Panasonic Intellectual Property Corporation Of America Image processing device, image capturing device, and image processing method for tracking a subject in images
JPWO2013073168A1 (en) * 2011-11-17 2015-04-02 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing apparatus, imaging apparatus, and image processing method
CN103299613A (en) * 2011-11-17 2013-09-11 松下电器产业株式会社 Image processing device, imaging device, and image processing method
CN103299613B (en) * 2011-11-17 2017-08-15 松下电器(美国)知识产权公司 Image processing apparatus, camera device and image processing method
WO2013073168A1 (en) * 2011-11-17 2013-05-23 パナソニック株式会社 Image processing device, imaging device, and image processing method
JP2013196529A (en) * 2012-03-22 2013-09-30 Nikon Corp Image processing device and image processing program
WO2013145589A1 (en) * 2012-03-26 2013-10-03 パナソニック株式会社 Image-processing device, image-capturing device, and image-processing method
JPWO2013145589A1 (en) * 2012-03-26 2015-12-10 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing apparatus, imaging apparatus, and image processing method
US10089527B2 (en) 2012-03-26 2018-10-02 Panasonic Intellectual Property Corporation Of America Image-processing device, image-capturing device, and image-processing method
KR101342763B1 (en) 2012-07-13 2013-12-19 고려대학교 산학협력단 Method and apparatus for detecting motion in video surveillance system
JP2018206437A (en) * 2018-09-20 2018-12-27 株式会社ニコン Image processing device and image processing program
WO2021032062A1 (en) * 2019-08-22 2021-02-25 京东方科技集团股份有限公司 Image processing model generation method, image processing method, apparatus, and electronic device
US11887303B2 (en) 2019-08-22 2024-01-30 Beijing Boe Technology Development Co., Ltd. Image processing model generation method, image processing method and device, and electronic device

Also Published As

Publication number Publication date
JP5120238B2 (en) 2013-01-16

Similar Documents

Publication Publication Date Title
Reininghaus et al. A stable multi-scale kernel for topological machine learning
Hertel et al. Deep convolutional neural networks as generic feature extractors
JP5120238B2 (en) Object area extraction apparatus and object area extraction program
Lim et al. Sketch tokens: A learned mid-level representation for contour and object detection
EP3333768A1 (en) Method and apparatus for detecting target
Seyedhosseini et al. Image segmentation with cascaded hierarchical models and logistic disjunctive normal networks
Rifai et al. The manifold tangent classifier
Schwartz et al. Visual material traits: Recognizing per-pixel material context
WO2014205231A1 (en) Deep learning framework for generic object detection
CN111079639A (en) Method, device and equipment for constructing garbage image classification model and storage medium
Ayyalasomayajula et al. PDNet: Semantic segmentation integrated with a primal-dual network for document binarization
Lu et al. Traffic sign recognition via multi-modal tree-structure embedded multi-task learning
Burie et al. ICFHR2016 competition on the analysis of handwritten text in images of balinese palm leaf manuscripts
Omara et al. Learning pairwise SVM on deep features for ear recognition
Bejaoui et al. Fully automated facial expression recognition using 3D morphable model and mesh-local binary pattern
Kanan Fine-grained object recognition with gnostic fields
Vasudevan et al. Dynamic scene classification using spatial and temporal cues
Ballan et al. Recognizing human actions by fusing spatio-temporal appearance and motion descriptors
Goyal et al. Fuzzy similarity measure based spectral clustering framework for noisy image segmentation
Ismail et al. Online Arabic handwritten character recognition based on a rule based approach
Rigamonti et al. On the relevance of sparsity for image classification
Yadav et al. Design of CNN architecture for Hindi Characters
CN116935122A (en) Image classification method and system based on 3D-WGMobileNet
Ansari Hand Gesture Recognition using fusion of SIFT and HoG with SVM as a Classifier
Ciresan et al. Neural networks for segmenting neuronal structures in EM stacks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees