JP2014106565A - Object area boundary estimation device and program - Google Patents

Object area boundary estimation device and program Download PDF

Info

Publication number
JP2014106565A
JP2014106565A JP2012256807A JP2012256807A JP2014106565A JP 2014106565 A JP2014106565 A JP 2014106565A JP 2012256807 A JP2012256807 A JP 2012256807A JP 2012256807 A JP2012256807 A JP 2012256807A JP 2014106565 A JP2014106565 A JP 2014106565A
Authority
JP
Japan
Prior art keywords
boundary
region
unit
feature
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012256807A
Other languages
Japanese (ja)
Inventor
Kazuhiko Murazaki
和彦 村崎
Kyoko Sudo
恭子 数藤
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012256807A priority Critical patent/JP2014106565A/en
Publication of JP2014106565A publication Critical patent/JP2014106565A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the accuracy in extraction of an area and a boundary of an object included in an image.SOLUTION: An object area boundary estimation device includes: a small area division unit which divides the whole of each of images included in an image data set into small areas; a local area feature extraction unit which extracts a local area feature vector from each small area; a global area feature extraction unit which extracts a global area feature vector from each small area; a local boundary feature extraction unit which extracts a local boundary feature vector for each of boundaries between pairs of adjacent small areas; a global boundary feature extraction unit which extracts a global boundary feature vector for each of boundaries between pairs of adjacent small areas; a quantization unit which outputs a quantization feature vector through discretization about local area feature vectors, global area feature vectors, local boundary feature vectors, and global boundary feature vectors; a model estimation unit which learns an area/boundary multiplex feature model with the quantization feature vector as an observation variable: and a topic estimation unit which estimates the area and boundary of an object in the image on the basis of the learning result.

Description

本発明は、画像から物体領域を抽出し、領域間の関係性を同時に推定する技術に関して、大量の画像データから物体領域を精度よく抽出するとともに領域間の境界線を分類する物体領域境界推定装置、及びプログラムに関する。   The present invention relates to a technique for extracting an object region from an image and simultaneously estimating the relationship between the regions, and extracting an object region from a large amount of image data with high accuracy and classifying boundary lines between the regions. And the program.

画像から物体領域を推定する方法は、主に2つに大別することができる。第1の方法は、予め画像に含まれる物体で画像内をカテゴリ分類し、学習により識別器を構成し、その識別器を用いて識別する方法である(例えば、非特許文献1)。第2の方法は、物体領域にラベルがついた画像を大量に学習することによって、確率モデルを構築し、確率的に推定する方法である(例えば、非特許文献2)。   There are mainly two methods for estimating an object region from an image. The first method is a method of classifying the inside of an image with objects included in the image in advance, constructing a discriminator by learning, and discriminating using the discriminator (for example, Non-Patent Document 1). The second method is a method of constructing a probability model and learning probabilistically by learning a large amount of images labeled with object regions (for example, Non-Patent Document 2).

具体的には、第1の方法は、画像から特徴量を抽出し、特徴量を入力としてクラスごとに識別する識別器を構成する。一般的に用いられる特徴量の例としては、Bag−of−Featuresなどがある。この場合、複数の画像から抽出された特徴量のクラスタリングによりコードブックを作成し、その出現頻度で画像を表現する。   Specifically, in the first method, a feature quantity is extracted from an image, and a classifier that identifies each class using the feature quantity as an input is configured. Examples of commonly used feature values include Bag-of-Features. In this case, a code book is created by clustering feature amounts extracted from a plurality of images, and the image is expressed with the appearance frequency.

第1の方法は、画像1枚1枚にラベルが付けられており、1枚の画像が1つの名詞で代表できるような場合に有効である。同じラベルがついた画像から得られる特徴ベクトルの分散が小さい場合には識別器が精度よく構成でき有効であるが、画像に複数の物体が含まれる場合や、同じ物体でも特徴空間でいくつかのクラスタを形成するような場合には適用が難しいという特徴がある。   The first method is effective when each image is labeled and each image can be represented by one noun. If the variance of feature vectors obtained from images with the same label is small, the classifier can be configured with high accuracy, which is effective.However, if the image contains multiple objects, the same object may have several features in the feature space. It is difficult to apply when forming a cluster.

一方、第2の方法は、物体領域のクラスごとに特徴量を学習するのではなく、ラベルのついた大量の画像集合を学習し、特徴量とラベルの発生確率のモデルを構築する。新たな入力画像に対しモデルのパラメータを推定することで画像のインデキシングを行う。   On the other hand, in the second method, a feature quantity and a label generation probability model are constructed by learning a large amount of labeled image sets instead of learning feature quantities for each class of object regions. Image indexing is performed by estimating model parameters for a new input image.

第2の方法は、画像に複数の物体が含まれる場合や、同じ物体でも特徴空間でいくつかのクラスタを形成するような場合に有効であり、領域分割と領域へのラベルづけを同時に行うことができる。   The second method is effective when an image includes a plurality of objects, or when several clusters are formed in the feature space even with the same object, and the region division and the region labeling are performed simultaneously. Can do.

前景と背景情報の共起表現を用いたBag−of−features による画像分類、永橋 伊原 藤吉、「画像の認識・理解シンポジウム(MIRU2010)」Image classification based on Bag-of-features using co-occurrence representation of foreground and background information, Fujiyoshi Nagahara, “Image Recognition and Understanding Symposium (MIRU2010)” 一般物体認識の現状と今後、柳井啓司、情報処理学会論文誌 CVIM19−No.SIG 16,Vol.48,2007Current status and future of general object recognition, Keiji Yanai, IPSJ Journal CVIM19-No. SIG 16, Vol. 48,2007

しかしながら、第2の方法を用いた従来技術では、画像を局所特徴の集合として、それぞれが関係性をもたない局所特徴として扱うか、或いは、画像を小領域の集合として、それぞれが関係性をもたない小領域の集合として扱っていたため、画像の領域間を関係付けることができなかった。すなわち、物体と物体の隣接関係に基づき、領域分割と領域へのラベルづけを同時に行うことができない。   However, in the prior art using the second method, each image is treated as a set of local features, each as a local feature that has no relationship, or each image is treated as a set of small regions, Since it was treated as a collection of small areas, it was impossible to relate image areas. That is, based on the adjacency relationship between objects, it is not possible to perform region division and region labeling at the same time.

このように、従来技術にあっては、画像内に複数の物体が含まれるような場合に、物体同士の隣接関係に基づき画像の類似性を判定することは困難である。ここで、物体同士の隣接関係とは、物体と物体との空間的な位置関係に関わる画像上の物体と物体の境界の性質(画像内で領域は隣接しているが実空間では接していない、直交する面の凸側の境界である、直交する面の凹側の境界である、など)を指す。   As described above, in the related art, when a plurality of objects are included in an image, it is difficult to determine the similarity of images based on the adjacent relationship between objects. Here, the adjacency relationship between objects refers to the property of the boundary between the object and the object on the image related to the spatial positional relationship between the objects (regions are adjacent in the image but not in real space) , A boundary on the convex side of the orthogonal surface, a boundary on the concave side of the orthogonal surface, etc.).

一方、従来技術による第1の方法を適用する場合には、画像内に複数の物体があり、その隣接関係が変化するような場合には、学習することができないという問題がある。また、従来技術による第2の方法を適用する場合には、複数の物体を含めたモデル推定が可能であるものの、物体同士の隣接関係を推定することはできないという問題がある。   On the other hand, when the first method according to the prior art is applied, there is a problem that learning cannot be performed when there are a plurality of objects in an image and the adjacent relationship changes. In addition, when the second method according to the related art is applied, there is a problem that although it is possible to estimate a model including a plurality of objects, it is not possible to estimate the adjacent relationship between objects.

本発明は、このような事情に鑑みてなされたもので、画像内において物体の領域及び物体の境界を抽出する精度を向上させることができる物体領域境界推定装置、及びプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an object region boundary estimation apparatus and program capable of improving the accuracy of extracting an object region and an object boundary in an image. And

上記問題を解決するために、本発明の物体領域境界推定装置は、画像データ集合に含まれる画像ごとに画像全体を小領域に分割する第1の小領域分割部と、前記小領域ごとに第1の局所領域特徴ベクトルを抽出する第1の局所領域特徴抽出部と、前記小領域ごとに第1の大域領域特徴ベクトルを抽出する第1の大域領域特徴抽出部と、隣接する2つの前記小領域間の境界線ごとに第1の局所境界特徴ベクトルを抽出する第1の局所境界特徴抽出部と、隣接する2つの前記小領域間の境界線ごとに第1の大域境界特徴ベクトルを抽出する第1の大域境界特徴抽出部と、前記第1の局所領域特徴ベクトル、前記第1の大域領域特徴ベクトル、前記第1の局所境界特徴ベクトル、及び前記第1の大域境界特徴ベクトルについて離散化して第1の量子化特徴ベクトルを出力する第1の量子化部と、前記第1の量子化特徴ベクトルを観測変数として領域境界多重特徴モデルの学習をする第1のモデル推定部と、前記第1のモデル推定部の学習結果に基づいて、入力される画像データの画像における物体の領域及び境界を推定するトピック推定部と、を具備することを特徴とする。   In order to solve the above problem, the object region boundary estimation apparatus of the present invention includes a first small region dividing unit that divides the entire image into small regions for each image included in the image data set, and a first small region dividing unit for each small region. A first local region feature extraction unit that extracts one local region feature vector; a first global region feature extraction unit that extracts a first global region feature vector for each of the small regions; and the two adjacent small regions A first local boundary feature extraction unit that extracts a first local boundary feature vector for each boundary line between regions, and a first global boundary feature vector for each boundary line between two adjacent small regions Discretizing the first global boundary feature extraction unit, the first local region feature vector, the first global region feature vector, the first local boundary feature vector, and the first global boundary feature vector First quantum A first quantization unit that outputs a feature vector, a first model estimation unit that learns a region boundary multiple feature model using the first quantization feature vector as an observation variable, and a first model estimation unit And a topic estimation unit that estimates an object region and a boundary in an image of input image data based on a learning result.

また、本発明は、上記に記載の物体領域境界推定装置であって、前記トピック推定部は、入力される画像データの画像全体を小領域に分割する第2の小領域分割部と、前記第2の小領域分割部により分割された小領域ごとに第2の局所領域特徴ベクトルを抽出する第2の局所領域特徴抽出部と、前記第2の小領域分割部により分割された小領域ごとに第2の大域領域特徴ベクトルを抽出する第2の大域領域特徴抽出部と、前記第2の小領域分割部により分割された小領域のうち隣接する2つの小領域間の境界線ごとに第2の局所境界特徴ベクトルを抽出する第2の局所境界特徴抽出部と、前記第2の小領域分割部により分割された小領域のうち隣接する2つの小領域間の境界線ごとに第2の大域境界特徴ベクトルを抽出する第2の大域境界特徴抽出部と、前記第2の局所領域特徴ベクトル、前記第2の大域領域特徴ベクトル、前記第2の局所境界特徴ベクトル、前記第2の大域境界特徴ベクトル、及び、前記第1のモデル推定部の学習結果に基づいて、前記第2の小領域分割部により分割された各小領域と各小領域間の境界線とを分類する第2のモデル推定部と、を備えることを特徴とする。   Further, the present invention is the object region boundary estimation apparatus described above, wherein the topic estimation unit includes a second small region dividing unit that divides the entire image of the input image data into small regions, and the first A second local region feature extraction unit that extracts a second local region feature vector for each small region divided by the two small region dividing units; and for each small region divided by the second small region dividing unit A second global region feature extraction unit that extracts a second global region feature vector; and a second for each boundary line between two adjacent small regions among the small regions divided by the second small region dividing unit. A second local boundary feature extracting unit for extracting a local boundary feature vector of the second sub-region, and a second global region for each boundary line between two adjacent small regions among the small regions divided by the second small region dividing unit Second global boundary feature that extracts boundary feature vectors An extraction unit, the second local region feature vector, the second global region feature vector, the second local boundary feature vector, the second global boundary feature vector, and the first model estimation unit. And a second model estimation unit that classifies each small region divided by the second small region dividing unit and a boundary line between each small region based on a learning result.

また、上記問題を解決するために、本発明は、上記に記載の物体領域境界推定装置としてコンピュータを機能させるためのプログラムである。   In order to solve the above problem, the present invention is a program for causing a computer to function as the object region boundary estimation apparatus described above.

この発明によれば、入力された画像を分割して得られる小領域及び小領域間の境界に対して、大域特徴と局所特徴との2種類を用いたモデルに基づいて学習を行うことにより、画像内において物体の領域及び物体の境界を抽出する精度を向上させることができる。   According to the present invention, learning is performed on a small region obtained by dividing an input image and a boundary between the small regions based on a model using two types of a global feature and a local feature. The accuracy of extracting the object region and the object boundary in the image can be improved.

本実施形態における物体領域境界推定装置1の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the object area | region boundary estimation apparatus 1 in this embodiment. 同実施形態において特徴ベクトル抽出部120が抽出する各特徴ベクトルの関係を示す図である。It is a figure which shows the relationship of each feature vector which the feature vector extraction part 120 extracts in the embodiment. 同実施形態においてモデル推定部13が用いる領域境界多重特徴モデルの概念を示す図である。It is a figure which shows the concept of the area boundary multiple feature model which the model estimation part 13 uses in the embodiment. 各要素(各パラメータや各トピック)間の確率的な関係性を示すグラフィカルモデルである。It is a graphical model which shows the stochastic relationship between each element (each parameter and each topic). 同実施形態の物体領域境界推定装置1を複数の馬の画像に対して領域トピック及び境界トピックを推定した適用例を示す図である。It is a figure which shows the application example which estimated the area | region topic and the boundary topic with respect to the image of several horses by the object area | region boundary estimation apparatus 1 of the embodiment.

以下、図面を参照して、本発明の一実施形態における物体領域境界推定装置1を説明する。図1は、本実施形態における物体領域境界推定装置1の構成を示す概略ブロック図である。物体領域境界推定装置1は、パラメータ学習部10、及びトピック推定部20を具備している。パラメータ学習部10には、学習の対象である複数の画像を含む画像データ集合が入力される。パラメータ学習部10は、学習結果として各種モデルパラメータを出力する。トピック推定部20には、一枚の画像を示す画像データが入力される。トピック推定部20は、入力された画像内の小領域及び境界線に対応付けたトピックを出力する。   Hereinafter, an object region boundary estimation apparatus 1 according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic block diagram showing a configuration of an object region boundary estimation apparatus 1 in the present embodiment. The object region boundary estimation apparatus 1 includes a parameter learning unit 10 and a topic estimation unit 20. The parameter learning unit 10 receives an image data set including a plurality of images to be learned. The parameter learning unit 10 outputs various model parameters as learning results. Image data indicating one image is input to the topic estimation unit 20. The topic estimation unit 20 outputs a topic associated with the small region and the boundary line in the input image.

パラメータ学習部10は、小領域分割部11、ビジュアルワード生成部12、及び、モデル推定部13を備えている。ビジュアルワード生成部12は、特徴ベクトル抽出部120、量子化辞書記憶部125、及び量子化部126を有している。特徴ベクトル抽出部120は、局所領域特徴抽出部121、大域領域特徴抽出部122、局所境界特徴抽出部123、及び、大域境界特徴抽出部124を有している。モデル推定部13は、領域境界多重特徴モデル記憶部131を有している。   The parameter learning unit 10 includes a small region dividing unit 11, a visual word generating unit 12, and a model estimating unit 13. The visual word generation unit 12 includes a feature vector extraction unit 120, a quantization dictionary storage unit 125, and a quantization unit 126. The feature vector extraction unit 120 includes a local region feature extraction unit 121, a global region feature extraction unit 122, a local boundary feature extraction unit 123, and a global boundary feature extraction unit 124. The model estimation unit 13 includes a region boundary multiple feature model storage unit 131.

トピック推定部20は、小領域分割部21、ビジュアルワード生成部22、及び、モデル推定部23を備えている。ビジュアルワード生成部22は、パラメータ学習部10におけるビジュアルワード生成部12と同じ構成を有している。モデル推定部23は、領域境界多重特徴モデル記憶部231、及びモデルパラメータ記憶部232を有している。   The topic estimation unit 20 includes a small region division unit 21, a visual word generation unit 22, and a model estimation unit 23. The visual word generation unit 22 has the same configuration as the visual word generation unit 12 in the parameter learning unit 10. The model estimation unit 23 includes a region boundary multiple feature model storage unit 231 and a model parameter storage unit 232.

図1を参照して、同図に示す物体領域境界推定装置1の動作を説明する。パラメータ学習部10において、小領域分割部11は、入力される複数の画像データを含む画像データ集合の画像データごとに、画像データが示す入力画像を多数の小領域に分割する。この小領域は、当該小領域に撮像されている物体が同一物体あることを仮定している。小領域分割部11は、複数の物体が同じ小領域に含まれることがないように十分に細かく入力画像を分割する。入力画像を小領域に分割する方法として、例えば、Felzenszwalbらの「Graph-based Image Segmentation」や、Liuらの「Entropy Rate Superpixel」などを用いることができる。   The operation of the object region boundary estimation apparatus 1 shown in FIG. 1 will be described with reference to FIG. In the parameter learning unit 10, the small region dividing unit 11 divides the input image indicated by the image data into a large number of small regions for each image data of an image data set including a plurality of input image data. This small region assumes that the same object is captured in the small region. The small area dividing unit 11 divides the input image sufficiently finely so that a plurality of objects are not included in the same small area. As a method for dividing an input image into small regions, for example, “Graph-based Image Segmentation” by Felzenszwalb et al., “Entropy Rate Superpixel” by Liu et al., And the like can be used.

ビジュアルワード生成部12において、特徴ベクトル抽出部120は、小領域分割部11により分割された画像の各小領域に対して、局所領域特徴、大域領域特徴、局所境界特徴、及び、大域境界特徴の4種のビジュアルワードを生成する。局所領域特徴抽出部121、大域領域特徴抽出部122、局所境界特徴抽出部123、及び、大域境界特徴抽出部124は、以下に説明するような特徴ベクトルをビジュアルワードとして生成する。各特徴ベクトルの関係を図2に示す。   In the visual word generation unit 12, the feature vector extraction unit 120 performs local region feature, global region feature, local boundary feature, and global boundary feature for each small region of the image divided by the small region dividing unit 11. Generate 4 types of visual words. The local region feature extraction unit 121, the global region feature extraction unit 122, the local boundary feature extraction unit 123, and the global boundary feature extraction unit 124 generate a feature vector as described below as a visual word. The relationship between each feature vector is shown in FIG.

図2は、同実施形態において特徴ベクトル抽出部120が抽出する各特徴ベクトルの関係を示す図である。同図には、一例として、皿の上に置かれている3つのリンゴと皿の外に置かれている1つのリンゴとを含む画像に対して、小領域への分割を行った画像が示されている。また、4つのリンゴのうち、皿の外に置かれているリンゴに対して各特徴を抽出する例が示されている。   FIG. 2 is a diagram showing the relationship between the feature vectors extracted by the feature vector extraction unit 120 in the embodiment. In the figure, as an example, an image including three apples placed on a plate and one apple placed outside the plate is divided into small areas. Has been. Moreover, the example which extracts each characteristic with respect to the apple put out of the plate among four apples is shown.

局所領域特徴抽出部121は、小領域に分割された入力画像から局所領域特徴を示す局所領域特徴ベクトルを抽出する。局所領域特徴とは、分割された小領域中からランダムに得られる特徴点から抽出される局所領域特徴ベクトルを示す。具体的には、局所領域特徴抽出部121は、SIFT(Scale Invariant Feature Transform)特徴量や、SURF(Speeded Up Robust Features)特徴量といった局所勾配を表現する画像特徴量を抽出する。局所領域特徴抽出部121は、領域面積について一定の割合でランダムに、抽出する特徴点選択する。   The local area feature extraction unit 121 extracts a local area feature vector indicating a local area feature from an input image divided into small areas. The local region feature indicates a local region feature vector extracted from feature points randomly obtained from the divided small regions. Specifically, the local region feature extraction unit 121 extracts an image feature amount expressing a local gradient such as a SIFT (Scale Invariant Feature Transform) feature amount or a SURF (Speeded Up Robust Features) feature amount. The local region feature extraction unit 121 selects feature points to be extracted randomly at a constant rate with respect to the region area.

大域領域特徴抽出部122は、小領域に分割された領域全体から大域領域特徴を示す大域領域特徴ベクトルを抽出する。大域領域特徴とは、分割された小領域全体の画素分布を示す特徴ベクトルである。大域領域特徴抽出部122は、例えば、色ヒストグラムや、重心座標、テクスチャ特徴などを用いて大域領域特徴ベクトルを抽出する。   The global area feature extraction unit 122 extracts a global area feature vector indicating a global area feature from the entire area divided into small areas. The global area feature is a feature vector indicating the pixel distribution of the entire divided small area. The global area feature extraction unit 122 extracts a global area feature vector using, for example, a color histogram, barycentric coordinates, texture features, and the like.

局所境界特徴抽出部123は、分割された小領域間同士の境界線について局所境界特徴を示す局所境界特徴ベクトルを抽出する。局所領域特徴とは、分割された小領域のうち、隣接する小領域間の境界線について、境界線上でランダムに選択した点から抽出される。局所境界特徴抽出部123は、境界線上(エッジ上)の局所領域特徴として、例えば、「GeometricBlur」などを用いる。局所境界特徴抽出部123は、境界線の長さについて一定の割合でランダムに、局所境界特徴を抽出する特徴点を選択する。   The local boundary feature extraction unit 123 extracts a local boundary feature vector indicating the local boundary feature for the boundary line between the divided small regions. The local region feature is extracted from points randomly selected on the boundary line with respect to the boundary line between adjacent small regions among the divided small regions. The local boundary feature extraction unit 123 uses, for example, “GeometricBlur” as the local region feature on the boundary line (on the edge). The local boundary feature extraction unit 123 selects feature points from which local boundary features are extracted at random with respect to the length of the boundary line.

大域境界特徴抽出部124は、分割された小領域同士の境界線について大域境界特徴を示す大域境界特徴ベクトルを抽出する。大域境界特徴とは、分割された小領域のうち隣接する小領域間の境界線について、隣接する2つの小領域をつなぐ1本の線全体の勾配分布を示す特徴ベクトルである。大域境界特徴抽出部124は、例えば、EOH(Edge of Orientation Histograms)特徴量のような勾配ヒストグラムを用いて、大域境界特徴ベクトルを抽出する。なお、大域境界特徴抽出部124は、境界線の長さや傾きといった線全体に関する特徴であれば同様に用いて、大域境界特徴ベクトルを抽出することができる。   The global boundary feature extraction unit 124 extracts a global boundary feature vector indicating the global boundary feature for the boundary line between the divided small regions. The global boundary feature is a feature vector indicating a gradient distribution of one whole line connecting two adjacent small regions with respect to a boundary line between adjacent small regions among the divided small regions. The global boundary feature extraction unit 124 extracts a global boundary feature vector using, for example, a gradient histogram such as an EOH (Edge of Orientation Histograms) feature. Note that the global boundary feature extraction unit 124 can similarly extract the global boundary feature vector using any feature related to the entire line such as the length and inclination of the boundary line.

量子化辞書記憶部125には、局所領域特徴、大域領域特徴、局所境界特徴、及び、大域境界特徴それぞれの特徴ベクトルの属するクラスタと、当該クラスタを示すインデックスとが対応付けられた量子化辞書が記憶される。各特徴ベクトルの属するクラスタは、4種それぞれの特徴ベクトルについてクラスタリングを行うことにより構築される。   The quantization dictionary storage unit 125 includes a quantization dictionary in which local region features, global region features, local boundary features, and clusters to which each feature vector of the global boundary features belongs and an index indicating the cluster are associated with each other. Remembered. The cluster to which each feature vector belongs is constructed by clustering the four types of feature vectors.

量子化部126は、量子化辞書記憶部125に記憶されている量子化辞書を用いて、特徴ベクトル抽出部120が抽出した4つの各特徴ベクトルを量子化する。量子化部126は、各特徴ベクトルが属するクラスタに対応するインデックスを、量子化されたビジュアルワードとして出力する。クラスタリングの手法として、例えば、K−meansクラスタリング(K平均法)などを用いることができる。量子化部126は、量子化した各特徴ベクトルである量子化ベクトルをビジュアルワードとしてモデル推定部13に出力する。   The quantization unit 126 quantizes each of the four feature vectors extracted by the feature vector extraction unit 120 using the quantization dictionary stored in the quantization dictionary storage unit 125. The quantization unit 126 outputs an index corresponding to the cluster to which each feature vector belongs as a quantized visual word. As a clustering technique, for example, K-means clustering (K-average method) can be used. The quantization unit 126 outputs the quantized vector, which is each quantized feature vector, to the model estimation unit 13 as a visual word.

モデル推定部13は、ビジュアルワード生成部12が出力するビジュアルワードを用いて、各小領域及び境界と、各ビジュアルワードとの確率的な関係性を示すパラメータの学習を行う。また、モデル推定部13は、画像における物体の領域及び境界モデルを特徴づけるパラメータを学習結果として出力する。モデル推定部13の学習に用いる領域境界多重特徴モデルの概念を図3に示す。   The model estimation unit 13 uses the visual word output from the visual word generation unit 12 to learn a parameter indicating the stochastic relationship between each small region and boundary and each visual word. In addition, the model estimation unit 13 outputs a parameter that characterizes the object region and the boundary model in the image as a learning result. The concept of the region boundary multiple feature model used for learning by the model estimation unit 13 is shown in FIG.

図3は、同実施形態においてモデル推定部13が用いる領域境界多重特徴モデルの概念を示す図である。入力画像から複数の小領域が得られており、隣接する小領域間に境界が設定されている。各小領域からは1つの大域領域特徴(x(g))と複数の局所領域特徴(x (l),x (l),x (l),…)とが抽出される。小領域間の各境界からは1つの大域境界特徴(y(g))と複数の局所境界特徴(y (l),y (l),y (l),…)とが抽出される。領域境界多重特徴モデル記憶部131は、抽出された各特徴を示すパラメータや、後述する確率的な関係性を示すパラメータを記憶する。 FIG. 3 is a diagram showing a concept of a region boundary multiple feature model used by the model estimation unit 13 in the same embodiment. A plurality of small areas are obtained from the input image, and a boundary is set between adjacent small areas. From each small region, one global region feature (x (g) ) and a plurality of local region features (x 1 (l) , x 2 (l) , x 3 (l) ,...) Are extracted. From each boundary between the small regions, one global boundary feature (y (g) ) and a plurality of local boundary features (y 1 (l) , y 2 (l) , y 3 (l) ,...) Are extracted. The The region boundary multiple feature model storage unit 131 stores a parameter indicating each extracted feature and a parameter indicating a stochastic relationship described later.

図4は、各要素(各パラメータや各トピック)間の確率的な関係性を示すグラフィカルモデルである。各小領域境界は全ての隣接領域について定義されるが、同図に示すグラフィカルモデルでは簡単のため1対の隣接小領域についての関係性を抜き出して記載している。   FIG. 4 is a graphical model showing a probabilistic relationship between each element (each parameter and each topic). Each small region boundary is defined for all adjacent regions. However, in the graphical model shown in the figure, the relationship between a pair of adjacent small regions is extracted and described for simplicity.

同図において、各小領域の領域トピックがTで示され、各境界の境界トピックがUで示されている。観測されたビジュアルワードはグレーの丸で示され、学習のために与えられるパラメータは黒い点で示されている。ビジュアルワード生成部12が出力したビジュアルワードはそれぞれ、大域領域特徴がx(g)、局所領域特徴がx(l)、大域境界特徴がy(g)、局所境界特徴がy(l)で表されている。 In the figure, the area topic of each small area is indicated by T, and the boundary topic of each boundary is indicated by U. Observed visual words are shown as gray circles, and parameters given for learning are shown as black dots. The visual words output by the visual word generation unit 12 are represented by the global region feature x (g) , the local region feature x (l) , the global boundary feature y (g) , and the local boundary feature y (l) , respectively. Has been.

トピックと特徴との確率的な関係性を示すパラメータとして、φ(g)、φ(l)、η(g)、η(l)がある。φ(g)は大域領域特徴と領域トピックとの関係を示し、φ(l)は局所領域特徴と領域トピックとの関係を示し、η(g)は大域境界特徴と境界トピックとの関係を示し、η(l)は局所境界特徴と境界トピックとの関係を示す。更に、画像全体の領域トピックの出現頻度を示すベクトルがθで示され、隣接する領域トピックと境界トピックとの関係性がξで示されている。 As parameters indicating the probabilistic relationship between topics and features, there are φ (g) , φ (l) , η (g) , and η (l) . φ (g) indicates the relationship between global region features and region topics, φ (l) indicates the relationship between local region features and region topics, and η (g) indicates the relationship between global boundary features and boundary topics. , Η (l) indicates the relationship between local boundary features and boundary topics. Further, a vector indicating the appearance frequency of the area topic in the entire image is indicated by θ, and the relationship between the adjacent area topic and the boundary topic is indicated by ξ.

〜φ(g)、〜φ(l)、〜η(g)、〜η(l)、〜θ、及び〜ξはそれぞれφ(g)、φ(l)、η(g)、η(l)、θ、及びξを生成するディリクレ分布のパラメータ(事前分布)を示す。なお、図4において、θの上に「〜(チルダ)」が付されている文字を明細書においては、「〜θ」と記載する。また、他の文字(φ、ηなど)についても同様に記載する。 ~ Φ (g) , ~ φ (l) , ~ η (g) , ~ η (l) , ~ θ, and ~ ξ are φ (g) , φ (l) , η (g) , η (l ) , Parameters of the Dirichlet distribution (prior distribution) for generating θ, ξ. In FIG. 4, a character with “˜ (tilde)” added above θ is described as “˜θ” in the specification. The same applies to other characters (φ, η, etc.).

また、図4において、枠の右下に記載されたN、K、Lはそれぞれ画像の枚数、領域トピック数、境界トピック数を示している。N、K、Lは枠の内部がその数だけ複数存在していることを意味する。破線で囲まれた領域境界間の関係性も画像内に複数存在している。 In FIG. 4, N I , K, and L described at the lower right of the frame indicate the number of images, the number of area topics, and the number of boundary topics, respectively. N I , K, and L mean that there are a plurality of the insides of the frame. There are also a plurality of relationships between region boundaries surrounded by broken lines in the image.

こうした確率モデルは生成モデルと呼ばれる。以下、確率モデルにおける生成過程について説明する。まず、パラメータ〜θ、〜φ、〜η、〜ξをもつディリクレ分布θ、φ、η、ξが生成される。θは各小領域がそれぞれのラベルに属する確率を示している。確率θに応じて領域ラベルTが生成される。次に、パラメータφ(g)、φ(l)は各領域ラベルに応じて各小領域のビジュアルワードが生成される確率を示している。パラメータφ(g)、φ(l)と、領域ラベルとに従って小領域のビジュアルワードx(g)、x(l)が生成される。 Such a probability model is called a generation model. Hereinafter, the generation process in the probability model will be described. First, Dirichlet distributions θ, φ, η, and ξ having parameters ~ θ, ~ φ, ~ η, and ~ ξ are generated. θ represents the probability that each small region belongs to each label. A region label T is generated according to the probability θ. Next, the parameters φ (g) and φ (l) indicate the probability that a visual word of each small area is generated according to each area label. Small region visual words x (g) , x (l) are generated according to the parameters φ (g) , φ (l) and the region labels.

次に、パラメータξは隣接する領域ラベルの組み合わせに応じた境界ラベルの出現確率である。パラメータξと隣接する領域ラベルの組み合わせとによって境界ラベルが生成される。最後に境界ラベルに応じた境界特徴の出現確率を示すパラメータη(g)、η(l)によって境界のビジュアルワードy(g)、y(l)が生成される。 Next, the parameter ξ is the appearance probability of the boundary label according to the combination of adjacent region labels. A boundary label is generated by the combination of the parameter ξ and the adjacent region label. Finally, boundary visual words y (g) and y (l) are generated by parameters η (g) and η (l) indicating the appearance probability of the boundary feature corresponding to the boundary label.

このモデルに従って各変数の事後分布を求め、パラメータφ、η、ξを学習する。各変数の事後分布を求める手法として、John Winnらの提案する「Variational Message Passing」を用いる。「Variational Message Passing」は、変分ベイズ法と呼ばれる推論の枠組みにおいてグラフィカルモデルの各ノードについて隣接ノードに期待値を伝搬させることにより、各ノードの事後分布を更新する手法である。「Variational Message Passing」は、指数型分布属に属する確率分布によって記述される確率モデルに対して汎用的に適用することができる。   A posteriori distribution of each variable is obtained according to this model, and parameters φ, η, and ξ are learned. “Variational Message Passing” proposed by John Winn et al. Is used as a method for obtaining the posterior distribution of each variable. “Variational Message Passing” is a technique for updating the posterior distribution of each node by propagating the expected value to the adjacent node for each node of the graphical model in the framework of inference called variational Bayesian method. “Variational Message Passing” can be applied universally to a probability model described by a probability distribution belonging to an exponential distribution genus.

「Variational Message Passing」に従うとパラメータ学習部10のモデルにおける各変数の更新式は以下のようになる。領域トピックkが出現する頻度を示すθの更新は次式(1)に従う。 According to “Variational Message Passing”, the update formula of each variable in the model of the parameter learning unit 10 is as follows. The update of θ k indicating the frequency of appearance of the topic topic k follows the following equation (1).

式(1)において、<・>は変数の期待値を示し、ψ(・)はディガンマ関数を示す。trkはr番目の領域Tがトピックkとなる確率を示しており、Nは画像内の小領域の数を示している。領域トピックTは、小領域rがトピックkとなる確率trkによって表現され、次式(2)で更新される。 In Equation (1), <•> indicates an expected value of a variable, and ψ (•) indicates a digamma function. t rk indicates the probability that the r-th region T r is a topic k, and N r indicates the number of small regions in the image. The area topic T is expressed by the probability t rk that the small area r becomes the topic k, and is updated by the following equation (2).

式(2)において、β(r)は領域r内の局所領域特徴のインデックスを示し、ε(r)は領域rに隣接する領域のインデックスを示す。また、(r,s)は領域rと領域sとの境界を示す。また、ξkk’lはトピックkとトピックk’との領域の間の境界がトピックlとなる確率を示す。 In Expression (2), β (r) indicates an index of a local region feature in the region r, and ε (r) indicates an index of a region adjacent to the region r. (R, s) indicates the boundary between the region r and the region s. Also, ξ kk′l indicates the probability that the boundary between the topic k and topic k ′ regions will be topic l.

同様に、境界トピックUは境界bがトピックlとなる確率ublによって表現され、次式(3)で更新される。 Similarly, the boundary topic U is expressed by the probability u bl that the boundary b becomes the topic l and is updated by the following equation (3).

ここで、境界bは領域rと領域rとの境界であり、β(b)は境界b内の局所境界特徴のインデックスを示す。φ(g)、φ(l)、η(g)、η(l)は各ビジュアルワードと各トピックの関係から同様の式によって更新されるため、φ(g)の更新式を示してφ(l)、η(g)、η(l)の更新式については記載を省略する。次式(4)は、φ(g)の更新式である。 Here, the boundary b is a boundary between the region r 1 and the region r 2, and β (b) indicates an index of a local boundary feature in the boundary b. Since φ (g) , φ (l) , η (g) , and η (l) are updated by the same formula from the relationship between each visual word and each topic, the update formula for φ (g) is shown as φ ( g) Description of the update formulas of l) , η (g) , and η (l) is omitted. The following equation (4) is an update equation for φ (g) .

式(4)において、δ(a,b)はa=bのときのみ1となるディラックのδ関数を示し、Vはビジュアルワードの取り得る最大値を示す。   In equation (4), δ (a, b) represents a Dirac δ function that is 1 only when a = b, and V represents the maximum value that the visual word can take.

ξは次式(5)で更新される。ここで、(r,s)は領域rと領域sとの境界を示し、Nは画像内の境界数を示す。 ξ is updated by the following equation (5). Here, (r, s) represents the boundary between the region r and the region s, N b indicates the number of boundaries in the image.

各ノードについて十分な回数の更新を繰り返して行い、得られたφ、η、ξの事後分布をトピック推定部20において用いるモデルパラメータとする。すなわち、パラメータ学習部10が算出したパラメータφ、η、ξは、トピック推定部20が備えるモデルパラメータ記憶部232に記憶される。   Update is performed a sufficient number of times for each node, and the obtained posterior distributions of φ, η, and ξ are used as model parameters in the topic estimation unit 20. That is, the parameters φ, η, and ξ calculated by the parameter learning unit 10 are stored in the model parameter storage unit 232 included in the topic estimation unit 20.

続いて、トピック推定部20における動作について説明する。トピック推定部20には、トピックを算出する対象の画像データが入力される。小領域分割部21は、パラメータ学習部10における小領域分割部11と同様に、入力される画像データが示す画像を多数の小領域に分割する。ビジュアルワード生成部22は、パラメータ学習部10におけるビジュアルワード生成部12と同様に、小領域分割部21により分割された画像に対して、局所領域特徴、大域領域特徴、局所境界特徴、及び、大域境界特徴の4種のビジュアルワードを生成する。ビジュアルワード生成部22はビジュアルワード生成部12と同じ構成を有しているので、ビジュアルワード生成部22の構成についての説明を省略する。   Next, the operation in the topic estimation unit 20 will be described. The topic estimation unit 20 is input with target image data to be calculated. Similar to the small area dividing unit 11 in the parameter learning unit 10, the small area dividing unit 21 divides the image indicated by the input image data into a large number of small areas. Similar to the visual word generation unit 12 in the parameter learning unit 10, the visual word generation unit 22 applies a local region feature, a global region feature, a local boundary feature, and a global region to the image divided by the small region division unit 21. Four types of visual words with boundary features are generated. Since the visual word generation unit 22 has the same configuration as the visual word generation unit 12, description of the configuration of the visual word generation unit 22 is omitted.

モデル推定部23は、ビジュアルワード生成部22が抽出するビジュアルワードを用いて、各小領域及び境界に対するトピックを出力する。領域境界多重特徴モデル記憶部231には、ビジュアルワード生成部22が抽出した各特徴を示すビジュアルワードをパラメータとして記憶する。モデルパラメータ記憶部232は、パラメータ学習部10が出力するφ、η、ξの事後分布を、事前分布を示す〜φ、〜η、〜ξとして記憶する。すなわち、モデル推定部23は、パラメータ学習部10による学習結果(φ、η、ξの事後分布)に基づいて、入力された画像に対する領域トピックT及び境界トピックUを算出する。   The model estimation unit 23 outputs a topic for each small region and boundary using the visual word extracted by the visual word generation unit 22. The region boundary multiple feature model storage unit 231 stores a visual word indicating each feature extracted by the visual word generation unit 22 as a parameter. The model parameter storage unit 232 stores the posterior distributions of φ, η, and ξ output from the parameter learning unit 10 as ~ φ, ~ η, and ~ ξ indicating the prior distribution. That is, the model estimation unit 23 calculates the region topic T and the boundary topic U for the input image based on the learning result (the posterior distribution of φ, η, and ξ) by the parameter learning unit 10.

また、モデル推定部23は、パラメータ学習部10と同様に、「Variational Message Passing」を適用することにより、各変数(φ(g)、φ(l)、η(g)、η(l))の事後分布を算出し、それらの値を最大化することにより領域トピックT及び境界トピックUを算出する。各変数を更新する際に用いる式は、パラメータ学習部10におけるモデル推定部13の説明に用いた式と同じである。モデル推定部23は、各ノードについて十分な回数の更新を繰り返し、最も事後確率の高い値を推定トピックとして出力する。 Similarly to the parameter learning unit 10, the model estimation unit 23 applies each variable (φ (g) , φ (l) , η (g) , η (l) ) by applying “Variational Message Passing”. Then, the topic topic T and the boundary topic U are calculated by maximizing these values. The formula used when updating each variable is the same as the formula used in the description of the model estimation unit 13 in the parameter learning unit 10. The model estimation unit 23 repeats updating a sufficient number of times for each node, and outputs the value having the highest posterior probability as the estimation topic.

以上説明したように、パラメータ学習部10では、小領域分割部11により分割された小領域に対して、ビジュアルワード生成部12が局所領域特徴、大域領域特徴、局所境界特徴、及び、大域境界特徴の4種のビジュアルワードを生成する。ビジュアルワードは、画像特徴をクラスタリングによっていくつかの離散的な値に量子化したものである。このビジュアルワードを用いた表現によって離散分布を用いた確率モデルによる画像表現が可能になる。ビジュアルワード生成部12は領域と境界とに対して2種類ずつ(大域領域特徴と局所領域特徴、及び、大域境界特徴と局所境界特徴)のビジュアルワードを生成する。モデル推定部13は、それら同一領域及び境界から得られる複数のビジュアルワードに同一のトピックを付与することにより、ビジュアルワードとトピックとの関係において同一物体、同一境界線を同一トピックとして学習することができる。   As described above, in the parameter learning unit 10, the visual word generation unit 12 performs the local region feature, the global region feature, the local boundary feature, and the global boundary feature for the small region divided by the small region dividing unit 11. The four types of visual words are generated. A visual word is obtained by quantizing an image feature into several discrete values by clustering. The expression using the visual word makes it possible to express an image by a probability model using a discrete distribution. The visual word generation unit 12 generates two types of visual words (global region feature and local region feature, and global boundary feature and local boundary feature) for each region and boundary. The model estimation unit 13 can learn the same object and the same boundary line as the same topic in the relationship between the visual word and the topic by giving the same topic to a plurality of visual words obtained from the same region and boundary. it can.

このように、モデル推定部13において、境界特徴を大域境界特徴と局所境界特徴とに分け、更に、一つの境界から複数の局所境界特徴を抽出し、それらを同一境界トピックとして学習する。モデル推定部13は、このような領域境界多重特徴モデルを用いた学習により、物体の輪郭や内部のエッジ、稜線といった同様の意味を有する境界線を精度よく分類することができる。換言すると、モデル推定部13は、ビジュアルワード生成部12が出力するビジュアルワード(各特徴ベクトルを量子化した量子化ベクトル)を観測変数として領域境界多重特徴モデルの学習を行う。   As described above, the model estimation unit 13 divides the boundary feature into the global boundary feature and the local boundary feature, extracts a plurality of local boundary features from one boundary, and learns them as the same boundary topic. The model estimation unit 13 can accurately classify boundary lines having similar meanings such as the contour of an object, an internal edge, and a ridge line by learning using such a region boundary multiple feature model. In other words, the model estimation unit 13 learns the region boundary multiple feature model using the visual word (quantized vector obtained by quantizing each feature vector) output from the visual word generation unit 12 as an observation variable.

また、上述のような特徴を有するモデル推定部13が学習結果として出力するパラメータであって物体の領域及び境界のモデルを特徴づけるパラメータ(φ、η、ξの事後分布)を用いることにより、トピック推定部20は入力される画像における領域及び境界を精度よく分類することができる。   Further, by using parameters (a posteriori distribution of φ, η, and ξ) that are parameters that are output as learning results by the model estimation unit 13 having the characteristics as described above and that characterize the object region and boundary models, topics can be obtained. The estimation unit 20 can classify regions and boundaries in the input image with high accuracy.

図5は、同実施形態の物体領域境界推定装置1を複数の馬の画像に対して領域トピック及び境界トピックを推定した適用例を示す図である。これは、馬の画像300枚を画像データ集合としてパラメータ学習部10に入力し、パラメータ学習部10により得られたパラメータに基づいてトピック推定部20が推定した領域トピック及び境界トピックを示している。同一の領域トピックを同じ濃淡パターンで示し、同一の境界トピックを同じ濃淡パターンで示している。同図に示すように、2種類の馬の領域と馬の輪郭とが同一トピックとして抽出されていることがわかる。   FIG. 5 is a diagram illustrating an application example in which the object topic boundary estimation apparatus 1 according to the embodiment estimates a region topic and a boundary topic for a plurality of horse images. This is an area topic and boundary topic estimated by the topic estimation unit 20 based on parameters obtained by inputting 300 horse images as an image data set to the parameter learning unit 10 and based on parameters obtained by the parameter learning unit 10. The same area topic is shown with the same shading pattern, and the same boundary topic is shown with the same shading pattern. As shown in the figure, it can be seen that two types of horse regions and horse contours are extracted as the same topic.

なお、図1における各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ実行することにより、上述の学習や、領域トピック及び境界トピックの算出を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。更に「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read and executed by a computer system, whereby the learning described above is performed. Alternatively, the area topic and the boundary topic may be calculated. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、或いは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。更に、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、図面を参照して本発明の一実施形態を説明したが、上記の実施形態は本発明の例示に過ぎず、本発明が上記実施形態に限定されるものではないことは明らかである。従って、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although one Embodiment of this invention was described with reference to drawings, said Embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said Embodiment. Accordingly, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

例えば、図1における小領域分割部11と小領域分割部21とは同じ構成であり、ビジュアルワード生成部12とビジュアルワード生成部22とは同じ構成である。そこで、物体領域境界推定装置1は、小領域分割部11、ビジュアルワード生成部12、モデル推定部13、及び、モデル推定部23を具備し、学習の際にはビジュアルワード生成部12がモデル推定部13にビジュアルワードを出力し、領域トピック及び境界トピックを算出する際にはビジュアルワード生成部12がモデル推定部23にビジュアルワードを出力するようにしてもよい。   For example, the small region dividing unit 11 and the small region dividing unit 21 in FIG. 1 have the same configuration, and the visual word generating unit 12 and the visual word generating unit 22 have the same configuration. Therefore, the object region boundary estimation apparatus 1 includes a small region dividing unit 11, a visual word generation unit 12, a model estimation unit 13, and a model estimation unit 23, and the visual word generation unit 12 performs model estimation when learning. The visual word may be output to the unit 13, and the visual word generation unit 12 may output the visual word to the model estimation unit 23 when calculating the area topic and the boundary topic.

画像から物体領域を抽出し領域間の関係性を同時に推定する技術に関して、大量の画像データから物体領域を精度よく抽出するとともに領域間の境界線を分類する画像処理が不可欠な用途にも適用できる。   With regard to technology that extracts object regions from images and simultaneously estimates the relationship between regions, it can also be applied to applications where image processing that extracts object regions from large amounts of image data with high accuracy and classifies boundary lines between regions is essential. .

1…物体領域境界推定装置、10…パラメータ学習部、11…小領域分割部、12…ビジュアルワード生成部、120…特徴ベクトル抽出部、121…局所領域特徴抽出部、122…大域領域特徴抽出部、123…局所境界特徴抽出部、124…大域境界特徴抽出部、125…量子化辞書記憶部、126…量子化部、13…モデル推定部、131…領域境界多重特徴モデル記憶部、20…トピック推定部、21…小領域分割部、22…ビジュアルワード生成部、23…モデル推定部、231…領域境界多重特徴モデル記憶部、232…モデルパラメータ記憶部   DESCRIPTION OF SYMBOLS 1 ... Object area | region boundary estimation apparatus, 10 ... Parameter learning part, 11 ... Small area division | segmentation part, 12 ... Visual word generation part, 120 ... Feature vector extraction part, 121 ... Local area | region feature extraction part, 122 ... Global area | region feature extraction part , 123 ... local boundary feature extraction unit, 124 ... global boundary feature extraction unit, 125 ... quantization dictionary storage unit, 126 ... quantization unit, 13 ... model estimation unit, 131 ... region boundary multiple feature model storage unit, 20 ... topic Estimating unit, 21 ... small region dividing unit, 22 ... visual word generating unit, 23 ... model estimating unit, 231 ... region boundary multiple feature model storage unit, 232 ... model parameter storage unit

Claims (3)

画像データ集合に含まれる画像ごとに画像全体を小領域に分割する第1の小領域分割部と、
前記小領域ごとに第1の局所領域特徴ベクトルを抽出する第1の局所領域特徴抽出部と、
前記小領域ごとに第1の大域領域特徴ベクトルを抽出する第1の大域領域特徴抽出部と、
隣接する2つの前記小領域間の境界線ごとに第1の局所境界特徴ベクトルを抽出する第1の局所境界特徴抽出部と、
隣接する2つの前記小領域間の境界線ごとに第1の大域境界特徴ベクトルを抽出する第1の大域境界特徴抽出部と、
前記第1の局所領域特徴ベクトル、前記第1の大域領域特徴ベクトル、前記第1の局所境界特徴ベクトル、及び前記第1の大域境界特徴ベクトルについて離散化して第1の量子化特徴ベクトルを出力する第1の量子化部と、
前記第1の量子化特徴ベクトルを観測変数として領域境界多重特徴モデルの学習をする第1のモデル推定部と、
前記第1のモデル推定部の学習結果に基づいて、入力される画像データの画像における物体の領域及び境界を推定するトピック推定部と、
を具備することを特徴とする物体領域境界推定装置。
A first small region dividing unit that divides the entire image into small regions for each image included in the image data set;
A first local region feature extraction unit that extracts a first local region feature vector for each small region;
A first global region feature extraction unit that extracts a first global region feature vector for each of the small regions;
A first local boundary feature extraction unit that extracts a first local boundary feature vector for each boundary line between two adjacent small regions;
A first global boundary feature extraction unit that extracts a first global boundary feature vector for each boundary line between two adjacent small regions;
Discretizing the first local region feature vector, the first global region feature vector, the first local boundary feature vector, and the first global boundary feature vector, and outputting a first quantized feature vector A first quantization unit;
A first model estimator that learns a region boundary multiple feature model using the first quantized feature vector as an observation variable;
A topic estimation unit that estimates an area and a boundary of an object in an image of input image data based on a learning result of the first model estimation unit;
An object region boundary estimation apparatus comprising:
請求項1に記載の物体領域境界推定装置であって、
前記トピック推定部は、
入力される画像データの画像全体を小領域に分割する第2の小領域分割部と、
前記第2の小領域分割部により分割された小領域ごとに第2の局所領域特徴ベクトルを抽出する第2の局所領域特徴抽出部と、
前記第2の小領域分割部により分割された小領域ごとに第2の大域領域特徴ベクトルを抽出する第2の大域領域特徴抽出部と、
前記第2の小領域分割部により分割された小領域のうち隣接する2つの小領域間の境界線ごとに第2の局所境界特徴ベクトルを抽出する第2の局所境界特徴抽出部と、
前記第2の小領域分割部により分割された小領域のうち隣接する2つの小領域間の境界線ごとに第2の大域境界特徴ベクトルを抽出する第2の大域境界特徴抽出部と、
前記第2の局所領域特徴ベクトル、前記第2の大域領域特徴ベクトル、前記第2の局所境界特徴ベクトル、前記第2の大域境界特徴ベクトル、及び、前記第1のモデル推定部の学習結果に基づいて、前記第2の小領域分割部により分割された各小領域と各小領域間の境界線とを分類する第2のモデル推定部と、
を備える
ことを特徴とする物体領域境界推定装置。
The object region boundary estimation apparatus according to claim 1,
The topic estimation unit includes:
A second small area dividing unit for dividing the entire image of the input image data into small areas;
A second local region feature extracting unit that extracts a second local region feature vector for each small region divided by the second small region dividing unit;
A second global area feature extraction unit that extracts a second global area feature vector for each of the small areas divided by the second small area dividing unit;
A second local boundary feature extraction unit that extracts a second local boundary feature vector for each boundary line between two adjacent small regions among the small regions divided by the second small region dividing unit;
A second global boundary feature extraction unit that extracts a second global boundary feature vector for each boundary line between two adjacent small regions among the small regions divided by the second small region dividing unit;
Based on the second local region feature vector, the second global region feature vector, the second local boundary feature vector, the second global boundary feature vector, and a learning result of the first model estimation unit A second model estimation unit that classifies each small region divided by the second small region dividing unit and a boundary line between each small region;
An object region boundary estimation apparatus comprising:
請求項1又は請求項2のいずれか一項に記載の物体領域境界推定装置としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as an object area | region boundary estimation apparatus as described in any one of Claim 1 or Claim 2.
JP2012256807A 2012-11-22 2012-11-22 Object area boundary estimation device and program Pending JP2014106565A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012256807A JP2014106565A (en) 2012-11-22 2012-11-22 Object area boundary estimation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012256807A JP2014106565A (en) 2012-11-22 2012-11-22 Object area boundary estimation device and program

Publications (1)

Publication Number Publication Date
JP2014106565A true JP2014106565A (en) 2014-06-09

Family

ID=51028037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012256807A Pending JP2014106565A (en) 2012-11-22 2012-11-22 Object area boundary estimation device and program

Country Status (1)

Country Link
JP (1) JP2014106565A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117558A (en) * 2017-12-27 2019-07-18 日本放送協会 Color information estimation model generating device, image colorization device and programs for the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117558A (en) * 2017-12-27 2019-07-18 日本放送協会 Color information estimation model generating device, image colorization device and programs for the same

Similar Documents

Publication Publication Date Title
Mukhoti et al. Evaluating bayesian deep learning methods for semantic segmentation
CN110431560B (en) Target person searching method, device, equipment and medium
CN105874474B (en) System and method for face representation
Najar et al. Unsupervised learning of finite full covariance multivariate generalized Gaussian mixture models for human activity recognition
US9111375B2 (en) Evaluation of three-dimensional scenes using two-dimensional representations
EP3229171A1 (en) Method and device for determining identity identifier of human face in human face image, and terminal
CN108985190B (en) Target identification method and device, electronic equipment and storage medium
CN115552429A (en) Method and system for horizontal federal learning using non-IID data
US20220108478A1 (en) Processing images using self-attention based neural networks
CN111582409A (en) Training method of image label classification network, image label classification method and device
US9519837B2 (en) Tracking using multilevel representations
CN110598019B (en) Repeated image identification method and device
CN106778910B (en) Deep learning system and method based on local training
EP3256964A1 (en) Learning from distributed data
JP2013142991A (en) Object area detection device, method and program
CN115244587A (en) Efficient ground truth annotation
CN113052150A (en) Living body detection method, living body detection device, electronic apparatus, and computer-readable storage medium
JPWO2017188048A1 (en) Creation device, creation program, and creation method
JP2014203157A (en) Image processor, image processing method and program
JP6194260B2 (en) Image classification apparatus, image classification method, and image classification program
JP2014149788A (en) Object area boundary estimation device, object area boundary estimation method, and object area boundary estimation program
JP2014106565A (en) Object area boundary estimation device and program
CN111695526B (en) Network model generation method, pedestrian re-recognition method and device
CN115146788A (en) Training method and device of distributed machine learning model and electric equipment storage medium
Zhang et al. Edge Detection from RGB‐D Image Based on Structured Forests