JP5756443B2 - Image classification device, image identification device, and program - Google Patents

Image classification device, image identification device, and program Download PDF

Info

Publication number
JP5756443B2
JP5756443B2 JP2012211299A JP2012211299A JP5756443B2 JP 5756443 B2 JP5756443 B2 JP 5756443B2 JP 2012211299 A JP2012211299 A JP 2012211299A JP 2012211299 A JP2012211299 A JP 2012211299A JP 5756443 B2 JP5756443 B2 JP 5756443B2
Authority
JP
Japan
Prior art keywords
image
pattern
feature
unit
extraction unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012211299A
Other languages
Japanese (ja)
Other versions
JP2014067174A (en
Inventor
数藤 恭子
恭子 数藤
行信 谷口
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012211299A priority Critical patent/JP5756443B2/en
Publication of JP2014067174A publication Critical patent/JP2014067174A/en
Application granted granted Critical
Publication of JP5756443B2 publication Critical patent/JP5756443B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像分類装置及び画像識別装置並びにプログラムに関する。   The present invention relates to an image classification device, an image identification device, and a program.

衣服等の柄やパターンをコンピュータ等の装置に識別させるための手法が検討されている(例えば、非特許文献1〜3)。非特許文献1では、テンプレートマッチングによる方法が示されている。このテンプレートマッチングの方法は、全く同じ柄を識別するには適している。しかし、この方法では、同じ縞模様というカテゴリでも縞模様の幅が異なったり、同じ水玉模様というカテゴリでも水玉の大きさや間隔が異なったりする場合に、これらを同一のカテゴリと識別することが難しい。また、様々な柄に対応するには、柄を予め記憶する辞書の生成において、柄を分類して、柄の種類ごとにスケーリングや位置を揃えた画像を多数収集しなくてはならないという欠点がある。更に、衣服の変形やひずみにも弱いという欠点がある。そのため、この方法においては、衣服を細かいパッチ領域に分割し、領域ごとにアフィン変換をすることで対応している。   Techniques for allowing a device such as a computer to identify patterns or patterns such as clothes have been studied (for example, Non-Patent Documents 1 to 3). Non-Patent Document 1 discloses a method based on template matching. This template matching method is suitable for identifying exactly the same pattern. However, in this method, when the width of the stripe pattern is different even in the category of the same stripe pattern, or when the size or interval of the polka dots is different in the category of the same polka dot pattern, it is difficult to distinguish these from the same category. In addition, in order to deal with various patterns, there is a drawback in that in generating a dictionary for storing patterns in advance, it is necessary to classify the patterns and collect a large number of images that are scaled and aligned for each type of pattern. is there. Furthermore, there is a drawback that it is also vulnerable to deformation and distortion of clothes. For this reason, in this method, clothing is divided into fine patch areas, and affine transformation is performed for each area.

非特許文献2では、周波数解析による方法と局所特徴を用いる方法とが示されている。この周波数解析による方法は、比較的単純な幾何学的な柄、すなわち縞模様等の特定の単純な柄を識別する場合には有効と考えられる。また、縞模様とチェックを区別することは容易であると考えられる。しかし、画像の解像度の変化がある場合や間隔の異なる縞模様をどちらも縞模様という同じカテゴリとして識別したい場合、それらを同一のカテゴリとして識別したい場合、それらを同一のカテゴリとして識別することは難しい。
また、局所特徴を用いる方法は、細かい模様を識別するのに適している。また、スケールの変化には強い。しかし、模様のひずみやノイズに弱いと考えられる。まあ、縞模様などの大局的な特徴の抽出には適さない。
Non-Patent Document 2 shows a method using frequency analysis and a method using local features. This frequency analysis method is considered effective in identifying a relatively simple geometric pattern, that is, a specific simple pattern such as a striped pattern. In addition, it is considered easy to distinguish the stripe pattern from the check. However, if there is a change in the resolution of the image, or if you want to identify both striped patterns with different intervals as the same category of striped patterns, if you want to identify them as the same category, it is difficult to identify them as the same category .
Further, the method using local features is suitable for identifying fine patterns. Also, it is strong against changes in scale. However, it is considered weak against pattern distortion and noise. Well, it is not suitable for extracting global features such as striped patterns.

非特許文献3では、テクスチャ解析による方法が示されている。このテクスチャ解析による方法は、画像中の繰り返しパターンの方向性を検出することができ、例えば、布地を拡大した画像のように、細かい繰り返しパターンの識別に適している。しかし、花柄や動物柄などのように、細かい単位の繰り返しパターンではなく、多様な変化を含む複雑な柄の識別には適さない。なお、テクスチャ解析は、非特許文献3に記載されているビットラン解析の他、同時生起行列やモーメント特徴などを用いる手法がある。   Non-Patent Document 3 discloses a method based on texture analysis. This texture analysis method can detect the directionality of a repetitive pattern in an image, and is suitable for identifying a fine repetitive pattern, for example, an image obtained by enlarging a cloth. However, it is not suitable for identifying complex patterns including various changes, such as floral patterns and animal patterns, rather than repeating patterns in fine units. In addition to the bit run analysis described in Non-Patent Document 3, the texture analysis includes a method using a co-occurrence matrix, a moment feature, and the like.

田口哲典、青木輝勝、安田浩、「”MIRACLE”システムのための布形状認識の一検討」、電子情報通信学会技術研究報告 IE2002−113、pp.55−58、2002年Tetsunori Taguchi, Teruyoshi Aoki, Hiroshi Yasuda, “A Study on Cloth Shape Recognition for“ MIRACLE ”System”, IEICE Technical Report IE2002-113, pp. 55-58, 2002 山口順平、嶋田和孝、榎田修一、江島俊朗、遠藤勉、「顔特徴とコンテキスト情報に基づく人物識別」、日本知能情報ファジイ学会誌 Vol.23、No.2、pp.137−145、2011年Junpei Yamaguchi, Kazutaka Shimada, Shuichi Hamada, Toshiro Ejima, Tsutomu Endo, “Person Identification Based on Facial Features and Context Information”, Journal of Japan Society for Fuzzy Intelligence, Vol. 23, no. 2, pp. 137-145, 2011 森俊夫、井出和美、「レース模様のテクスチャ特徴とビットラン解析」、岐阜女子大学紀要、No.30、pp.161−166、2010年Toshio Mori, Kazumi Ide, “Texture characteristics and bit-run analysis of lace patterns”, Bulletin of Gifu Women's University, No. 30, pp. 161-166, 2010

しかしながら、非特許文献1〜3に示されている方法では、柄の特徴などを記憶した辞書の作成や、識別結果などを安定して得るためには、辞書作成用のデータや識別領域を切り出す際に衣服の折り目や外形と背景の境界などのない部分を選択する必要があるが、これを手動で行うことには手間が掛かり、大量のデータを用意することは困難であるという問題がある。   However, in the methods shown in Non-Patent Documents 1 to 3, in order to stably create a dictionary storing pattern features and the like and to obtain identification results and the like, data for creating the dictionary and identification areas are cut out. It is necessary to select the part without the crease of the clothes and the boundary between the outline and the background at the time, but it is troublesome to do this manually, and it is difficult to prepare a large amount of data .

本発明は、上記問題を解決すべくなされたもので、その目的は、辞書の作成や識別結果を安定して得られるようにするとともに、柄を識別する精度を向上させることができる画像分類装置及び画像識別装置並びにプログラムを提供することにある。   The present invention has been made to solve the above problems, and an object of the present invention is to provide an image classification apparatus capable of stably obtaining a dictionary creation and identification result and improving pattern identification accuracy. And an image identification apparatus and a program.

上記問題を解決するために、本発明における画像分類装置は、学習画像及び該学習画像に含まれる柄を示すラベルの複数の組み合わせが学習データとして入力される画像分類装置であって、前記学習画像に撮像されている生地の柄が不連続な領域又は生地のしわがある領域を検出し、前記学習画像内の当該領域以外の領域であって前記生地の柄が含まれる領域を切り出す第1の画像切り出し部と、前記第1の画像切り出し部が切り出した画像に含まれる柄の特徴を示す特徴量を複数抽出する第1の特徴量抽出部と、前記第1の特徴量抽出部が抽出した複数の特徴量ごとに代表ベクトルを抽出する代表ベクトル抽出部と、前記代表ベクトル抽出部が抽出した代表ベクトルに基づいて該代表ベクトルに対応する特徴量のヒストグラムを生成する第1の特徴ヒストグラム生成部と、前記第1の特徴ヒストグラム生成部が生成するヒストグラムと、前記画像に対応するラベルとに基づいて、ヒストグラムに対する重み係数である識別パラメータとを算出し、算出した識別パラメータと該識別パラメータに対応する代表ベクトルとを対応付けた柄分類データを生成する学習部とを備えていることを特徴とする。   In order to solve the above problem, the image classification device according to the present invention is an image classification device in which a learning image and a plurality of combinations of labels indicating patterns included in the learning image are input as learning data, the learning image First, a region where the fabric pattern imaged is discontinuous or a region where the fabric pattern is wrinkled is detected, and the region other than the region in the learning image and including the fabric pattern is cut out. An image cutout unit, a first feature quantity extraction unit that extracts a plurality of feature quantities indicating features of a pattern included in an image cut out by the first image cutout unit, and the first feature quantity extraction unit extracted A representative vector extracting unit that extracts a representative vector for each of a plurality of feature amounts; and a histogram of feature amounts corresponding to the representative vector based on the representative vector extracted by the representative vector extracting unit. An identification parameter that is a weighting coefficient for the histogram based on the histogram generated by the feature histogram generation unit, the histogram generated by the first feature histogram generation unit, and the label corresponding to the image, And a learning unit that generates pattern classification data in which representative vectors corresponding to the identification parameters are associated.

また、本発明における画像分類装置は、学習画像及び該学習画像に含まれる柄を示すラベルの複数の組み合わせが学習データとして入力される画像分類装置であって、前記学習画像に撮像されている生地の柄が不連続な領域又は生地のしわがある領域を検出し、前記学習画像内の当該領域以外の領域であって前記生地の柄が含まれる領域を切り出す第1の画像切り出し部と、前記第1の画像切り出し部が切り出した画像に含まれる柄の特徴を示す特徴量を複数抽出する第1の特徴量抽出部と、前記第1の特徴量抽出部が抽出した複数の特徴量を連結して得られる特徴量ごとに代表ベクトルを抽出する代表ベクトル抽出部と、前記代表ベクトル抽出部が抽出した代表ベクトルに基づいて該代表ベクトルに対応する特徴量のヒストグラムを生成する第1の特徴ヒストグラム生成部と、前記第1の特徴ヒストグラム生成部が生成するヒストグラムと、前記画像に対応するラベルとに基づいて、ヒストグラムに対する重み係数である識別パラメータとを算出し、算出した識別パラメータと該識別パラメータに対応する代表ベクトルとを対応付けた柄分類データを生成する学習部とを備えていることを特徴とする。   The image classification device according to the present invention is an image classification device in which a plurality of combinations of a learning image and a label indicating a pattern included in the learning image are input as learning data, and the fabric imaged in the learning image A first image cutout unit that detects a discontinuous region or a region having a fabric wrinkle and cuts out a region other than the region in the learning image and including the fabric pattern; A first feature amount extraction unit that extracts a plurality of feature amounts indicating features of a pattern included in an image cut out by the first image cutout unit and a plurality of feature amounts extracted by the first feature amount extraction unit are connected. A representative vector extracting unit that extracts a representative vector for each feature amount obtained in this manner, and generating a histogram of feature amounts corresponding to the representative vector based on the representative vector extracted by the representative vector extracting unit. Based on a first feature histogram generation unit, a histogram generated by the first feature histogram generation unit, and a label corresponding to the image, an identification parameter that is a weighting factor for the histogram is calculated, and the calculated identification A learning unit that generates pattern classification data in which a parameter and a representative vector corresponding to the identification parameter are associated with each other is provided.

また、本発明における画像識別装置は、入力される画像に撮像されている生地の柄が不連続な領域又は生地のしわがある領域を検出し、前記画像内の当該領域以外の領域であって前記生地の柄が含まれる領域を切り出す第2の画像切り出し部と、前記第2の画像切り出し部が切り出した画像に含まれる柄の特徴を示す特徴量を複数抽出する第2の特徴量抽出部と、上記に記載の画像分類装置によって生成された柄分類データに含まれる代表ベクトルに基づいて、前記第2の特徴量抽出部が抽出した複数の特徴量ごとにヒストグラムを生成する第2の特徴ヒストグラム生成部と、前記画像分類装置に記憶されている柄分類データに含まれる識別パラメータと、前記第2の特徴ヒストグラム生成部が生成したヒストグラムとに基づいて、前記入力される画像の生地の柄を識別する識別部とを備えていることを特徴とする。   Further, the image identification device according to the present invention detects an area where the pattern of the fabric imaged in the input image is discontinuous or an area where the cloth is wrinkled, and is an area other than the area in the image. A second image cutout unit that cuts out an area including the pattern of the fabric, and a second feature amount extraction unit that extracts a plurality of feature amounts indicating features of the pattern included in the image cut out by the second image cutout unit And a second feature for generating a histogram for each of the plurality of feature amounts extracted by the second feature amount extraction unit based on the representative vector included in the pattern classification data generated by the image classification device described above. Based on the histogram generation unit, the identification parameter included in the pattern classification data stored in the image classification device, and the histogram generated by the second feature histogram generation unit, the input Characterized in that it comprises an identification portion for identifying the pattern of the fabric of the image.

また、本発明におけるプログラムは、上記に記載の画像分類装置としてコンピュータを機能させるためのプログラムである。
また、本発明におけるプログラムは、上記に記載の画像識別装置としてコンピュータを機能させるためのプログラムである。
The program in the present invention is a program for causing a computer to function as the image classification device described above.
The program in the present invention is a program for causing a computer to function as the image identification device described above.

この発明によれば、生地の柄が不連続な領域やしわのある領域などのひずみが少ない領域を画像から切り出し、切り出した画像から複数の特徴量を抽出し、抽出した特徴量を組み合わせて識別パラメータを算出することにより、辞書の作成や識別結果を安定して得られるようにすることができる。また、ひずみが少ない領域の画像に基づいて得られた識別パラメータを用いて柄の識別を行うことにより、柄を識別する精度を向上させることができる。   According to the present invention, a region with little distortion such as a discontinuous pattern or a wrinkled region is cut out from an image, a plurality of feature amounts are extracted from the cut out image, and the extracted feature amounts are combined and identified. By calculating the parameters, dictionary creation and identification results can be obtained stably. In addition, by identifying a pattern using an identification parameter obtained based on an image of a region with less distortion, the accuracy of identifying the pattern can be improved.

本実施形態における画像分類装置1の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of the image classification apparatus 1 in this embodiment. 同実施形態における画像切り出し部11が方法例1を用いて行う処理の一例を示す図である。4 is a diagram illustrating an example of processing performed by an image cutout unit 11 according to the embodiment using Method Example 1. FIG. 同実施形態における画像識別装置2の構成例を示す概略ブロック図である。It is a schematic block diagram which shows the structural example of the image identification device 2 in the embodiment. 同実施形態における画像識別装置2による柄の識別結果の一例を示す図である。It is a figure which shows an example of the identification result of the pattern by the image identification apparatus 2 in the embodiment. 画像分類装置1の変形例としての画像分類装置1Aの構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of 1 A of image classification apparatuses as a modification of the image classification apparatus 1. FIG.

以下、図面を参照して、本発明の一実施形態における画像分類装置及び画像識別装置並びにプログラムを説明する。
図1は、本実施形態における画像分類装置1の構成を示す概略ブロック図である。画像分類装置1は、衣服やバッグ等が撮像された画像(学習画像)と、当該画像に撮像されている衣服やバッグ等の生地の柄(又はパターン)を識別するラベルとを学習データとして入力し、柄を識別するための情報である柄分類データを生成して記憶する。本実施形態における画像分類装置1は、同図に示すように、画像切り出し部11、特徴抽出部12、代表ベクトル抽出部13、特徴ヒストグラム生成部14、学習部15、及び、代表ベクトル・識別パラメータ記憶部16を備えている。
Hereinafter, an image classification device, an image identification device, and a program according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic block diagram showing a configuration of an image classification device 1 in the present embodiment. The image classification device 1 inputs, as learning data, an image (learning image) obtained by capturing clothes, bags, and the like, and a label that identifies the pattern (or pattern) of the fabric such as clothes and bags captured in the image. Then, pattern classification data which is information for identifying the pattern is generated and stored. As shown in the figure, the image classification apparatus 1 according to the present embodiment includes an image cutout unit 11, a feature extraction unit 12, a representative vector extraction unit 13, a feature histogram generation unit 14, a learning unit 15, and a representative vector / identification parameter. A storage unit 16 is provided.

画像切り出し部11は、入力された画像に含まれる衣服等の形状やしわの影響を受けずに安定してテクスチャを得られる領域を画像から選択して切り出す。画像切り出し部11は、切り出した画像を特徴抽出部12に出力する。換言すると、画像切り出し部11は、画像内の生地の柄が不連続な領域又は生地のしわがある領域を検出し、画像内の当該領域以外の領域であって生地の柄が含まれる領域の画像を切り出す。以下に、画像切り出し部11がしわの少ない領域を入力された画像から切り出す方法例を3通り示す。   The image cutout unit 11 selects and cuts out an area from which the texture can be stably obtained without being affected by the shape or wrinkles of clothes or the like included in the input image. The image cutout unit 11 outputs the cutout image to the feature extraction unit 12. In other words, the image cutout unit 11 detects a region where the fabric pattern in the image is discontinuous or a region where the fabric pattern is wrinkled, and is a region other than the region in the image and including the fabric pattern. Cut out the image. In the following, three examples of methods in which the image cutout unit 11 cuts out an area with less wrinkles from an input image are shown.

(方法例1)
方法例1に示す方法では、モホロジ処理を利用して袖や襟元などの形状の影響を除いた領域を切り出す。具体的には、まず入力された画像を二値化する。二値化した画像にモホロジ処理のオープニングを施す。なお、モホロジ処理におけるオープニングとは、収縮(erosion)ののち膨張(dilation)を行うことで凹凸のノイズを除去する処理である。
オープニングを施して得られた二値画像をマスクとして、入力された画像からしわの少ない領域を切り出し、切り出した画像を出力する。
(Method Example 1)
In the method shown in Method Example 1, a region excluding the influence of a shape such as a sleeve and a neck is cut out using a morphological process. Specifically, first, the input image is binarized. An opening of a morphological process is performed on the binarized image. The opening in the morphological process is a process of removing uneven noise by performing dilation after erosion.
Using the binary image obtained by the opening as a mask, a region with little wrinkles is cut out from the input image, and the cut out image is output.

図2は、本実施形態における画像切り出し部11が方法例1を用いて行う処理の一例を示す図である。同図において、画像例1は縞模様のカットソーの画像(A)からしわの少ない領域を切り出す例を示している。画像(A)に対する二値化により画像(B)を生成し、画像(B)に対してオープニングを施して画像(C)を得る。この画像(C)をマスクとすることにより画像(A)からしわの少ない領域を切り出した画像(D)を得ることができる。
また、画像例2はチェック柄のシャツの画像(E)からしわの少ない領域を切り出す例を示している。画像例1と同様に、画像(E)に対する二値化により画像(F)を生成し、画像(F)に対してオープニングを施して画像(G)を得る。画像(G)をマスクとして入力された画像(E)からしわの少ない領域を切り出した画像(H)を得ることができる。
FIG. 2 is a diagram illustrating an example of processing performed by the image cutout unit 11 according to the present embodiment using the method example 1. In the same figure, image example 1 shows an example in which a region with little wrinkles is cut out from a striped cut-and-sew image (A). An image (B) is generated by binarization of the image (A), and an opening is performed on the image (B) to obtain an image (C). By using this image (C) as a mask, an image (D) obtained by cutting out a region with little wrinkles from the image (A) can be obtained.
Further, image example 2 shows an example in which an area with less wrinkles is cut out from an image (E) of a checkered shirt. Similarly to the image example 1, the image (F) is generated by binarizing the image (E), and the image (F) is opened to obtain the image (G). An image (H) obtained by cutting out an area with few wrinkles from the input image (E) using the image (G) as a mask can be obtained.

(方法例2)
方法例2では、主に衣類の場合、公知の技術による衣服画像の確率モデルあてはめを用いて、ジャケットやワンピースなどの形状のカテゴリごとに、衣服の襟、形、裾などを大まかに位置合わせすることができる。このような技術は、例えば、参考文献1(数藤恭子、島村潤、森本正志、「Procrustes解析を用いた形状マッチング手法の提案と衣服画像における類似性判定への適用」、信学技法、vol.11、no.353、PRMU2011−139、pp.83−88、2011年)に記載されている。位置合わせの結果、衣服画像の特徴点が確率モデルのどの分布に属するかによって、衣服のどのあたりの特徴点なのかを推定できる。そこで、カテゴリごとにしわの少ない領域の分布を示す情報を予め記憶しておくことで、しわの少ない領域の特徴点を特定し、特定した特徴点を含む周辺の領域を画像から切り出す。これにより、入力された画像からしわの少ない領域を切り出した画像を得ることができる。
(Method Example 2)
In Method Example 2, mainly in the case of clothing, the collar, shape, hem, etc. of clothing are roughly aligned for each category of shape, such as jacket or dress, using a probability model fitting of clothing images by a known technique. be able to. Such techniques are described in, for example, Reference 1 (Reiko Sudo, Jun Shimamura, Masashi Morimoto, “Proposal of Shape Matching Method Using Procrustes Analysis and Application to Similarity Determination in Clothing Images”, Science Technique, vol. 11, No. 353, PRMU 2011-139, pp. 83-88, 2011). As a result of the alignment, it is possible to estimate which feature point of the clothing is based on which distribution of the probability model the feature point of the clothing image belongs to. Therefore, by storing in advance information indicating the distribution of the area with less wrinkles for each category, the feature points of the area with less wrinkles are specified, and the surrounding area including the specified feature points is cut out from the image. As a result, it is possible to obtain an image obtained by cutting out a region with less wrinkles from the input image.

(方法例3)
公知の技術のしわ特徴を検出する技術を用いて、入力された画像からしわ特徴の少ない領域を切り出す。これについては、同様のサンプル画像に基づいてしわが生じている場合の周波数成分を予め学習しておき、その周波数成分の少ない領域を抽出したり、公知の技術によるしわ特徴を検出する技術を用いて、しわ特徴の少ない領域を抽出したりすることができる。公知の技術としては、例えば、参考文献2(山崎公俊、稲葉雅幸、「生活支援ロボットのためのしわ特徴に基づく衣類発見法」、日本ロボット学会学術講演会予稿集、2R1−05、2009年)に記載されている技術がある。
(Method Example 3)
A region having few wrinkle features is cut out from the input image by using a known technique for detecting wrinkle features. For this, a frequency component when a wrinkle is generated based on a similar sample image is learned in advance, and a technique for extracting a region with a small frequency component or detecting a wrinkle feature using a known technique is used. Thus, it is possible to extract a region having a small wrinkle feature. Known techniques include, for example, Reference 2 (Kintoshi Yamazaki, Masayuki Inaba, “Clothing Discovery Method Based on Wrinkle Features for Life Support Robots”, Proceedings of the Annual Conference of the Robotics Society of Japan, 2R1-05, 2009) There are techniques described in.

特徴抽出部12は、画像切り出し部11が切り出した画像から異なる特徴を抽出するk(k≧2)個の特徴抽出部を有する。図1に示す例では、特徴抽出部12は、テクスチャ特徴抽出部121や、色特徴抽出部122、形状特徴抽出部123などを有している。
テクスチャ特徴抽出部121、色特徴抽出部122、形状特徴抽出部123などは、衣服などの見た目の属性に関わる特徴を示す特徴量を抽出する。例えば、テクスチャ特徴抽出部121は、画像に撮像されている生地の柄に対する、SIFT(Scale Invariant Feature Transform)などの局所特徴量、Hog特徴量、勾配特徴、周波数特徴などを画像から抽出する。
The feature extraction unit 12 includes k (k ≧ 2) feature extraction units that extract different features from the image cut out by the image cutout unit 11. In the example illustrated in FIG. 1, the feature extraction unit 12 includes a texture feature extraction unit 121, a color feature extraction unit 122, a shape feature extraction unit 123, and the like.
The texture feature extraction unit 121, the color feature extraction unit 122, the shape feature extraction unit 123, and the like extract feature quantities indicating features related to appearance attributes such as clothes. For example, the texture feature extraction unit 121 extracts local feature amounts such as SIFT (Scale Invariant Feature Transform), Hog feature amounts, gradient features, frequency features, and the like from the image with respect to the fabric pattern captured in the image.

色特徴抽出部122は、画像に撮像されている生地の柄に対する、RGB、Lab、HSVなどの表色系(カラーモデル)における、画像切り出し部11が切り出した画像のヒストグラムなどを出力する。
形状特徴抽出部123は、衣服全体の輪郭形状の特徴を表現する特徴量を抽出する。例えば、形状特徴抽出部123は、予め用意された特定の輪郭形状のテンプレートと画像に含まれる形状との距離や、複雑度を示すフラクタル次元や、曲率に基づく特徴量などを抽出する。
The color feature extraction unit 122 outputs a histogram of an image cut out by the image cut-out unit 11 in a color system (color model) such as RGB, Lab, or HSV with respect to a fabric pattern captured in the image.
The shape feature extraction unit 123 extracts a feature amount that represents a feature of the outline shape of the entire clothing. For example, the shape feature extraction unit 123 extracts a distance between a template of a specific contour shape prepared in advance and a shape included in the image, a fractal dimension indicating complexity, a feature amount based on curvature, and the like.

このように異なる特徴に応じて得られる特徴量を組み合わせて用いることにより、衣服全体の形状と柄とに相関が高い場合などにおいて柄認識の精度を高められる可能性がある。   By using a combination of feature quantities obtained in accordance with different features in this way, there is a possibility that the accuracy of pattern recognition may be improved when there is a high correlation between the shape of the overall clothing and the pattern.

代表ベクトル抽出部13は、特徴抽出部12において画像から抽出するk個の特徴量に対応して、k個のベクトル抽出部131〜13kを有している。例えば、図1に示される例では、ベクトル抽出部131にはテクスチャ特徴抽出部121が抽出した特徴量が入力され、ベクトル抽出部132には色特徴抽出部122が抽出した特徴量が入力され、ベクトル抽出部133には形状特徴抽出部123が抽出した特徴量が入力される。   The representative vector extraction unit 13 includes k vector extraction units 131 to 13k corresponding to the k feature amounts extracted from the image by the feature extraction unit 12. For example, in the example shown in FIG. 1, the feature amount extracted by the texture feature extraction unit 121 is input to the vector extraction unit 131, and the feature amount extracted by the color feature extraction unit 122 is input to the vector extraction unit 132. The feature amount extracted by the shape feature extraction unit 123 is input to the vector extraction unit 133.

各ベクトル抽出部131〜13kは、特徴抽出部12において得られた各特徴量をクラスタリングし、代表ベクトルを抽出する。例えば、テクスチャ特徴抽出部121が抽出する特徴量がSIFT特徴量である場合、ベクトル抽出部131が抽出する代表ベクトルは、Bag−of−Feature手法のVisual Wordに相当するものになる。ここで、代表ベクトルは、特徴抽出部12が有する各部において得られる特徴量ごとに、各ベクトル抽出部131〜13kが特徴量に対してクラスタリングをして求める。   Each of the vector extraction units 131 to 13k clusters each feature amount obtained in the feature extraction unit 12 and extracts a representative vector. For example, when the feature quantity extracted by the texture feature extraction unit 121 is a SIFT feature quantity, the representative vector extracted by the vector extraction unit 131 corresponds to the Visual Word of the Bag-of-Feature method. Here, the representative vectors are obtained by clustering the feature amounts by the vector extraction units 131 to 13k for each feature amount obtained in each unit of the feature extraction unit 12.

特徴ヒストグラム生成部14は、代表ベクトル抽出部13において抽出される代表ベクトルに対応する、k個のヒストグラム生成部141〜14kを有している。ヒストグラム生成部14i(i=1,2,…,k)には、ベクトル抽出部13iが抽出した代表ベクトルが入力される。ヒストグラム生成部14i(i=1,2,…,k)は、入力された代表ベクトルをbinの軸とするヒストグラムを生成する。
以上の代表ベクトル抽出部13と特徴ヒストグラム生成部14とにおける処理の考え方は、Bag−of−Feature手法に相当するものである。Bag−of−Feature手法については、例えば、参考文献3(永橋知行、井原有仁、藤吉弘亘、「前景と背景情報の共起表現を用いたBag−of−featureによる画像分類」、画像の認識・理解シンポジウムMIRU2010、2010年7月)などに示されている。
The feature histogram generation unit 14 includes k histogram generation units 141 to 14k corresponding to the representative vectors extracted by the representative vector extraction unit 13. The representative vector extracted by the vector extraction unit 13i is input to the histogram generation unit 14i (i = 1, 2,..., K). The histogram generation unit 14i (i = 1, 2,..., K) generates a histogram having the input representative vector as the bin axis.
The concept of processing in the representative vector extraction unit 13 and the feature histogram generation unit 14 described above corresponds to the Bag-of-Feature method. Regarding the Bag-of-Feature technique, for example, Reference 3 (Tomoyuki Nagahashi, Yuji Ihara, Hironobu Fujiyoshi, “Image Classification by Bag-of-feature Using Co-occurrence Expression of Foreground and Background Information”, Recognition / understanding symposium MIRU 2010, July 2010).

学習部15は、画像とともに学習データとして入力されるラベルを参照しながら、衣服等の柄のカテゴリを分類する識別パラメータを学習する。学習部15において用いられる分類器として、例えば、SVM(Support Vector Machine)を用いることができる。この場合は、柄のカテゴリがA〜Fの6通りあったとすると、Aの柄を示す識別パラメータ、Bの柄を示す識別パラメータ、…、Fの柄を示す識別パラメータというように、6種類それぞれの識別パラメータを学習する。換言すると、学習部15は、入力されるラベルと、特徴ヒストグラム生成部14において生成される各特徴量のヒストグラムとに基づいて、ラベルに対応する重み係数である識別パラメータを算出する。学習部15は、異なる多数の学習データを用いた学習により得られた、識別パラメータと代表ベクトルとを対応付けた柄分類データを生成し、生成した柄分類データを代表ベクトル・識別パラメータ記憶部16に記憶させる。
なお、特徴ヒストグラム生成部14が生成した特徴ヒストグラム間の距離である特徴ヒストグラム間距離を、識別パラメータ及び代表ベクトルと対応付けた柄分類データを代表ベクトル・識別パラメータ記憶部16に記憶させるようにしてもよい。
The learning unit 15 learns an identification parameter for classifying a pattern category such as clothes while referring to a label input as learning data together with an image. As a classifier used in the learning unit 15, for example, SVM (Support Vector Machine) can be used. In this case, assuming that there are six patterns of patterns A to F, each of six types, such as an identification parameter indicating the pattern of A, an identification parameter indicating the pattern of B,. The identification parameter is learned. In other words, the learning unit 15 calculates an identification parameter, which is a weighting coefficient corresponding to the label, based on the input label and the histogram of each feature amount generated by the feature histogram generation unit 14. The learning unit 15 generates pattern classification data obtained by learning using a large number of different learning data, in which the identification parameters are associated with the representative vectors, and the generated pattern classification data is used as the representative vector / identification parameter storage unit 16. Remember me.
The representative vector / identification parameter storage unit 16 stores pattern classification data in which the distance between feature histograms, which is the distance between feature histograms generated by the feature histogram generation unit 14, is associated with the identification parameter and the representative vector. Also good.

図3は、本実施形態における画像識別装置2の構成例を示す概略ブロック図である。画像識別装置2は、画像分類装置1が生成した柄分類データ、すなわち代表ベクトル・識別パラメータ記憶部16に記憶されている柄分類データに基づいて、入力される画像に含まれる柄を識別し、入力される画像の柄に対応するカテゴリを示す情報を出力する。画像識別装置2は、図3に示すように、画像切り出し部21、特徴抽出部22、特徴ヒストグラム生成部23、及び、識別部24を備えている。   FIG. 3 is a schematic block diagram illustrating a configuration example of the image identification device 2 in the present embodiment. The image identification device 2 identifies the pattern included in the input image based on the pattern classification data generated by the image classification device 1, that is, the pattern classification data stored in the representative vector / identification parameter storage unit 16. Information indicating the category corresponding to the pattern of the input image is output. As shown in FIG. 3, the image identification device 2 includes an image cutout unit 21, a feature extraction unit 22, a feature histogram generation unit 23, and an identification unit 24.

画像切り出し部21は、画像分類装置1が備えている画像切り出し部11と同様に、入力される画像において、衣服等の形状やしわの影響を受けずに安定してテクスチャを得られる領域を選択する。画像切り出し部21は、選択した領域を切り出し、切り出した領域の画像を特徴抽出部22に出力する。   Similar to the image cutout unit 11 provided in the image classification device 1, the image cutout unit 21 selects a region in the input image that can stably obtain a texture without being affected by the shape or wrinkles of clothes or the like. To do. The image cutout unit 21 cuts out the selected region and outputs an image of the cutout region to the feature extraction unit 22.

特徴抽出部22は、特徴抽出部12と同様に、k個の異なる特徴ごとに当該特徴を抽出する特徴抽出部を有する。図3に示されている例では、特徴抽出部22は、テクスチャ特徴抽出部221や、色特徴抽出部222、形状特徴抽出部223などを有している。テクスチャ特徴抽出部221、色特徴抽出部222、及び、形状特徴抽出部223は、図1に示されているテクスチャ特徴抽出部121、色特徴抽出部122、及び、形状特徴抽出部123と同じ構成を有している。   Similar to the feature extraction unit 12, the feature extraction unit 22 includes a feature extraction unit that extracts the feature for each of k different features. In the example shown in FIG. 3, the feature extraction unit 22 includes a texture feature extraction unit 221, a color feature extraction unit 222, a shape feature extraction unit 223, and the like. The texture feature extraction unit 221, the color feature extraction unit 222, and the shape feature extraction unit 223 have the same configuration as the texture feature extraction unit 121, the color feature extraction unit 122, and the shape feature extraction unit 123 shown in FIG. have.

特徴ヒストグラム生成部23は、特徴ヒストグラム生成部14と同様に、特徴抽出部22において抽出された特徴量に対応する、k個のヒストグラム生成部231〜23kを有している。ヒストグラム生成部23i(i=1,2,…,k)は、入力される特徴量に対応する代表ベクトルと識別パラメータとであって代表ベクトル・識別パラメータ記憶部16に柄分類データとして記憶されている代表ベクトルと識別パラメータとを読み出す。ヒストグラム生成部23iは、特徴抽出部22から入力される特徴量から、読み出した代表ベクトルをbinの軸とするヒストグラムを生成する。ヒストグラム生成部23iは生成した特徴量のヒストグラムを識別部24に出力する。   Similar to the feature histogram generation unit 14, the feature histogram generation unit 23 includes k histogram generation units 231 to 23 k corresponding to the feature amounts extracted by the feature extraction unit 22. The histogram generation unit 23i (i = 1, 2,..., K) is a representative vector and an identification parameter corresponding to the input feature quantity, and is stored as pattern classification data in the representative vector / identification parameter storage unit 16. Read representative vectors and identification parameters. The histogram generation unit 23 i generates a histogram having the read representative vector as the axis of the bin from the feature amount input from the feature extraction unit 22. The histogram generation unit 23 i outputs the generated histogram of the feature amount to the identification unit 24.

識別部24は、代表ベクトル・識別パラメータ記憶部16に記憶されている柄分類データに含まれる柄(パターン)の数(m)に応じたm個の識別器241〜24mを有している。代表ベクトル・識別パラメータ記憶部16に記憶されている柄分類データに含まれる識別パラメータごと、換言すると画像識別装置2が識別の対象とする柄ごとに、識別器241〜24mは設けられる。各識別器241〜24mは、代表ベクトル・識別パラメータ記憶部16に記憶されている柄分類データと、特徴ヒストグラム生成部23が生成する各特徴量のヒストグラムとに基づいて、入力された画像に自身に対応する柄が含まれているか否かを判定し、判定結果を出力する。各識別器241〜24mは、学習部15において用いられた手法と同じ識別手法を用いて、柄分類データに含まれる識別パラメータと、特徴量のヒストグラムとから、入力された画像に自身に対応する柄が含まれているか否かを判定する。   The identification unit 24 includes m classifiers 241 to 24m corresponding to the number (m) of patterns (patterns) included in the pattern classification data stored in the representative vector / identification parameter storage unit 16. The classifiers 241 to 24 m are provided for each identification parameter included in the pattern classification data stored in the representative vector / identification parameter storage unit 16, in other words, for each pattern to be identified by the image identification device 2. Each of the classifiers 241 to 24 m adds itself to the input image based on the pattern classification data stored in the representative vector / discrimination parameter storage unit 16 and the histogram of each feature amount generated by the feature histogram generation unit 23. It is determined whether a pattern corresponding to is included, and the determination result is output. Each discriminator 241 to 24m uses the same discrimination method as that used in the learning unit 15, and corresponds to the input image from the discrimination parameter included in the pattern classification data and the histogram of the feature amount. It is determined whether or not a pattern is included.

例えば、識別器241〜24mがSVMであり、柄のカテゴリがA〜Fの6通りであったとすると、代表ベクトル・識別パラメータ記憶部16にはAの柄の識別パラメータ、Bの柄の識別パラメータ、…、Fの柄の識別パラメータそれぞれに対応する代表ベクトルとが記憶されている。すなわち、画像分類装置1がA〜Fの柄を学習し、学習により得られた柄ごとの代表ベクトルと識別パラメータとの組み合わせが代表ベクトル・識別パラメータ記憶部16に記憶される。この場合、画像識別装置2に備えられる識別器241〜246はA〜Fの柄に対応する。各識別器241〜246は、入力された画像に自身に対応する柄が含まれる場合に所定の値(例えば、「1」)を出力し、当該画像に当該柄が含まれない場合に異なる値(例えば、「0」)を出力する。識別部24は、各識別器241〜246の出力に基づいて、入力された画像に含まれる柄を識別し、当該柄を示す情報を出力する。
また、各識別器241〜24mの出力は、1または0の二値とするほか、2クラス判別器による多クラス判別器を構成し、入力画像に各柄が含まれる確率(連続値)とすることも可能である。その場合、識別部24は、各識別器241〜246の出力に基づいて、入力された画像に各柄が含まれる確率を出力する。例えば合計して1になる数字の並び「0.1,0.05,0.15,0.6,0.04,0.06」などである。
For example, if the classifiers 241 to 24m are SVM and there are six patterns of patterns A to F, the representative vector / identification parameter storage unit 16 stores the identification parameter of the A pattern and the identification parameter of the B pattern. ,..., F are stored as representative vectors corresponding to the identification parameters of the F pattern. That is, the image classification device 1 learns the patterns A to F, and a combination of the representative vector and the identification parameter for each pattern obtained by learning is stored in the representative vector / identification parameter storage unit 16. In this case, the classifiers 241 to 246 provided in the image identification device 2 correspond to patterns A to F. Each discriminator 241 to 246 outputs a predetermined value (for example, “1”) when a pattern corresponding to itself is included in the input image, and a different value when the pattern does not include the pattern. (For example, “0”) is output. The identification unit 24 identifies a pattern included in the input image based on the outputs of the classifiers 241 to 246, and outputs information indicating the pattern.
In addition, the output of each discriminator 241 to 24m is a binary value of 1 or 0, and constitutes a multi-class discriminator by a 2-class discriminator, and has a probability (continuous value) that each pattern is included in the input image. It is also possible. In that case, the identification unit 24 outputs the probability that each pattern is included in the input image based on the outputs of the classifiers 241 to 246. For example, it is a sequence of numbers “0.1, 0.05, 0.15, 0.6, 0.04, 0.06”, etc., which becomes 1 in total.

なお、複数の識別器241〜24mから「1」が出力される場合もあり得る。そのような場合には、複数の柄を示す情報が出力される。画像識別装置2が出力する柄を一つの柄に決定するには、画像切り出し部21において複数の異なる領域を切り出すようにし、複数の領域の画像に基づいて得られる識別器241〜24mの出力結果の多数決を採るようにしてもよい。
また、識別器241〜24mの出力結果を連続値とする場合には、最も数値の大きい柄を識別結果とする。例えば、識別部24の出力が上述の例の数字の並びである場合、柄Dであると判定する。
Note that “1” may be output from the plurality of discriminators 241 to 24m. In such a case, information indicating a plurality of patterns is output. In order to determine the pattern output by the image identification device 2 as one pattern, the image cutout unit 21 cuts out a plurality of different areas, and the output results of the classifiers 241 to 24m obtained based on the images of the plurality of areas. The majority vote may be taken.
Moreover, when making the output result of the discriminators 241-24m into a continuous value, let the pattern with the largest numerical value be an identification result. For example, when the output of the identification unit 24 is the sequence of numbers in the above-described example, it is determined that the pattern D.

図4は、本実施形態における画像識別装置2による柄の識別結果の一例を示す図である。なお、画像識別装置2が用いる柄分類データは、画像分類装置1における学習する際、すなわち画像分類装置1において柄分類データを生成する際に、柄のラベルとしてborder(縞柄)、dots(水玉)、check(格子柄)、zebra(しまうま柄)、leopard(豹柄)、python(蛇柄)、及び、liberty(小花柄)の7種類とした。また、テクスチャ特徴抽出部121、221ではSIFTを用いて特徴量を抽出し、色特徴抽出部122、222ではRGBを用いて特徴量を抽出した。形状特徴抽出部123、223は用いていない。柄を識別する対象としての画像は、インターネット上のウェブ購入サイトに表示されていた衣服の画像である。   FIG. 4 is a diagram illustrating an example of a pattern identification result by the image identification device 2 according to the present embodiment. Note that the pattern classification data used by the image identification device 2 is a pattern label such as border (dotted pattern) or dots (polka dot) when the image classification device 1 learns, that is, when the image classification device 1 generates pattern classification data. , Check (lattice pattern), zebra (suma pattern), leopard (leopard pattern), python (snake pattern), and liberty (small floral pattern). The texture feature extraction units 121 and 221 extract feature amounts using SIFT, and the color feature extraction units 122 and 222 extract feature amounts using RGB. The shape feature extraction units 123 and 223 are not used. The image as an object for identifying the pattern is an image of clothes displayed on a web purchase site on the Internet.

図4に示されているように、従来では同じ柄として識別が困難であった、幅の異なる縞柄や格子柄を同じ縞柄や格子柄として識別したり、大きさの異なる水玉それぞれを同じ水玉柄として認識したりできることが確認できる。また、複雑な動物柄や小花柄もかなり認識できていることが確認できる。   As shown in FIG. 4, it is difficult to identify the same pattern as the same pattern in the past. Different stripes and lattice patterns with different widths are identified as the same stripe pattern and lattice pattern. It can be confirmed that it can be recognized as. Moreover, it can be confirmed that complicated animal patterns and small floral patterns can be recognized considerably.

本実施形態における画像分類装置1及び画像識別装置2を用いることにより、衣服やバッグなどの商品の柄を識別する精度を向上させることができる。
また、図4に示されているように、縞柄において縞の幅や間隔によらず縞柄を識別したり、水玉の柄において水玉の大きさや密度によらず水玉柄を識別したりすることができ、カテゴリ内のばらつきを吸収して柄を識別することができるので、画像分類装置1及び画像識別装置2は検索等の用途で商品の模様を分類する際に好適である。
また、画像分類装置1及び画像識別装置2は、複数の特徴を抽出する特徴抽出部12、22を備え、抽出された特徴に基づいて柄を識別するようにしたので、衣服などにおける色と柄、柄と柄、柄と形状の相関を考慮して柄を識別することができ、柄の識別精度を向上させることができる。
By using the image classification device 1 and the image identification device 2 in the present embodiment, it is possible to improve the accuracy of identifying a pattern of a product such as clothes or a bag.
Further, as shown in FIG. 4, a striped pattern can be identified regardless of the width and interval of the stripes, or a polka dot pattern can be identified regardless of the size and density of the polka dots. Since the pattern can be identified by absorbing variations within the category, the image classification device 1 and the image identification device 2 are suitable for classifying a product pattern for use such as search.
In addition, the image classification device 1 and the image identification device 2 include the feature extraction units 12 and 22 that extract a plurality of features, and the pattern is identified based on the extracted features. The pattern can be identified in consideration of the correlation between the pattern and the pattern and the pattern and the shape, and the pattern identification accuracy can be improved.

また、画像分類装置1及び画像識別装置2は、画像切り出し部11、21を備えていることにより、入力される画像内の衣服にしわやひずみがあっても、しわやひずみの領域を除いた画像を用いることができるので、柄の識別精度を向上させることができる。
また、特徴抽出部12、22では、複数の特徴に対応する特徴量を抽出することにより、例えば非特許文献1や非特許文献2に記載されている技術の欠点であった画像のスケーリングや解像度により生じる柄の識別精度の低下を抑えることができる。
Further, since the image classification device 1 and the image identification device 2 include the image cutout units 11 and 21, even if the clothes in the input image have wrinkles or distortion, the wrinkle and distortion regions are excluded. Since an image can be used, pattern identification accuracy can be improved.
In addition, the feature extraction units 12 and 22 extract feature amounts corresponding to a plurality of features, for example, image scaling and resolution, which are disadvantages of the techniques described in Non-Patent Document 1 and Non-Patent Document 2, for example. It is possible to suppress a decrease in pattern identification accuracy caused by.

また、画像分類装置1は、柄以外の特徴、例えば色や形状の特徴を含めた複数の特徴の特徴量に基づいた代表ベクトルと、その重みとを学習する学習部15を備えたことにより、柄のみを単独で識別する場合に比べ、識別精度を向上させることができる。また、柄以外の特徴を含めた複数の特徴を用いて識別をすることにより、花柄は赤系の衣服に多い、動物柄は茶色系の衣服に多い、縞柄は寒色系の衣服に多い、といった傾向や、花柄はスカートやワンピースの形状を有する衣服に多いがジャケットの形状を有する衣服には少ない、チェック柄はシャツの形状を有する衣服に多いがズボンの形状を有する衣服には少ない、等の傾向がある場合は、柄の識別精度を高精度化することが可能になる。   Further, the image classification apparatus 1 includes a learning unit 15 that learns representative vectors based on feature quantities of a plurality of features including features other than patterns, for example, features of colors and shapes, and their weights. The identification accuracy can be improved as compared with the case of identifying only the handle alone. Also, by distinguishing using multiple features including features other than patterns, floral patterns are often found in red clothes, animal patterns are often found in brown clothes, and striped patterns are often found in cold clothes. Trends such as, floral patterns are often found in clothes with a skirt or one-piece shape, but not in clothes with a jacket shape, and check patterns are often found in shirt-shaped clothes but less in clothes with a trouser shape. If there is such a tendency, the pattern identification accuracy can be increased.

(変形例)
図1に示した画像分類装置1では、特徴抽出部12において抽出された特徴量ごとに、ベクトル抽出部131〜13kが代表ベクトルを抽出する構成について説明した。しかし、これに限ることなく、特徴抽出部12において抽出された特徴量を連結して得られる特徴量を用いて代表ベクトルを抽出するようにしてもよい。
図5は、画像分類装置1の変形例としての画像分類装置1Aの構成を示す概略ブロック図である。同図に示されている画像分類装置1Aにおいて、画像分類装置1と異なる点は、特徴抽出部12で抽出された特徴量が組み合わされて、ベクトル抽出部331〜33kに入力される点である。組み合わされた特徴量は、上述のように、連結され一つの特徴量としてベクトル抽出部331〜33kにおいてクラスタリングされ、代表ベクトルが求められる。例えば、テクスチャ特徴量が128次元であり、色特徴量が27次元である場合、この2つの特徴量を組み合わせた155次元の特徴量としてクラスタリングや代表ベクトルの算出をベクトル抽出部331〜33kが行う。これにより更に精度の高い柄の識別を行うことができる。この場合、画像識別装置2においても同様に、特徴抽出部22において抽出された特徴量を連結して得られる特徴量に基づいて、ヒストグラムを生成する。
(Modification)
In the image classification device 1 illustrated in FIG. 1, the configuration in which the vector extraction units 131 to 13 k extract the representative vector for each feature amount extracted by the feature extraction unit 12 has been described. However, the present invention is not limited to this, and the representative vector may be extracted using a feature amount obtained by connecting the feature amounts extracted by the feature extraction unit 12.
FIG. 5 is a schematic block diagram showing a configuration of an image classification device 1A as a modification of the image classification device 1. In the image classification apparatus 1A shown in the figure, the difference from the image classification apparatus 1 is that the feature amounts extracted by the feature extraction unit 12 are combined and input to the vector extraction units 331 to 33k. . As described above, the combined feature amounts are concatenated and clustered as one feature amount in the vector extraction units 331 to 33k to obtain a representative vector. For example, when the texture feature amount is 128 dimensions and the color feature amount is 27 dimensions, the vector extraction units 331 to 33k perform clustering and calculation of representative vectors as 155-dimensional feature amounts obtained by combining these two feature amounts. . As a result, the pattern can be identified with higher accuracy. In this case, similarly in the image identification device 2, a histogram is generated based on the feature amount obtained by connecting the feature amounts extracted by the feature extraction unit 22.

なお、本発明における画像分類装置と画像識別装置との機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各機能部の処理を行わせるようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。更に「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   A program for realizing the functions of the image classification device and the image identification device according to the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system and executed. Thus, the processing of each functional unit may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。更に、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

1、1A…画像分類装置
2…画像識別装置
11、21…画像切り出し部
12、22…特徴抽出部
13…代表ベクトル抽出部
14、23…特徴ヒストグラム生成部
15…学習部
16…代表ベクトル・識別パラメータ記憶部
24…識別部
33…代表ベクトル抽出部
121、221…テクスチャ特徴抽出部
122、222…色特徴抽出部
123、223…形状特徴抽出部
131、132、133、13k…ベクトル抽出部
141、142、143、14k、231、232、23k…ヒストグラム生成部
241、242、24m…識別器
331、332、333、33k…ベクトル抽出部
DESCRIPTION OF SYMBOLS 1, 1A ... Image classification apparatus 2 ... Image identification apparatus 11, 21 ... Image clipping part 12, 22 ... Feature extraction part 13 ... Representative vector extraction part 14, 23 ... Feature histogram generation part 15 ... Learning part 16 ... Representative vector and identification Parameter storage unit 24 ... identification unit 33 ... representative vector extraction unit 121, 221 ... texture feature extraction unit 122, 222 ... color feature extraction unit 123, 223 ... shape feature extraction unit 131, 132, 133, 13k ... vector extraction unit 141, 142, 143, 14k, 231, 232, 23k ... Histogram generator 241, 242, 24m ... Discriminator 331, 332, 333, 33k ... Vector extractor

Claims (5)

学習画像及び該学習画像に含まれる柄を示すラベルの複数の組み合わせが学習データとして入力される画像分類装置であって、
前記学習画像に撮像されている生地の柄が不連続な領域又は生地のしわがある領域を検出し、前記学習画像内の当該領域以外の領域であって前記生地の柄が含まれる領域を切り出す第1の画像切り出し部と、
前記第1の画像切り出し部が切り出した画像に含まれる柄の特徴を示す特徴量を複数抽出する第1の特徴量抽出部と、
前記第1の特徴量抽出部が抽出した複数の特徴量ごとに代表ベクトルを抽出する代表ベクトル抽出部と、
前記代表ベクトル抽出部が抽出した代表ベクトルに基づいて該代表ベクトルに対応する特徴量のヒストグラムを生成する第1の特徴ヒストグラム生成部と、
前記第1の特徴ヒストグラム生成部が生成するヒストグラムと、前記画像に対応するラベルとに基づいて、ヒストグラムに対する重み係数である識別パラメータとを算出し、算出した識別パラメータと該識別パラメータに対応する代表ベクトルとを対応付けた柄分類データを生成する学習部と
を備えていることを特徴とする画像分類装置。
An image classification device in which a plurality of combinations of learning images and labels indicating patterns included in the learning images are input as learning data,
An area in which the fabric pattern captured in the learning image is discontinuous or an area with fabric wrinkles is detected, and an area other than the area in the learning image that includes the fabric pattern is cut out. A first image cutout unit;
A first feature amount extraction unit that extracts a plurality of feature amounts indicating features of a pattern included in the image cut out by the first image cutout unit;
A representative vector extraction unit that extracts a representative vector for each of the plurality of feature amounts extracted by the first feature amount extraction unit;
A first feature histogram generation unit that generates a histogram of feature amounts corresponding to the representative vector based on the representative vector extracted by the representative vector extraction unit;
Based on the histogram generated by the first feature histogram generation unit and a label corresponding to the image, an identification parameter that is a weighting factor for the histogram is calculated, and the calculated identification parameter and a representative corresponding to the identification parameter An image classification apparatus comprising: a learning unit that generates pattern classification data associated with a vector.
学習画像及び該学習画像に含まれる柄を示すラベルの複数の組み合わせが学習データとして入力される画像分類装置であって、
前記学習画像に撮像されている生地の柄が不連続な領域又は生地のしわがある領域を検出し、前記学習画像内の当該領域以外の領域であって前記生地の柄が含まれる領域を切り出す第1の画像切り出し部と、
前記第1の画像切り出し部が切り出した画像に含まれる柄の特徴を示す特徴量を複数抽出する第1の特徴量抽出部と、
前記第1の特徴量抽出部が抽出した複数の特徴量を連結して得られる特徴量ごとに代表ベクトルを抽出する代表ベクトル抽出部と、
前記代表ベクトル抽出部が抽出した代表ベクトルに基づいて該代表ベクトルに対応する特徴量のヒストグラムを生成する第1の特徴ヒストグラム生成部と、
前記第1の特徴ヒストグラム生成部が生成するヒストグラムと、前記画像に対応するラベルとに基づいて、ヒストグラムに対する重み係数である識別パラメータとを算出し、算出した識別パラメータと該識別パラメータに対応する代表ベクトルとを対応付けた柄分類データを生成する学習部と
を備えていることを特徴とする画像分類装置。
An image classification device in which a plurality of combinations of learning images and labels indicating patterns included in the learning images are input as learning data,
An area in which the fabric pattern captured in the learning image is discontinuous or an area with fabric wrinkles is detected, and an area other than the area in the learning image that includes the fabric pattern is cut out. A first image cutout unit;
A first feature amount extraction unit that extracts a plurality of feature amounts indicating features of a pattern included in the image cut out by the first image cutout unit;
A representative vector extraction unit that extracts a representative vector for each feature amount obtained by connecting a plurality of feature amounts extracted by the first feature amount extraction unit;
A first feature histogram generation unit that generates a histogram of feature amounts corresponding to the representative vector based on the representative vector extracted by the representative vector extraction unit;
Based on the histogram generated by the first feature histogram generation unit and a label corresponding to the image, an identification parameter that is a weighting factor for the histogram is calculated, and the calculated identification parameter and a representative corresponding to the identification parameter An image classification apparatus comprising: a learning unit that generates pattern classification data associated with a vector.
入力される画像に撮像されている生地の柄が不連続な領域又は生地のしわがある領域を検出し、前記画像内の当該領域以外の領域であって前記生地の柄が含まれる領域を切り出す第2の画像切り出し部と、
前記第2の画像切り出し部が切り出した画像に含まれる柄の特徴を示す特徴量を複数抽出する第2の特徴量抽出部と、
請求項1又は請求項2に記載の画像分類装置によって生成された柄分類データに含まれる代表ベクトルに基づいて、前記第2の特徴量抽出部が抽出した複数の特徴量ごとにヒストグラムを生成する第2の特徴ヒストグラム生成部と、
前記画像分類装置に記憶されている柄分類データに含まれる識別パラメータと、前記第2の特徴ヒストグラム生成部が生成したヒストグラムとに基づいて、前記入力される画像の生地の柄を識別する識別部と
を備えていることを特徴とする画像識別装置。
A region where the fabric pattern captured in the input image is discontinuous or a region where the fabric wrinkle is detected is detected, and a region other than the region in the image and including the fabric pattern is cut out. A second image cutout unit;
A second feature amount extraction unit that extracts a plurality of feature amounts indicating features of a pattern included in the image cut out by the second image cutout unit;
A histogram is generated for each of a plurality of feature amounts extracted by the second feature amount extraction unit based on a representative vector included in the pattern classification data generated by the image classification device according to claim 1 or 2. A second feature histogram generator;
An identification unit that identifies a fabric pattern of the input image based on an identification parameter included in pattern classification data stored in the image classification device and a histogram generated by the second feature histogram generation unit And an image identification device.
請求項1又は請求項2に記載の画像分類装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the image classification device according to claim 1. 請求項3に記載の画像識別装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the image identification device according to claim 3.
JP2012211299A 2012-09-25 2012-09-25 Image classification device, image identification device, and program Expired - Fee Related JP5756443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012211299A JP5756443B2 (en) 2012-09-25 2012-09-25 Image classification device, image identification device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012211299A JP5756443B2 (en) 2012-09-25 2012-09-25 Image classification device, image identification device, and program

Publications (2)

Publication Number Publication Date
JP2014067174A JP2014067174A (en) 2014-04-17
JP5756443B2 true JP5756443B2 (en) 2015-07-29

Family

ID=50743527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012211299A Expired - Fee Related JP5756443B2 (en) 2012-09-25 2012-09-25 Image classification device, image identification device, and program

Country Status (1)

Country Link
JP (1) JP5756443B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101539058B1 (en) * 2014-06-20 2015-07-23 연세대학교 산학협력단 Image classfication and detection apparatus and method thereof
US10275677B2 (en) 2014-12-26 2019-04-30 Nec Solution Innovators, Ltd. Image processing apparatus, image processing method and program
JP6359001B2 (en) * 2015-11-26 2018-07-18 株式会社Lifull Information processing system and information processing method
JP6342106B1 (en) * 2016-11-30 2018-06-13 楽天株式会社 Image processing apparatus, image processing method, server, and computer program
JP6992590B2 (en) 2018-02-23 2022-01-13 日本電信電話株式会社 Feature expression device, feature expression method, and program
JP7075005B2 (en) 2018-04-03 2022-05-25 株式会社ミクシィ Information processing equipment, content display method and content display program
CN109522961B (en) * 2018-11-23 2022-09-13 中山大学 Semi-supervised image classification method based on dictionary deep learning
CN111645072B (en) * 2020-05-26 2021-09-24 山东大学 Robot sewing method and system based on multi-mode dictionary control strategy
CN112418168B (en) * 2020-12-10 2024-04-02 深圳云天励飞技术股份有限公司 Vehicle identification method, device, system, electronic equipment and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756341B2 (en) * 2005-06-30 2010-07-13 Xerox Corporation Generic visual categorization method and system
JP5189439B2 (en) * 2008-09-02 2013-04-24 トヨタ自動車株式会社 Cloth detection apparatus and cloth detection method

Also Published As

Publication number Publication date
JP2014067174A (en) 2014-04-17

Similar Documents

Publication Publication Date Title
JP5756443B2 (en) Image classification device, image identification device, and program
Gunay et al. Automatic age classification with LBP
Malik et al. Image processing techniques for identification of fish disease
Bourdev et al. Describing people: A poselet-based approach to attribute classification
US8798362B2 (en) Clothing search in images
Herdiyeni et al. Combination of morphological, local binary pattern variance and color moments features for indonesian medicinal plants identification
Anwar et al. Ancient coin classification using reverse motif recognition: Image-based classification of roman republican coins
CN105760828B (en) A kind of static gesture identification method of view-based access control model
Weerasekera et al. Robust asl fingerspelling recognition using local binary patterns and geometric features
Pradhan et al. A hand gesture recognition using feature extraction
Wang et al. Human hair segmentation and length detection for human appearance model
Beaudry et al. Action recognition in videos using frequency analysis of critical point trajectories
Anjomshoae et al. Enhancement of template-based method for overlapping rubber tree leaf identification
Sun et al. Clothing style recognition using fashion attribute detection
Azad et al. Real-time human face detection in noisy images based on skin color fusion model and eye detection
Prabha et al. Three dimensional object detection and classification methods: a study
Caraka et al. Batik parang rusak detection using geometric invariant moment
Hanmandlu et al. Palm print recognition using local binary pattern operator and support vector machines
Madni et al. Hand Gesture Recognition Using Semi Vectorial Multilevel Segmentation Method with Improved ReliefF Algorithm.
Elsayed et al. Hybrid method based on multi-feature descriptor for static sign language recognition
Chua et al. Fingerprint Singular Point Detection via Quantization and Fingerprint Classification.
Alzahrani et al. Face segmentation based object localisation with deep learning from unconstrained images
Pillai et al. A Novel Approach to Detect Copy Move Forgery using Deep Learning
Martin Sagayam et al. Application of pseudo 2-D hidden Markov model for hand gesture recognition
Abdulmunim et al. Logo matching in Arabic documents using region based features and SURF descriptor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150529

R150 Certificate of patent or registration of utility model

Ref document number: 5756443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees