JP2007317133A - Image classification method, device, and program - Google Patents
Image classification method, device, and program Download PDFInfo
- Publication number
- JP2007317133A JP2007317133A JP2006148896A JP2006148896A JP2007317133A JP 2007317133 A JP2007317133 A JP 2007317133A JP 2006148896 A JP2006148896 A JP 2006148896A JP 2006148896 A JP2006148896 A JP 2006148896A JP 2007317133 A JP2007317133 A JP 2007317133A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- concept
- thesaurus
- positive case
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像分類方法及び装置及びプログラムに係り、特に、テキストと画像で表現されたマルチメディア情報を対象として、キーワードにより画像を検索したときに検索結果の画像を画像内容に従って分類する画像分類方法及び装置及びプログラムに関する。 The present invention relates to an image classification method, apparatus, and program, and in particular, image classification for classifying an image as a search result according to image content when searching for an image by a keyword for multimedia information expressed by text and an image. The present invention relates to a method, an apparatus, and a program.
コンピュータとインターネット技術の進歩に伴い、実世界中に画像データを生成・蓄積することが容易になっている。その一方、膨大な画像データの効率よい管理技術が求められるようになった。このコア技術の一つとして、インターネット画像の分類技術が注目されている。従来の画像分類方法は、次の3つのアプローチに分類される。 With advances in computer and internet technology, it is becoming easier to generate and store image data in the real world. On the other hand, an efficient management technique for enormous amounts of image data has been demanded. As one of the core technologies, Internet image classification technology has attracted attention. Conventional image classification methods are classified into the following three approaches.
(1)テキスト照合による分類:
画像にキーワードを手動で事前に付与しておき、キーワードの照合により画像の類似性を判定することで画像を分類する方法である。
(1) Classification by text matching:
This is a method of classifying images by manually assigning keywords to images in advance and determining similarity of images by keyword matching.
(2)画像の照合による分類:
画像から色、テクスチャ、形状などの特徴量を抽出し、これらの特徴量を用いた照合による画像を分類する方法がある(例えば、非特許文献1参照)。
(2) Classification by image matching:
There is a method of extracting feature quantities such as color, texture, and shape from an image and classifying images by collation using these feature quantities (see, for example, Non-Patent Document 1).
(3)テキストと画像の統合処理による分類:
インターネット画像をテキストで検索するときに、クエリワードに関係する画像を検索結果として提示するときに画像内容が似ているものを分類して提示する方法が検討されている(例えば、非特許文献2参照)。この方法は次の2つのステップにより実現される。インターネット画像を含むWebサイトでは、画像とその画像を説明する説明テキストから構成されていることが多いので、まず、クエリのワードと説明テキストの照合により、クエリワードに関係のある画像を収集する。次に、画像の色やテクスチャに関する特徴量を用いて収集した画像を分類する。この方法は、説明テキストを用いて関連のある画像を収集したものを分類対象とするので、内容が似ているものが多い画像を分類対象とできる点が上記の(2)の技術と異なる。
When searching for an Internet image by text, a method of classifying and presenting images having similar image contents when presenting an image related to a query word as a search result has been studied (for example, Non-Patent Document 2). reference). This method is realized by the following two steps. Web sites including Internet images are often composed of images and explanatory texts that describe the images. First, images related to the query words are collected by matching the query words with the explanatory texts. Next, the collected images are classified using the feature quantities related to the color and texture of the image. This method differs from the above technique (2) in that an image obtained by collecting related images using explanatory text is used as a classification target, so that images having many similar contents can be classified.
しかしながら、上記従来技術(1)のテキストによる照合では、各画像に、その画像の意味や内容を表すテキスト(インデックス)を手動で事前に付与しておく必要があり、大量の画像に対して手動で付与するためのコストと時間がかかることが問題である。 However, in the collation by the text of the prior art (1), it is necessary to manually add a text (index) representing the meaning and contents of the image to each image in advance. The problem is that it takes a lot of time and cost to apply the above.
従来技術(2)の画像による照合では、画像から抽出した色、テクスチャ、形状などの物理的な特徴量だけで分類するが、画像の物理的な特徴と画像内容を表す意味レベルの分類基準との対応関係を明確に規定できないため、画像の意味的な分類を行うことが困難である。 In the matching by the image of the prior art (2), classification is performed only by physical feature amounts such as color, texture, and shape extracted from the image. Since it is not possible to clearly define the correspondence relationship, it is difficult to perform semantic classification of images.
従来技術(3)のテキストと画像の統合による分類は、まず、テキスト照合で画像を取得し、次に、画像による照合で分類するという順で行われる。画像による照合では、従来技術(2)と同じ課題を持つので、最初に行うテキスト照合でできるだけ分類しやすい画像を収集することが必要になる。しかし、簡易なテキスト照合による画像収集では、クエリワードに含まれる多様な概念に対応する画像がすべて収集されるので、従来技術(2)と同様に、画像内容に基づいた画像分類は困難であり、その分類精度は低くなる。 The classification based on the integration of the text and the image in the prior art (3) is performed in the order of first obtaining an image by text collation and then classifying by image collation. Since collation by image has the same problem as the prior art (2), it is necessary to collect images that are as easy to classify as possible by text collation performed first. However, with image collection by simple text matching, all images corresponding to various concepts included in the query word are collected, so that image classification based on image contents is difficult as in the case of the prior art (2). The classification accuracy is low.
本発明は、上記の点に鑑みなされたもので、概念に対応した画像を精度よく分類することが可能な画像分類方法及び装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above points, and an object thereof is to provide an image classification method, apparatus, and program capable of accurately classifying images corresponding to a concept.
図1は、本発明の原理を説明するための図である。 FIG. 1 is a diagram for explaining the principle of the present invention.
本発明(請求項1)は、テキストと画像で表現されたマルチメディア情報を対象として、キーワードにより画像を検索したときに検索結果の画像を画像内容に従って分類する画像分類方法であって、
概念・シソーラス取得手段が、入力されたクエリキーワードに基づいて、ワードの持つ複数の概念と各概念のシソーラスを記憶したワード辞書を検索し、n個の概念と該概念のシソーラスを取得する概念・シソーラス取得ステップ(ステップ1)と、
画像収集手段が、概念のシソーラスとクエリキーワードのAND条件によりウェブ検索し、画像の周辺にある説明テキストを照合し、該クエリキーワードと該シソーラスに関連する画像を収集して記憶手段に格納する画像収集ステップ(ステップ2)と、
画像フィルタリング手段が、各概念n(n=1,2,…,N)について、記憶手段の収集された画像群から、クエリキーワードと概念のシソーラスとのAND検索したときの類似度が高いM個の画像を正事例候補、それ以外の画像をラベル無し画像として抽出する画像フィルタリングステップ(ステップ3)と、
正事例生成手段が、正事例候補について、画像特徴量を抽出し、画像特徴空間での分布の中心との距離が予め設定しておいた閾値以下の画像を正事例とする正事例生成ステップ(ステップ4)と、
負事例生成手段が、正事例の各画像から抽出した画像特徴量から、ばらつきが予め設定された閾値より小さい特徴量を選択し、該特徴量に対するラベルなし画像群の分布から負事例を求める負事例生成ステップ(ステップ5)と、
識別関数算出手段が、正事例生成ステップで求めた正事例と、負事例生成ステップで求めた負事例を学習データとして正事例と負事例を識別するための識別関数を求める識別関数算出ステップ(ステップ6)と、
識別手段が、正事例候補と、ラベル無し画像群とから、識別関数を用いて、概念nに対応する画像を求める識別ステップ(ステップ7)と、
全ての概念nに対して、画像収集ステップ以降の処理を繰り返す(ステップ8)。
The present invention (Claim 1) is an image classification method for classifying a search result image according to image content when searching for an image by a keyword for multimedia information expressed by text and an image,
A concept / thesaurus acquisition unit searches a word dictionary storing a plurality of concepts of a word and a thesaurus of each concept based on an inputted query keyword, and acquires n concepts and a thesaurus of the concept A thesaurus acquisition step (step 1);
The image collecting means searches the web by the AND condition of the concept thesaurus and query keyword, collates the explanatory text around the image, collects the query keyword and the image related to the thesaurus, and stores the image in the storage means A collection step (step 2);
For each concept n (n = 1, 2,..., N), the image filtering means has a high similarity when the query keyword and the concept thesaurus are AND-searched from the image group collected by the storage means. An image filtering step (step 3) for extracting the image of (2) as a positive case candidate and the other images as unlabeled images;
A positive case generation unit extracts an image feature amount for a positive case candidate and sets a positive case as an example of an image whose distance from the center of the distribution in the image feature space is equal to or less than a preset threshold ( Step 4) and
The negative case generation means selects a feature amount whose variation is smaller than a preset threshold from the image feature amounts extracted from each image of the positive case, and obtains a negative case from the distribution of the unlabeled image group for the feature amount. A case generation step (step 5);
Discriminant function calculating means for determining a discriminant function for discriminating between positive and negative cases using the positive case obtained in the positive case generating step and the negative case obtained in the negative case generating step as learning data (step 6) and
An identification step (step 7) in which an identification unit obtains an image corresponding to the concept n from the positive case candidate and the unlabeled image group using an identification function;
The processing after the image collection step is repeated for all concepts n (step 8).
図2は、本発明の原理構成図である。 FIG. 2 is a principle configuration diagram of the present invention.
本発明(請求項2)は、テキストと画像で表現されたマルチメディア情報を対象として、キーワードにより画像を検索したときに検索結果の画像を画像内容に従って分類する画像分類装置であって、
ワードの持つ複数の概念と各概念のシソーラスを記憶したワード辞書107と、
入力されたクエリキーワードに基づいて、ワード辞書107を検索し、n個の概念と該概念のシソーラスを取得する概念・シソーラス取得手段100と、
概念のシソーラスとクエリキーワードのAND条件によりウェブ検索し、画像の周辺にある説明テキストを照合し、該クエリキーワードと該シソーラスに関連する画像を収集して記憶手段に格納する画像収集手段101と、
各概念n(n=1,2,…,N)について、記憶手段の収集された画像群を、クエリキーワードと概念のシソーラスとのAND検索したときの類似度が高いM個の画像を正事例候補、それ以外の画像をラベル無し画像とする画像フィルタリング手段102と、
正事例候補について、画像特徴量を抽出し、画像特徴空間での分布の中心との距離が予め設定しておいた閾値以下の画像を正事例とする正事例生成手段103と、
正事例の各画像から抽出した画像特徴量から、ばらつきが予め設定された閾値より小さい特徴量を選択し、該特徴量に対するラベルなし画像群の分布から負事例を求める負事例生成手段104と、
正事例生成手段103で求めた正事例と、負事例生成手段104で求めた負事例を学習データとして正事例と負事例を識別するための識別関数を求める識別関数算出手段105と、
正事例候補と、ラベル無し画像群とから、識別関数を用いて、概念nに対応する画像を求める識別手段106と、
全ての概念nに対して、画像取得手段101、画像フィルタリング手段102、正事例生成手段103、負事例生成手段104、識別関数算出手段105、識別手段106を繰り返す手段と、を有する。
The present invention (Claim 2) is an image classification device for classifying an image of a search result according to image contents when searching for an image by a keyword for multimedia information expressed by text and an image.
A
A concept /
An
For each concept n (n = 1, 2,..., N), M images having a high degree of similarity when an AND search of a query keyword and a concept thesaurus is performed on a group of images collected by the storage means is a positive example. Candidate, image filtering means 102 for other images as unlabeled images,
A positive
A negative
A discriminant
An
For all concepts n, the image acquisition means 101, the image filtering means 102, the positive case generation means 103, the negative case generation means 104, the discrimination function calculation means 105, and the means for repeating the discrimination means 106 are provided.
本発明(請求項3)は、コンピュータに、請求項2記載の画像分類装置の各手段を実行させる画像分類プログラムである。
The present invention (Claim 3) is an image classification program for causing a computer to execute each means of the image classification apparatus according to
本発明では、インターネット画像が、
・様々な人が様々な目的でとった多種多様な画像;
・画像の意味は周辺テキスト情報と画像情報で表現される:
という特徴を有していることにより、まず、クエリとなるキーワードが与えられたときに、そのキーワードが持つ複数概念に応じた画像を、当該画像の周辺の説明テキストの照合により収集し、画像から抽出した特徴量で構成される特徴空間において、各概念に対応する画像を識別するための識別関数を各概念に対応する画像群から適切な学習データを抽出することにより求め、当該識別関数に基づいて各概念に対応した画像を分類する。これにより、概念に対応した画像を精度よく分類することができる。
In the present invention, the Internet image is
・ Various images taken by various people for various purposes;
The meaning of the image is expressed by surrounding text information and image information:
First, when a keyword to be queried is given, images corresponding to a plurality of concepts possessed by the keyword are collected by collating explanatory texts around the image, and from the image In a feature space composed of extracted feature quantities, an identification function for identifying an image corresponding to each concept is obtained by extracting appropriate learning data from an image group corresponding to each concept, and based on the identification function To classify the images corresponding to each concept. Thereby, the image corresponding to the concept can be classified with high accuracy.
以下、図面と共に本発明の実施の形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図3は、本発明の一実施の形態におけるシステム構成を示す。 FIG. 3 shows a system configuration according to an embodiment of the present invention.
同図に示すシステムは、クライアント端末1と、ウェブ画像検索エンジン2と、ウェブサイト3がインターネット4に接続されている構成である。
The system shown in the figure has a configuration in which a client terminal 1, a web
クライアント端末1は、ユーザの検索要求であるクエリとなるキーワードを受け付け、クエリワードに基づいて検索された画像を提示する。 The client terminal 1 accepts a keyword serving as a query that is a user search request, and presents an image searched based on the query word.
ウェブ画像検索エンジン2は、クエリワードと、ウェブサイト3の説明テキストとのテキスト照合を行い、クエリワードと関連するウェブ画像を検索する。
The web
ウェブサイト3は、インターネット上で公開されている数多くのウェブサイトであり、公開されている情報は、画像と周辺の説明テキストとから構成されている。
The
上記の図3に示すシステムを前提としたときの、クライアント装置1を画像分類装置をとして説明する。 The client apparatus 1 when the system shown in FIG. 3 is assumed is described as an image classification apparatus.
図4は、本発明の一実施の形態における画像分類装置の構成を示す。 FIG. 4 shows the configuration of the image classification device in one embodiment of the present invention.
同図に示す画像分類装置は、概念・シソーラス取得部100、画像収集部101、画像フィルタリング部102、正事例生成部103、負事例生成部104、識別関数算出部105、識別処理部106、ワード辞書記憶部107から構成される。
The image classification apparatus shown in the figure includes a concept /
概念・シソーラス取得部100は、ユーザから入力されたクエリキーワードに基づいて、ワード辞書記憶部107に記憶してあるワード辞書から、クエリキーワードの持つ各概念と各概念のシソーラスを読み取り、クエリワード、及び読み取った各概念とシソーラスを画像収集部101へ出力する。
The concept /
ワード辞書記憶部107は、ワードの持つ複数の概念と各概念のシソーラスをまとめた電子辞書で、概念・シソーラス取得部100からワードを受け取ると、そのワードが持つ概念とシソーラスを概念・シソーラス取得部100に出力する。ワード辞書の例を図5に示す。
The word
画像収集部101は、概念・シソーラスの取得部100からクエリキーワードと各概念に関するシソーラスを受け取ると、クエリキーワードと各概念に関するシソーラスを検索条件(AND条件)として、ウェブ検索エンジンによりウェブ画像の周辺にある説明テキストとの照合を行い、クエリワードとシソーラスとに関連する画像を収集し、メモリ等の記憶手段(図示せず)に格納する。収集した画像と、ウェブ画像検索エンジン2で検索したときの説明テキストとの照合におけるテキスト類似度を画像フィルタリング部102へ出力する。
When the
画像フィルタリング部102は、画像取得部101から画像とテキスト類似度を受け取ると、テキスト類似度が高いM個の画像を正事例候補画像、その他の画像をラベルなし画像の2つのグループに分ける。正事例候補画像を正事例生成部103と識別処理部106に出力し、ラベルなし画像を負事例生成部104と識別処理部106に出力する。
When the
正事例生成部103は、画像フィルタリング部102から正事例候補画像を受け取ると、正事例画像を特徴付ける代表特徴量を抽出し、抽出した当該代表特徴量を用いて正事例画像を検出する。検出した正事例画像を識別関数算出部105に、抽出した正事例特徴量(代表特徴量)を負事例生成部104にそれぞれ出力する。正事例画像の抽出の詳細は、図6のフローチャートで後述する。
When the positive
負事例生成部104は、画像フィルタリング部102からラベルなし画像を、正事例生成部103から代表特徴量をそれぞれ受け取ると、当該代表特徴量を用いて画像フィルタリング部102から受け取ったラベルなし画像から負事例画像を抽出し、抽出した負事例画像を識別関数算出部105へ出力する。詳細は、図7の処理フローで後述する。
When the negative
識別関数算出部105は、正事例生成部103から受け取った正事例画像と負事例生成部104から受け取った負事例画像を学習データとして、負事例と正事例を識別するための識別関数を求め、求めた識別関数を識別処理部106へ出力する。識別関数の算出は例えば、従来技術であるBDAという分類器を用いて求めればよい(文献1:Xiang Sean Zhou, Thomas S. Huang, “Comparing Discriminating transformations and SVM for learning during multimedia retrieval”, ACM Multimedia 2001, pp. 137-146参照)。
The discriminant
識別処理部106は、画像フィルタリング部102から入力される正事例候補画像とラベルなし画像を、識別関数算出部105から入力される識別関数に基づいて分類する。正事例として分類された結果をクエリキーワードの該当する概念に対応する画像として出力する。
The
次に、上記の構成における動作を説明する。 Next, the operation in the above configuration will be described.
図6は、本発明の一実施の形態における画像分類装置の処理のフローチャートである。 FIG. 6 is a flowchart of the process of the image classification device according to the embodiment of the present invention.
ステップ201) 概念・シソーラス取得部100において、クエリとなるキーワードを取得する。
Step 201) The concept /
ステップ202) 概念・シソーラス取得部100は、クエリキーワードに基づいてワード辞書記憶部107にアクセスして、クエリワードが持つN個の概念と、各概念に対応するシソーラスを読み取る。
Step 202) The concept /
ステップ203) 画像収集部101において、クエリワードにn番目の概念シソーラスを追加した検索条件(AND条件)で、インターネット4を介してウェブ画像検索エンジン2を用いて画像の検索を行い、画像を収集し、当該画像と類似度をメモリ等の記憶手段(図示せず)に格納する。画像の検索は、ウェブ画像の周辺の説明テキストやタイトルなどと検索条件とのテキスト照合を行い、類似度の高い順にインターネットの画像を検出すればよい。
Step 203) In the
ステップ204) 画像フィルタリング部102は、画像収集部101で収集された画像のテキスト照合の類似度の高い上位M枚の画像を正事例画像候補、その他の画像をラベルなし画像として分類する。
Step 204) The
ステップ205) 正事例生成部103は、画像フィルタリング部102から入力された正事例画像候補画像から正事例画像を求める。処理内容を図7に基づいて説明する。
Step 205) The positive
まず、正事例生成部103は、正事例候補画像を読み込む(ステップ301)。次に、取得した正事例候補画像について、色(fC)、テクスチャ(fT),形状(fS)などのP個の特徴量を抽出する(ステップ302)。ここで、各色、テクスチャ、形状の特徴量は従来技術で得られている多次元の特徴ベクトルである。
First, the correct
P個の特徴量のそれぞれについて、正事例候補画像全体のばらつきを求める(ステップ303)。まず、色の特徴空間について、正事例候補画像全体における標準偏差を以下の関数で求める For each of the P feature amounts, the variation of the entire positive case candidate image is obtained (step 303). First, for the color feature space, the standard deviation of the entire positive case candidate image is obtained using the following function:
同様に、テクスチャや形状などP個の特徴空間についても、正事例候補画像全体における標準偏差を計算する。この処理によりP通りの標準偏差が求められる。 Similarly, for P feature spaces such as texture and shape, the standard deviation in the entire positive case candidate image is calculated. By this process, P standard deviations are obtained.
次に、P通りの標準偏差が最小となる特徴量を検出し、代表特徴量(I)とする(ステップ304)。例えば、色(fC),テクスチャ(fT)、形状(fS)などのP個の特徴量の中で、色特徴量(fC)の標準偏差が一番小さければ、代表特徴量(I)は色特徴量となる。 Next, the feature quantity having the smallest P standard deviation is detected and set as the representative feature quantity (I) (step 304). For example, if the standard deviation of the color feature quantity (f C ) is the smallest among the P feature quantities such as color (f C ), texture (f T ), and shape (f S ), the representative feature quantity ( I) is a color feature amount.
ステップ304で決めた代表特徴量(I)の特徴空間における正事例候補画像の中心Cを求める(ステップ305)。
The center C of the positive case candidate image in the feature space of the representative feature quantity (I) determined in
次に、代表特徴量(I)の特徴空間における正事例候補画像nと中心Cとの距離を算出する(ステップ306)。ここでは、距離の計算は一般のユークリッド距離計算式を用いて求められる。 Next, the distance between the positive case candidate image n and the center C in the feature space of the representative feature quantity (I) is calculated (step 306). Here, the distance is calculated using a general Euclidean distance calculation formula.
ステップ306で求めた距離が予め設定しておいた閾値以下であるかを判定する。閾値以下の場合は、ステップ308に移行し、閾値より大きい場合はステップ309へ移行する。 It is determined whether the distance obtained in step 306 is equal to or less than a preset threshold value. If it is equal to or smaller than the threshold value, the process proceeds to step 308. If it is greater than the threshold value, the process proceeds to step 309.
閾値以下の場合は、正事例候補画像nを正事例に振り分ける(ステップ308)。 If it is less than or equal to the threshold value, the positive case candidate image n is assigned to the positive case (step 308).
閾値より大きい場合は、すべての正事例候補画像において上記のステップ306〜ステップ308に至る処理を行ったかを判定し、行っていなければステップ310に移行し、そうでなければ処理を終了する。 If it is larger than the threshold value, it is determined whether or not the processing from step 306 to step 308 has been performed on all the positive case candidate images. If not, the process proceeds to step 310, and if not, the processing ends.
nをインクリメントし、ステップ306へ移行する(ステップ310)。 n is incremented and the routine proceeds to step 306 (step 310).
ステップ206) 負事例生成部104は、負事例画像を抽出する。以下、図8を用いて詳細に負事例生成部104の動作を説明する。
Step 206) The negative
まず、負事例生成部104は、ラベルなし画像から代表特徴量(I)を抽出する。例えば、ステップ205で求めた代表特徴量(I)が色特徴量であれば、ラベルなし画像からも色特徴量を抽出する(ステップ41)。
First, the negative
ラベルなし画像の中で、ステップ305で求めた代表特徴量(I)の特徴空間における正事例候補画像の中心Cから距離が閾値より大きいものを負事例として検出する(ステップ42)。
Among the unlabeled images, those having a distance larger than the threshold from the center C of the positive case candidate image in the feature space of the representative feature amount (I) obtained in
ステップ207) 識別関数算出部105は、正事例生成部103で生成された正事例画像と、負事例生成部104で生成された負事例画像とを正事例と負事例学習データとして、負事例と正事例を識別するための識別関数を求める。識別関数を求める一例として、従来技術のBDA(Biased Discriminate Analysis)という分類器を用いる方法が有効である(文献1参照)。BDA分類器は、正事例グループの分散を最小化し、かつ、負事例グループと正事例グループの分散を最大化する重み係数を求める。図9にBDA分類器の例を示す。代表特徴量(I)の各次元に対する重み付け係数を表す行列をW、代表特徴量(I)で表した正事例画像をfl、正事例画像の総数をL、代表特徴量(I)で表した負事例画像をnfj、負事例画像の総数をJ、代表特徴量空間(I)における正事例画像の中心をCとすると、上記の目標を達成するための最適な重み係数は式(2)で定義され、
Step 207) The discrimination
ステップ208) 識別処理部106において、学習した識別器を用いて、正事例候補画像とラベルなし画像の識別を行い、正事例として判別されたサンプルをクエリキーワードのn番目の概念に対する画像として出力する。学習したBDA分類器で得られた重み付けWを画像特徴量にかけて、以下の式で分類度Sを求める。Sは、予め設定しておいた閾値以下になれば、n番目概念に対する画像とする。
Step 208) Using the learned classifier, the
S=WT・fi
ステップ209) 識別処理部106は、全てのクエリキーワードに関連するN個の概念において、上記のステップ203からステップ208に至る画像分類処理を行ったかを判定する。行っていなければ、ステップ203からステップ208の処理を繰り返す。そうでなければステップ210に移行する。
S = W T · f i
Step 209) The
ステップ210) 識別処理部106は、クエリキーワードに関連するN個の概念に対応する画像を結果として提示する。
Step 210) The
また、本発明は、上記の図4に示す画像分類装置の構成の各機能をプログラムとして構築し、画像分類装置として利用されるコンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。 Further, the present invention constructs each function of the configuration of the image classification apparatus shown in FIG. 4 as a program and installs and executes it on a computer used as the image classification apparatus or distributes it via a network. Is possible.
また、構築されたプログラムを、ハードディスクや、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、画像分類装置として利用されるコンピュータにインストールする、または、配布することが可能である。
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
Further, the constructed program can be stored in a portable storage medium such as a hard disk, a flexible disk, or a CD-ROM, and can be installed or distributed on a computer used as an image classification apparatus.
The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.
本発明は、インターネット上に存在する画像を分類する技術に適用可能である。 The present invention can be applied to a technique for classifying images existing on the Internet.
1 クライアント端末
2 ウェブ画像検索エンジン
3 ウェブサイト
4 インターネット
100 概念・シソーラス取得手段、概念・シソーラス取得部
101 画像収集手段、画像収集部
102 画像フィルタリング手段、画像フィルタリング部
103 正事例生成手段、正事例生成部
104 負事例生成手段、負事例生成部
105 識別関数算出手段、識別関数算出部
106 識別手段、識別処理部
107 ワード辞書、ワード辞書記憶部
1
Claims (3)
概念・シソーラス取得手段が、入力されたクエリキーワードに基づいて、ワードの持つ複数の概念と各概念のシソーラスを記憶したワード辞書を検索し、n個の概念と該概念のシソーラスを取得する概念・シソーラス取得ステップと、
画像収集手段が、前記概念のシソーラスと前記クエリキーワードのAND条件によりウェブ検索し、画像の周辺にある説明テキストを照合し、該クエリキーワードと該シソーラスに関連する画像を収集して記憶手段に格納する画像収集ステップと、
画像フィルタリング手段が、前記各概念n(n=1,2,…,N)について、前記記憶手段の収集された画像群から、前記クエリキーワードと前記概念のシソーラスとのAND検索したときの類似度が高いM個の画像を正事例候補、それ以外の画像をラベル無し画像として抽出する画像フィルタリングステップと、
正事例生成手段が、前記正事例候補について、画像特徴量を抽出し、画像特徴空間での分布の中心との距離が予め設定しておいた閾値以下の画像を正事例とする正事例生成ステップと、
負事例生成手段が、前記正事例の各画像から抽出した前記画像特徴量から、ばらつきが予め設定された閾値より小さい特徴量を選択し、該特徴量に対するラベルなし画像群の分布から負事例を求める負事例生成ステップと、
識別関数算出手段が、前記正事例生成ステップで求めた前記正事例候補と、前記負事例生成ステップで求めた前記負事例を学習データとして正事例と負事例を識別するための識別関数を求める識別関数算出ステップと、
識別手段が、前記正事例候補と、前記ラベル無し画像群とから、前記識別関数を用いて、前記概念nに対応する画像を求める識別ステップと、
全ての概念nに対して、前記画像収集ステップ以降の処理を繰り返す
ことを特徴とする画像分類方法。 An image classification method for classifying multimedia information expressed in text and images according to image content when searching for images by keywords,
A concept / thesaurus acquisition unit searches a word dictionary storing a plurality of concepts of a word and a thesaurus of each concept based on an inputted query keyword, and acquires n concepts and a thesaurus of the concept A thesaurus acquisition step;
The image collection means searches the web based on the AND condition of the concept thesaurus and the query keyword, collates the explanatory text around the image, collects the query keyword and the image related to the thesaurus, and stores them in the storage means An image collection step to
The degree of similarity when the image filtering means performs an AND search of the query keyword and the concept thesaurus from the image group collected in the storage means for each concept n (n = 1, 2,..., N). An image filtering step of extracting M images having a high value as candidates for positive cases and other images as unlabeled images;
A positive case generation unit that extracts an image feature amount for the positive case candidate and sets a positive case as an image whose distance from the center of the distribution in the image feature space is a predetermined threshold or less. When,
A negative case generation means selects a feature amount whose variation is smaller than a preset threshold value from the image feature amounts extracted from each image of the positive case, and selects a negative case from the distribution of the unlabeled image group for the feature amount. The negative case generation step to be sought,
Discrimination function calculating means for obtaining a discrimination function for identifying a positive case and a negative case using the positive case candidate obtained in the positive case generation step and the negative case obtained in the negative case generation step as learning data A function calculation step;
An identification step for identifying an image corresponding to the concept n using the identification function from the positive case candidate and the unlabeled image group;
An image classification method, wherein the processing after the image collection step is repeated for all concepts n.
ワードの持つ複数の概念と各概念のシソーラスを記憶したワード辞書と、
入力されたクエリキーワードに基づいて、前記ワード辞書を検索し、n個の概念と該概念のシソーラスを取得する概念・シソーラス取得手段と、
前記概念のシソーラスと前記クエリキーワードのAND条件によりウェブ検索し、画像の周辺にある説明テキストを照合し、該クエリキーワードと該シソーラスに関連する画像を収集して記憶手段に格納する画像収集手段と、
前記各概念n(n=1,2,…,N)について、前記記憶手段の収集された画像群を、前記クエリキーワードと前記概念のシソーラスとのAND検索したときの類似度が高いM個の画像を正事例候補、それ以外の画像をラベル無し画像とする画像フィルタリング手段と、
前記正事例候補について、画像特徴量を抽出し、画像特徴空間での分布の中心との距離が予め設定しておいた閾値以下の画像を正事例とする正事例生成手段と、
前記正事例の各画像から抽出した前記画像特徴量から、ばらつきが予め設定された閾値より小さい特徴量を選択し、該特徴量に対するラベルなし画像群の分布から負事例を求める負事例生成手段と、
前記正事例生成手段で求めた前記正事例と、前記負事例生成手段で求めた前記負事例を学習データとして正事例と負事例を識別するための識別関数を求める識別関数算出手段と、
前記正事例候補と、前記ラベル無し画像群とから、前記識別関数を用いて、前記概念nに対応する画像を求める識別手段と、
全ての概念nに対して、前記画像収集手段、前記画像フィルタリング手段、前記正事例生成手段、前記負事例生成手段、前記識別関数算出手段、前記識別手段を繰り返す手段と、
を有することを特徴とする画像分類装置。 An image classification device that classifies images of search results according to image contents when searching for images by keywords for multimedia information expressed in text and images,
A word dictionary that stores multiple concepts of words and the thesaurus of each concept;
A concept / thesaurus acquisition means for searching the word dictionary based on the input query keyword and acquiring n concepts and a thesaurus of the concept;
An image collecting means for performing a web search according to an AND condition of the conceptual thesaurus and the query keyword, collating explanatory texts around the image, collecting the query keyword and an image related to the thesaurus, and storing the collected information in a storage means; ,
For each concept n (n = 1, 2,..., N), M images having a high degree of similarity when an AND search of the query keyword and the concept thesaurus is performed on the collected image group of the storage means. An image filtering means for setting the image as a positive case candidate and the other images as unlabeled images;
For the positive case candidate, a positive case generation unit that extracts an image feature amount and sets an image whose distance from the center of distribution in the image feature space is equal to or less than a preset threshold as a positive case;
Negative case generation means for selecting a feature amount whose variation is smaller than a preset threshold from the image feature amount extracted from each image of the positive case, and obtaining a negative case from a distribution of unlabeled image groups for the feature amount; ,
An identification function calculating means for obtaining an identification function for identifying a positive case and a negative case by using the positive case determined by the positive case generating means and the negative case determined by the negative case generating means as learning data;
Identification means for obtaining an image corresponding to the concept n from the positive case candidate and the unlabeled image group using the identification function;
For all concepts n, the image collection means, the image filtering means, the positive case generation means, the negative case generation means, the discrimination function calculation means, means for repeating the identification means,
An image classification apparatus comprising:
請求項2記載の画像分類装置の各手段を実行させることを特徴とする画像分類プログラム。 On the computer,
An image classification program for causing each means of the image classification apparatus according to claim 2 to be executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006148896A JP4703487B2 (en) | 2006-05-29 | 2006-05-29 | Image classification method, apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006148896A JP4703487B2 (en) | 2006-05-29 | 2006-05-29 | Image classification method, apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007317133A true JP2007317133A (en) | 2007-12-06 |
JP4703487B2 JP4703487B2 (en) | 2011-06-15 |
Family
ID=38850911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006148896A Expired - Fee Related JP4703487B2 (en) | 2006-05-29 | 2006-05-29 | Image classification method, apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4703487B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009181306A (en) * | 2008-01-30 | 2009-08-13 | Nippon Telegr & Teleph Corp <Ntt> | Video indexing device, video indexing method, video indexing program and its recording medium |
JP2009282660A (en) * | 2008-05-21 | 2009-12-03 | Nippon Telegr & Teleph Corp <Ntt> | Image dictionary creation device, image dictionary creation method, and image dictionary creation program |
JP2010198525A (en) * | 2009-02-27 | 2010-09-09 | Nippon Telegr & Teleph Corp <Ntt> | System and method for retrieval of cross-lingual information |
JP2014506357A (en) * | 2011-01-05 | 2014-03-13 | プライマル フュージョン インコーポレイテッド | Method and apparatus for providing information of interest to one or more users |
CN116994076A (en) * | 2023-09-28 | 2023-11-03 | 中国海洋大学 | Small sample image recognition method based on double-branch mutual learning feature generation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000029901A (en) * | 1998-07-14 | 2000-01-28 | Canon Inc | Device for retrieving image and method therefor |
JP2001344246A (en) * | 2000-05-30 | 2001-12-14 | Kansai Electric Power Co Inc:The | Method for preparing term table data base and method for retrieving electronic document |
JP2003076694A (en) * | 2001-09-05 | 2003-03-14 | Canon Inc | Image retrieval device, and method and program therefor |
JP2004192555A (en) * | 2002-12-13 | 2004-07-08 | Fuji Xerox Co Ltd | Information management method, device and program |
JP2006099565A (en) * | 2004-09-30 | 2006-04-13 | Kddi Corp | Content identification device |
-
2006
- 2006-05-29 JP JP2006148896A patent/JP4703487B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000029901A (en) * | 1998-07-14 | 2000-01-28 | Canon Inc | Device for retrieving image and method therefor |
JP2001344246A (en) * | 2000-05-30 | 2001-12-14 | Kansai Electric Power Co Inc:The | Method for preparing term table data base and method for retrieving electronic document |
JP2003076694A (en) * | 2001-09-05 | 2003-03-14 | Canon Inc | Image retrieval device, and method and program therefor |
JP2004192555A (en) * | 2002-12-13 | 2004-07-08 | Fuji Xerox Co Ltd | Information management method, device and program |
JP2006099565A (en) * | 2004-09-30 | 2006-04-13 | Kddi Corp | Content identification device |
Non-Patent Citations (2)
Title |
---|
XIANG SEAN ZHOU, ET AL.: "Comparing Discriminating Transformations and SVM for Learning during Multimedia Retrieval", PROCEEDINGS OF THE NINTH ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA, JPN6010066186, 2001, US, pages 137 - 146, XP058310401, ISSN: 0001866267, DOI: 10.1145/500141.500163 * |
柳井 啓司: "Semi−Supervised Learningを用いたWeb画像収集システム", 2005年度人工知能学会全国大会(第19回)論文集 [CD−ROM], JPN6010066185, 17 June 2005 (2005-06-17), JP, pages 1 - 4, ISSN: 0001781456 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009181306A (en) * | 2008-01-30 | 2009-08-13 | Nippon Telegr & Teleph Corp <Ntt> | Video indexing device, video indexing method, video indexing program and its recording medium |
JP2009282660A (en) * | 2008-05-21 | 2009-12-03 | Nippon Telegr & Teleph Corp <Ntt> | Image dictionary creation device, image dictionary creation method, and image dictionary creation program |
JP2010198525A (en) * | 2009-02-27 | 2010-09-09 | Nippon Telegr & Teleph Corp <Ntt> | System and method for retrieval of cross-lingual information |
JP2014506357A (en) * | 2011-01-05 | 2014-03-13 | プライマル フュージョン インコーポレイテッド | Method and apparatus for providing information of interest to one or more users |
CN116994076A (en) * | 2023-09-28 | 2023-11-03 | 中国海洋大学 | Small sample image recognition method based on double-branch mutual learning feature generation |
CN116994076B (en) * | 2023-09-28 | 2024-01-19 | 中国海洋大学 | Small sample image recognition method based on double-branch mutual learning feature generation |
Also Published As
Publication number | Publication date |
---|---|
JP4703487B2 (en) | 2011-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9589208B2 (en) | Retrieval of similar images to a query image | |
CN106202256B (en) | Web image retrieval method based on semantic propagation and mixed multi-instance learning | |
CN112347244B (en) | Yellow-based and gambling-based website detection method based on mixed feature analysis | |
JP5749279B2 (en) | Join embedding for item association | |
KR101715432B1 (en) | Word pair acquisition device, word pair acquisition method, and recording medium | |
US8788503B1 (en) | Content identification | |
US20180341686A1 (en) | System and method for data search based on top-to-bottom similarity analysis | |
US20160188633A1 (en) | A method and apparatus for tracking microblog messages for relevancy to an entity identifiable by an associated text and an image | |
Liu et al. | Heterogeneous features and model selection for event-based media classification | |
CN106980664B (en) | Bilingual comparable corpus mining method and device | |
CN107357765B (en) | Word document flaking method and device | |
CN113569050B (en) | Method and device for automatically constructing government affair field knowledge map based on deep learning | |
CN110008365B (en) | Image processing method, device and equipment and readable storage medium | |
KR20220134695A (en) | System for author identification using artificial intelligence learning model and a method thereof | |
JP4703487B2 (en) | Image classification method, apparatus and program | |
Tian et al. | Image classification based on the combination of text features and visual features | |
CN109948154A (en) | A kind of personage's acquisition and relationship recommender system and method based on name | |
KR20190008699A (en) | Method, system and computer program for semantic image retrieval based on topic modeling | |
JP2013003663A (en) | Information processing apparatus, information processing method, and program | |
US8214310B2 (en) | Cross descriptor learning system, method and program product therefor | |
Chen et al. | Name-face association with web facial image supervision | |
Lu et al. | A metadata generation system for scanned scientific volumes | |
Tian et al. | Automatic image annotation with real-world community contributed data set | |
James et al. | Ontology matching for the semantic annotation of images | |
CN114238735B (en) | Intelligent internet data acquisition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110308 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |