JP2013109479A - Content conversion method, content conversion device, and content conversion program - Google Patents

Content conversion method, content conversion device, and content conversion program Download PDF

Info

Publication number
JP2013109479A
JP2013109479A JP2011252708A JP2011252708A JP2013109479A JP 2013109479 A JP2013109479 A JP 2013109479A JP 2011252708 A JP2011252708 A JP 2011252708A JP 2011252708 A JP2011252708 A JP 2011252708A JP 2013109479 A JP2013109479 A JP 2013109479A
Authority
JP
Japan
Prior art keywords
content
feature
content conversion
hash function
hash
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011252708A
Other languages
Japanese (ja)
Other versions
JP5592337B2 (en
Inventor
Takeshi Irie
豪 入江
Takashi Sato
隆 佐藤
Takeshi Tono
豪 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011252708A priority Critical patent/JP5592337B2/en
Publication of JP2013109479A publication Critical patent/JP2013109479A/en
Application granted granted Critical
Publication of JP5592337B2 publication Critical patent/JP5592337B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a content conversion method, a content conversion device, and a content conversion program capable of highly accurately detecting a similar content from a large amount of multimedia contents at a high speed and with a memory saving type.SOLUTION: The content conversion method includes: distributing respective feature amounts xof a plurality of contents i on a feature amount space Ras feature points and classifying them at least two groups, obtaining a straight line having an equal vertical distance from all the feature points of each group, and generating a hash function hfor converting the content i into binary values on the basis of a fact in which two space sides divided by the straight line the feature points are present.

Description

本発明は、大量のマルチメディアコンテンツから類似するコンテンツを検索する際に利用されるコンテンツ変換方法、コンテンツ変換装置及びコンテンツ変換プログラムに関する。   The present invention relates to a content conversion method, a content conversion device, and a content conversion program used when searching for similar content from a large amount of multimedia content.

通信網、ストレージ、分散環境の高度化により、オンラインで流通するマルチメディアコンテンツの数は膨大な量となっている。   With the advancement of communication networks, storage, and distributed environments, the number of multimedia contents distributed online has become enormous.

例えば、ある検索エンジンが検索可能としているウェブページ数は数十億とも数兆ともいわれている。集合知による事典として有名なWikipediaでは、350万以上の記事が閲覧可能となっている。   For example, the number of web pages that a search engine can search is said to be billions or trillions. Wikipedia, famous as a collective intelligence encyclopedia, can browse over 3.5 million articles.

あるソーシャルメディアサイトでは、毎月25億の画像がアップロードされているとの報告があり、また、ある動画共有サイトでは、1分当たり48時間分の映像が新規に公開され続けているとの報告がある。   One social media site reports that 2.5 billion images are uploaded every month, and another video sharing site reports that 48 hours of video per minute continues to be released. is there.

このような膨大な量のマルチメディアコンテンツは、視聴者にとって豊富な選択肢となる一方で、視聴・閲覧したいコンテンツに素早くアクセスしたり、内容を一覧して素早く把握したりするなどといったことが困難になっているという深刻な課題ももたらしている。   While such a huge amount of multimedia content is a rich choice for viewers, it is difficult to quickly access the content that you want to view or browse, or to quickly grasp the contents by listing them. It also brings serious challenges.

したがって、現在、閲覧・視聴したいコンテンツを効率的に探し出すためのコンテンツ検索・推薦や、コンテンツ内の冗長な部分を省いて短くまとめるコンテンツ要約への要望がますます高まってきている。   Therefore, there is an increasing demand for content search / recommendation for efficiently searching for content to be browsed / viewed, and content summaries that are shortened by omitting redundant portions in the content.

このようなコンテンツ検索、推薦、要約を実現する上で、最も基本的かつ重要な機能の1つは、類似したコンテンツ、あるいはコンテンツの一部を発見する機能である。   One of the most basic and important functions for realizing such content search, recommendation, and summarization is a function for finding similar content or a part of the content.

例えば、コンテンツを検索する場合、あるコンテンツをクエリとして与えたとき、このコンテンツに類似したコンテンツを検索することが基本的な要件となる。推薦の場合においても同様に、利用者がこれまでに閲覧した又は閲覧しているコンテンツと類似したコンテンツを発見し、これを推薦する。また、要約の場合においても、類似したコンテンツを提示することは冗長であるため、これを発見して省くような機能が必要となる。   For example, when searching for content, when a certain content is given as a query, it is a basic requirement to search for content similar to this content. Similarly, in the case of recommendation, content similar to the content that the user has browsed or browsed so far is found and recommended. Further, even in the case of summarization, since it is redundant to present similar content, a function for finding and omitting it is necessary.

ここで、よく知られた類似コンテンツの発見手法を説明しておく。コンテンツ、あるいはその一部が、ある特徴量によって表現されているとする。このとき、特徴量同士の近さを測ることで類似度を計算し、この類似度に基づいて類似コンテンツを発見する。   Here, a well-known similar content discovery method will be described. It is assumed that the content or a part thereof is expressed by a certain feature amount. At this time, the similarity is calculated by measuring the proximity of the feature quantities, and similar content is found based on the similarity.

単純な例を挙げれば、コンテンツが画像であれば、画像の色ヒストグラムを特徴量としてその類似度を測ることができる。コンテンツが文書であれば、単語の出現頻度をヒストグラム化したもの(Bag-of-Wordsヒストグラムなどと呼ぶ)を特徴量として類似度を測ることができる。   For example, if the content is an image, the similarity can be measured using the color histogram of the image as a feature amount. If the content is a document, the degree of similarity can be measured by using a histogram of the appearance frequency of words (referred to as a Bag-of-Words histogram).

いうまでもなく、仮にコンテンツの数が1万であれば、その1万のコンテンツそれぞれに対して類似度を計算し、その結果、類似度の高いコンテンツを類似コンテンツとして拾い上げる必要がある。   Needless to say, if the number of contents is 10,000, it is necessary to calculate the similarity for each of the 10,000 contents, and as a result, it is necessary to pick up the contents with high similarity as similar contents.

しかしながら、前述のように、大量のコンテンツを対象にしようとした場合、(1)計算時間がかかる、(2)メモリを大量に消費する、という2つの重要な課題がある。   However, as described above, when trying to target a large amount of content, there are two important issues: (1) it takes a long time to calculate and (2) consumes a large amount of memory.

通常、コンテンツの特徴量は多次元になることが多く、その類似度の計算には時間を要する。一般に、文書のBag-of-Wordsヒストグラムの次元は、単語の種類(語彙)と同次元になるし、画像の色ヒストグラムは、一般に、数百〜数千次元の実数値ベクトルとなる。   Usually, the feature amount of content is often multidimensional, and it takes time to calculate the similarity. In general, the dimension of a Bag-of-Words histogram of a document is the same dimension as the type of word (vocabulary), and the color histogram of an image is generally a real-valued vector of hundreds to thousands of dimensions.

さらに、全てのコンテンツの組に対してその類似度を計算する必要があるため、どのような類似度計算手段を用いたとしても、コンテンツがN個あったとするとO(N)の計算量を要する。   Furthermore, since it is necessary to calculate the degree of similarity for all content sets, the amount of calculation of O (N) is required if there are N pieces of content no matter what kind of similarity degree calculation means is used. .

また、即時検索を実行するには、特徴量あるいはその類似度をメモリに蓄積しておくことが好ましいが、これを行うためにはO(N)のメモリが必要となる。 Further, in order to execute an immediate search, it is preferable to store the feature amount or its similarity in a memory, but in order to perform this, an O (N 2 ) memory is required.

このような課題に対して、コンテンツを低容量な特徴量で表現し、効率的に類似コンテンツを発見する技術に関する取り組みがなされてきた。この課題を解決するため、従来いくつかの発明がなされ、開示されてきている。   In order to deal with such problems, efforts have been made on techniques for expressing contents with low-capacity feature amounts and efficiently finding similar contents. In order to solve this problem, several inventions have been made and disclosed.

特許文献1に開示されている技術では、コンテンツの特徴量を、主成分分析により次元圧縮して低次元化し、この低次元な特徴量同士の距離を測ることで、特徴量の低容量化、高速化を図っている。   In the technology disclosed in Patent Document 1, the feature amount of the content is dimensionally compressed by principal component analysis to reduce the dimension, and by measuring the distance between the low-dimensional feature amounts, the feature amount is reduced. We are trying to speed up.

非特許文献1に開示されている技術では、近接する任意の2つのコンテンツ(特徴量)において、元の特徴量の類似度と衝突確率が等しくなるようなハッシュ関数群を生成する。   In the technique disclosed in Non-Patent Document 1, a hash function group is generated such that the similarity between the original feature value and the collision probability are equal in any two adjacent contents (feature values).

典型的な類似度としてコサイン類似度を考えており、その場合におけるハッシュ関数生成の基本的な手法は、特徴量空間にランダムな超平面を複数生成することによる(random projectionと呼ばれる)。   A cosine similarity is considered as a typical similarity. In this case, a basic method for generating a hash function is to generate a plurality of random hyperplanes in a feature amount space (called random projection).

各超平面のどちら側に特徴量が存在するかによって特徴量をハッシュ化し、全てのコンテンツ間で類似度を求めることなく、近似的に類似コンテンツを発見することができる。   By hashing the feature amount depending on which side of each hyperplane the feature amount exists, similar content can be found approximately without obtaining similarity between all the contents.

非特許文献2に開示されている技術は、非特許文献1が考えるコサイン類似度とは異なり、Shift-Invariant Kernelによる類似度を考えるハッシュ関数生成技術である。   The technique disclosed in Non-Patent Document 2 is a hash function generation technique that considers the similarity by Shift-Invariant Kernel, unlike the cosine similarity considered by Non-Patent Document 1.

基本的な手続きこそ非特許文献1と似ており、やはりランダムな写像を生成し、これに基づいて特徴量をハッシュ化する。一方で、その性質は非特許文献1とは異なり、非特許文献1が「元の特徴量の類似度と衝突確率が等しくなるようなハッシュ関数群を生成する」のに対して、非特許文献2では、ハッシュ値間のハミング距離が、Shift-Invariant Kernelによる類似度に依存したバウンド(上界・下界)によって抑えられるようなハッシュ関数を生成する。   The basic procedure is similar to that of Non-Patent Document 1, and a random map is also generated, and the feature value is hashed based on this. On the other hand, the non-patent document 1 is different from the non-patent document 1 in that the non-patent document 1 “generates a hash function group in which the similarity of the original feature amount and the collision probability are equal”. 2 generates a hash function in which the Hamming distance between hash values is suppressed by bounds (upper and lower bounds) that depend on the degree of similarity using Shift-Invariant Kernel.

なお、上記非特許文献1、2の双方とも、ハッシュ関数あたり1bitのバイナリ値を割り当てることになる。すなわち、ハッシュ関数の数をBとすると、ハッシュ値はBbitとなる。   It should be noted that both of the non-patent documents 1 and 2 are assigned a 1-bit binary value per hash function. That is, if the number of hash functions is B, the hash value is Bbit.

特許第3730179号公報Japanese Patent No. 3730179

M. Datar、N. Immorlica、P. Indyk、V.S. Mirrokni、“Locality-Sensitive Hashing Scheme based on p-Stable Distributions”、In Proceedings of the Twentieth Annual Symposium on Computational Geometry、2004年、p.253-262M. Datar, N. Immorlica, P. Indyk, V.S. Mirrokni, “Locality-Sensitive Hashing Scheme based on p-Stable Distributions”, In Proceedings of the Twentieth Annual Symposium on Computational Geometry, 2004, p.253-262 M. Raginsky、S. Lazebnik、“Locality-Sensitive Binary Codes from Shift-Invariant Kernels”、Advances in Neural Information Processing Systems 22、2009年、p.1509-1517M. Raginsky, S. Lazebnik, “Locality-Sensitive Binary Codes from Shift-Invariant Kernels”, Advances in Neural Information Processing Systems 22, 2009, p.1509-1517

上記の特許文献1に記載の技術は、特徴量を圧縮表現するものの、圧縮された特徴量間の類似度をユークリッド距離で求める必要があるため、大幅な計算時間の削減を実現できなかった。   Although the technique described in Patent Document 1 expresses feature quantities in a compressed manner, it is necessary to obtain the similarity between the compressed feature quantities by using the Euclidean distance, and thus it has not been possible to achieve a significant reduction in calculation time.

非特許文献1、2に開示されている技術では、ハッシュ関数(超平面)の生成はランダムであるため、コンテンツの類似度を反映するようなハッシュ関数を生成するには、ハッシュ数を十分に大きく取り、多数のハッシュ関数を生成する必要があった。   In the techniques disclosed in Non-Patent Documents 1 and 2, since the generation of the hash function (hyperplane) is random, the number of hashes is sufficient to generate a hash function that reflects the similarity of content. It was necessary to create a large number of hash functions.

本発明は、この課題を鑑みてなされたものであり、大量のマルチメディアコンテンツから、高速、省メモリでありながら、高精度で類似するコンテンツを発見することのできるコンテンツ変換方法、コンテンツ変換装置及びコンテンツ変換プログラムを提供することを課題とする。   The present invention has been made in view of this problem. A content conversion method, a content conversion device, and a content conversion method capable of finding high-precision and similar content from a large amount of multimedia content while being high-speed and memory-saving. It is an object to provide a content conversion program.

第1の本発明に係るコンテンツ変換方法は、コンテンツを1つ以上のバイナリ値に変換するコンテンツ変換方法において、コンピュータにより、記憶手段からコンテンツを読み出して、複数のコンテンツの各特徴量をそれぞれ抽出する抽出ステップと、前記各特徴量を特徴量空間上に特徴点として分布させ少なくとも2つの群に分類し、各郡の全特徴点からの垂直距離が等しい直線又は超平面を求め、前記特徴点が当該図形によって二分されたいずれの空間側にあるかに基づいて前記コンテンツをバイナリ値に変換するハッシュ関数を生成する生成ステップと、を有することを特徴とする。   A content conversion method according to a first aspect of the present invention is a content conversion method for converting content into one or more binary values. The computer reads out the content from the storage means and extracts each feature quantity of the plurality of contents. And extracting each feature quantity as a feature point in the feature quantity space and classifying it into at least two groups, obtaining a straight line or a hyperplane having the same vertical distance from all the feature points of each county, And generating a hash function for converting the content into a binary value based on which space side is divided by the figure.

第2の本発明に係るコンテンツ変換方法は、前記生成ステップが、前記2つの群の群間分散値Sと郡内分散値Sを変数に用いたtrace{w(S−S)w}(但し、ww=1)の演算値が最大となるwの値を傾きとして前記図形を求めることを特徴とする。 In the content conversion method according to the second aspect of the present invention, the generating step uses trace {w T (S b −S w) using the inter-group variance value S b and the intra-group variance value S w of the two groups as variables. ) W} (where w T w = 1), and the figure is obtained by using the value of w that maximizes the calculated value as the slope.

第3の本発明に係るコンテンツ変換方法は、前記生成ステップが、前記ハッシュ関数を複数生成する際に、他のハッシュ関数との相関度が低くなるように前記特徴点の分布状態を変化させることを特徴とする。   In the content conversion method according to the third aspect of the present invention, when the generation step generates a plurality of hash functions, the distribution state of the feature points is changed so that the degree of correlation with other hash functions becomes low. It is characterized by.

第4の本発明に係るコンテンツ変換方法は、前記ハッシュ関数を1つ以上用いて前記コンテンツを1つ以上のバイナリ値に変換する変換ステップを更に有することを特徴とする。   The content conversion method according to a fourth aspect of the present invention further includes a conversion step of converting the content into one or more binary values using one or more hash functions.

第5の本発明に係るコンテンツ変換装置は、コンテンツを1つ以上のバイナリ値に変換するコンテンツ変換装置において、記憶手段からコンテンツを読み出して、複数のコンテンツの各特徴量をそれぞれ抽出する抽出手段と、前記各特徴量を特徴量空間上に特徴点として分布させ少なくとも2つの群に分類し、各郡の全特徴点からの垂直距離が等しい直線又は超平面を求め、前記特徴点が当該図形によって二分されたいずれの空間側にあるかに基づいて前記コンテンツをバイナリ値に変換するハッシュ関数を生成する生成手段と、を有することを特徴とする。   According to a fifth aspect of the present invention, there is provided a content conversion apparatus according to the present invention, wherein the content conversion apparatus converts the content into one or more binary values, reads out the content from the storage unit, and extracts each feature quantity of the plurality of contents The feature amounts are distributed as feature points on the feature amount space and classified into at least two groups, and a straight line or a hyperplane having the same vertical distance from all feature points of each group is obtained, and the feature points are represented by the figure. Generating means for generating a hash function for converting the content into a binary value based on which of the two divided spaces is present.

第6の本発明に係るコンテンツ変換装置は、前記生成手段が、前記2つの群の群間分散値Sと郡内分散値Sを変数に用いたtrace{w(S−S)w}(但し、ww=1)の演算値が最大となるwの値を傾きとして前記図形を求めることを特徴とする。 In the content conversion device according to the sixth aspect of the present invention, the generating means uses trace {w T (S b −S w) using the inter-group variance value S b and the intra-group variance value S w of the two groups as variables. ) W} (where w T w = 1), and the figure is obtained by using the value of w that maximizes the calculated value as the slope.

第7の本発明に係るコンテンツ変換装置は、前記生成手段が、前記ハッシュ関数を複数生成する際に、他のハッシュ関数との相関度が低くなるように前記特徴点の分布状態を変化させることを特徴とする。   In the content conversion device according to the seventh aspect of the present invention, when the generation unit generates a plurality of the hash functions, the distribution unit changes the distribution state of the feature points so that the degree of correlation with other hash functions becomes low. It is characterized by.

第8の本発明に係るコンテンツ変換プログラムは、第1から第4の発明におけるコンテンツ変換方法をコンピュータに実行させることを特徴とする。   A content conversion program according to an eighth aspect of the present invention causes a computer to execute the content conversion method according to the first to fourth aspects.

以上より、本発明によれば、複数のコンテンツの各特徴量を特徴量空間上に特徴点として分布させ少なくとも2つの群に分類し、各郡の全特徴点からの垂直距離が等しい直線又は超平面を求め、特徴点が当該図形によって二分されたいずれの空間側にあるかに基づいてコンテンツをバイナリ値に変換するハッシュ関数を生成するため、揺らぎに頑健なハッシュ関数を生成できることから、結果として、大量のマルチメディアコンテンツから、高速、省メモリでありながら、高精度で類似するコンテンツを発見することのできるコンテンツ変換方法、コンテンツ変換装置及びコンテンツ変換プログラムを提供できる。   As described above, according to the present invention, the feature quantities of a plurality of contents are distributed as feature points in the feature quantity space and classified into at least two groups, and the vertical distances from all the feature points of each group are equal to each other. Since a hash function that converts the content into a binary value based on which space the feature point is divided into by the figure is found, a hash function that is robust against fluctuations can be generated. Thus, it is possible to provide a content conversion method, a content conversion apparatus, and a content conversion program capable of finding similar contents with high accuracy while being high-speed and memory-saving from a large amount of multimedia contents.

また、本発明によれば、ハッシュ関数を複数生成する際に、他のハッシュ関数との相関度が低くなるように特徴点の分布状態を変化させるため、互いに相関の低いハッシュ関数を生成できることから、結果として、より少ないハッシュ関数の数(ビット数)で、高精度な類似コンテンツ検索を実施することができるコンテンツ変換方法、コンテンツ変換装置及びコンテンツ変換プログラムを提供できる。   In addition, according to the present invention, when generating a plurality of hash functions, the distribution state of the feature points is changed so that the degree of correlation with other hash functions is lowered, so that hash functions having low correlation with each other can be generated. As a result, it is possible to provide a content conversion method, a content conversion apparatus, and a content conversion program that can perform high-accuracy similar content search with a smaller number of hash functions (number of bits).

本発明によれば、大量のマルチメディアコンテンツから、高速、省メモリでありながら、高精度で類似するコンテンツを発見することのできるコンテンツ変換方法、コンテンツ変換装置及びコンテンツ変換プログラムを提供できる。   According to the present invention, it is possible to provide a content conversion method, a content conversion apparatus, and a content conversion program capable of finding similar content with high accuracy while being high speed and memory-saving from a large amount of multimedia content.

情報処理装置の機能ブロック構成例を示す図である。It is a figure showing an example of functional block composition of an information processor. ハッシュ関数生成処理例の流れを示すフローチャートである。It is a flowchart which shows the flow of the example of a hash function production | generation process. ハッシュ化処理例の流れを示すフローチャートである。It is a flowchart which shows the flow of the example of a hashing process. ハッシュ関数の幾何学的な意味を説明する図である。It is a figure explaining the geometrical meaning of a hash function. 類似する2群を分割するハッシュ関数を説明する図である。It is a figure explaining the hash function which divides | segments two similar groups. 類似検索精度の比較結果を示す図である。It is a figure which shows the comparison result of similar search precision.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔情報処理装置の構成〕
図1は、本実施の形態に係る情報処理装置の機能ブロック構成を示す図である。同図に示す情報処理装置1は、コンテンツを1つ以上のバイナリ値に変換するコンテンツ変換装置であって、入力部11と、特徴抽出部12と、ハッシュ関数生成部13と、ハッシュ関数記憶部14と、ハッシュ化部15と、出力部16とで主に構成される。
[Configuration of information processing device]
FIG. 1 is a diagram showing a functional block configuration of the information processing apparatus according to the present embodiment. An information processing apparatus 1 shown in FIG. 1 is a content conversion apparatus that converts content into one or more binary values, and includes an input unit 11, a feature extraction unit 12, a hash function generation unit 13, and a hash function storage unit. 14, a hashing unit 15, and an output unit 16.

情報処理装置1は、通信手段を介してコンテンツデータベース2に接続され、入力部11と出力部16を介して相互に情報通信し、コンテンツデータベース2に登録されたコンテンツに基づいてハッシュ関数を生成するハッシュ関数生成処理と、生成したハッシュ関数を用いてコンテンツを1つ以上のバイナリ値に変換するハッシュ化処理を行う。   The information processing apparatus 1 is connected to the content database 2 via a communication unit, communicates information with each other via the input unit 11 and the output unit 16, and generates a hash function based on the content registered in the content database 2. A hash function generation process and a hash process for converting the content into one or more binary values using the generated hash function are performed.

情報処理装置1が備える各部は、演算処理装置や記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは、情報処理装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、通信ネットワークを通して提供することも可能である。   Each unit included in the information processing device 1 may be configured by a computer including an arithmetic processing device, a storage device, and the like, and the processing of each unit may be executed by a program. This program is stored in a storage device included in the information processing apparatus 1, and can be recorded on a recording medium such as a magnetic disk, an optical disk, or a semiconductor memory, or can be provided through a communication network.

コンテンツデータベース2は、情報処理装置1の内部にあっても外部にあっても構わない。また、通信手段は、任意の公知のものを用いることができるが、本実施の形態においては、外部にあるものとして、インターネット、TCP/IPにより通信するよう接続されているものとする。   The content database 2 may be inside or outside the information processing apparatus 1. Although any known communication means can be used, in the present embodiment, it is assumed that the communication means is externally connected to communicate via the Internet or TCP / IP.

また、コンテンツデータベース2は、いわゆるRDBMS(Relational Database Management System)などで構成されているものとしてもよい。   Further, the content database 2 may be configured by a so-called RDBMS (Relational Database Management System) or the like.

コンテンツデータベース2には、少なくともコンテンツそのもののデータ(以降、コンテンツデータ)、あるいは、当該データの所在を一意に示すアドレスが格納されている。   The content database 2 stores at least data of the content itself (hereinafter, content data) or an address uniquely indicating the location of the data.

コンテンツデータは、例えば、文書であれば文書ファイル、画像であれば画像ファイル、音であれば音ファイル、映像であれば映像ファイルなどである。好ましくは、コンテンツデータベース2には、各コンテンツを一意に識別可能な識別子が含まれているものとする。   The content data is, for example, a document file for a document, an image file for an image, a sound file for sound, a video file for video, and the like. Preferably, the content database 2 includes an identifier that can uniquely identify each content.

その他、メタデータとして、例えば、コンテンツの内容を表現するもの(例えば、コンテンツのタイトル、概要文、キーワードなど)、コンテンツのフォーマットに関するもの(例えば、コンテンツのデータ量、サムネイル等のサイズ)などを含んでいても構わない。   In addition, as metadata, for example, content that expresses the content content (for example, content title, summary sentence, keyword, etc.), content format (for example, content data size, thumbnail size, etc.), etc. It does not matter.

〔情報処理装置の各部の機能〕
引き続き、情報処理装置1の各部の機能について説明する。
[Functions of each part of the information processing device]
Subsequently, functions of each unit of the information processing apparatus 1 will be described.

入力部11は、コンテンツデータベース2からコンテンツデータを取得して特徴抽出部12に送信する。   The input unit 11 acquires content data from the content database 2 and transmits it to the feature extraction unit 12.

特徴抽出部12は、入力部11より得たコンテンツデータを解析し、コンテンツを特徴的に表す特徴量を抽出する。抽出された特徴量は、ハッシュ関数生成処理時にはハッシュ関数生成部13に送信され、ハッシュ化処理時にはハッシュ化部15に送信される。   The feature extraction unit 12 analyzes the content data obtained from the input unit 11 and extracts feature amounts that characteristically represent the content. The extracted feature amount is transmitted to the hash function generation unit 13 during the hash function generation process, and is transmitted to the hashing unit 15 during the hashing process.

ハッシュ関数生成部13は、特徴抽出部12から送信された特徴量に基づいて1つ以上のハッシュ関数を生成し、ハッシュ関数記憶部14に記憶する。   The hash function generation unit 13 generates one or more hash functions based on the feature amounts transmitted from the feature extraction unit 12 and stores them in the hash function storage unit 14.

ハッシュ関数記憶部14は、ハッシュ関数生成部13により生成された1つ以上のハッシュ関数を記憶する。   The hash function storage unit 14 stores one or more hash functions generated by the hash function generation unit 13.

ハッシュ化部15は、ハッシュ関数記憶部14に格納されている1つ以上のハッシュ関数に基づいて、特徴抽出部12から送信されたコンテンツの特徴量を1つ以上のバイナリ値であるハッシュ値に変換し、出力部16に送信する。   Based on one or more hash functions stored in the hash function storage unit 14, the hashing unit 15 converts the feature amount of the content transmitted from the feature extraction unit 12 into one or more hash values that are binary values. The data is converted and transmitted to the output unit 16.

出力部16は、ハッシュ化部15によって変換されたハッシュ値をコンテンツデータベース2に送信し、格納する。   The output unit 16 transmits the hash value converted by the hashing unit 15 to the content database 2 and stores it.

〔情報処理装置の処理動作〕
次に、情報処理装置1の処理動作について説明する。情報処理装置1は、ハッシュ関数を生成するハッシュ関数生成処理と、コンテンツの特徴量をハッシュ化するハッシュ化処理を実行する。以下、これら2つの処理について説明する。
[Processing operation of information processing device]
Next, the processing operation of the information processing apparatus 1 will be described. The information processing apparatus 1 executes a hash function generation process for generating a hash function and a hashing process for hashing the feature amount of the content. Hereinafter, these two processes will be described.

最初に、ハッシュ関数生成処理について説明する。図2は、ハッシュ関数生成処理の流れを示すフローチャートである。ハッシュ関数生成処理は、実際にコンテンツデータをハッシュ化する前に、少なくとも1度実施しておく処理である。   First, the hash function generation process will be described. FIG. 2 is a flowchart showing the flow of the hash function generation process. The hash function generation process is a process that is performed at least once before the content data is actually hashed.

まず、入力部11が、コンテンツデータベース2からコンテンツデータを取得して、これを特徴抽出部12に送信する(ステップS101)。   First, the input unit 11 acquires content data from the content database 2 and transmits it to the feature extraction unit 12 (step S101).

続いて、特徴抽出部12が、そのコンテンツデータから特徴量を抽出してハッシュ関数生成部13に送信する(ステップS102)。   Subsequently, the feature extraction unit 12 extracts a feature amount from the content data and transmits it to the hash function generation unit 13 (step S102).

最後に、ハッシュ関数生成部13が、その特徴量に基づいて1つ以上のハッシュ関数を生成し、ハッシュ関数記憶部14に格納する(ステップS103)。   Finally, the hash function generation unit 13 generates one or more hash functions based on the feature amount, and stores them in the hash function storage unit 14 (step S103).

以上の処理により、コンテンツデータベース2に格納された各コンテンツデータから1つ以上のハッシュ関数を生成することができる。なお、特徴量の抽出処理、ハッシュ関数の生成処理の詳細については後述する。   Through the above processing, one or more hash functions can be generated from each content data stored in the content database 2. Details of the feature amount extraction processing and the hash function generation processing will be described later.

次に、ハッシュ化処理について説明する。図3は、ハッシュ化処理の流れを示すフローチャートである。ハッシュ化処理は、ハッシュ関数記憶部14に格納されたハッシュ関数を用いてコンテンツの特徴量をハッシュ化する処理である。   Next, the hashing process will be described. FIG. 3 is a flowchart showing the flow of the hashing process. The hashing process is a process for hashing the feature amount of the content using the hash function stored in the hash function storage unit 14.

まず、入力部11が、コンテンツデータベース2からコンテンツデータを取得して、これを特徴抽出部12に送信する(ステップS201)。   First, the input unit 11 acquires content data from the content database 2 and transmits it to the feature extraction unit 12 (step S201).

続いて、特徴抽出部12が、そのコンテンツデータから特徴量を抽出してハッシュ化部15に送信する(ステップS202)。ステップS201,S202の処理は、それぞれ、ハッシュ関数生成処理のステップS101,S102と同じである。   Subsequently, the feature extraction unit 12 extracts a feature amount from the content data and transmits it to the hashing unit 15 (step S202). The processes of steps S201 and S202 are the same as steps S101 and S102 of the hash function generation process, respectively.

そして、ハッシュ化部15が、ハッシュ関数記憶部14に格納された1つ以上のハッシュ関数を用いてコンテンツの特徴量をハッシュ値に変換し、出力部16に送信する(ステップS203)。   Then, the hashing unit 15 converts the feature amount of the content into a hash value using one or more hash functions stored in the hash function storage unit 14, and transmits the hash value to the output unit 16 (step S203).

1つのハッシュ関数につき1bitのハッシュ値に変換されるので、ハッシュ関数記憶部14にB個のハッシュ関数が格納されている場合、コンテンツはBbitのハッシュ値に変換される。   Since one hash function is converted into a 1-bit hash value, when B hash functions are stored in the hash function storage unit 14, the content is converted into a B-bit hash value.

最後に、出力部16が、そのハッシュ値をコンテンツデータベース2に送信し、格納する(ステップS204)。   Finally, the output unit 16 transmits the hash value to the content database 2 and stores it (step S204).

以上の処理により、コンテンツデータベースに登録されているコンテンツのハッシュ値を求めることができる。   Through the above process, the hash value of the content registered in the content database can be obtained.

〔特徴量の抽出処理〕
次に、特徴量の抽出処理について説明する。コンテンツの特徴量を抽出する処理は、コンテンツの種類に依存する。例えば、コンテンツが文書であるか、画像であるか、音であるか、映像であるかによって、抽出する又は抽出できる特徴量は変化する。
[Feature extraction processing]
Next, feature amount extraction processing will be described. The process of extracting the content feature amount depends on the type of content. For example, the feature quantity that can be extracted or extracted varies depending on whether the content is a document, an image, a sound, or a video.

ここで、どのような特徴量を抽出するかは、本発明の要件として重要ではなく、一般に知られた公知の特徴抽出処理を用いて構わない。したがって、ここでは、本実施の形態の一例に適する、各種コンテンツに対する特徴抽出処理の例を説明する。   Here, what kind of feature value is extracted is not important as a requirement of the present invention, and a publicly known feature extraction process may be used. Therefore, here, an example of feature extraction processing for various contents suitable for an example of the present embodiment will be described.

コンテンツが文書である場合には、文書中に出現する単語の出現頻度を用いることができる。例えば、公知の形態素解析を用いて、名詞、形容詞等に相当する単語ごとに、その出現頻度を計数すればよい。   When the content is a document, the appearance frequency of words appearing in the document can be used. For example, the appearance frequency may be counted for each word corresponding to a noun, an adjective, or the like using a known morphological analysis.

コンテンツが画像である場合には、例えば、明るさ特徴、色特徴、テクスチャ特徴、コンセプト特徴、景観特徴などを抽出する。   When the content is an image, for example, brightness features, color features, texture features, concept features, landscape features, and the like are extracted.

明るさ特徴は、HSV色空間におけるV値を数え上げることで、ヒストグラムとして抽出することができる。   The brightness feature can be extracted as a histogram by counting the V values in the HSV color space.

色特徴は、L*a*b*色空間における各軸(L*、a*、b*)の値を数え上げることで、ヒストグラムとして抽出することができる。各軸のヒストグラムのビンの数は、例えば、L*に対して4、a*に対して14、b*に対して14などとすればよく、この場合、3軸の合計ビン数は、4×14×14=784となる。   The color feature can be extracted as a histogram by counting the values of the respective axes (L *, a *, b *) in the L * a * b * color space. The number of histogram bins on each axis may be, for example, 4 for L *, 14 for a *, 14 for b *, etc. In this case, the total number of bins for 3 axes is 4 X14x14 = 784.

テクスチャ特徴としては、濃淡ヒストグラムの統計量(コントラスト)やパワースペクトルなどを求めればよい。あるいは、局所特徴量を用いると、色や動きなどと同様、ヒストグラムの形式で抽出することができるようになるため好適である。   As a texture feature, a statistic (contrast) of a density histogram, a power spectrum, or the like may be obtained. Alternatively, it is preferable to use a local feature amount because it can be extracted in the form of a histogram as in the case of color and movement.

局所特徴としては、例えば、下記の参考文献1に記載されるSIFT(Scale Invariant Feature Transform)や、下記の参考文献2に記載されるSURF(Speeded Up Robust Features)などを用いることができる。
[参考文献1]D.G. Lowe、“Distinctive Image Features from Scale-Invariant Keypoints”、International Journal of Computer Vision、pp.91-110、2004年
[参考文献2]H. Bay、T. Tuytelaars、L.V. Gool、“SURF: Speeded Up Robust Features”、Lecture Notes in Computer Science、vol. 3951、pp.404-417、2006年
As the local feature, for example, SIFT (Scale Invariant Feature Transform) described in the following Reference 1 or SURF (Speeded Up Robust Features) described in the following Reference 2 can be used.
[Reference 1] DG Lowe, “Distinctive Image Features from Scale-Invariant Keypoints”, International Journal of Computer Vision, pp. 91-110, 2004 [Reference 2] H. Bay, T. Tuytelaars, LV Gool, “ SURF: Speeded Up Robust Features ”, Lecture Notes in Computer Science, vol. 3951, pp.404-417, 2006

これらによって抽出される局所特徴は、例えば、128次元の実数値ベクトルとなる。このベクトルを、予め学習して生成しておいた符号長を参照して、符号に変換し、その符号の数を数え上げることでヒストグラムを生成することができる。この場合、ヒストグラムのビンの数は、符号長の符号数と一致する。符号数は任意のものを用いてよいが、例えば、512あるいは1024などとしてもよい。   The local feature extracted by these becomes, for example, a 128-dimensional real value vector. This vector is converted into a code with reference to a code length that has been learned and generated in advance, and a histogram can be generated by counting the number of the codes. In this case, the number of bins in the histogram matches the code number of the code length. Any number of codes may be used. For example, 512 or 1024 may be used.

コンセプト特徴とは、画像中に含まれる物体や、画像が捉えているイベントのことである。任意のものを用いてよいが、例を挙げれば、「海」、「山」、「ボール」などのようなものである。もし、ある画像に「海」が映っていた場合、その画像は「海」コンセプトに帰属する画像であるという。   A concept feature is an object included in an image or an event captured by the image. Anything may be used, but examples include “sea”, “mountain”, “ball”, and the like. If “sea” appears in an image, the image belongs to the “sea” concept.

その画像が、各コンセプトに帰属するか否かは、コンセプト識別器を用いて判断することができる。通常、コンセプト識別器はコンセプト毎に一つ用意され、画像の特徴量を入力として、その画像があるコンセプトに帰属しているか否かを帰属レベルとして出力する。   Whether or not the image belongs to each concept can be determined using a concept classifier. Usually, one concept discriminator is prepared for each concept, and the feature amount of the image is input, and whether or not the image belongs to a certain concept is output as an attribution level.

コンセプト識別器は、予め学習して獲得しておくものであり、決められた画像特徴、例えば、先に述べた局所特徴と、予め人手によって、その画像がどのコンセプトに帰属しているかを表した正解ラベルとの関係を学習することによって獲得する。   The concept discriminator is acquired by learning in advance, and represents the concept of the image to which the image belongs, based on the predetermined image features, for example, the local features described above and the human hand beforehand. Acquired by learning the relationship with the correct answer label.

学習器としては、例えば、サポートベクターマシンなどを用いればよい。コンセプト特徴は、各コンセプトへの帰属レベルをまとめてベクトルとして表現することで得ることができる。   For example, a support vector machine may be used as the learning device. Concept features can be obtained by expressing the attribution levels for each concept together as a vector.

景観特徴は、画像の風景や場面を表現した特徴量である。例えば、下記の参考文献3に記載のGIST記述子を用いることができる。
[参考文献3]A. Oliva、A. Torralba、“Building the gist of a scene: the role of global image features in recognition”、Progress in Brain Research, 155、pp.23-36、2006年
A landscape feature is a feature amount that represents a landscape or scene of an image. For example, the GIST descriptor described in Reference Document 3 below can be used.
[Reference 3] A. Oliva, A. Torralba, “Building the gist of a scene: the role of global image features in recognition”, Progress in Brain Research, 155, pp. 23-36, 2006

コンテンツが音である場合には、音高特徴、音圧特徴、スペクトル特徴、リズム特徴、発話特徴、音楽特徴、音イベント特徴などを抽出する。   When the content is a sound, a pitch feature, a sound pressure feature, a spectrum feature, a rhythm feature, an utterance feature, a music feature, a sound event feature, and the like are extracted.

音高特徴は、例えば、ピッチを取るものとすればよく、下記の参考文献4に記載される方法などを用いて抽出することができる。
[参考文献4]古井貞熙、“ディジタル音声処理, 4. 9ピッチ抽出”、pp.57-59、1985年
The pitch feature may be a pitch, for example, and can be extracted using a method described in Reference Document 4 below.
[Reference 4] Sadaaki Furui, “Digital Audio Processing, 4.9 Pitch Extraction”, pp.57-59, 1985

音圧特徴としては、音声波形データの振幅値を用いるものとしてもよいし、短時間パワースペクトルを求め、任意の帯域の平均パワーを計算して用いるものとしてもよい。   As the sound pressure feature, an amplitude value of speech waveform data may be used, or a short-time power spectrum may be obtained, and an average power in an arbitrary band may be calculated and used.

スペクトル特徴としては、例えば、メル尺度ケプストラム係数(MFCC:Mel-Frequency Cepstral Coefficients)を用いることができる。   As the spectral feature, for example, Mel-Frequency Cepstral Coefficients (MFCC) can be used.

リズム特徴としては、例えば、テンポを抽出すればよい。テンポを抽出するには、例えば、下記の参考文献5に記載される方法などを用いることができる。
[参考文献5]E.D. Scheirer、“Tempo and Beat Analysis of Acoustic Musical Signals”、Journal of Acoustic Society America、Vol. 103、Issue 1、pp.588-601、1998年
As the rhythm feature, for example, a tempo may be extracted. In order to extract the tempo, for example, a method described in Reference Document 5 below can be used.
[Reference 5] ED Scheirer, “Tempo and Beat Analysis of Acoustic Musical Signals”, Journal of Acoustic Society America, Vol. 103, Issue 1, pp.588-601, 1998

発話特徴、音楽特徴は、それぞれ、発話の有無、音楽の有無を表す。発話・音楽の存在する区間を発見するには、例えば、下記の参考文献6に記載される方法などを用いればよい。
[参考文献6]K. Minami、A. Akutsu、H. Hamada、Y. Tonomura、“Video Handling with Music and Speech Detection”、IEEE Multimedia、vol. 5、no. 3、pp.17-25、1998年
The utterance feature and the music feature represent the presence / absence of utterance and the presence / absence of music, respectively. In order to find a section in which speech / music exists, for example, a method described in Reference Document 6 below may be used.
[Reference 6] K. Minami, A. Akutsu, H. Hamada, Y. Tonomura, “Video Handling with Music and Speech Detection”, IEEE Multimedia, vol. 5, no. 3, pp. 17-25, 1998

音イベント特徴としては、例えば、笑い声や大声などの感情的な音声、あるいは、銃声や爆発音などの環境音の生起などを用いるものとすればよい。このような音イベントを検出するには、例えば、下記の参考文献7に記載される方法などを用いればよい。
[参考文献7]国際公開第2008/032787号
As the sound event feature, for example, emotional sound such as laughter and loud voice, or occurrence of environmental sound such as gunshot and explosion sound may be used. In order to detect such a sound event, for example, a method described in Reference Document 7 below may be used.
[Reference 7] International Publication No. 2008/032787

コンテンツが映像である場合、映像は、一般に画像と音のストリームであるから、上記説明した画像特徴と音特徴を用いることができる。映像中のどの画像、音情報を分析するかについては、例えば、予め映像をいくつかの区間に分割し、その区間ごとに1つの画像、音から特徴抽出を実施する。   When the content is a video, since the video is generally a stream of images and sounds, the image features and sound features described above can be used. As to which image and sound information in the video is analyzed, for example, the video is divided into several sections in advance, and feature extraction is performed from one image and sound for each section.

映像を区間に分割するには、予め決定しておいた一定の間隔で分割するものとしてもよいし、例えば、下記の参考文献8に記載される方法などを用いて、映像が不連続に切れる点であるカット点によって分割するものとしてもよい。
[参考文献8]Y. Tonomura、A. Akutsu、Y. Taniguchi、G. Suzuki、“Structured Video Computing”、IEEE Multimedia、pp.34-43、1994年
In order to divide the video into sections, the video may be divided at predetermined intervals, for example, the video may be discontinuously cut using the method described in Reference Document 8 below. It is good also as what divides | segments by the cut point which is a point.
[Reference 8] Y. Tonomura, A. Akutsu, Y. Taniguchi, G. Suzuki, “Structured Video Computing”, IEEE Multimedia, pp.34-43, 1994

望ましくは、後者の方法を採用する。映像区間分割処理の結果として、区間の開始点(開始時刻)と終了点(終了時刻)が得られるが、この時刻毎に別々の特徴量として扱えばよい。   Desirably, the latter method is adopted. As a result of the video section division process, the start point (start time) and end point (end time) of the section are obtained, and may be handled as separate feature quantities at each time.

以上のように抽出した特徴量は、一つあるいは複数を利用してもよいし、その他の公知の特徴量を用いるものとしてもよい。   One or a plurality of feature quantities extracted as described above may be used, or other known feature quantities may be used.

〔ハッシュ関数の生成処理〕
次に、ハッシュ関数の生成処理について説明する。コンテンツi(i=1,2,…,N)から抽出された特徴量をxとし、その特徴量xは特徴量空間Rに属するとする(x∈R)。
[Hash function generation processing]
Next, a hash function generation process will be described. It is assumed that the feature quantity extracted from the content i (i = 1, 2,..., N) is x i, and that the feature quantity x i belongs to the feature quantity space R d (x i ∈R d ).

このとき、前述したステップS103では、h:R→{0,1}となるハッシュ関数hの集合を求める。特徴量xは、各hにより0または1をとるバイナリ値に写像されるので、ハッシュ関数集合H={h,h,…,h}によってB個のバイナリ値、すなわち、Bbitのハッシュ値に変換されることになる。 At this time, in step S103 described above, a set of hash functions h satisfying h: R d → {0, 1} is obtained. Since the feature quantity x i is mapped to a binary value that takes 0 or 1 depending on each h, B binary values, that is, Bbit of the Bbit by the hash function set H = {h 1 , h 2 ,. It will be converted to a hash value.

本発明の目的は、このハッシュ値によって、時間のかかるコンテンツ間の類似度計算を省略可能にすることである。したがって、ハッシュ関数は、元の特徴量x間の類似度s:R×R→Rと関連したハッシュ値への写像であることが要請され、高い類似度を持つコンテンツほど、ハッシュ値の距離(ハミング距離)が近くなることが好ましい。 An object of the present invention is to make it possible to omit time-consuming similarity calculation between contents by using this hash value. Therefore, the hash function is required to be a mapping to the hash value related to the similarity s: R d × R d → R between the original feature values x i, and the hash value becomes higher as the content has a higher similarity. It is preferable that the distance (Hamming distance) becomes close.

以下、ハッシュ関数の生成処理について詳述する。まず、ハッシュ関数生成部13によって生成されるハッシュ関数h(k=1,2,…,B)として、式(1),(2)に示すような線形関数に基づくハッシュ関数を考える。

Figure 2013109479
Figure 2013109479
The hash function generation process will be described in detail below. First, as a hash function h k (k = 1, 2,..., B) generated by the hash function generation unit 13, a hash function based on a linear function as shown in equations (1) and (2) is considered.
Figure 2013109479
Figure 2013109479

ここで、sign(x)は、w∈R、b∈Rをパラメータに持ち、x≧0のとき1、x<0のとき−1をとる符号関数である。このような符号関数に基づくハッシュ関数であることから、コンテンツiの特徴量xは、0または1のバイナリ値に変換されることになる。 Here, sign (x) is a sign function having w k εR d and b k εR as parameters and taking 1 when x ≧ 0 and -1 when x <0. Since the hash function is based on such a sign function, the feature amount x i of the content i is converted into a binary value of 0 or 1.

このハッシュ関数hにおいて、未知のパラメータは、wとbの二つだけである。ここで、仮に、コンテンツiの特徴量xが平均0に正規化されているとき、b=0としても一般性を失うことはない。 In this hash function h k , there are only two unknown parameters, w k and b k . Here, if, when the characteristic amounts x i of the content i is normalized to zero mean without loss of generality as a b k = 0.

特徴量xを0に正規化するには、特徴量xの平均mを各特徴量xから減算すればよいのであり、これはx∈Rにおいて可能であることから、b=0と決定できる。 Since the normalizing characteristic amounts x i 0 is than the average m of the feature x i may be subtracted from each feature amount x i, which is possible in x i ∈R d, b k = 0.

したがって、以降、特徴量xの平均は0に正規化されているとし、式(2)を式(3)のように定義しなおして説明する。

Figure 2013109479
Therefore, hereinafter, it is assumed that the average of the feature amounts x i is normalized to 0, and the equation (2) is redefined as the equation (3).
Figure 2013109479

式(1),(3)のハッシュ関数hにおいて、w(k=1,2,…,B)のパラメータを定めることが、本ハッシュ関数の生成処理の目的となる。 In the hash function h k of the expressions (1) and (3), defining the parameters of w k (k = 1, 2,..., B) is the purpose of this hash function generation process.

ここで、式(1),(3)のように表現されるハッシュ関数hの意味は、図4を用いて幾何的に説明できる。同図には、特徴量空間R上に、各コンテンツiからそれぞれ抽出された特徴量xが特徴点として分布している。なお、同図では、便宜上2次元のように図示しているが、実際にはd次元の空間である。 Here, the meaning of the hash function h k expressed as equations (1) and (3) can be explained geometrically with reference to FIG. In the figure, feature quantities x i extracted from each content i are distributed as feature points in the feature quantity space R d . In the figure, for the sake of convenience, it is shown as two-dimensional, but it is actually a d-dimensional space.

ここで、ハッシュ関数hを構成するφ(x)は、この特徴量空間R上の原点を通る直線(実際は、(d−1)次元の超平面)を表している。ハッシュ関数h(x)は、前述したように本質的には符号関数であるから、特徴量xを示す特徴点がこの直線φ(x)によって2分割されたいずれの空間側にあるかによって、1または0をとる。 Here, φ k (x i ) constituting the hash function h k represents a straight line (actually, a (d−1) -dimensional hyperplane) passing through the origin on the feature amount space R d . Since the hash function h k (x i ) is essentially a sign function as described above, any space side where the feature point indicating the feature quantity x i is divided into two by this straight line φ k (x i ). 1 or 0 depending on whether or not

すなわち、式(1),(3)によって定義されるハッシュ関数h(x)は、特徴量空間Rを直線φ(x)によって1と0の2つの領域に分割する関数である。パラメータwは、この直線φ(x)の傾きに対応し、そのwの値が変化すれば、分割する角度が変化することになる。 That is, the hash function h k (x i ) defined by the equations (1) and (3) is a function that divides the feature amount space R d into two regions of 1 and 0 by the straight line φ k (x i ). is there. The parameter w k corresponds to the slope of the straight line φ k (x i ), and if the value of w k changes, the angle to be divided changes.

したがい、本実施の形態によれば、コンテンツiの特徴量xの分布に基づいて、パラメータwを合理的に決定するハッシュ関数hの生成方法を提供することができる。以下、その原理と処理内容について説明する。 Therefore, according to the present embodiment, it is possible to provide a method for generating the hash function h k that rationally determines the parameter w k based on the distribution of the feature quantity x i of the content i. Hereinafter, the principle and processing contents will be described.

前述した目的に合うハッシュ関数となるように、パラメータwを求めるもっとも合理的な方法の一つは、類似したコンテンツ群が、先の図4の例における直線の片側に集まるように直線を引く(すなわち、パラメータwを決める)ことである。 One of the most rational methods for obtaining the parameter w k so as to achieve a hash function that meets the above-described purpose is to draw a straight line so that similar content groups are gathered on one side of the straight line in the example of FIG. (That is, determine the parameter w k ).

ここで、わかりやすく図5を用いて説明する。同図では、白丸(○)で表されている特徴量xと、黒丸(●)で表されている特徴量xが存在する。また、これらとは別に、二重丸(◎)で表されている特徴量xが存在するが、ひとまずこれは無視してよい。 Here, description will be made with reference to FIG. In the figure, a feature amount x i, represented by white circles (○), there is the feature amount x i, represented by a black circle (●). These Separately, a double circle (◎) feature amount x i, represented by, but there may time being this is ignored.

今、白丸と黒丸で表されている特徴量xは、同色であれば互いに類似したコンテンツの特徴量であるとする。このとき、これらの類似したコンテンツ群が直線の片側に集まるように直線を引けばよい。このような直線は、2群の間を通るような直線であり、実際には無限に存在するが、例えば、直線51のようなものがある。 Now, the feature x i, represented by white circles and black circles are assumed to be the characteristic amounts of the contents that are similar to each other if the same color. At this time, a straight line may be drawn so that these similar content groups are gathered on one side of the straight line. Such a straight line is a straight line passing between the two groups, and actually exists infinitely. For example, there is a straight line 51.

しかしながら、そのような直線51は、頑健性(ロバスト性)に欠けるものである。ここで、先ほど無視した二重丸の特徴量xについて考える。これは、どちらかといえば白丸の群の周辺にあり、本来、白丸の群に属すべきコンテンツの特徴量であることが一目して見て取れる。 However, such a straight line 51 lacks robustness (robustness). Here, the feature quantity x i of the double circle that was ignored is considered. This is rather around the white circle group, and it can be seen at a glance that it is the feature amount of the content that should belong to the white circle group.

しかしながら、この二重丸の特徴量xは、直線51によって黒丸の群の方に分類されてしまっており、誤った分類を与えられてしまっている。もし、この二重丸の特徴量xを持つコンテンツiがノイズによる揺らぎによって発生してしまった場合には、正しい分類を与えることができない。 However, the double circle feature quantity x i has been classified into the group of black circles by the straight line 51 and has been given an incorrect classification. If the content i having the double circle feature amount x i is generated by fluctuation due to noise, a correct classification cannot be given.

通常、コンテンツiの特徴量xは揺らぎを伴って得られることが普通であるから、任意に引いた直線51では、このような揺らぎに対して頑健性がなく、精度の低下を招いてしまう。 Usually, since the feature amount x i of the content i is usually be obtained with a fluctuation in the linear 51 drawn arbitrarily, no robustness against such fluctuations, which leads to loss of accuracy .

これに対して本実施の形態では、無限にある直線の中から、頑健性の高い直線を求めることができる。頑健性の高い直線とは、マージンを最大化する直線、すなわち、それら両群のすべての特徴量x(特徴点)からの垂線距離が等しくなるような直線である、直線52を選べばよい。 In contrast, in the present embodiment, a straight line having high robustness can be obtained from infinite straight lines. A highly robust straight line may be selected as a straight line that maximizes the margin, that is, a straight line in which the perpendicular distances from all the feature amounts x i (feature points) of both groups are equal. .

このようにして選ばれた直線52は、互いの群から平等に最も遠い位置にある直線である。このため、両群の周辺に揺らいで発生するような二重丸のような特徴量xがあったとしても、正しい分類ができる。 The straight line 52 selected in this way is a straight line that is equally farthest from each other's group. Therefore, even if the feature amount x i as a double circle, such as those generated fluctuates around the both groups may correct classification.

すなわち、ハッシュ関数生成部13は、複数のコンテンツiの各特徴量xを特徴量空間R上に特徴点として分布させて少なくとも2つの群に分類し、各郡の全ての特徴点からの垂直距離が等しい直線を計算し、特徴点が当該直線によって2分割されたいずれの空間側にあるかに基づいて、コンテンツiをバイナリ値に変換するハッシュ関数を生成する。 That is, the hash function generator 13, classified into at least two groups are distributed as a feature point on the characteristic amounts x i characteristic amount space R d of the plurality of content i, from all feature points in each county A straight line having the same vertical distance is calculated, and a hash function for converting the content i into a binary value is generated based on which space the feature point is divided into two by the straight line.

このような直線52は、例えば、それら両群の群間分散値Sと郡内分散値Sを変数に用いた式(4)の目的関数の演算値を最大化するwの値を求めることにより、得ることができる。なお、trace(トレース)とは、{}内のn次正方行列の対角成分の和を計算するものであり、線形代数学分野などにおいて一般に利用される。

Figure 2013109479
Such linear 52 is, for example, determine the value of w that maximizes the calculated value of the objective function of their both groups intergroup variance S b and expressions with county within variance S w in a variable (4) Can be obtained. Note that “trace” is used to calculate the sum of diagonal components of an n-order square matrix in {}, and is generally used in the field of linear algebra.
Figure 2013109479

なお、群間分散値S、郡内分散値Sは、それぞれ、式(5),(6)を用いて計算すればよい。ただし、mは群j(j=0,1)の平均ベクトル、mは全体の平均ベクトル、Nは群jに属する特徴量xの数、Nは全体の特徴量xの数である。先に述べたように、全体の平均が0になるよう正規化されている場合、理論的にはm=0となる。

Figure 2013109479
Figure 2013109479
Incidentally, intergroup variance S b, county in variance S w, respectively, equation (5) may be calculated using (6). Where m j is the average vector of group j (j = 0, 1), m is the overall average vector, N j is the number of feature quantities x i belonging to group j, and N is the number of overall feature quantities x i . is there. As described above, when normalization is performed so that the average of the whole becomes zero, theoretically, m = 0.
Figure 2013109479
Figure 2013109479

なお、式(4)を最大化するwは、例えば、ラグランジュ未定乗数法によって、下記の固有値問題の解(固有ベクトル)として求めることができる。

Figure 2013109479
Note that w that maximizes the expression (4) can be obtained as a solution (eigenvector) of the following eigenvalue problem by, for example, the Lagrange undetermined multiplier method.
Figure 2013109479

この固有値問題を解いてwを求める方法については、例えば、反復法など、種々の公知の方法を用いればよい。   As a method for obtaining w by solving this eigenvalue problem, various known methods such as an iterative method may be used.

以上は、予めコンテンツiの特徴量xがどちらの群に属しているかが既知である必要がある。以降、この情報を群指示情報と呼ぶ。一方で、現実の問題においては、群指示情報は未知である。つまり、このままでは現実にある多くの問題において、上記手法を取ることができない。 The above needs to know in advance which group the feature amount x i of the content i belongs to. Hereinafter, this information is referred to as group instruction information. On the other hand, in the actual problem, the group instruction information is unknown. In other words, the above-described method cannot be used for many problems that exist in reality.

そこで、本実施の形態では、群指示情報が未知の場合においても、同様のハッシュ関数を生成できる処理をとる。以降、この処理の一例について詳述する。   Therefore, in the present embodiment, processing is performed that can generate a similar hash function even when the group instruction information is unknown. Hereinafter, an example of this process will be described in detail.

まず、特徴量x間の類似度を格納した類似度行列Vを求める。この類似度行列Vは、どのようなものでも構わないが、例えば、式(8)を利用して求めればよい。

Figure 2013109479
First, a similarity matrix V that stores the similarity between feature quantities x i is obtained. The similarity matrix V may be any type, but may be obtained using, for example, Expression (8).
Figure 2013109479

また、その類似度行列Vに基づいて対角行列Dを計算する。

Figure 2013109479
Also, a diagonal matrix D is calculated based on the similarity matrix V.
Figure 2013109479

そして、式(4)に対して、群指示情報に依存しない正則化項を導入する。

Figure 2013109479
Then, a regularization term that does not depend on the group instruction information is introduced into Equation (4).
Figure 2013109479

式(10)の第2項がその正則化項であり、群間分散値Sや郡内分散値Sが含まれていないので、群指示情報がなくとも計算可能な項である。 A second term that regularization term in equation (10), does not include the between-group variance S b and counties within variance S w, is computable term without any group instruction information.

この式(10)の演算値を最大化するwの値は、ラグランジュ未定乗数法によって下記の固有値問題の解として求めることができる。なお、ηはパラメータであり、Xはハッシュ関数を求めた際の特徴量xの集合である。

Figure 2013109479
The value of w that maximizes the calculated value of equation (10) can be obtained as a solution to the following eigenvalue problem by the Lagrange undetermined multiplier method. Incidentally, eta is a parameter, X is the set of the feature x i when calculated hash function.
Figure 2013109479

このような固有値問題の解は、前述の通り、反復法などの公知の方法によって計算できるので、仮に、群間分散値Sや郡内分散値Sがゼロ行列(要素がすべて0である行列)とすれば、群指示情報が全くなかったとしても、式(11)を満たすwを求めることができる。こうして求めたwを、wとする。 Since the solution of such an eigenvalue problem can be calculated by a known method such as an iterative method as described above, the inter-group variance value Sb and the intra-group variance value Sw are zero matrices (the elements are all zero). Matrix), w satisfying equation (11) can be obtained even if there is no group instruction information. Thus the w obtained, and w 1.

ハッシュ関数が1つ(すなわち、各特徴量xを1ビットのハッシュ値に変換する)でよければ、以上の手続きを以てハッシュ関数の生成処理を終了して構わない。 Hash function one (i.e., to convert each feature amount x i to the hash value of 1 bit) To accept, it may end the process of generating the hash function with a more procedures.

しかしながら、通常は複数のハッシュ関数を用意し、複数ビットのハッシュ値に変換する。ここでは、以下の手続きにより、B個のハッシュ関数を用意するとして、wから順次w,w,…,wを求める。 However, usually, a plurality of hash functions are prepared and converted into a multi-bit hash value. Here, assuming that B hash functions are prepared by the following procedure, w 2 , w 3 ,..., W B are obtained sequentially from w 1 .

今、k個のハッシュ関数hが求まっているとしたとき、k+1個目のハッシュ関数hk+1を求めることを考える。本実施の形態では、k個目までのハッシュ関数hを用いて、各特徴量xに疑似的な群指示情報を決定する。この付与方法は任意の方法で構わないが、例えば、k個目のハッシュ関数hを用いて、次の規則に基づいて疑似群指示情報を与える。

Figure 2013109479
Now, assuming that k hash functions h k are obtained, consider obtaining the k + 1th hash function h k + 1 . In this embodiment, by using a hash function h k to k-th, to determine the pseudo-group instruction information to each feature quantity x i. This assigning method may be any method. For example, pseudo group instruction information is given based on the following rule using the k-th hash function h k .
Figure 2013109479

ここで、δはパラメータである。このように決定された疑似群指示情報を群指示情報であるとみなすことによって、式(5),(6)を用いて群間分散値Sや郡内分散値Sを計算することができ、式(11)を満たすwk+1を得ることができる。 Here, δ is a parameter. By considering the pseudo group instruction information determined in this way as group instruction information, it is possible to calculate the inter-group variance value Sb and the county variance value S w using the equations (5) and (6). And w k + 1 satisfying equation (11) can be obtained.

基本的には、上記の処理をk=1,2,…,Bと繰り返すことにより、ハッシュ関数hを逐次求めていけばよい。 Basically, the hash function h k may be obtained sequentially by repeating the above processing as k = 1, 2,.

一方で、そのように「k個目までのハッシュ関数hを用いて、各特徴量xに疑似的な群指示情報を決定する」場合、k個目までのハッシュ関数hとk+1個目のハッシュ関数hk+1が互いに相関の高いもの(類似したもの)になってしまう確率が高く、非効率的である。 On the other hand, when “pseudo group instruction information is determined for each feature quantity x i using the kth hash functions h k ”, the kth hash functions h k and k + 1 are used. There is a high probability that the hash functions h k + 1 of the eyes are highly correlated (similar) to each other, which is inefficient.

そこで、本実施の形態では、より少ないハッシュ関数数でも高精度なハッシュ関数生成が実現できるよう、複数のハッシュ関数を生成する際に、互いに相関の低いハッシュ関数を生成する補正処理を導入する。   Therefore, in the present embodiment, correction processing for generating hash functions having low correlation with each other is introduced when a plurality of hash functions are generated so that high-precision hash function generation can be realized with a smaller number of hash functions.

例えば、k個目のハッシュ関数hを用いて、k個目のハッシュ関数hを求めた際の特徴量xの集合X={x,x,…,x}を、次のように補正する。すなわち、ハッシュ関数間の相関度が低くなるように特徴点の分布状態を変化させる。

Figure 2013109479
For example, using a hash function h k of the k-th set of characteristic amounts x i when calculated hash function h k of the k-th X k = {x 1, x 2, ..., x N} , and Correct as follows. That is, the distribution state of feature points is changed so that the degree of correlation between hash functions is low.
Figure 2013109479

この補正により、特徴量の分布から、w が示す方向成分が縮退されるので、その結果、既に得られているハッシュ関数と相関の低い特徴量分布へと変化する。この補正により、互いに相関の小さいハッシュ関数が生成されるようになる。 By this correction, the direction component indicated by w k T X k is degenerated from the distribution of the feature amount, and as a result, the feature amount distribution has a low correlation with the already obtained hash function. By this correction, hash functions having a small correlation with each other are generated.

以上の処理を繰り返すことにより、B個のハッシュ関数を得ることができる。処理の一例をまとめると、下記のように表現することができる。   By repeating the above processing, B hash functions can be obtained. An example of processing can be summarized as follows.

(手順1)最初に、k=1とし、S k=1=0、S k=1=0、Xk=1=Xとする。 (Procedure 1) First, k = 1, S b k = 1 = 0, S w k = 1 = 0, and X k = 1 = X.

(手順2)次に、下記の固有値問題を解き、最大の固有値に対応する固有ベクトルをwとする。

Figure 2013109479
(Procedure 2) Next, the following eigenvalue problem is solved, and the eigenvector corresponding to the maximum eigenvalue is set to w k .
Figure 2013109479

(手順3)次に、式(12)を用いて疑似群指示情報を計算する。 (Procedure 3) Next, pseudo group indication information is calculated using equation (12).

(手順4)次に、k=Bなら処理を終了し、それ以外なら(手順5)に進む。なお、Bは任意に設定できる。 (Procedure 4) Next, if k = B, the process is terminated; otherwise, the process proceeds to (Procedure 5). B can be set arbitrarily.

(手順5)次に、式(15)〜式(17)を用いて、S k+1、S k+1、Xk+1を求める。

Figure 2013109479
Figure 2013109479
Figure 2013109479
(Procedure 5) Next, S b k + 1 , S w k + 1 , and X k + 1 are obtained using equations (15) to (17).
Figure 2013109479
Figure 2013109479
Figure 2013109479

(手順6)(手順2)に戻る。 (Procedure 6) Return to (Procedure 2).

上記の処理手続きによって生成されたハッシュ関数h、すなわち、具体的には、パラメータw(k=1,2,…,B)は、ハッシュ関数記憶部14に格納される。 The hash function h k generated by the above processing procedure, specifically, the parameter w k (k = 1, 2,..., B) is stored in the hash function storage unit 14.

〔ハッシュ化処理〕
前述のハッシュ関数生成処理が済んでいれば、ハッシュ関数記憶部14には、B個のハッシュ関数が格納されている。これを用いることにより、特徴量xで表現された任意のコンテンツiを、Bビット以下のハッシュ値で表現することができる。
[Hashing]
If the above hash function generation processing has been completed, the hash function storage unit 14 stores B hash functions. By using this, an arbitrary content i expressed by the feature value x i can be expressed by a hash value of B bits or less.

〔実施例〕
ここでは、画像データベースを対象に、本実施の形態で実施したハッシュ値に基づいて類似画像を検索する一実施例について説明する。
〔Example〕
Here, an example will be described in which a similar image is searched based on the hash value implemented in the present embodiment for an image database.

この実施例の画像データベースには、約20,000の画像が登録されている。各画像は、10種類の異なるオブジェクトが示されている。この実施例では、同じオブジェクトを示す画像を、画像データベースに登録された画像の中から探し出すことを目的とした。   In the image database of this embodiment, about 20,000 images are registered. Each image shows 10 different objects. In this embodiment, an object is to find an image showing the same object from images registered in the image database.

従来の手法であれば、画像データベースに登録された全ての画像から特徴量を抽出しておき、閲覧画像の特徴量と類似度の高い画像データベース中の画像を推薦結果として出力する。   In the case of the conventional method, feature amounts are extracted from all images registered in the image database, and images in the image database having a high similarity to the feature amount of the browse image are output as a recommendation result.

一方、本実施例では、これをハッシュ値によって実施する。特徴量は任意のものを用いて構わないが、本実施例では画像を28ピクセル×28ピクセル=784ピクセルに縮小し、各ピクセルの輝度値(256諧調)をそのまま用いた。   On the other hand, in the present embodiment, this is performed using a hash value. Although any feature amount may be used, in this embodiment, the image is reduced to 28 pixels × 28 pixels = 784 pixels, and the luminance value (256 tone) of each pixel is used as it is.

すなわち、784次元の整数ベクトルであり、6,272bitに相当する。これは予め、画像データベース中の全ての画像からこの特徴量を抽出しておく。さらに、本実施の形態によって、コンテンツの特徴量からハッシュ値を生成し、これを画像データベースに登録しておく。   That is, it is a 784-dimensional integer vector and corresponds to 6,272 bits. This feature amount is extracted in advance from all images in the image database. Further, according to the present embodiment, a hash value is generated from the feature amount of the content and registered in the image database.

この実施例では、本実施の形態によって生成したハッシュ値による類似検索精度と、非特許文献1、2の技術によって生成したハッシュ値による類似検索精度とを比較した。図6に、ハッシュ値のビット数(ハッシュ関数の数)を変化させたときの検索精度を示す。   In this example, the similarity search accuracy based on the hash value generated by the present embodiment was compared with the similarity search accuracy based on the hash value generated by the techniques of Non-Patent Documents 1 and 2. FIG. 6 shows the search accuracy when the number of bits of the hash value (number of hash functions) is changed.

いずれのビット数においても、本実施例の方が高い精度を得ている。本実施例によれば、通常1コンテンツあたり6,272bitが必要であったところを、8bit〜32bitといった非常に小さい情報量で表現した場合であっても、高い精度を実現できている。このことから、本実施例による技術の高い効果が確認できる。   In any number of bits, the present embodiment obtains higher accuracy. According to the present embodiment, high accuracy can be realized even when a place where 6,272 bits are normally required per content is expressed by a very small amount of information such as 8 bits to 32 bits. From this, the high effect of the technique by a present Example can be confirmed.

以上説明したように、本実施の形態によれば、複数のコンテンツiの各特徴量xを特徴量空間R上に特徴点として分布させ少なくとも2つの群に分類し、各郡の全特徴点からの垂直距離が等しい直線を求め、特徴点が当該直線によって2分割されたいずれの空間側にあるかに基づいてコンテンツiをバイナリ値に変換するハッシュ関数hを生成する、より具体的には、特徴量xの群間距離と群内距離に基づいてハッシュ関数hを生成するので、揺らぎに頑健なハッシュ関数を生成することができることから、結果として、大量のマルチメディアコンテンツから、高速、省メモリでありながら、高精度で類似するコンテンツを発見することのできるコンテンツ変換方法、コンテンツ変換装置及びコンテンツ変換プログラムを提供できる。 As described above, according to the present embodiment, each feature quantity x i of a plurality of contents i is distributed as feature points on the feature quantity space R d and classified into at least two groups, and all the features of each county are classified. More specifically, a straight line having the same vertical distance from the point is obtained, and a hash function h k for converting the content i into a binary value is generated based on which space side the feature point is divided into two by the straight line. Since the hash function h k is generated based on the inter-group distance and the intra-group distance of the feature quantity x i , a robust hash function can be generated, and as a result, a large amount of multimedia content can be used. Provides a content conversion method, a content conversion apparatus, and a content conversion program capable of finding similar contents with high accuracy while being high-speed and memory-saving Kill.

また、本実施の形態によれば、複数のハッシュ関数hを生成する際に、特徴量xの分布を逐次補正しながらハッシュ関数を生成するので、互いに相関の低いハッシュ関数を生成できることから、結果として、より少ないハッシュ関数の数(ビット数)で、高精度な類似コンテンツ検索を実施することができる。 In addition, according to the present embodiment, when generating a plurality of hash functions h k , the hash functions are generated while sequentially correcting the distribution of the feature quantity x i , so that hash functions having low correlation can be generated. As a result, high-accuracy similar content search can be performed with a smaller number of hash functions (number of bits).

1…情報処理装置(コンテンツ変換装置)
2…コンテンツデータベース
11…入力部
12…特徴抽出部(抽出手段)
13…ハッシュ関数生成部(生成手段)
14…ハッシュ関数記憶部(記憶手段)
15…ハッシュ化部
16…出力部
S101〜S103、S201〜S204…ステップ
1 Information processing device (content conversion device)
2 ... Content database 11 ... Input unit 12 ... Feature extraction unit (extraction means)
13 ... Hash function generator (generator)
14 ... Hash function storage unit (storage means)
15 ... Hashing unit 16 ... Output unit S101-S103, S201-S204 ... Step

Claims (8)

コンテンツを1つ以上のバイナリ値に変換するコンテンツ変換方法において、
コンピュータにより、
記憶手段からコンテンツを読み出して、複数のコンテンツの各特徴量をそれぞれ抽出する抽出ステップと、
前記各特徴量を特徴量空間上に特徴点として分布させ少なくとも2つの群に分類し、各郡の全特徴点からの垂直距離が等しい直線又は超平面を求め、前記特徴点が当該図形によって二分されたいずれの空間側にあるかに基づいて前記コンテンツをバイナリ値に変換するハッシュ関数を生成する生成ステップと、
を有することを特徴とするコンテンツ変換方法。
In a content conversion method for converting content into one or more binary values,
By computer
An extraction step of reading out the content from the storage means and extracting each feature amount of the plurality of contents;
Each feature amount is distributed as a feature point in the feature amount space and classified into at least two groups, and a straight line or a hyperplane having the same vertical distance from all feature points of each group is obtained, and the feature point is divided into two by the figure. Generating a hash function that converts the content into a binary value based on which spatial side is
A content conversion method characterized by comprising:
前記生成ステップは、
前記2つの群の群間分散値Sと郡内分散値Sを変数に用いたtrace{w(S−S)w}(但し、ww=1)の演算値が最大となるwの値を傾きとして前記図形を求めることを特徴とする請求項1記載のコンテンツ変換方法。
The generating step includes
The calculated value of trace {w T (S b −S w ) w} (where w T w = 1) is the maximum using the inter-group variance value S b and the county variance value S w of the two groups as variables. The content conversion method according to claim 1, wherein the figure is obtained by using a value of w as a slope.
前記生成ステップは、
前記ハッシュ関数を複数生成する際に、他のハッシュ関数との相関度が低くなるように前記特徴点の分布状態を変化させることを特徴とする請求項1又は2記載のコンテンツ変換方法。
The generating step includes
3. The content conversion method according to claim 1, wherein when generating a plurality of hash functions, the distribution state of the feature points is changed so that the degree of correlation with other hash functions is low.
前記ハッシュ関数を1つ以上用いて前記コンテンツを1つ以上のバイナリ値に変換する変換ステップを更に有することを特徴とする請求項1乃至3のいずれかに記載のコンテンツ変換方法。   4. The content conversion method according to claim 1, further comprising a conversion step of converting the content into one or more binary values using one or more of the hash functions. コンテンツを1つ以上のバイナリ値に変換するコンテンツ変換装置において、
記憶手段からコンテンツを読み出して、複数のコンテンツの各特徴量をそれぞれ抽出する抽出手段と、
前記各特徴量を特徴量空間上に特徴点として分布させ少なくとも2つの群に分類し、各郡の全特徴点からの垂直距離が等しい直線又は超平面を求め、前記特徴点が当該図形によって二分されたいずれの空間側にあるかに基づいて前記コンテンツをバイナリ値に変換するハッシュ関数を生成する生成手段と、
を有することを特徴とするコンテンツ変換装置。
In a content conversion device that converts content into one or more binary values,
Extracting means for reading out content from the storage means and extracting each feature amount of the plurality of contents;
Each feature amount is distributed as a feature point in the feature amount space and classified into at least two groups, and a straight line or a hyperplane having the same vertical distance from all feature points of each group is obtained, and the feature point is divided into two by the figure. Generating means for generating a hash function for converting the content into a binary value based on which space side is provided;
A content conversion apparatus comprising:
前記生成手段は、
前記2つの群の群間分散値Sと郡内分散値Sを変数に用いたtrace{w(S−S)w}(但し、ww=1)の演算値が最大となるwの値を傾きとして前記図形を求めることを特徴とする請求項5記載のコンテンツ変換装置。
The generating means includes
The calculated value of trace {w T (S b −S w ) w} (where w T w = 1) is the maximum using the inter-group variance value S b and the county variance value S w of the two groups as variables. The content conversion apparatus according to claim 5, wherein the figure is obtained by using the value of w as a slope.
前記生成手段は、
前記ハッシュ関数を複数生成する際に、他のハッシュ関数との相関度が低くなるように前記特徴点の分布状態を変化させることを特徴とする請求項5又は6記載のコンテンツ変換装置。
The generating means includes
The content conversion apparatus according to claim 5 or 6, wherein when generating a plurality of hash functions, the distribution state of the feature points is changed so that the degree of correlation with other hash functions is low.
請求項1乃至4のいずれかに記載のコンテンツ変換方法をコンピュータに実行させることを特徴とするコンテンツ変換プログラム。   A content conversion program that causes a computer to execute the content conversion method according to claim 1.
JP2011252708A 2011-11-18 2011-11-18 Content conversion method, content conversion apparatus, and content conversion program Expired - Fee Related JP5592337B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011252708A JP5592337B2 (en) 2011-11-18 2011-11-18 Content conversion method, content conversion apparatus, and content conversion program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011252708A JP5592337B2 (en) 2011-11-18 2011-11-18 Content conversion method, content conversion apparatus, and content conversion program

Publications (2)

Publication Number Publication Date
JP2013109479A true JP2013109479A (en) 2013-06-06
JP5592337B2 JP5592337B2 (en) 2014-09-17

Family

ID=48706186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011252708A Expired - Fee Related JP5592337B2 (en) 2011-11-18 2011-11-18 Content conversion method, content conversion apparatus, and content conversion program

Country Status (1)

Country Link
JP (1) JP5592337B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079102A (en) * 2013-10-16 2015-04-23 日本電信電話株式会社 Hash function generation method, hash value generation method, hash function generation device, hash value generation device, hash function generation program and hash value generation program
JP2015079101A (en) * 2013-10-16 2015-04-23 日本電信電話株式会社 Hash function generation method, hash value generation method, hash function generation device, hash value generation device, hash function generation program and hash value generation program
JP2015201042A (en) * 2014-04-08 2015-11-12 日本電信電話株式会社 Hash function generation method, hash value generation method, device, and program
JP2017102600A (en) * 2015-11-30 2017-06-08 日本電信電話株式会社 Vector quantizer generation method, vector quantization method, device, and program
JP2018022258A (en) * 2016-08-02 2018-02-08 Kddi株式会社 Duplication detection device, duplication detection method, and duplication detection program
US10657183B2 (en) 2016-03-10 2020-05-19 Fujitsu Limited Information processing apparatus, similarity search program, and similarity search method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060190465A1 (en) * 2005-02-24 2006-08-24 Nahava Inc. Method and apparatus for efficient indexed storage for unstructured content
JP2009020769A (en) * 2007-07-13 2009-01-29 Toshiba Corp Pattern search device and method for the same
WO2009133856A1 (en) * 2008-04-28 2009-11-05 公立大学法人大阪府立大学 Method for creating image database for object recognition, processing device, and processing program
JP2009281742A (en) * 2008-05-19 2009-12-03 Nippon Steel Corp Discrimination method, discrimination device and program
JP2011141866A (en) * 2009-12-09 2011-07-21 Nikon Corp Data classifying device, data classifying system, and program
JP2012160047A (en) * 2011-02-01 2012-08-23 Denso It Laboratory Inc Corresponding reference image retrieval device and method thereof, content superimposing apparatus, system, method, and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060190465A1 (en) * 2005-02-24 2006-08-24 Nahava Inc. Method and apparatus for efficient indexed storage for unstructured content
JP2009020769A (en) * 2007-07-13 2009-01-29 Toshiba Corp Pattern search device and method for the same
WO2009133856A1 (en) * 2008-04-28 2009-11-05 公立大学法人大阪府立大学 Method for creating image database for object recognition, processing device, and processing program
JP2009281742A (en) * 2008-05-19 2009-12-03 Nippon Steel Corp Discrimination method, discrimination device and program
JP2011141866A (en) * 2009-12-09 2011-07-21 Nikon Corp Data classifying device, data classifying system, and program
JP2012160047A (en) * 2011-02-01 2012-08-23 Denso It Laboratory Inc Corresponding reference image retrieval device and method thereof, content superimposing apparatus, system, method, and computer program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG201000030018; 山▲崎▼ 邦弘、外3名: 'Resizable-LSH:可変領域型の近似的類似検索' 情報処理学会研究報告 平成21年度▲2▼ [CD-ROM] , 20090924, p.1-8, 社団法人情報処理学会 *
JPN6014025982; 山▲崎▼ 邦弘、外3名: 'Resizable-LSH:可変領域型の近似的類似検索' 情報処理学会研究報告 平成21年度▲2▼ [CD-ROM] , 20090924, p.1-8, 社団法人情報処理学会 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015079102A (en) * 2013-10-16 2015-04-23 日本電信電話株式会社 Hash function generation method, hash value generation method, hash function generation device, hash value generation device, hash function generation program and hash value generation program
JP2015079101A (en) * 2013-10-16 2015-04-23 日本電信電話株式会社 Hash function generation method, hash value generation method, hash function generation device, hash value generation device, hash function generation program and hash value generation program
JP2015201042A (en) * 2014-04-08 2015-11-12 日本電信電話株式会社 Hash function generation method, hash value generation method, device, and program
JP2017102600A (en) * 2015-11-30 2017-06-08 日本電信電話株式会社 Vector quantizer generation method, vector quantization method, device, and program
US10657183B2 (en) 2016-03-10 2020-05-19 Fujitsu Limited Information processing apparatus, similarity search program, and similarity search method
JP2018022258A (en) * 2016-08-02 2018-02-08 Kddi株式会社 Duplication detection device, duplication detection method, and duplication detection program

Also Published As

Publication number Publication date
JP5592337B2 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
US11126853B2 (en) Video to data
JP5926291B2 (en) Method and apparatus for identifying similar images
JP5592337B2 (en) Content conversion method, content conversion apparatus, and content conversion program
JP6104209B2 (en) Hash function generation method, hash value generation method, apparatus, and program
JP5596648B2 (en) Hash function generation method, hash function generation device, hash function generation program
JP6397378B2 (en) Feature value generation method, feature value generation device, and feature value generation program
Liao et al. IR feature embedded bof indexing method for near-duplicate video retrieval
US11615132B2 (en) Feature amount generation method, feature amount generation device, and feature amount generation program
Liu et al. Adding spatial distribution clue to aggregated vector in image retrieval
JP6368677B2 (en) Mapping learning method, information compression method, apparatus, and program
JP6373292B2 (en) Feature generation apparatus, method, and program
JP2016066012A (en) Hash function generation method, hash value generation method, device and program
JP6152032B2 (en) Hash function generation method, hash value generation method, hash function generation device, hash value generation device, hash function generation program, and hash value generation program
JP6134246B2 (en) Hash function generation method, hash value generation method, hash function generation device, hash value generation device, hash function generation program, and hash value generation program
JP5600040B2 (en) Video summarization apparatus, video summarization method, and video summarization program
JP6364387B2 (en) Feature generation apparatus, method, and program
Liu et al. Video copy detection by conducting fast searching of inverted files
JP6461773B2 (en) Vector quantizer generation method, vector quantization method, apparatus, and program
Chou et al. Multimodal video-to-near-scene annotation
JP2015201041A (en) Hash function generation method, hash value generation method, device, and program
Du et al. A Low Overhead Progressive Transmission for Visual Descriptor Based on Image Saliency.
JP2015079333A (en) Hash function generation method, hash value generation method, hash function generation device, hash value generation device, hash function generation program and hash value generation program
Yeh et al. Towards a more efficient sparse coding based audio-word feature extraction system
Sharma et al. Color difference histogram for feature extraction in video retrieval
André Exploiting Modern Hardware for High-Dimensional Nearest Neighbor Search

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140731

R150 Certificate of patent or registration of utility model

Ref document number: 5592337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees