JP2011248596A - Searching system and searching method for picture-containing documents - Google Patents

Searching system and searching method for picture-containing documents Download PDF

Info

Publication number
JP2011248596A
JP2011248596A JP2010120599A JP2010120599A JP2011248596A JP 2011248596 A JP2011248596 A JP 2011248596A JP 2010120599 A JP2010120599 A JP 2010120599A JP 2010120599 A JP2010120599 A JP 2010120599A JP 2011248596 A JP2011248596 A JP 2011248596A
Authority
JP
Japan
Prior art keywords
search
pseudo
query
term
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010120599A
Other languages
Japanese (ja)
Inventor
Asako Koike
麻子 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010120599A priority Critical patent/JP2011248596A/en
Publication of JP2011248596A publication Critical patent/JP2011248596A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To search a group of documents containing pictures with high accuracy for a desired picture, a document containing the desired picture and a picture related to the desired document.SOLUTION: A first index in which each graphic item in a document is expressed in pseudo-words obtained by quantizing feature amounts in the pertinent graphic item and terms extracted from a part to be described in the graphic item is generated. On the basis of the co-occurrence frequency of a pseudo-word and/or a term, the intensity of relevance between the pseudo-word and/or the term and the level of importance of the pseudo-word and/or the term are calculated. After that, a second index is generated in which the pseudo-word and/or the term to which the level of importance is assigned is made a weighted node and an edge to which the intensity of relevance between the pseudo-word and/or the term is assigned is made a weighted edge. A score representing the similarity between the second index generated by such preprocessing as the object of search and a processed query expressed in the weighted node and the weighted edge is calculated.

Description

本発明は、画像とその画像を含む文書中のテキスト情報を利用して、画像(例えば図)を含む文書(例えば論文、Web)から目的とする画像や類似画像を検索するための技術に関する。   The present invention relates to a technique for retrieving a target image or a similar image from a document (for example, paper, Web) including an image (for example, a figure) using text information in the document including the image and the image.

近年、科学技術論文のオープン化及び世の中の情報公開の潮流の下、各種文書のウェブ(Web)上での公開が増加している。これに伴い、画像(図)を含む文書の検索の重要がますます増加している。その中でも、画像に情報が集約する分野、テキスト部分に記述されない情報が画像に含まれ易い分野においては、画像とテキストを関連づけた検索が重要である。   In recent years, the publication of various documents on the Web (Web) is increasing under the trend of opening scientific and technical papers and public information. Along with this, the importance of searching for documents including images (figures) is increasing. Among them, in a field where information is aggregated in an image and a field where information not described in a text part is likely to be included in an image, a search in which an image and text are associated is important.

現在、画像のみを対象とする検索には、画像解析の結果を利用するデジタル写真や医療画像の類似検索技術などが使用されている。一方、テキストのみを対象とする検索には、クエリーに含まれる用語を含む文書検索、クエリーとして与えられた文書と類似する文書を検索する類似文書検索などが用いられている。なお、これらのテキスト検索では、単語や概念認識した用語ごとのインデックスを文書ごとに予め用意する手法が用いられる。また、画像とテキストを融合する検索では、画像周りに存在するテキストを利用して画像を検索する方法、画像の特徴量とテキスト情報を利用する方法などが用いられる。なお、画像とテキストを融合する検索では、テキスト検索の後に画像検索を実行する方法などもある(非特許文献1及び2)。   Currently, digital images that use image analysis results and medical image similarity search technology are used for searching only for images. On the other hand, for a search only for text, a document search including a term included in a query, a similar document search for searching a document similar to a document given as a query, and the like are used. In these text searches, a method is used in which an index for each word or term for which a concept is recognized is prepared in advance for each document. In addition, in a search that fuses an image and text, a method of searching for an image using text existing around the image, a method of using a feature amount of the image and text information, and the like are used. In the search for fusing images and text, there is a method of executing an image search after the text search (Non-patent Documents 1 and 2).

Kherfi, M.L., Ziou, D. and Bernardi, Learning from Negative Example in Relevance Feedback for Content-Based Image Retrieval, 16th International Conference on Pattern Recognition (ICPR'02) - (2002).Kherfi, M.L., Ziou, D. and Bernardi, Learning from Negative Example in Relevance Feedback for Content-Based Image Retrieval, 16th International Conference on Pattern Recognition (ICPR'02)-(2002). Athitsos, V. and Swain, MJ. Distinguishing photograph and graphics on the World Wide Web, In Proc. of the IEEE Workshop on Content-Based access of Image and Video Libraries (San Juan, Puerto Rico), 10-17 (1997).Athitsos, V. and Swain, MJ. Distinguishing photograph and graphics on the World Wide Web, In Proc. Of the IEEE Workshop on Content-Based access of Image and Video Libraries (San Juan, Puerto Rico), 10-17 (1997) . T. Hoffman , Learning and representing topic. A hierarchical mixture model for word occurrence in document databases. In Workshop on learning from text and the web, CMU., 1998.T. Hoffman, Learning and representing topic.A hierarchical mixture model for word occurrence in document databases.In Workshop on learning from text and the web, CMU., 1998. Tuytelaars, T. and Gool, LC. Wide Baseline Stereo Matching based on Local, Affinely Invariant Regions, BMVC pp.412-415, 2000.Tuytelaars, T. and Gool, LC.Wide Baseline Stereo Matching based on Local, Affinely Invariant Regions, BMVC pp.412-415, 2000. Matas, J. Chum, O.Urban, M. and Pajdla, T. Robust wide baseline stereo from maximally stable extremal regions. In BMVC pp.384-393, 2002.Matas, J. Chum, O. Urban, M. and Pajdla, T. Robust wide baseline stereo from maximally stable extremal regions. In BMVC pp.384-393, 2002. Lowe, D. Object Recognition from Local Scale-Invariant Features. Proc. of IEEE International Conference on Computer Vision (ICCV) pp1150-1157, 1999.Lowe, D. Object Recognition from Local Scale-Invariant Features.Proc. Of IEEE International Conference on Computer Vision (ICCV) pp1150-1157, 1999. Kadir, T., Zisserman, A., and Brady, M. An affine invariant salient region detector. In Proc. of the 8th Eur. Conf. on Comp. Vision, Prague, Czech Republic, pp.345-457, 2004.Kadir, T., Zisserman, A., and Brady, M. An affine invariant salient region detector.In Proc. Of the 8th Eur. Conf. On Comp.Vision, Prague, Czech Republic, pp.345-457, 2004. Belongie, S. Malik, and J. Shape, Matching and Object. Recognition Using Shape Contexts. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24 (24), pp509-522, 2002.Belongie, S. Malik, and J. Shape, Matching and Object.Recognizing Using Shape Contexts.IEEE Transactions on Pattern Analysis and Machine Intelligence, 24 (24), pp509-522, 2002. Lowe, D.G. Object recognition from local scale-invariant features. In Int. Conf. on Comp. Vision, Corfu, Greece, pp. 1150-1157, 1999.Lowe, D.G.Object recognition from local scale-invariant features.In Int. Conf.on Comp.Vision, Corfu, Greece, pp. 1150-1157, 1999. Ke, Y.. PCA-SIFT: A More Distinctive Representation for Local Image Descriptors. IEEE Comp. Soc. Conf. on Comp. Vision and Pattern Recognition (CVPR'04) pp.511-517, 2004.Ke, Y .. PCA-SIFT: A More Distinctive Representation for Local Image Descriptors. IEEE Comp. Soc. Conf. On Comp. Vision and Pattern Recognition (CVPR'04) pp.511-517, 2004. Schaffalitzky, F. and Zisserman, A.,“Multi-View Matching for Unordered Image Sets,” Proc. Seventh European Conf. Computer Vision, pp. 414-431, 2002.Schaffalitzky, F. and Zisserman, A., “Multi-View Matching for Unordered Image Sets,” Proc. Seventh European Conf. Computer Vision, pp. 414-431, 2002. Van Gool, L., Moons, T. and Ungureanu, D., “Affine/Photometric Invariants for Planar Intensity Patterns,” Proc. Fourth European Conf. Computer Vision, pp. 642-651, 1996.Van Gool, L., Moons, T. and Ungureanu, D., “Affine / Photometric Invariants for Planar Intensity Patterns,” Proc. Fourth European Conf. Computer Vision, pp. 642-651, 1996. Brin, S. and Page, L. The anatomy of a large-scale hypertextual Web search engine, Computer Networks and ISDN Systems, 30(1-7) 1998.Brin, S. and Page, L. The anatomy of a large-scale hypertextual Web search engine, Computer Networks and ISDN Systems, 30 (1-7) 1998. Stephen E. Robertson, Steve Walker, and Micheline Hancock-Beaulieu. Okapi at TREC-7. In Proceedings of the Seventh Text REtrieval Conference. Gaithersburg, USA, November 1998.Stephen E. Robertson, Steve Walker, and Micheline Hancock-Beaulieu. Okapi at TREC-7. In Proceedings of the Seventh Text REtrieval Conference. Gaithersburg, USA, November 1998.

ある文書に含まれる画像に近い画像を目的画像として検索したい場合がある。この場合、文書に含まれる画像の情報だけを利用すると、画像周りの文脈が無視される。このため、画像自体は類似しても、意味が異なる画像が検索される可能性がある。それでも、検索対象とする画像の数が少なければ、検索された画像が問題になることは少ない。しかし、検索対象とする画像の数が多くなると、目的とする画像の発見自体が困難となる。一方、画像周りのテキスト情報だけを利用する場合、画像周りの文脈は意図する画像に近くても、目的とする画像を得ることは困難となる。   There is a case where it is desired to search for an image close to an image included in a document as a target image. In this case, if only the image information included in the document is used, the context around the image is ignored. For this reason, even if the images themselves are similar, an image having a different meaning may be searched. Still, if the number of images to be searched is small, the searched images are less likely to be a problem. However, when the number of images to be searched increases, finding the target image itself becomes difficult. On the other hand, when only the text information around the image is used, it is difficult to obtain a target image even if the context around the image is close to the intended image.

この他、画像情報とテキスト情報の両方を利用する方法の適用が考えられる。この場合、図の周囲に位置する説明文を対象にテキスト検索を実行し、当該検索結果を利用して画像検索が実行される。ただし、この方法では、同義語などの問題でテキスト検索が不適切に終わる場合がある。また、この方法は、用語の曖昧性等の問題により、意味の異なる用語がヒットする場合がある。これらの場合、テキスト検索の結果が、画像検索に適した画像を含まない可能性がある。この場合には、画像情報とテキスト情報の両方を利用したとしても、十分な検索精度を確保することができない。   In addition, it is conceivable to apply a method using both image information and text information. In this case, a text search is executed on the explanatory text located around the figure, and an image search is executed using the search result. However, with this method, the text search may end inappropriately due to problems such as synonyms. Also, this method may hit terms with different meanings due to problems such as ambiguity of terms. In these cases, the result of text search may not include an image suitable for image search. In this case, even if both image information and text information are used, sufficient search accuracy cannot be ensured.

また、画像情報とテキスト情報を同時に扱う方式には、画像から特徴量を取り出して量子化し、テキストを構成する用語と同様にインデックス化して目的の画像を画像周りの説明文と共に検索する方法が考えられる。しかし、この方法だと、量子化された画像の特徴量をテキスト検索の場合における単語と同列に扱うため、複数の量子化された特徴量の集合によって画像の特徴が初めて現される場合を考慮することができない。すなわち、量子化された特徴量の組み合わせ効果を十分に考慮することができない。従って、この場合も、画像の類似度を十分な精度で検索できないことがある。   As a method for simultaneously handling image information and text information, a method is considered in which a feature amount is extracted from an image, quantized, and indexed in the same way as terms constituting a text, and a target image is searched together with explanatory text around the image. It is done. However, with this method, the feature quantity of the quantized image is handled in the same row as the word in the case of text search, so the case where the feature of the image appears for the first time by a set of multiple quantized feature quantities is considered. Can not do it. That is, the combined effect of quantized feature values cannot be sufficiently considered. Therefore, in this case as well, the similarity of images may not be searched with sufficient accuracy.

さらに、画像情報とテキスト情報を同時に扱う方式には、テキストと画像を潜在的意味インデクシング(LSI:latent semantic indexing)により計算し、テキスト情報と画像情報を融合させる方法が考えられる。この種の方法は、文書群全体での整合性を計算する。このため、個々の画像の類似度レベルでの関連性をLSIで表すことが難しい。   Further, as a method for simultaneously handling image information and text information, a method of calculating the text and the image by latent semantic indexing (LSI) and fusing the text information and the image information can be considered. This type of method computes consistency across documents. For this reason, it is difficult to represent the relevance of individual images at the similarity level with LSI.

また、テキストと用語自身を関連づける方法には、multi-modal Hierarchical Aspect Modelsのように、図に付加(annotation)するテキスト用語自身が一般的でない語彙となるように工夫する方法もある(非特許文献3)。しかし、この方法は、テキストと図の関係性を見ることはできても、複数の図の間の類似性を明らかにできない。   In addition, as a method of associating text with the term itself, there is also a method such as multi-modal Hierarchical Aspect Models in which the text term added to the figure itself becomes an uncommon vocabulary (Non-Patent Literature). 3). However, although this method can see the relationship between text and diagrams, it cannot reveal the similarity between multiple diagrams.

前述したように、各画像から抽出された特徴量を量子化して擬似単語とし、テキスト情報と同様に検索する場合、テキスト情報のみの場合と同様に、単純に画像と文書を検索するだけでは十分な検索精度で類似画像を検索することができない。   As described above, when the feature quantity extracted from each image is quantized into a pseudo word and searched in the same manner as text information, it is sufficient to simply search for images and documents as in the case of text information only. Cannot search for similar images with high search accuracy.

そこで、本発明者は、用語・擬似単語の重要度で重みづけられたノードと、用語・擬似単語の関係性で重み付けられたエッジとから構成されるネットワーク(第2のインデックス)を生成し、当該ネットワークのノードの重みとエッジの重みを利用して、図又は文書を検索する手法を提案する。   Therefore, the inventor generates a network (second index) composed of nodes weighted by the importance of the term / pseudoword and edges weighted by the relationship between the term / pseudoword, We propose a method for searching diagrams or documents using the weights of nodes and edges of the network.

また、本発明者は、クエリーが与えられた場合、エッジの強さやサブグラフを使用してクエリーを拡張し、目的とする画像や文書のスコア付けにおいて、ノードだけでなくエッジの重みを利用する手法を提案する。このクエリーの拡張時には、元のクエリー用語・擬似単語由来の重みから派生したノード及びエッジの重みを計算する。すなわち、クエリーの拡張時には、最初から与えられたノード、エッジの重みを使うのではなく、元のクエリーから伝搬(遷移)してきた割合と最初から与えられた重みとの積を利用する。これにより、用語及び擬似単語間の複数の組み合わせの効果を適切に計算することができる。   In addition, the present inventor, when given a query, expands the query using edge strength and subgraphs, and uses not only nodes but also edge weights in scoring the target image or document Propose. When this query is expanded, the weights of nodes and edges derived from the weights derived from the original query terms and pseudo words are calculated. That is, when a query is expanded, the weight of the node or edge given from the beginning is not used, but the product of the ratio propagated (transitioned) from the original query and the weight given from the beginning is used. Thereby, the effect of the several combination between a term and a pseudo word can be calculated appropriately.

このように、本発明においては、画像の類似度を表すときに、画像を構成する各擬似単語及び画像説明文の各構成用語を独立に扱って類似性を計算するのではなく、擬似単語及び用語の組み合わせを考慮した類似度を評価する。このため、より精度の高い検索を実現できる。   As described above, in the present invention, when expressing the similarity of an image, each pseudo word constituting the image and each constituent term of the image description are not handled independently to calculate the similarity, Evaluate the similarity considering the combination of terms. For this reason, a search with higher accuracy can be realized.

また、前述したネットワーク(第2のインデックス)の生成時には、ノード(例えば用語・擬似単語)間の関係性の強さを表現した遷移確率行列の固有値問題を解くことにより、ノードの重みとエッジの強さを決定することが望ましい。各遷移確率は、例えばノード間の文書・画像中の共起頻度を利用して(例えば、tf(単語の出現頻度)*idf(逆出現頻度)を利用して)計算することができる。また、擬似単語間の関係性の強さの計算時には、画像内における擬似単語間の物理的距離を出現頻度と同時に考慮することにより、より類似検索の精度を上げることができる。   In addition, when generating the network (second index) described above, by solving the eigenvalue problem of the transition probability matrix expressing the strength of the relationship between the nodes (for example, terms / pseudowords), the weight of the node and the edge It is desirable to determine the strength. Each transition probability can be calculated using, for example, a co-occurrence frequency in a document / image between nodes (for example, using tf (word appearance frequency) * idf (reverse appearance frequency)). Further, when calculating the strength of the relationship between the pseudo words, the accuracy of the similarity search can be further improved by considering the physical distance between the pseudo words in the image together with the appearance frequency.

本発明は、文書を構成する用語及び/又は画像の特徴量に基づいて計算した擬似単語そのものの重要度だけでなく、それらの用語及び/又は擬似単語間の関係性の強さに基づいて類似文書検索、類似画像検索、説明文付画像検索を行う。また、本発明は、必要に応じ、ノードの重要度だけでなく、ノード間の関係の強さに基づいて、検索動作の実行前にクエリーを拡張する。   The present invention is based not only on the importance of the pseudo word itself calculated based on the terms and / or image features of the document but also on the basis of the strength of the relationship between these terms and / or pseudo words. Document search, similar image search, and image search with explanatory text are performed. In addition, the present invention expands a query before executing a search operation based on not only the importance of the node but also the strength of the relationship between the nodes as necessary.

本発明によれば、用語及び擬似単語の独立した重要度だけでなく、それらとエッジの強さとを組み合わせた条件にて画像の類似度を評価することができる。特に、画像検索においては、ノードの情報を単独で用いたのでは、図の特徴を十分に表すことができない。このため、ノードの重みにエッジの強さを組み合わせた条件にて検索処理を実行することにより、検索精度を従来技術に比して向上させることができる。   According to the present invention, it is possible to evaluate not only the importance of terms and pseudo-words but also the degree of similarity of images under a condition that combines them with edge strength. In particular, in the image search, if the node information is used alone, the features of the figure cannot be expressed sufficiently. For this reason, the search accuracy can be improved as compared with the prior art by executing the search process under a condition in which the edge weight is combined with the edge weight.

また、本発明においてクエリーを拡張する場合には、拡張先のノード及びエッジの重みを元のクエリーからの伝搬を考慮して変更することにより、拡張後のクエリーが有するノード間の構造を検索結果に反映させることができる。   Further, in the case of expanding a query in the present invention, the structure of the expanded query between nodes is changed by changing the weight of the extended node and edge in consideration of propagation from the original query. Can be reflected.

また、本発明においてノード間の関係性の強さを表現した遷移確率行列を固有値問題として解く場合には、用語と擬似単語の重要度を共通の条件にて計算することができる。すなわち、相対的な重みを用いる場合よりも検索精度を向上させることができる。   In the present invention, when a transition probability matrix expressing the strength of the relationship between nodes is solved as an eigenvalue problem, the importance of terms and pseudo words can be calculated under common conditions. That is, the search accuracy can be improved as compared with the case where relative weights are used.

検索システムの概念構成を示す図。The figure which shows the conceptual structure of a search system. 検索システムで実行される検索動作の概要を説明する図。The figure explaining the outline | summary of the search operation | movement performed with a search system. (a)〜(e)は、画像から擬似単語を作成する例を説明する図。(a)は元の画像を示す図。(b)は画像から検出された特徴点を示す図。(c)は特徴点から計算された特徴量の結果を示す図。(d)は特徴量をクラスタリングして量子化し、擬似単語化した結果を示す図。(e)は画像の擬似単語による表現例を示す図。(a)-(e) is a figure explaining the example which produces a pseudo word from an image. (a) is a diagram showing an original image. (b) is a figure which shows the feature point detected from the image. (c) is a figure which shows the result of the feature-value calculated from the feature point. (d) is a diagram showing the result of clustering and quantizing the feature values into pseudo words. (e) is a figure which shows the example of expression by the pseudo word of an image. (a)及び(b)はインデックスの一例を示す図。(a)は画像のインデックス例と画像の説明文のインデックス例を示す図。(b)は文書のインデックス例を示す図。(a) And (b) is a figure which shows an example of an index. FIG. 5A is a diagram illustrating an example of an index of an image and an example of an index for an explanatory text of the image. (b) is a diagram showing an example of a document index. 各用語・擬似単語の重要度を示す図と、擬似単語間、用語間、擬似単語−用語間の関係性の強さを示す図。The figure which shows the importance of each term and pseudoword, and the figure which shows the strength of the relationship between pseudowords, between terms, and a pseudoword-term. 画像・文書検索システムのインターフェースの図。(a)はクエリーの画面例を示す図。(b)は検索結果の画面例を示す図。The figure of the interface of an image and document search system. (a) is a figure which shows the example of a query screen. (b) is a diagram showing an example of a search result screen. 画像・文書検索システムのインターフェースの図。(c)は検索結果の表示画面例を示す図。(d)は検索結果の図に特徴量を表示した画面例を示す図。(e)は重み付きのノードと重み付のエッジで構成されるネットワークに検索結果を表示した図。(f)はユーザが検索結果から図の一部を利用して検索する場合に使用する画面例を示す図。The figure of the interface of an image and document search system. (c) is a figure which shows the example of a display screen of a search result. FIG. 6D is a diagram showing an example of a screen in which feature amounts are displayed in a search result diagram. (e) is a diagram showing search results displayed on a network composed of weighted nodes and weighted edges. (f) is a figure which shows the example of a screen used when a user searches using a part of figure from a search result. ある文書・画像群を構成する擬似単語及び用語間の関係を示す図。(a)は遷移確率をエッジに有する有向グラフの例を示す図。(b)は遷移確率行列を解くことによりノードを構成する擬似単語・用語の各重要度を計算した結果を示す図。The figure which shows the relationship between the pseudo word and term which comprise a certain document and image group. (a) is a figure which shows the example of the directed graph which has a transition probability in an edge. (b) is a figure which shows the result of having calculated each importance of the pseudo word and the term which comprise a node by solving a transition probability matrix. 図7の文書・画像群に対応する文書インデックス例を示す図。The figure which shows the example of a document index corresponding to the document and image group of FIG. 図7の文書・画像群に対応する画像インデックス例を示す図。The figure which shows the example of an image index corresponding to the document and image group of FIG. 図7の文書・画像群に対応するネットワーク上のノード(用語・擬似単語)の重みとエッジの重みのインデックス例を示す図。The figure which shows the index example of the weight of the node (a term and a pseudo word) on a network corresponding to the document and image group of FIG. 7, and the weight of an edge. クエリーがTerm B, Term C, Term Dで与えられた場合に、クエリー拡張を行なわない場合における文書・擬似文書(図)の検索例を説明する図。The figure explaining the example of a search of a document and a pseudo document (a figure) when query expansion is not performed when a query is given by Term B, Term C, and Term D. (a)はクエリーがTerm Bで与えられた場合において、1段階のクエリー拡張を行った場合の文書・擬似文書(図)の検索結果を示す図。(b)はクエリーがterm Bで与えられた場合において、2段階のクエリー拡張を行った場合の文書・擬似文書(図)の検索結果を示す図。(a) is a diagram showing a search result of a document / pseudo-document (figure) when a query is given in Term B and one-stage query expansion is performed. (b) is a diagram showing a search result of a document / pseudo-document (figure) when a query is given by term B and two-stage query expansion is performed. (a)はクエリーがterm Bで与えられる場合において、図に関してだけ1段階のクエリー拡張を行う例を説明する図。(b)はクエリーがterm Bで与えられる場合において、用語に関してだけ1段階のクエリー拡張を行う例を説明する図。(a) is a figure explaining the example which performs one step of query expansion only regarding a figure, when a query is given by term B. FIG. FIG. 6B is a diagram for explaining an example in which one-stage query expansion is performed only for terms when a query is given by term B. (a)はクエリーがF1, F4, F8の場合において、クエリー拡張を行わない例を説明する図。(b)はクエリーがF1, F4, F8の場合において、図に関してだけ1段階のクエリー拡張を行う例を説明する図。(a) is a figure explaining the example which does not perform query expansion, when a query is F1, F4, and F8. FIG. 6B is a diagram for explaining an example in which one-stage query expansion is performed only with respect to the figure when the queries are F1, F4, and F8. (a)はクエリーがterm AとF1, F3, F8との組み合わせで与えられる場合において、クエリー拡張を行わない例を説明する図。(b)はクエリーがterm AとF1, F3, F8との組み合わせで与えられる場合において、図及び用語に関して1段階のクエリー拡張を行う例を説明する図。(a) is a figure explaining the example which does not perform a query expansion, when a query is given with the combination of term A and F1, F3, F8. FIG. 6B is a diagram for explaining an example in which one-stage query expansion is performed with respect to the figure and terms when the query is given by a combination of term A and F1, F3, and F8. 図の類似度を説明する図。(a)はある図Aを量子化した特徴量を黒くハイライト表示した図。(b)はある図Bを量子化した特徴量を黒くハイライト表示した図。The figure explaining the similarity of a figure. (a) is the figure which highlighted and displayed the feature-value which quantized a certain figure A black. FIG. 6B is a diagram in which a feature amount obtained by quantizing FIG. B is highlighted in black. (a)はある図Aの遷移確率行列の固有値問題を解いて擬似単語間の関係性を表示した図。(b)はある図Bの遷移確率行列の固有値問題を解いて擬似単語間の関係性を表示した図。(a) is the figure which displayed the relationship between pseudo words by solving the eigenvalue problem of the transition probability matrix of a certain figure A. FIG. (b) is a diagram showing the relationship between pseudo-words by solving the eigenvalue problem of the transition probability matrix of FIG. クエリーがterm Bで与えられる場合において、図と用語に関して1段階のクエリー拡張を行う例を説明する図。The figure explaining the example which performs one step of query expansion regarding a figure and a term when a query is given by term B.

以下、図面に基づいて、本発明の実施例を説明する。なお、後述する装置構成や処理動作の内容は発明を説明するための一例である。本発明には、後述する装置構成や処理動作を組み合わせた発明、後述する装置構成や処理動作に既知の技術を組み合わせた発明、後述する装置構成や処理動作の一部を既知の技術と置換した発明も含まれる。   Embodiments of the present invention will be described below with reference to the drawings. Note that the contents of the apparatus configuration and processing operation described later are examples for explaining the invention. In the present invention, an invention that combines a device configuration and processing operation described later, an invention that combines a device configuration and processing operation described later with a known technology, and a part of the device configuration and processing operation described later are replaced with a known technology. Inventions are also included.

(検索システムの構成)
図1に、画像、用語、文書を検索対象とする検索システム10の構成例を示す。検索システム10は、ストレージ20と計算機30で構成される。ストレージ20は、画像を含む文書、テキスト文書、画像をデジタルデータとして格納する。計算機30は、不図示の入力装置を通じて与えられたクエリーに基づいてストレージ20を検索し、検索結果をユーザに提示する。計算機30は、いわゆるコンピュータ構成を有する。すなわち、計算機30は、演算装置、記憶装置、入出力装置及び制御装置で構成される。なお、計算機30には、不図示の入力装置(例えばマウス、キーボード、ポインティングデバイス)や出力装置(例えば表示装置)が接続される。
(Configuration of search system)
FIG. 1 shows a configuration example of a search system 10 that searches images, terms, and documents. The search system 10 includes a storage 20 and a computer 30. The storage 20 stores a document including an image, a text document, and an image as digital data. The computer 30 searches the storage 20 based on a query given through an input device (not shown) and presents the search result to the user. The computer 30 has a so-called computer configuration. That is, the computer 30 includes an arithmetic device, a storage device, an input / output device, and a control device. Note that an input device (for example, a mouse, a keyboard, a pointing device) and an output device (for example, a display device) (not shown) are connected to the computer 30.

検索動作に関連する信号処理は、コンピュータ上で実行されるプログラムの処理機能を通じて実現される。もっとも、信号処理の全てが1台のコンピュータ上で実行される必要は無い。すなわち、後述する信号処理は、複数台のコンピュータの協働により実行しても良い。また、後述する信号処理の一部は、ハードウェア上で実行しても良い。   Signal processing related to the search operation is realized through a processing function of a program executed on the computer. However, it is not necessary for all signal processing to be executed on one computer. That is, signal processing to be described later may be executed in cooperation with a plurality of computers. Further, a part of signal processing described later may be executed on hardware.

また、検索システム10を構成するストレージ20は1台に限る必要はなく、複数台のストレージ20で構成されていても良い。また、ストレージ20と計算機30との接続は、一般には、ネットワーク経由での接続を想定する。ネットワークは、イントラネットでも良く、インターネットでも良い。   Further, the storage 20 constituting the search system 10 is not necessarily limited to one, and may be composed of a plurality of storages 20. The connection between the storage 20 and the computer 30 is generally assumed to be a connection via a network. The network may be an intranet or the Internet.

(検索システムの基本動作)
図2に、検索システム10で実行される検索動作の概要を示す。当該検索動作は、前処理100と、クエリーの入力処理108と、入力されたクエリーから検索に適した情報を抽出する前処理109と、抽出された情報(加工済みクエリーと呼ぶ)110を用いた検索処理107と、検索結果(解)を提示する処理111とで構成される。なお、検索処理107では、加工済みクエリーを必要に応じて拡張することがある。
(Basic operation of the search system)
FIG. 2 shows an outline of the search operation executed by the search system 10. The search operation uses preprocessing 100, query input processing 108, preprocessing 109 for extracting information suitable for search from the input query, and extracted information (called processed query) 110. A search process 107 and a process 111 for presenting a search result (solution) are configured. In the search process 107, the processed query may be expanded as necessary.

以下、検索用のプログラムを通じて実現される各処理の詳細内容を説明する。
(前処理)
まず、前処理100の内容を説明する。前処理100では、画像入り文書DB101に含まれる画像と文書のそれぞれから特徴量を抽出する処理と、抽出された特徴量から検索用のインデックスを作成する処理が実行される。ここでの画像入り文書DB101はストレージ20上に構築される。
The detailed contents of each process realized through the search program will be described below.
(Preprocessing)
First, the contents of the preprocessing 100 will be described. In the preprocessing 100, processing for extracting a feature amount from each of an image and a document included in the image-containing document DB 101 and processing for creating a search index from the extracted feature amount are executed. The image-containing document DB 101 here is constructed on the storage 20.

まず、前処理100においては、プログラムは、画像入り文書DB101の文書を画像とその説明文に分割する。次に、プログラムは、画像から特徴量を抽出し、抽出された特徴量を量子化する。量子化により、特徴量は擬似単語化される(103)。特徴点の検出には、Intensity based regions (非特許文献4)、Maximum stable extremal Regions detector (MSER)(非特許文献5)、Hessian-affine(非特許文献6)、Entropy-based regions (salient regions)(非特許文献7)、その他の多様な方法を利用できる。検出した特徴点の特徴量の計算には、shape context(非特許文献8)、Gradient orientation histogram - SIFT (Lowe’99)(非特許文献9)、PCA-SIFT (非特許文献10)、Complex filters(非特許文献11)、Moment invariants(非特許文献12)、その他の多様な方法を利用できる。どの手法が最適かは、画像群の質に依存する。このため、画像群に適した手法を選択する必要がある。これらの手法によって得られた特徴量を量子化する方法には、k-means クラスタリングなどがある。クラスターの数も、類似検索に適した量子化値となるように、テストする必要がある。   First, in the preprocessing 100, the program divides the document in the image-containing document DB 101 into an image and an explanatory text thereof. Next, the program extracts feature amounts from the image and quantizes the extracted feature amounts. By the quantization, the feature amount is converted into a pseudo word (103). Intensity based regions (Non-patent document 4), Maximum stable extremal Regions detector (MSER) (Non-patent document 5), Hessian-affine (Non-patent document 6), Entropy-based regions (salient regions) (Non-Patent Document 7) and other various methods can be used. For calculation of the feature amount of the detected feature point, shape context (Non-patent document 8), Gradient orientation histogram-SIFT (Lowe'99) (Non-patent document 9), PCA-SIFT (Non-patent document 10), Complex filters (Non-patent document 11), Moment invariants (non-patent document 12), and other various methods can be used. Which method is optimal depends on the quality of the image group. For this reason, it is necessary to select a method suitable for the image group. Methods for quantizing the feature values obtained by these methods include k-means clustering. It is necessary to test the number of clusters so that the quantization value is suitable for the similarity search.

図3の(a)〜(e)に、画像(図)の特徴量の抽出から特徴量の量子化までの処理イメージを示す。ここで、図3の(a)が元の画像(図)201である。図3の(b)は、画像201から特徴点(楕円で囲んで示す)を検出した状態202を示す図である。図3の(c)は、特徴点から特徴量を計算した結果203の一例を示す図である。図3の(d)は、各特徴量をクラスタリングして量子化し、多次元の特徴量(擬似単語)に変換した状態204を示す図である。ここでのCL*(*は1、2…N)は、特徴点に対応付けられた擬似単語を示す。図3の(e)は、画像を量子化された特徴量(擬似単語)の集合として表した状態205を示す図である。   FIGS. 3A to 3E show processing images from extraction of feature amounts of an image (FIG.) To quantization of feature amounts. Here, (a) of FIG. 3 is the original image (figure) 201. FIG. 3B is a diagram illustrating a state 202 in which feature points (indicated by an ellipse) are detected from the image 201. (C) of FIG. 3 is a figure which shows an example of the result 203 which computed the feature-value from the feature point. FIG. 3D is a diagram illustrating a state 204 in which each feature amount is clustered and quantized and converted into a multidimensional feature amount (pseudoword). Here, CL * (* is 1, 2,... N) indicates a pseudo word associated with the feature point. FIG. 3E shows a state 205 in which an image is represented as a set of quantized feature amounts (pseudowords).

一方、プログラムは、文中の用語を認識し、画像の説明文から用語を取り出す(102)。この実施例の場合、画像の説明文を、画像の周囲にレイアウトされた文として定義する。周囲の範囲は、検索結果の精度等を考慮して適宜設定する。ここで、用語は、辞書データ等を用いることにより、同義語を同じ概念として認識することが望ましい。また、必要に応じ、文脈を判断し、用語的曖昧性を解決することが望ましい。   On the other hand, the program recognizes the term in the sentence and extracts the term from the description of the image (102). In this embodiment, the description of the image is defined as a sentence laid out around the image. The surrounding range is appropriately set in consideration of the accuracy of the search result. Here, it is desirable to recognize synonyms as the same concept by using dictionary data or the like. It is also desirable to determine the context and resolve terminology ambiguity as necessary.

次に、プログラムは、擬似単語と図を説明している用語を画像毎に組み合わせてインデックスを作成する(104)。すなわち、擬似文書化を作成する。図4の(a)及び(b)にインデックスの作成例を示す。図4の(a)は画像のインデックス300の例であり、図4の(b)は文書のインデックス303の例である。画像のインデックス300は、各画像に関連する用語(Term)の頻度の集合301と、画像から抽出された特徴点の頻度の集合302で構成される。一方、文書のインデックス303は、各文書に関連する用語(Term)の頻度の集合304と、文書に関連する画像から抽出された特徴点の頻度の集合305で構成される。ここでのインデックスが特許請求の範囲における第1のインデックスに対応する。   Next, the program creates an index by combining the pseudo word and the term describing the figure for each image (104). That is, pseudo-documentation is created. Examples of index creation are shown in FIGS. 4A shows an example of an image index 300, and FIG. 4B shows an example of a document index 303. The image index 300 includes a frequency set 301 of terms (Term) related to each image and a frequency set 302 of feature points extracted from the image. On the other hand, the document index 303 includes a set 304 of terms (Term) related to each document and a set 305 of frequency of feature points extracted from images related to the document. The index here corresponds to the first index in the claims.

この後、プログラムは、ノード(用語や擬似単語)の重要度を計算すると共に、エッジ(用語同士間、擬似単語同士間、用語と擬似単語間)の関係性の強さを計算する(105)。すなわち、重み付きノードと強度付きエッジで構成されるネットワークを生成する。この後、プログラムは、計算された重み付きノード(擬似単語や用語の重要度)と、強度付きエッジ(ノード間の関係性の強さ情報を付したエッジ)を組み合わせた検索用のインデックスを作成する(106)。ここでのインデックスが特許請求の範囲における第2のインデックスに対応する。   Thereafter, the program calculates the importance of the nodes (terms and pseudo words) and also calculates the strength of the relationship between the edges (between terms, between pseudo words, between terms and pseudo words) (105). . That is, a network including weighted nodes and strength edges is generated. After this, the program creates a search index that combines the calculated weighted nodes (pseudo-word and term importance) with the strength edges (edges with information on the strength of the relationship between the nodes). (106). The index here corresponds to the second index in the claims.

図5に、ネットワークを構成するノードの重み401とエッジの重み402の組み合わせで構成されるインデックス例を示す。ノードの重み401やエッジの重み402を与える重要度は、一般的に分野ごとに異なる。換言すると、分野毎に重みの数値が異なる。従って、ノードの重み401やエッジの重み402は、分野ごとに計算することが望ましい。また、1つの文書毎に文書を構成する用語と図のネットワーク(インデックス)を計算し、当該文書のネットワークとクエリーのネットワークとの類似度合い(スコア)を計算しても良い。すなわち、文書とクエリーとの類似具合を検索しても良い。   FIG. 5 shows an example of an index composed of combinations of node weights 401 and edge weights 402 constituting the network. The importance of giving the node weight 401 and the edge weight 402 is generally different for each field. In other words, the numerical value of the weight is different for each field. Therefore, it is desirable to calculate the node weight 401 and the edge weight 402 for each field. In addition, for each document, the terms constituting the document and the network of the figure (index) may be calculated, and the degree of similarity (score) between the network of the document and the network of the query may be calculated. That is, the similarity between the document and the query may be searched.

前述したネットワークの生成方法には幾つかの方法がある。以下に、一例を示す。例えば用語、擬似単語間の遷移確率行列を作成し、その固有値問題を解くことにより生成することができる。この場合、擬似単語や用語をネットワークのノードとして扱い、ノードの関係性をネットワークのエッジとして扱う。また、擬似単語や用語の重要度をノードの重みとして扱い、擬似単語と用語の関係性の強さがエッジの重みとして扱われる。ここで、エッジの重みは、エッジと遷移確率の積として定義する。   There are several methods for generating the network described above. An example is shown below. For example, it can be generated by creating a transition probability matrix between terms and pseudo-words and solving the eigenvalue problem. In this case, pseudo words and terms are treated as network nodes, and node relationships are treated as network edges. In addition, the importance of a pseudo word or term is treated as a node weight, and the strength of the relationship between the pseudo word and the term is treated as an edge weight. Here, the edge weight is defined as the product of the edge and the transition probability.

例えばノード間の遷移確率行列Tは、ある用語又は擬似単語を起点としたときのtf*idfや共起頻度等の文書検索システムのスコアSij(ここで、i,jは用語又は擬似単語)を用い、次式(式1)を要素とする行列の転置行列として規定する。 For example, the transition probability matrix T between nodes is a document retrieval system score S ij (where i and j are terms or pseudowords) such as tf * idf and co-occurrence frequency starting from a certain term or pseudoword. Is defined as a transposed matrix of a matrix having the following equation (Equation 1) as an element.

Figure 2011248596
Figure 2011248596

ここで、Pij (ここで、iとjは用語又は擬似単語)は、エッジEij(ノードiからノードjへのエッジ)の遷移確率である。Pij は、次式(式2)の関係を満たす。 Here, P ij (where i and j are terms or pseudowords) is a transition probability of the edge E ij (the edge from the node i to the node j). P ij satisfies the relationship of the following equation (Equation 2).

Figure 2011248596
Figure 2011248596

コンピュータは、この遷移確率行列Tの固有値問題(式3)を既知の演算処理により解く。   The computer solves the eigenvalue problem (Equation 3) of the transition probability matrix T by a known calculation process.

Figure 2011248596
Figure 2011248596

ここで、λは固有値、Vは固有ベクトルである。i番目のノードの重みは固有ベクトルVのi番目の要素となる。規格化する場合は、ノードの重みを、固有ベクトルVのi番目の要素*1/固有ベクトル要素の総和とする。エッジEijの強さはノードの重みと遷移確率Pijの積として規定する。 Here, λ is an eigenvalue, and V is an eigenvector. The weight of the i-th node is the i-th element of the eigenvector V. When normalization is performed, the node weight is the sum of the i-th element * 1 / eigenvector element of the eigenvector V. The strength of the edge E ij is defined as the product of the node weight and the transition probability P ij .

図7の(a)に、遷移確率行列Tを構成する要素の関係を有向エッジで表したネットワーク形式で表現した例を示す。図中、521はノードであり、522は遷移確率付きのエッジである。図7の(b)に、ノードiの重みWi とエッジEijの重みTijをネットワーク上にマッピングした例を示す。重みWi は、遷移確率行列Tの固有値問題を解くことで算出される。図中、523は重み付きノードであり、524は関係性の強さ付きのエッジである。 FIG. 7A shows an example in which the relationship between the elements constituting the transition probability matrix T is expressed in a network format represented by directed edges. In the figure, 521 is a node and 522 is an edge with a transition probability. FIG. 7B shows an example in which the weight W i of the node i and the weight T ij of the edge E ij are mapped on the network. The weight W i is calculated by solving the eigenvalue problem of the transition probability matrix T. In the figure, 523 is a weighted node, and 524 is an edge with a strong relationship.

なお、固有値が複数存在して固有ベクトルが一意に決まらない場合には、例えば次式(式4)に示すように、Pijのデフォルト値として1/Mを追加する等してグラフを強連結構造とし、固有ベクトルが一意に決まるようにする。 If multiple eigenvalues exist and the eigenvector cannot be determined uniquely, for example, as shown in the following equation (Equation 4), the graph is strongly connected by adding 1 / M as the default value of P ij And the eigenvector is determined uniquely.

Figure 2011248596
Figure 2011248596

ここで、遷移確率行列Tの要素には、Sij(=tf*idf)のスコア、Okapi BM25(非特許文献14)や超幾何分布等のスコアを利用できる。なお、Sij のスコアを与えるtfは、i番目の用語又は擬似単語をクエリーとして部分文書集合を得る場合における部分文書集合中におけるj番目の用語又は擬似単語の出現頻度である。一方、idfは、log10(データベース中に現れる文書又は擬似文書の数/j番目の用語又は擬似単語が現れる文書・擬似文書の数)により算出される。 Here, as the elements of the transition probability matrix T, scores of S ij (= tf * idf), Okapi BM25 (Non-patent Document 14), hypergeometric distribution, and the like can be used. Note that tf giving the score of S ij is the appearance frequency of the j-th term or pseudo word in the partial document set when the partial document set is obtained using the i-th term or pseudo word as a query. On the other hand, idf is calculated from log 10 (the number of documents or pseudo documents appearing in the database / the number of documents / pseudo documents in which the j-th term or pseudo word appears).

なお、前述したように遷移確率行列Tを固有値と固有ベクトルについて解く代わりに、以下の漸化式(式5又は式6)を解くことによりノードの重要度とエッジの強さを算出しても良い(非特許文献13)。   As described above, instead of solving the transition probability matrix T for the eigenvalues and eigenvectors, the importance of the node and the strength of the edge may be calculated by solving the following recurrence formula (Formula 5 or Formula 6). (Non-patent document 13).

Figure 2011248596
Figure 2011248596

Figure 2011248596
Figure 2011248596

前式において、I(Ni)はi番目のノードの重要度である。また、Out(Nj)は、j番目のノードからk番目のノードに遷移するk番目のノードの全ての組を示す。In(Ni)は、j番目のノードからi番目のノードに遷移するj番目のノードの全ての組を示す。さらに、dは定数であり、0.8-0.99程度の値を採る。スコアSijには、前述したように、tf*idf、Okapi BM25等のスコア値を使用できる。さらに、他の方法を用いてエッジの重みT とノードの重みW を決めても良い。なお、あるノードに対するエッジからの流入量と流出量は同じであることが望ましい。すなわち、次式(数7)が成立することが望ましい。 In the above equation, I (N i ) is the importance of the i-th node. Out (N j ) indicates all sets of the k-th node that transitions from the j-th node to the k-th node. In (N i ) indicates all sets of j-th nodes that transition from the j-th node to the i-th node. Furthermore, d is a constant and takes a value of about 0.8 to 0.99. As described above, score values such as tf * idf and Okapi BM25 can be used for the score S ij . Further, the edge weight T and the node weight W may be determined using other methods. It is desirable that the inflow amount and the outflow amount from the edge with respect to a certain node are the same. That is, it is desirable that the following equation (Equation 7) holds.

Figure 2011248596
Figure 2011248596

(操作画面)
続いて、クエリーの入力と検索結果の表示に関するプログラムの処理を説明する。なお、後述する画面は、クエリー入力処理108と検索結果(解)を提示する処理111で表示される操作画面に対応する。
(Operation screen)
Next, processing of the program relating to query input and search result display will be described. The screen described later corresponds to the operation screen displayed in the query input process 108 and the process 111 for presenting the search result (solution).

本実施例において、プログラムは、テキスト、手元の図又は文書をクエリーとする。また、プログラムは、付随テキスト情報と図の複合文書、文書のみ、図のみのいずれかを検索対象とする。図6−1の(a)に、クエリーの入力時に使用する検索システムの画面501の表示例を示す。画面501は、テキストクエリーの入力欄502、図クエリーの入力欄503、文書クエリーの入力欄504、検索対象選択欄505、検索開始ボタン506、アップロードボタン506Aで構成される。これらのうち入力欄504に対応する文書クエリーは、付属テキスト情報と図の複合文書をクエリーとするものをいう。文書クエリーの入力は、文書IDの入力によっても、対応文書のアップロードによっても行うことができる。検索対象選択欄505の○印は、検索対象の選択及び選択状態を示すボタンである。検索対象が選択されると、例えば○印は●印に変化する。アップロードボタン506Aは、計算機30が内部に格納する図や文書(図と説明文)をクエリーとして取り込むためのボタンである。   In the present embodiment, the program uses text, a local figure, or a document as a query. Further, the program searches for the accompanying text information and the compound document of the figure, only the document, or only the figure. FIG. 6A shows a display example of the screen 501 of the search system used when inputting a query. The screen 501 includes a text query input field 502, a diagram query input field 503, a document query input field 504, a search target selection field 505, a search start button 506, and an upload button 506A. Among these, the document query corresponding to the input field 504 is a query that uses the combined text information and the figure composite document as a query. A document query can be input by inputting a document ID or by uploading a corresponding document. A circle in the search target selection field 505 is a button indicating selection of a search target and a selection state. When the search target is selected, for example, the circle mark changes to the circle mark. The upload button 506A is a button for taking in a diagram or a document (figure and description) stored in the computer 30 as a query.

次に、解の提示(すなわち、クエリーに対する検索結果の表示)に関するプログラムの処理を説明する。なお、必要であれば、検索結果として表示された図や文書のうち目的とする図や文書に近いものをクエリーとして選択し、新たに設定されたクエリーについて再度検索を行うこともできる。図6−1の(b)に、検索結果表示画面507の表示例を示す。検索結果表示画面507は、類似度が高いとして検索された図の表示欄509と図に関連するテキストの表示欄510、各表示欄に表示された図やテキストを新たなクエリーとしてプログラムに入力するための選択ボタン508、画面内で新たに指定されたクエリーを用いた検索(relevance feedback)の実行を指示する検索開始ボタン511で構成される。なお、検索結果表示画面507には、図と関連するテキストを特徴付けるネットワーク構造を表示するための詳細表示ボタン512と、表示欄509に表示された各図の一部分を新たなクエリーとして指定するための部分画像選択ボタン513も表示される。   Next, processing of the program relating to presentation of a solution (that is, display of search results for a query) will be described. If necessary, a figure or document displayed as a search result, which is close to the target figure or document, can be selected as a query, and the newly set query can be searched again. FIG. 6B shows a display example of the search result display screen 507. The search result display screen 507 inputs a figure display column 509 searched for high similarity, a text display column 510 related to the figure, and a figure and text displayed in each display column to the program as a new query. And a search start button 511 for instructing execution of a search (relevance feedback) using a query newly specified in the screen. In the search result display screen 507, a detailed display button 512 for displaying the network structure characterizing the text associated with the figure, and a part of each figure displayed in the display field 509 are designated as a new query. A partial image selection button 513 is also displayed.

図6−2に、検索結果表示画面507に表示される画像の内容やボタンとの関係を示す。なお、図6−2は、検索対象を「図+説明文」としたときの検索結果の例である。図6−2の(c)は、図6−1の(b)と同じ図である。図6−2の(d)は、詳細表示ボタン512が操作された場合に、検索された図に追加的に表示される特徴量の表示例である。図6−2の(e)は、詳細表示ボタン512が操作された場合に表示されるネットワーク構造の表示例である。ネットワーク構造には、対応する図、文書又は図と文書の重み付きノードと重み付きエッジの関係が示されている。図6−2の場合、クエリーがヒットしたノードとエッジが着色と太線の組み合わせで示される。この画面表示により、検索に使用されたノードとノード間の関係をネットワーク上で確認することができる。また、この表示は、relevance feedbackの選択の参考にすることもできる。また、最初にどのようなクエリーを入れるべきかの参考にも使用できる。図6−2の(f)は、部分画像選択ボタン513が操作された場合に表示される画面例である。図中、太線で囲んだ部分が新たなクエリーとして使用される画像領域を示す。図6−2の(f)において検索開始ボタン511を操作すると、インタラクティブに選択された部分画像を新たなクエリーとした検索が実行される。   FIG. 6B shows the relationship between the image contents and buttons displayed on the search result display screen 507. FIG. 6B is an example of a search result when the search target is “FIG. + Description”. FIG. 6C is the same diagram as FIG. 6B. FIG. 6D is a display example of the feature amount additionally displayed in the searched diagram when the detail display button 512 is operated. FIG. 6E is an example of a network structure displayed when the detail display button 512 is operated. The network structure shows the relationship between the corresponding diagram, document or diagram and the weighted nodes and weighted edges of the document. In the case of FIG. 6B, the nodes and edges where the query is hit are indicated by a combination of coloring and bold lines. By this screen display, it is possible to confirm on the network the node used for the search and the relationship between the nodes. This display can also be used as a reference for selecting relevance feedback. It can also be used as a reference for what queries should be included first. FIG. 6B is an example of a screen displayed when the partial image selection button 513 is operated. In the figure, a portion surrounded by a thick line indicates an image region used as a new query. When the search start button 511 is operated in (f) of FIG. 6B, a search using the interactively selected partial image as a new query is executed.

なお、図6−1の(a)には、部分画像選択ボタン513を表していないが、最初のクエリーを入力する画面にも部分画像選択ボタン513を表示しても良い。また、クエリーを入力する際に、図6−1の(a)及び(b)の中間画面としてクエリーに対する特徴量を表示した図6−2の(d)や(e)を表示しても良い。   In FIG. 6A, the partial image selection button 513 is not shown, but the partial image selection button 513 may be displayed on the screen for inputting the first query. In addition, when inputting a query, (d) and (e) in FIG. 6-2 may be displayed as the intermediate screens in FIGS. 6-1 (a) and (b). .

(検索前処理と検索処理)
次に、クエリーが与えられた後のプログラムの処理を説明する。クエリー拡張がない場合、プログラムは、文書/画像中のクエリーノードの重みと、クエリーノード間の重みを利用して目的とする文書/画像を検索する。一方、クエリー拡張がある場合、プログラムは、有向グラフの場合はグラフの向きに沿ってクエリーを拡張し、無向グラフの場合にはグラフの向きとは無関係に隣接するエッジに伝搬させるようにクエリーを拡張する。これらの処理は、クエリー用の前処理109から処理111までの処理内容に対応する。
(Pre-search process and search process)
Next, processing of the program after the query is given will be described. If there is no query expansion, the program searches for the target document / image using the weight of the query node in the document / image and the weight between the query nodes. On the other hand, if there is query expansion, the program expands the query along the direction of the graph in the case of a directed graph, and in the case of an undirected graph the query is propagated to adjacent edges regardless of the direction of the graph. Expand. These processes correspond to the processing contents from the preprocessing 109 to the processing 111 for the query.

検索には、ノードの重みだけでなくエッジの重みも利用し、検索対象である文書/画像をスコアリングする。   In the search, not only the weight of the node but also the weight of the edge is used, and the document / image to be searched is scored.

なお、クエリーの拡張時には、元のクエリーの重みからの伝搬(遷移)も利用する。このため、拡張されたクエリーにおいては、個々のノードやエッジ自身の数値だけでなく、これらの値に伝搬(遷移)確率を乗算したノードとエッジの重みを利用する。   Note that propagation (transition) from the weight of the original query is also used when expanding the query. For this reason, in the expanded query, not only the numerical values of individual nodes and edges themselves, but also the weights of nodes and edges obtained by multiplying these values by propagation (transition) probabilities are used.

例えばクエリー拡張がない場合、各文書、擬似文書(画像)のスコアは、次式(式8)で与えられる。   For example, when there is no query expansion, the score of each document and pseudo document (image) is given by the following equation (Equation 8).

Figure 2011248596
Figure 2011248596

これに対し、1段階のクエリー拡張がある場合、各文書、擬似文書(画像)のスコアは、次式(式9)で与えられる。なお、1段階のクエリー拡張とは、元のクエリーを構成する各要素に対してネットワーク上の接続関係を有するエッジとノードにまでクエリーの構成要素を拡張することを意味する。   On the other hand, when there is one-stage query expansion, the score of each document and pseudo document (image) is given by the following equation (Equation 9). Note that the one-stage query expansion means that the constituent elements of the query are extended to edges and nodes having a connection relationship on the network with respect to each element constituting the original query.

Figure 2011248596
Figure 2011248596

式8及び式9において、Ij はノードjの重みを示し、Ejkはノードj,k間のエッジの重みを示し、freq(tk)はノードk(k番目の用語又は擬似単語)の文書及び/又は擬似文書中の出現頻度を示し、Pijはノードiとノードj間の遷移確率を示す。クエリーの拡張が2段階の場合も同様に、元のエッジとノードの各重みに元のクエリーからの遷移確率の積をとる。2段目の拡張エッジと拡張ノードには、元のクエリーから延びる2つのエッジの各遷移確率を乗算した後の値が用いられる。なお、スコアリングの方法は式9の内容に限らない。また、MinとMaxなどの取り方も適宜変えることができる。 In Expressions 8 and 9, I j represents the weight of the node j, E jk represents the weight of the edge between the nodes j and k, and freq (t k ) represents the node k (k-th term or pseudo word). The frequency of appearance in the document and / or pseudo document is indicated, and P ij indicates the transition probability between the node i and the node j. Similarly, when the query is expanded in two stages, the product of transition probabilities from the original query is calculated for each weight of the original edge and the node. For the extended edge and the extended node in the second stage, values obtained by multiplying the transition probabilities of the two edges extending from the original query are used. The scoring method is not limited to the content of Equation 9. Moreover, how to take Min and Max can be changed as appropriate.

なお、実際の検索処理の実行前には、クエリー用の前処理109において、与えられたクエリーの特徴量が検索用に抽出される。例えばクエリーが画像(文書の画像部分を含む)の場合、プログラムは、画像の解析処理を実行し、画像が有する特徴量を量子化して擬似単語に変換する(103)。一方、クエリーがテキスト(文書のテキスト部分を含む。)の場合、プログラムは、テキストを構成する用語を取り出す(102)。このように、擬似単語化された又は抽出された用語によって、検索処理用の加工済みクエリー110が生成される。プログラムは、この加工済みクエリー110又は必要に応じて拡張されたクエリーを使用して、文書及び/又は擬似文書(図)を検索する検索処理107を実行し、検索結果(解)を画面上に提示する。   Note that, before the actual search process is executed, the query feature amount is extracted for search in the query preprocess 109. For example, when the query is an image (including the image portion of the document), the program executes an image analysis process, quantizes the feature amount of the image, and converts it into a pseudo word (103). On the other hand, if the query is text (including the text portion of the document), the program retrieves the terms that make up the text (102). In this way, the processed query 110 for search processing is generated based on the pseudo-worded or extracted terms. The program uses the processed query 110 or a query expanded as necessary to execute a search process 107 for searching for a document and / or a pseudo document (figure), and displays the search result (solution) on the screen. Present.

(実施例1)
続いて、前述した検索システムで使用するインデックスの実施例を説明する。図8−1に、画像を含む文書のインデックス例を示す。図8−1では、文書中の画像を画像解析することにより取り出した特徴量を量子化したものをF1,…, FNで示す。また、用語をTermA, TermB,…で示す。なお、擬似単語や用語には、それぞれが画像又は図面中に出現する出現頻度を関連付けられている。文書1に複数の画像が含まれており、かつ、それら複数の画像に擬似単語F1….FNが含まれる場合、F1….FNの出現頻度は各画像の出現頻度の和で与えられる。図8−2は、各画像の特徴量を量子化した結果(擬似単語)の出現頻度をインデックス化した例を示す。図中、601は、画像に関連する用語・擬似単語のノードと出現頻度との関係を示す表である。また、602は、画像に関連する用語・擬似単語間の遷移確率と出現頻度との関係を示す表である。図8−3は、ある画像入り文書群における用語又は擬似単語の重み、ノード間の関係性の強さ、ノード間の遷移確率の関係を示したものである。図中、603は、用語又は擬似単語と重みとの関係を示している。604は、ノード間の関係性の強さと遷移確率との関係を示している。603と604の値は、遷移確率行列Tの固有値問題の解として又は他の手法により算出され、ストレージ上に蓄積される。
Example 1
Subsequently, an embodiment of an index used in the above-described search system will be described. FIG. 8A shows an example of an index of a document including an image. In FIG. 8A, F 1 ,..., F N indicate quantized features extracted by image analysis of images in a document. Terminology is indicated by TermA, TermB,. Each pseudo word or term is associated with an appearance frequency that appears in an image or drawing. It includes a plurality of images on the document 1, and, if the plurality of images includes a pseudo word F 1 ... .F N, the frequency of occurrence of F 1 ... .F N is the sum of the frequency of appearance of each image Given. FIG. 8B illustrates an example in which the appearance frequency of the result (pseudoword) obtained by quantizing the feature amount of each image is indexed. In the figure, reference numeral 601 denotes a table showing the relationship between the nodes of terms / pseudo words related to images and the appearance frequency. Reference numeral 602 denotes a table showing the relationship between the transition probability between terms / pseudowords related to an image and the appearance frequency. FIG. 8-3 shows the relationship between the weight of a term or pseudo word, the strength of the relationship between nodes, and the transition probability between nodes in a certain image-containing document group. In the figure, reference numeral 603 denotes the relationship between the term or pseudo word and the weight. Reference numeral 604 denotes a relationship between the strength of the relationship between the nodes and the transition probability. The values of 603 and 604 are calculated as a solution to the eigenvalue problem of the transition probability matrix T or by another method and accumulated on the storage.

(実施例2)
図9に、図8−3に示す重み構造を有する画像入り文書集合のネットワーク構造を示す。ここでは、図8−2に示すインデックスを有する画像と、Term B、Term C及びTerm Dで構成されるクエリーとのスコアを算出する場合を考える。クエリー拡張がない場合、図9に示すように、Term BからTerm Cの間とTerm CからTerm Dの間にエッジが存在する。このため、画像入り文書のスコアは、例えば次式(式10)で計算することができる。
(Example 2)
FIG. 9 shows a network structure of an image-containing document set having the weight structure shown in FIG. Here, a case is considered where the scores of the image having the index shown in FIG. 8-2 and the query composed of Term B, Term C, and Term D are calculated. When there is no query expansion, edges exist between Term B and Term C and between Term C and Term D, as shown in FIG. For this reason, the score of the document with an image can be calculated by, for example, the following formula (Formula 10).

Figure 2011248596
Figure 2011248596

(実施例3)
図10の(a)は、実施例2と同様の条件下で、Term Bに対してクエリーを一段階拡張した状態を示す図である。この場合、画像入り文書のスコアは、例えば次式(式11)で計算することができる。
(Example 3)
FIG. 10A is a diagram showing a state in which a query is expanded by one step for Term B under the same conditions as in the second embodiment. In this case, the score of the document with an image can be calculated by, for example, the following formula (Formula 11).

Figure 2011248596
Figure 2011248596

(実施例4)
図10の(b)は、実施例2と同様の条件下で、Term Bに対してクエリーを2段階拡張した状態を示す図である。2段階目の拡張部分のエッジを破線で示す。この場合、画像入り文書のスコアは、例えば次式(式12)で計算することができる。
Example 4
FIG. 10B is a diagram illustrating a state in which a query is expanded by two stages for Term B under the same conditions as in the second embodiment. The edge of the extended portion in the second stage is indicated by a broken line. In this case, the score of the document with an image can be calculated by the following formula (Formula 12), for example.

Figure 2011248596
Figure 2011248596

(実施例5)
図11の(a)は、実施例2と同様の条件下で、クエリー(Term B)を図に関してだけ一段階拡張した状態を示す図である。図中、グレーが濃いノードと太いエッジが検索におけるスコアリングの計算対象となる。
(Example 5)
FIG. 11A is a diagram showing a state where the query (Term B) is expanded by one step only with respect to the diagram under the same conditions as in the second embodiment. In the figure, dark gray nodes and thick edges are subject to scoring calculation in the search.

(実施例6)
図11の(b)は、実施例2と同様の条件下で、クエリー(Term B)を用語に関してだけ一段階拡張した状態を示す図である。図中、グレーが濃いノードと太いエッジが検索におけるスコアリングの計算対象となる。
(Example 6)
FIG. 11B is a diagram illustrating a state in which the query (Term B) is expanded by one step only for terms under the same conditions as in the second embodiment. In the figure, dark gray nodes and thick edges are subject to scoring calculation in the search.

(実施例7)
図12の(a)は、実施例2と同様の条件下で、図をクエリーとする例である。なお、図の構成擬似単語F1, F4, F8をクエリーとし、拡張なしで検索する例を示している。図中、グレーが濃いノードと太いエッジが検索におけるスコアリングの計算対象となる。
(Example 7)
FIG. 12A shows an example in which the figure is a query under the same conditions as in the second embodiment. In the example shown in the figure, the pseudo-words F1, F4, and F8 shown in FIG. In the figure, dark gray nodes and thick edges are subject to scoring calculation in the search.

(実施例8)
図12の(b)は、実施例2と同様の条件下で、図をクエリーとする例である。なお、図の構成擬似単語F1, F4, F8をクエリーとする点は実施例7と同じであるが、本実施例ではクエリーを各ノードから図に関してのみ一段階拡張した例を示している。図中、グレーが濃いノードと太いエッジが検索におけるスコアリングの計算対象となる。
(Example 8)
FIG. 12B is an example in which the figure is a query under the same conditions as in the second embodiment. The configuration pseudo-words F1, F4, and F8 in the figure are the same as the query in the seventh embodiment. However, in this embodiment, an example is shown in which the query is expanded from each node by one step only with respect to the diagram. In the figure, dark gray nodes and thick edges are subject to scoring calculation in the search.

(実施例9)
図13の(a)は、実施例2と同様の条件下で、クエリーが「図+説明文」で与えられる場合、具体的にはクエリーがterm AとF1, F3, F8の組み合わせで与えられる場合において、クエリーを拡張しないときの例である。図中、グレーが濃いノードと太いエッジが検索におけるスコアリングの計算対象となる。
Example 9
FIG. 13A shows a case where the query is given as “figure + description” under the same conditions as in the second embodiment. Specifically, the query is given as a combination of term A and F1, F3, F8. In some cases, the query is not expanded. In the figure, dark gray nodes and thick edges are subject to scoring calculation in the search.

(実施例10)
図13の(b)は、実施例2と同様の条件下で、クエリーが「図+説明文」で与えられる場合、具体的にはクエリーがterm AとF1, F3, F8で与えられる場合において、クエリーを一段階拡張するときの例である。図中、グレーが濃いノードと太いエッジが検索におけるスコアリングの計算対象となる。
(Example 10)
FIG. 13B shows a case where the query is given as “figure + description” under the same conditions as in the second embodiment, specifically, when the query is given as term A and F1, F3, F8. This is an example when the query is expanded by one step. In the figure, dark gray nodes and thick edges are subject to scoring calculation in the search.

(実施例11)
図14の(a)及び(b)は、ある図に含まれる特徴量と特徴量間の関係を黒くハイライト表示した例を示す。エッジが太い部分は、図14の(a)と(b)とで共通する部分である。このように、サブグラフの一致度をみることにより、部分的な類似検索も可能である。検索の際には、このようなサブグラフをクエリーに用いることもできる。
(Example 11)
(A) and (b) of FIG. 14 show an example in which the relationship between the feature quantity and the feature quantity included in a certain figure is highlighted in black. A portion having a thick edge is a portion common to (a) and (b) of FIG. In this way, a partial similarity search is possible by looking at the degree of matching of the subgraphs. Such subgraphs can also be used in the query when searching.

また、このような図だけでの計算の場合には、最初に遷移確率行列を計算する際に元となるスコアSij の計算において、一定の距離以内に存在する擬似単語間ijの関係性のみを計算対象としても良い。すなわち、一定の距離を超えるノード(擬似単語)間にエッジは張らないようにしても良い。   In addition, in the case of calculation using only such a diagram, only the relationship between the pseudo-words ij existing within a certain distance is calculated in the calculation of the original score Sij when the transition probability matrix is calculated first. It is good also as a calculation object. That is, an edge may not be stretched between nodes (pseudo words) exceeding a certain distance.

(実施例12)
図15の(a)及び(b)は、画像毎に式3の固有値問題を解き、ネットワークを生成した例を示している。図15の(a)及び(b)は、全ての画像を解析し、図5に示すようにノードとエッジの重みをインデックス化することで生成できる。例えばクエリーが図15の(a)の全体で与えられるものとする。この場合、(a)と(b)の共通部分(図中、グレーが濃いノードと太いエッジの部分)が(b)を検索対象(処理対象)とする場合におけるスコアリングの計算対象となる。
(Example 12)
FIGS. 15A and 15B show examples in which the network is generated by solving the eigenvalue problem of Equation 3 for each image. 15A and 15B can be generated by analyzing all images and indexing the weights of nodes and edges as shown in FIG. For example, it is assumed that a query is given as a whole in FIG. In this case, the common part of (a) and (b) (the node of the dark gray node and the thick edge in the figure) is the scoring calculation target when (b) is the search target (processing target).

(実施例13)
図16は、実施例3と同様の条件で、クエリー(term B)を一段階拡張した例を示す。図16のネットワークは無向グラフである。このため、エッジの向きは関係なく、term Bに隣接する全てのエッジに伝搬してクエリーを拡張する。図中、グレーが濃いノードと太いエッジが検索におけるスコアリングの計算対象となる。
(Example 13)
FIG. 16 shows an example in which the query (term B) is expanded by one step under the same conditions as in the third embodiment. The network of FIG. 16 is an undirected graph. Therefore, the query is expanded by propagating to all edges adjacent to term B regardless of the direction of the edge. In the figure, dark gray nodes and thick edges are subject to scoring calculation in the search.

(まとめ)
以上説明したように、形態例に係る検索システム及び方法の場合には、ノードの重み(重要度)とエッジの強さ(ノード間の関係の強さ)を組み合わせて検索動作を実行する。このため、用語や擬似単語の独立した重要度だけで画像を検索する場合に比して、検索される画像の類似度を高めることができる。
(Summary)
As described above, in the case of the search system and method according to the embodiment, the search operation is executed by combining node weight (importance) and edge strength (strength relationship between nodes). For this reason, compared with the case where an image is searched only by the independent importance of a term or a pseudo word, the similarity of searched images can be increased.

また、クエリーを拡張する場合には、元のクエリーを構成する用語や擬似単語との派生関係に基づいて拡張先のノードやエッジの重みを再計算することにより、クエリーを構成するノードとエッジのネットワーク構造を正確に反映させた検索動作が可能になる。   Also, when expanding a query, the weights of the nodes and edges that make up the query are recalculated based on the derivation relationship with the terms and pseudo-words that make up the original query. A search operation that accurately reflects the network structure becomes possible.

また、遷移確率行列を固有値問題として解いたり、ノードとエッジの関係を漸化式として解くことにより、用語・擬似単語間の重要度を共通の条件にて計算できる。このため、相対的な重みを使用する場合に比してノードやエッジの重みの精度を従来技術に比して高めることができる。   Also, by solving the transition probability matrix as an eigenvalue problem or solving the relationship between nodes and edges as a recurrence formula, the importance between terms and pseudo-words can be calculated under common conditions. For this reason, the accuracy of the weights of the nodes and edges can be increased as compared with the prior art as compared with the case where relative weights are used.

10 検索システム
20 ストレージ
30 計算機
100 前処理
101 画像入り文書DB
107 検索処理
108 クエリーの入力処理
109 クエリー用の前処理
110 加工済みクエリー
201 元の画像(画像A)
202 画像Aの特徴点を認識した結果を示す画像
203 画像Aの特徴点を計算した結果を示す例
204 画像Aの特徴点を量子化した後の結果を示す例
205 量子化した特徴点を使って画像Aを表した例
300 画像のインデックス
301 用語の出現頻度のインデックス
302 画像の量子化された特徴量の出現頻度のインデックス
303 文書のインデックス
304 用語の頻度のインデックス
305 画像の量子化された特徴量の出現頻度のインデックス
401 用語の頻度のインデックス
402 用語の関係性の強さのインデックス
501 検索システムの画面
502 テキストクエリーの入力欄
503 図クエリーの入力欄
504 文書クエリーの入力欄
505 検索対象選択欄
506 検索開始ボタン
506A アップロードボタン
507 検索結果表示画面
508 選択ボタン
509 図の表示欄
510 テキストの表示欄
511 検索開始ボタン
512 詳細表示ボタン
513 部分画像選択ボタン
521 ノード
522 遷移確率
523 重み付きノード
524 関係性の強さを示すエッジ
10 Search system
20 Storage
30 calculator
100 Pretreatment
101 Document DB with images
107 Search processing
108 Query input processing
109 Preprocessing for queries
110 Processed queries
201 Original image (image A)
202 Image showing the result of recognizing feature points in image A
203 Example of calculation result of feature points of image A
204 Example showing the result after quantizing the feature points of image A
205 Example of image A using quantized feature points
300 image index
301 Term frequency index
302 Index of appearance frequency of quantized feature of image
303 Document Index
304 Term frequency index
305 Index of appearance frequency of quantized feature of image
401 Term frequency index
402 Index of term relationship strength
501 Search system screen
502 Text query input field
503 Figure Query Input Field
504 Document query input field
505 Search target selection field
506 Search start button
506A Upload button
507 Search result display screen
508 Select button
509 Figure display field
510 Text display field
511 Search start button
512 Detail display button
513 Partial image selection button
521 nodes
522 Transition probability
523 Weighted node
524 Edge showing the strength of the relationship

Claims (16)

文書中の各図について、当該図の特徴量を量子化した擬似単語と、当該図の説明箇所から抽出された用語とで表現される第1のインデックスを生成する機能部と、
擬似単語及び/又は用語の共起頻度に基づいて、擬似単語及び/又は用語間の関係性の強さと擬似単語及び/又は用語の重要度とを計算する機能部と、
前記重要度を付した擬似単語及び/又は用語を重み付きノードとし、擬似単語及び/又は用語間の関係性の強さを付したエッジを重み付きエッジとして第2のインデックスを生成する機能部と、
検索クエリーから、重み付きノードと重み付きエッジで構成される加工済みクエリーを生成する機能部と、
重み付きノードと重み付きエッジで構成される前記第2のインデックスと前記加工済みクエリーとの類似度を表すスコアを計算することにより、検索クエリーに類似する図及び/又は文書を検索する機能部と
を有することを特徴とする検索システム。
For each figure in the document, a functional unit that generates a first index expressed by a pseudo word obtained by quantizing the feature amount of the figure and a term extracted from the explanation part of the figure,
A functional unit that calculates the strength of the relationship between the pseudo word and / or the term and the importance of the pseudo word and / or the term based on the co-occurrence frequency of the pseudo word and / or the term;
A function unit that generates the second index using the pseudo-word and / or the term with the importance as a weighted node and the edge with the strength of the relationship between the pseudo-word and / or the term as the weighted edge; ,
A function unit that generates a processed query including weighted nodes and weighted edges from the search query;
A function unit for searching a figure and / or a document similar to a search query by calculating a score representing a similarity between the second index composed of a weighted node and a weighted edge and the processed query; A search system comprising:
請求項1に記載の検索システムにおいて、
前記擬似単語及び/又は用語間の共起頻度に基づいて計算される遷移確率行列の固有ベクトルを解くことにより、擬似単語及び/又は用語間の関係性の強さと用語及び/又は擬似単語の重要度を計算する
ことを特徴とする検索システム。
The search system according to claim 1,
By solving the eigenvector of the transition probability matrix calculated based on the co-occurrence frequency between the pseudo-words and / or terms, the strength of the relationship between the pseudo-words and / or terms and the importance of the terms and / or pseudo-words A search system characterized by calculating
請求項1に記載の検索システムにおいて、
前記重み付きエッジには遷移方向が規定されており、各ノードのエッジからの重みの流入量と流出量が同じである
ことを特徴とする検索システム。
The search system according to claim 1,
A transition system is defined for the weighted edge, and a weight inflow amount and an outflow amount from the edge of each node are the same.
請求項1に記載の検索システムにおいて、
検索クエリーを、前記第2のインデックスに対応するネットワーク上で隣接するノード及びエッジまで拡張する機能部
を更に有することを特徴とする検索システム。
The search system according to claim 1,
The search system further comprising a function unit for extending the search query to adjacent nodes and edges on the network corresponding to the second index.
請求項4に記載の検索システムにおいて、
拡張後の検索クエリーでは、拡張されたノードとエッジの重みとして、拡張前の重みに拡張元の検索クエリーからの伝搬確率を乗算した値を用いる
ことを特徴とする検索システム。
The search system according to claim 4, wherein
In the search query after extension, a value obtained by multiplying the weight before extension by the propagation probability from the search query of extension source is used as the weight of the extended node and edge.
請求項2に記載の検索システムにおいて、
前記遷移確率行列は、検索対象とする文書の分野に応じて作成される
ことを特徴とする検索システム。
The search system according to claim 2,
The transition probability matrix is created according to the field of documents to be searched.
請求項1に記載の検索システムにおいて、
前記第2のインデックスに対応するネットワークをユーザインタフェース画面上に表示すると共に、当該第2のインデックスに対応する特徴点を対応する図に重ねて表示する機能部
を更に有することを特徴とする検索システム。
The search system according to claim 1,
A search system further comprising: a function unit for displaying a network corresponding to the second index on a user interface screen and displaying a feature point corresponding to the second index in a corresponding figure. .
請求項1に記載の検索システムにおいて、
検索された図に対応する第2のインデックスのネットワーク構成をユーザインタフェース画面上に表示すると共に、スコアの計算対象となったノードとエッジをユーザインタフェース画面上で強調表示する機能部
を更に有することを特徴とする検索システム。
The search system according to claim 1,
The network configuration of the second index corresponding to the searched figure is displayed on the user interface screen, and the function unit further highlights the node and the edge for which the score is calculated on the user interface screen. Feature search system.
請求項1に記載の検索システムにおいて、
検索結果としてユーザインタフェース画面に表示された図のうちユーザが選択した領域部分を、新たな検索クエリーとして受け付ける機能部
を更に有することを特徴とする検索システム。
The search system according to claim 1,
A search system, further comprising: a function unit that accepts, as a new search query, an area portion selected by a user in a diagram displayed on a user interface screen as a search result.
文書中の各図について、当該図の特徴量を量子化した擬似単語と、当該図の説明箇所から抽出された用語とで表現される第1のインデックスを生成する処理と、
擬似単語及び/又は用語の共起頻度に基づいて、擬似単語及び/又は用語間の関係性の強さと擬似単語及び/又は用語の重要度とを計算する処理と、
前記重要度を付した擬似単語及び/又は用語を重み付きノードとし、擬似単語及び/又は用語間の関係性の強さを付したエッジを重み付きエッジとして第2のインデックスを生成する処理と、
検索クエリーから、重み付きノードと重み付きエッジで構成される加工済みクエリーを生成する処理と、
重み付きノードと重み付きエッジで構成される前記第2のインデックスと前記加工済みクエリーとの類似度を表すスコアを計算することにより、検索クエリーに類似する図及び/又は文書を検索する処理と
を有することを特徴とする検索方法。
For each figure in the document, a process for generating a first index expressed by a pseudo word obtained by quantizing the feature quantity of the figure and a term extracted from the explanation part of the figure,
Processing to calculate the strength of the relationship between the pseudo word and / or term and the importance of the pseudo word and / or term based on the co-occurrence frequency of the pseudo word and / or term;
A process of generating a second index using the pseudo-word and / or the term with the importance as a weighted node and the edge with the strength of the relationship between the pseudo-word and / or the term as a weighted edge;
Generating a processed query composed of weighted nodes and weighted edges from the search query;
Processing for searching a figure and / or document similar to a search query by calculating a score representing the similarity between the second index composed of weighted nodes and weighted edges and the processed query. A search method characterized by comprising:
請求項10に記載の検索方法において、
前記擬似単語及び/又は用語間の共起頻度に基づいて計算される遷移確率行列の固有ベクトルを解くことにより、擬似単語及び/又は用語間の関係性の強さと用語及び/又は擬似単語の重要度を計算する
ことを特徴とする検索方法。
The search method according to claim 10,
By solving the eigenvector of the transition probability matrix calculated based on the co-occurrence frequency between the pseudo-words and / or terms, the strength of the relationship between the pseudo-words and / or terms and the importance of the terms and / or pseudo-words A search method characterized by calculating
請求項10に記載の検索方法において、
検索クエリーを、前記第2のインデックスに対応するネットワーク上で隣接するノード及びエッジまで拡張する処理
を更に有することを特徴とする検索方法。
The search method according to claim 10,
The search method further comprising a process of expanding the search query to adjacent nodes and edges on the network corresponding to the second index.
請求項12に記載の検索方法において、
拡張後の検索クエリーでは、拡張されたノードとエッジの重みとして、拡張前の重みに拡張元の検索クエリーからの伝搬確率を乗算した値を用いる
ことを特徴とする検索方法。
The search method according to claim 12, wherein
In the search query after extension, a value obtained by multiplying the weight before extension by the propagation probability from the search query of extension source is used as the weight of the extended node and edge.
請求項10に記載の検索方法において、
前記第2のインデックスに対応するネットワークをユーザインタフェース画面上に表示すると共に、当該第2のインデックスに対応する特徴点を対応する図に重ねて表示する処理
を更に有することを特徴とする検索方法。
The search method according to claim 10,
A search method, further comprising: displaying a network corresponding to the second index on a user interface screen, and displaying a feature point corresponding to the second index superimposed on a corresponding diagram.
請求項10に記載の検索方法において、
検索された図に対応する第2のインデックスのネットワーク構成をユーザインタフェース画面上に表示すると共に、スコアの計算対象となったノードとエッジをユーザインタフェース画面上で強調表示する処理
を更に有することを特徴とする検索方法。
The search method according to claim 10,
The network configuration of the second index corresponding to the searched figure is displayed on the user interface screen, and the processing further includes highlighting the node and the edge for which the score is calculated on the user interface screen. Search method.
請求項10に記載の検索方法において、
検索結果としてユーザインタフェース画面に表示された図のうちユーザが選択した領域部分を、新たな検索クエリーとして受け付ける処理
を更に有することを特徴とする検索方法。
The search method according to claim 10,
A search method characterized by further comprising a process of accepting, as a new search query, an area portion selected by a user in the figure displayed on the user interface screen as a search result.
JP2010120599A 2010-05-26 2010-05-26 Searching system and searching method for picture-containing documents Pending JP2011248596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010120599A JP2011248596A (en) 2010-05-26 2010-05-26 Searching system and searching method for picture-containing documents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010120599A JP2011248596A (en) 2010-05-26 2010-05-26 Searching system and searching method for picture-containing documents

Publications (1)

Publication Number Publication Date
JP2011248596A true JP2011248596A (en) 2011-12-08

Family

ID=45413781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010120599A Pending JP2011248596A (en) 2010-05-26 2010-05-26 Searching system and searching method for picture-containing documents

Country Status (1)

Country Link
JP (1) JP2011248596A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053848A (en) * 2010-09-03 2012-03-15 Nippon Telegr & Teleph Corp <Ntt> Data visualization device, data conversion device, method and program
JP2014010634A (en) * 2012-06-29 2014-01-20 National Institute Of Information & Communication Technology Paginal translation expression extraction device, paginal translation expression extraction method and computer program for extracting paginal translation expression
KR101559457B1 (en) 2014-01-20 2015-10-13 한국과학기술원 Method and apparatus of class-specific weighting based for image retrieval based on bag-of-word model
CN106776782A (en) * 2016-11-21 2017-05-31 北京百度网讯科技有限公司 Semantic similarity acquisition methods and device based on artificial intelligence
JP2019028958A (en) * 2017-08-04 2019-02-21 株式会社日立製作所 Design document learning device and design document learning method
CN110597955A (en) * 2019-09-09 2019-12-20 北京计算机技术及应用研究所 Method for searching intra-document picture based on TFIDF
CN113128892A (en) * 2021-04-28 2021-07-16 中国水利水电科学研究院 Chained disaster risk assessment method and device based on complex network topological relation
JP2021531536A (en) * 2018-06-29 2021-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Query extension using a graph of question and answer vocabulary

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053848A (en) * 2010-09-03 2012-03-15 Nippon Telegr & Teleph Corp <Ntt> Data visualization device, data conversion device, method and program
JP2014010634A (en) * 2012-06-29 2014-01-20 National Institute Of Information & Communication Technology Paginal translation expression extraction device, paginal translation expression extraction method and computer program for extracting paginal translation expression
KR101559457B1 (en) 2014-01-20 2015-10-13 한국과학기술원 Method and apparatus of class-specific weighting based for image retrieval based on bag-of-word model
CN106776782A (en) * 2016-11-21 2017-05-31 北京百度网讯科技有限公司 Semantic similarity acquisition methods and device based on artificial intelligence
CN106776782B (en) * 2016-11-21 2020-05-22 北京百度网讯科技有限公司 Semantic similarity obtaining method and device based on artificial intelligence
JP2019028958A (en) * 2017-08-04 2019-02-21 株式会社日立製作所 Design document learning device and design document learning method
JP2021531536A (en) * 2018-06-29 2021-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Query extension using a graph of question and answer vocabulary
JP7406873B2 (en) 2018-06-29 2023-12-28 インターナショナル・ビジネス・マシーンズ・コーポレーション Query expansion using question and answer vocabulary graphs
CN110597955A (en) * 2019-09-09 2019-12-20 北京计算机技术及应用研究所 Method for searching intra-document picture based on TFIDF
CN113128892A (en) * 2021-04-28 2021-07-16 中国水利水电科学研究院 Chained disaster risk assessment method and device based on complex network topological relation
CN113128892B (en) * 2021-04-28 2022-04-22 中国水利水电科学研究院 Chained disaster risk assessment method and device based on complex network topological relation

Similar Documents

Publication Publication Date Title
Bhagat et al. Image annotation: Then and now
US8577882B2 (en) Method and system for searching multilingual documents
JP2011248596A (en) Searching system and searching method for picture-containing documents
US8606780B2 (en) Image re-rank based on image annotations
US20120162244A1 (en) Image search color sketch filtering
Rizvi et al. Optical character recognition system for Nastalique Urdu-like script languages using supervised learning
US11928418B2 (en) Text style and emphasis suggestions
Song et al. Sparse multi-modal topical coding for image annotation
JP5414334B2 (en) Pseudo-document search system and pseudo-document search method
Rahman et al. Interactive cross and multimodal biomedical image retrieval based on automatic region-of-interest (ROI) identification and classification
JP2001184358A (en) Device and method for retrieving information with category factor and program recording medium therefor
JP2004110834A (en) Information storage retrieval system and method
JP2007279978A (en) Document retrieval device and document retrieval method
Diem et al. Semi-automated document image clustering and retrieval
EP3553696B1 (en) Generating a structured document based on a machine readable document and artificial intelligence-generated annotations
Xu et al. Estimating similarity of rich internet pages using visual information
TW201822031A (en) Method of creating chart index with text information and its computer program product capable of generating a virtual chart message catalog and schema index information to facilitate data searching
CN110457435A (en) A kind of patent novelty analysis system and its analysis method
Dobrescu et al. Multi-modal CBIR algorithm based on Latent Semantic Indexing
Hai et al. Improving The Efficiency of Semantic Image Retrieval using A Combined Graph and SOM Model
Vijayarajan et al. A review on ontology based document and image retrieval methods
Skaff et al. Multimodal search for graphic designers
Xiong et al. OBSKP: Oracle Bone Studies Knowledge Pyramid Model With Applications
Palreddy et al. Reverse Image Lookup System
Saha Part 1. An Explainer for Information Retrieval Research