JP4521008B2 - Image search system - Google Patents

Image search system Download PDF

Info

Publication number
JP4521008B2
JP4521008B2 JP2007070424A JP2007070424A JP4521008B2 JP 4521008 B2 JP4521008 B2 JP 4521008B2 JP 2007070424 A JP2007070424 A JP 2007070424A JP 2007070424 A JP2007070424 A JP 2007070424A JP 4521008 B2 JP4521008 B2 JP 4521008B2
Authority
JP
Japan
Prior art keywords
image
keyword
search
group
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2007070424A
Other languages
Japanese (ja)
Other versions
JP2007183990A (en
Inventor
義則 武者
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007070424A priority Critical patent/JP4521008B2/en
Publication of JP2007183990A publication Critical patent/JP2007183990A/en
Application granted granted Critical
Publication of JP4521008B2 publication Critical patent/JP4521008B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、画像群を検索結果として出力する画像検索システムに関する。 The present invention relates to an image search system that outputs an image group as a search result.

近年、マルチメディアコンテンツの増大に伴い、キーワードや画像特徴量などさまざまなデータによって画像データベースにアクセスして画像検索をする技術が出現してきた。   2. Description of the Related Art In recent years, with the increase of multimedia contents, a technique for accessing an image database using various data such as keywords and image feature amounts and performing image search has appeared.

しかし、その検索が、検索者の意図が正確にシステムに伝えられ検索結果に反映されたものとなるとは限らないため、少数の検索結果の表示では検索者の望む画像に辿り着けるとは限らない。また、検索意図があいまいな検索者がさまざまな画像にアクセスしつつ検索意図を固めていくという過程も必要な場合がある。そのような状況の下では、検索結果の画像をなるべく多く検索者へ提示し、検索者が検索意図に対応した画像に容易に到達できるようにすることが検索者によって望まれている。   However, since the search does not necessarily accurately reflect the searcher's intention to the system and is reflected in the search results, the display of a small number of search results may not always reach the image desired by the searcher. . In addition, there may be a need for a process in which a searcher with a vague search intent fixes a search intent while accessing various images. Under such circumstances, it is desired by the searcher to present as many search result images as possible to the searcher so that the searcher can easily reach the image corresponding to the search intention.

たとえば、整然と検索結果の画像の一覧を効果的に検索者へ提示する方法として、特許文献1や特許文献2などがある。これらは、ページめくりの時間や画像サイズを検索結果数などに応じて変更する方法である。しかしながら、検索結果の多くの画像を単純に一覧表示しようとすると、ページ数が増えたりあるいは1ページに秩序なく非常に多くの画像が一覧されたりすることによって、検索者が検索結果の個々の画像を把握することが困難になり、一覧の効果が薄れてくる。   For example, there are Patent Literature 1 and Patent Literature 2 as methods for effectively presenting a list of search result images to the searcher. These are methods for changing the page turning time and image size according to the number of search results. However, simply trying to display a large number of images as search results, the number of pages increases, or a very large number of images are listed in a single page, so that the searcher can select individual images of the search results. It becomes difficult to grasp and the effect of the list fades.

そこで、検索された画像自身の性質に従ってその配置を決めることにより、検索結果の画像群の特徴あるいは傾向を把握しやすくする方法が考えられる。このような工夫のなされたものとして、例えば、特許文献3、特許文献4がある。特許文献3は、画像特徴量のうち2次元の属性情報を持つ情報を選択し、選択した2次元情報の範囲を指定することで検索を行い、その2軸上で構成される空間上において特徴量に従った座標値に画像を配置して表示するものである。このアイデアは、画像の配置自体は改善されたものとなるが、2次元情報を持った特徴量によってのみ表示するため、表示に使用できる特徴量の制約が非常に大きい。特許文献4は、画像から直接抽出される物理特徴量や人間の感性を学習させた感性特徴量から2次元を選択し、距離の近いものから順に出力することで検索を行い、その2軸の特徴量に従って軸に沿って、画像を整然と重なり合うことなく密に並べて一覧表示するものである。これは、2軸の特徴量傾向は把握できるが、画像間の特徴量の量的な関係を無視している。しかも、結局整然とした一覧表示しているため似た傾向の画像が多く検索されてしまうと、一覧表示の画面の多くの面積を似た画像が占めることになって、効果的な表示が行えない。   In view of this, it is conceivable to make it easier to grasp the characteristics or tendency of the image group of the search result by determining the arrangement according to the properties of the searched image itself. For example, Patent Literature 3 and Patent Literature 4 include such devices. Patent Literature 3 selects information having two-dimensional attribute information from image feature amounts, performs a search by designating a range of the selected two-dimensional information, and performs a feature on a space configured on the two axes. An image is arranged and displayed at coordinate values according to the quantity. The idea is that the arrangement of the image itself is improved, but since the display is performed only by the feature amount having the two-dimensional information, the restriction on the feature amount that can be used for the display is very large. Patent Document 4 performs a search by selecting two dimensions from physical features extracted directly from an image or emotion features learned from human sensibilities and outputting them in order from the closest distance. According to the feature amount, the images are displayed in a densely arranged list along the axis without being neatly overlapped. This can grasp the biaxial feature quantity trend, but ignores the quantitative relation of the feature quantity between images. In addition, since the list is displayed in an orderly manner, if many images with similar tendencies are searched, the images of the list display occupy a lot of area, and effective display cannot be performed. .

またいずれの方法も、検索に用いた特徴量を直接表示にも用いているため、データベース内におけるその検索結果の画像群の傾向を把握するのには効果的ではあっても、画像群内における個々の画像の違いを表現した表示になっているとは限らない。そもそも、検索によって得られた画像群は、当然、似た傾向あるいは共通点を持った画像が集められているわけであるから、検索に用いた特徴量を直接表示に用いるのでは区別しずらい些細な違いで個々の画像を配置することになる。   Each method also uses the feature values used for the search for direct display, so it is effective for grasping the tendency of the image group of the search result in the database. The display does not always represent the difference between individual images. In the first place, naturally, images with similar tendencies or similarities are collected in the image group obtained by the search, so it is difficult to distinguish the feature values used for the search directly. Individual images will be arranged with minor differences.

特開平5−266092号公報JP-A-5-266092 特開平6−96185号公報JP-A-6-96185 特開平5−282375号公報JP-A-5-282375 特開平8−249352号公報JP-A-8-249352

一方、本願の発明者等は、検索結果の画像群内における個々の画像の違いを効果的に表現する方法として、特願平9−336751を提案した。これによれば、検索結果の画像群に対して検索毎にダイナミックに統計処理することによって、検索画像の違いを効果的に表現する特徴量へ変換して、その軸によってつくられる空間上に画像を配置して表示することができる。   On the other hand, the inventors of the present application have proposed Japanese Patent Application No. 9-336751 as a method for effectively expressing the difference between individual images in a search result image group. According to this, by performing dynamic statistical processing on the image group of the search result for each search, it is converted into a feature amount that effectively expresses the difference in the search image, and the image is formed on the space created by the axis. Can be arranged and displayed.

しかしながら、特許文献3や特許文献4による表示が、人にとって理解しやすい特徴量を用意しておけば、表示の際の軸の意味が理解しやすかったのに対し、特願平9−336751の方法は、計算機内部で、画像の違いを効果的に表現する特徴量を統計処理によって導出し、この特徴量を軸として画像を配置して表示するため、必ずしも軸の意味が人にとって理解しやすいものとは限らなくなる。さらに、画像検索の方法と検索結果の表示方法の面で見ると、特許文献3、特許文献4および特願平9−336751は、両者が密接に関係しているため、検索の実行に際して、これらの表示方法によるメリットを得ようとすると画像検索の方法が拘束されてしまうことになる。   However, if the display according to Patent Literature 3 and Patent Literature 4 is prepared with feature quantities that are easy to understand for humans, the meaning of the axis at the time of display was easy to understand, whereas in Japanese Patent Application No. 9-336751 The method uses a statistical process to derive feature quantities that effectively represent differences in images inside the computer, and displays and arranges images using these feature quantities as axes, so the meaning of the axes is not always easy for humans to understand. It is no longer limited to things. Furthermore, in terms of the image search method and the search result display method, Patent Document 3, Patent Document 4 and Japanese Patent Application No. 9-336751 are closely related to each other. If an attempt is made to obtain the merit of this display method, the image search method is restricted.

任意の検索方法による画像検索の大量の結果を検索者へ把握しやすいように一覧表示する方法に関して、既に述べたように、従来技術には一長一短がある。これら従来技術の問題点を整理し、効果的な一覧表示方法であるための主な条件をまとめると以下のようになる。
(1)多くの検索結果を検索者へ提示できること。
(2)検索画像群の特徴量の量的な関係が表示にも反映されていること。
(3)任意の検索方法によって検索された画像群に対し、画像群内の個々の画像の違いを効果的に表現する表示方法であること。
(4)表示に用いられた軸が人にとって理解しやすいものであること。
As described above, the prior art has advantages and disadvantages regarding a method of displaying a list of a large number of image search results obtained by an arbitrary search method so that the searcher can easily understand the results. The problems of the prior art are summarized and the main conditions for an effective list display method are summarized as follows.
(1) A lot of search results can be presented to the searcher.
(2) The quantitative relationship between the feature amounts of the search image group is reflected in the display.
(3) A display method that effectively expresses the difference between individual images in an image group with respect to the image group searched by an arbitrary search method.
(4) The axis used for display should be easy for humans to understand.

本発明の目的は上記の課題を同時に満すような画像検索システムを提案することである。 An object of the present invention is to propose an image search system that satisfies the above-mentioned problems at the same time.

本発明は、あらかじめキーワードあるいはシンボルと画像特徴量との対応付けを統計処理によって行っておき、任意の画像検索方法による画像検索において、個々の画像の違いを効果的に表現するキーワードあるいはシンボルの特徴量を検索毎にダイナミックに自動選択し表示の軸に用いるとともにそのキーワードあるいはシンボルを検索者へ提示する。また、その軸によって作られる表示空間上の特徴量に応じた座標へ検索結果の画像群の画像を配置する。さらに、自動選択され表示の軸に用いられる座標のキーワードあるいはシンボルを検索者が選択可能とする。   In the present invention, a keyword or symbol and an image feature amount are associated in advance by statistical processing, and a keyword or symbol feature that effectively represents a difference between individual images in an image search by an arbitrary image search method. The quantity is automatically automatically selected for each search and used as a display axis, and the keyword or symbol is presented to the searcher. In addition, the image of the image group as a search result is arranged at coordinates according to the feature amount on the display space created by the axis. Further, the searcher can select a keyword or symbol of coordinates that are automatically selected and used for the display axis.

本発明は、検索結果の画像群を出力する任意の検索システムの出力結果を、ユーザにとって意味を把握しやすい、キーワードあるいはシンボルを使って、2次元面に表示することができ、検索結果の素早く一覧したり次の検索要求を容易に準備することができるから、デザインを利用することを頻繁に行う広告業界や放送業界、あるいはデザインを売ることを目的としたコンテンツサービス業界等において、有効に利用できるのみならず、PC上で動作する個人ベースでホームページやその他のデザインを作成するなどの創造支援アプリケーションにも利用できる。   The present invention can display an output result of an arbitrary search system that outputs an image group of search results on a two-dimensional surface using keywords or symbols that can be easily understood by the user, so that the search results can be quickly displayed. It can be used easily in the advertising and broadcasting industries that frequently use designs, or in the content service industry that aims to sell designs, because it is easy to list and prepare for the next search request. Not only can it be used, but it can also be used for creation support applications such as creating homepages and other designs on a personal basis running on a PC.

以下に、本発明の好適な実施例を添付図を参照して詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は本発明の実施例のグラフィック・ユーザ・インターフェース(以下、GUIと略する)を示した一模式図である。図は、検索結果の画像群を出力する任意の検索システムから出力された画像群に対し、検索結果画像群の全体を代表するいくつかのキーワード108と、画像群の表示された個々の画像間の違いを最もよく表現するキーワード群のいくつかのキーワード105,107をパネル上に表示し、後者のキーワード群105,107からユーザが2つのキーワードを選んで、そのキーワード特徴量によって張られる表示空間106上に、散布図として画像群を表現したものである。   FIG. 1 is a schematic diagram showing a graphic user interface (hereinafter abbreviated as GUI) according to an embodiment of the present invention. The figure shows, for an image group output from an arbitrary search system that outputs an image group of search results, a number of keywords 108 representing the entire search result image group, and between the individual images displayed in the image group. A keyword is displayed on the panel with some keywords 105 and 107 that best express the difference between them, and the user selects two keywords from the latter keyword groups 105 and 107, and is displayed by the keyword feature amount. On 106, an image group is expressed as a scatter diagram.

表示空間106は、たとえば計算機の出力装置としての表示装置の一部であり、2次元面上に散布図として画像群を表示する部分である。キーワード群105,107は、それぞれ、表示空間が2次元空間である場合は、X軸、Y軸として選択されるべきキーワードであり、たとえば計算機の出力装置としての表示装置の一部に表示され、このキーワードの領域がボタンとして機能するものとされ、クリックされる等で一つのキーワードが選択される。図では、X軸で”SEA”、Y軸で”SKY”が選択されている状態を、それぞれのキーワードを太線の枠で囲って示している。その表示空間106は、それぞれのキーワードの特徴量ベクトルによって張られる空間であり、参照符号102で代表して示す複数の画像のそれぞれは、それぞれの画像にキーワードが付与されるか否かを画像特徴量から予測した予測値の大きさに対応した位置に配置される。キーワード群105,107の両側には、表示すべきキーワードを選択するための矢印ボタン111−114が表示されており、これらをクリックする等で、画像群の表示された画像間の違いを表現するためのキーワードを変更することができる。X軸、Y軸のキーワードの選択による変更は、それぞれの画像の配置される位置が変更されるのみである。   The display space 106 is a part of a display device as an output device of a computer, for example, and is a portion that displays an image group as a scatter diagram on a two-dimensional surface. When the display space is a two-dimensional space, the keyword groups 105 and 107 are keywords to be selected as the X axis and the Y axis, respectively, and are displayed on a part of the display device as an output device of the computer, for example. This keyword area functions as a button, and one keyword is selected by clicking or the like. In the figure, a state in which “SEA” is selected on the X axis and “SKY” is selected on the Y axis is shown by enclosing each keyword with a bold frame. The display space 106 is a space spanned by the feature quantity vector of each keyword, and each of a plurality of images represented by reference numeral 102 indicates whether or not a keyword is assigned to each image. It is arranged at a position corresponding to the size of the predicted value predicted from the quantity. Arrow buttons 111-114 for selecting a keyword to be displayed are displayed on both sides of the keyword groups 105 and 107. By clicking these buttons, a difference between displayed images of the image group is expressed. The keywords for can be changed. The change by selecting the X-axis and Y-axis keywords only changes the position where each image is arranged.

パネルの右側には検索された画像群全体を代表するキーワード群108が示されている。上段に位置するものほど、より適切に画像群を説明するだろうと予測されたキーワードが表示されている。   On the right side of the panel, a keyword group 108 representing the entire searched image group is shown. The keywords that are predicted to describe the image group more appropriately are displayed in the upper part.

また、表示空間106は、スクロールバー101によって、そのスケールを変更することができ、画像群の分布全体を把握したり、一部領域を拡大して詳細に見たりする場合に使用できる。また、矢印ボタン103によって、表示空間の表示領域を移動することができる。つまり、例えば右矢印をクリックすると、表示領域の右外の領域が中央方向に移動する。”CENTER”ボタン104は、これをクリックすると、表示空間の中央部が表示領域106の中央へ一致するようにリセットされる。   The scale of the display space 106 can be changed by the scroll bar 101 and can be used when the entire distribution of the image group is grasped or when a partial area is enlarged and viewed in detail. Further, the display area of the display space can be moved by the arrow button 103. That is, for example, when the right arrow is clicked, the area outside the right of the display area moves toward the center. When the “CENTER” button 104 is clicked, the center of the display space is reset so as to coincide with the center of the display area 106.

上述したGUIの各機能により、検索者は検索結果としての表示された画像群を、表示のためのキーワード、あるいはキーワード群を変更したり、表示空間を移動したり、拡大・縮小したりして評価することができ、より満足する検索結果に到達することが可能になる。   With the above-described GUI functions, the searcher can change the displayed keyword group or keyword group as a search result, move the display space, or enlarge or reduce the displayed keyword group. It is possible to evaluate and reach a more satisfactory search result.

図2は本発明の実施例のデータの流れを示した模式図である。202、203、204および205はそれぞれキーワードデータベース、文章データベース、音声データベースおよび画像特徴量データベースである。227は画像データベースであり、検索結果に応じて表示されるべき表示空間106に表示される画像が画像データと画像データ名あるいは画像番号の対として格納されている。データベース201−205は、この画像データベース227の画像データ名あるいは画像番号とそれぞれのデータとが対になった形で格納されている。たとえば、後述する画像特徴量によるキーワードの選択および表示の例に対応させて、画像特徴量データベース205について説明すると、縦軸に画像データ名あるいは画像番号を、横軸に後述する計算の数式の特徴量ベクトルxikを、それぞれ配列したようなデータベースである。さらに、217はキーワード特徴量データベースである。このデータベースは、本発明を特徴付けるものであり、上述した画像データベース227の内容とは無関係に構成される。たとえば、画像とその画像に付されたキーワード、あるいは画像を説明する簡単な文章を持つデータ群から予め作製される。画像を説明する簡単な文章が有れば、これを形態素解析することで適当な単語に分解できるから、画像とキーワードの関係のデータとして利用できる。一方、画像は画像を解析して画像特徴量として評価するいくつかの方法が知られているから、これらにより、画像特徴量を媒介として画像に対応する適当なキーワードの有無が予測できるようにあらかじめ統計処理することができる。このように統計処理された適当数のキーワードと画像特徴量の対が格納されている。このキーワード特徴量データベース217の特徴量は後述する計算の数式の特徴量ベクトルb、b等bに関するデータとして利用される。また(数2)で示されるような演算はキーワードの統計処理の一例と言える。 FIG. 2 is a schematic diagram showing the data flow of the embodiment of the present invention. Reference numerals 202, 203, 204, and 205 denote a keyword database, a sentence database, a voice database, and an image feature amount database, respectively. An image database 227 stores an image displayed in the display space 106 to be displayed according to the search result as a pair of image data and image data name or image number. Databases 201 to 205 store image data names or image numbers of the image database 227 in pairs with the respective data. For example, the image feature quantity database 205 will be described in correspondence with an example of keyword selection and display based on image feature quantities to be described later. The vertical axis represents image data names or image numbers, and the horizontal axis represents characteristics of calculation formulas to be described later. It is a database in which the quantity vectors x ik are arranged. Reference numeral 217 denotes a keyword feature quantity database. This database characterizes the present invention and is constructed independently of the contents of the image database 227 described above. For example, it is created in advance from a data group having an image and a keyword attached to the image, or a simple sentence explaining the image. If there is a simple sentence explaining the image, it can be decomposed into an appropriate word by performing morphological analysis, and can be used as data on the relationship between the image and the keyword. On the other hand, since there are some known methods for analyzing images and evaluating them as image feature amounts, it is possible in advance to predict the presence or absence of an appropriate keyword corresponding to an image through the image feature amounts. Statistical processing can be performed. An appropriate number of keywords and image feature quantity pairs statistically processed in this way are stored. The feature quantities in the keyword feature quantity database 217 are used as data relating to feature quantity vectors b 0 , b k, etc. b of calculation formulas to be described later. In addition, the calculation represented by (Equation 2) can be said to be an example of keyword statistical processing.

ユーザがキーワード、文章、音声、画像などをクエリとして検索要求201を出したとき、検索要求に対応する検索方法206によって対応するデータベース202−205からデータを読みとり検索を行う。207、208、209、210は、それぞれ検索する際のキーワード、文章、音声、画像あるいはそれらを変換して格納されていた特徴量の流れを示している。本発明では、検索方法はユーザが使用したいものを使用すれば良いから、206はさまざまな画像検索システムとするのみで、具体的な説明はしない。もちろん、キーワード、文章、音声のデータベースが備えられなければならないと言うものでもない。検索結果は画像データベース227の画像のデータ名あるいは画像データベース内の画像を特定できる番号などの形で出力される。また、それぞれの検索結果は、それぞれキーワード、文章、音声、画像であるが、前者3つに対応するデータベース内の各データと画像特徴量データベース205の画像があらかじめ対応付けられたものとしておき、結局、検索結果を画像特徴量データベース205を基礎としたキーワードとの対応として、画像を表示させることができる。   When a user issues a search request 201 using a keyword, text, voice, image, or the like as a query, data is read from the corresponding database 202-205 by a search method 206 corresponding to the search request and a search is performed. Reference numerals 207, 208, 209, and 210 indicate a keyword, sentence, voice, image, or a flow of feature values that have been stored after being converted. In the present invention, since the search method that the user wants to use can be used, 206 is only a variety of image search systems and will not be described in detail. Of course, it does not mean that a database of keywords, sentences, and voices must be provided. The search result is output in the form of the data name of the image in the image database 227 or a number that can identify the image in the image database. Each search result is a keyword, a sentence, a voice, and an image, respectively, but it is assumed that each data in the database corresponding to the former three and the image in the image feature database 205 are associated in advance. The image can be displayed as a correspondence between the search result and the keyword based on the image feature amount database 205.

画像データ名あるいは画像番号などの形で出力された検索結果211aは、検索結果の画像群に対する平均値や分散値、複数ある特徴量同士の共分散値を算出する機能213に送られる。またこの機能213には、その画像データ名あるいは画像番号に対応する画像特徴量xに関するデータが、212に示すように、画像特徴量データベース205から送られる。機能213から検索結果の画像群に対する平均値データ214、分散共分散値データ215が得られる。   The search result 211a output in the form of the image data name or the image number is sent to a function 213 for calculating an average value and a variance value for the image group of the search result and a covariance value between a plurality of feature amounts. Further, data regarding the image feature amount x corresponding to the image data name or image number is sent to the function 213 from the image feature amount database 205 as indicated by 212. From the function 213, average value data 214 and variance / covariance value data 215 for the image group of the search result are obtained.

キーワード特徴量データベース217は、前述したように、画像特徴量と画像に対応する適当なキーワードの有無が予測できるようにあらかじめ統計処理された各キーワードの画像特徴量が格納されている。キーワード特徴量データベース217の各キーワードにおけるbに関するデータは、216に示すように、検索結果の画像群に対する平均値データ214、分散共分散値データ215とともに、内積等を演算する機能218へ送られる。機能218による演算結果として、検索結果の画像群に対するキーワード予測値の平均値219と、分散値220が対応するキーワードとともに出力される。   As described above, the keyword feature value database 217 stores image feature values of each keyword that have been statistically processed in advance so that the presence or absence of an appropriate keyword corresponding to the image feature value and the image can be predicted. As shown at 216, the data relating to b in each keyword in the keyword feature quantity database 217 is sent to the function 218 for calculating the inner product and the like together with the average value data 214 and the variance / covariance value data 215 for the image group of the search result. As a calculation result by the function 218, an average value 219 of keyword predicted values for the image group of the search result and a variance value 220 are output together with corresponding keywords.

221は選択機能であり、機能218によるキーワード予測値の平均値219と、分散値220の平均値の演算結果の大きいものから指定個数個が選出される。キーワード予測値の平均値219に基いて選出されたキーワードが、222に示すように、指定個数個(図3ではS個)代表キーワード提示機能224に転送される。また分散値220に基いて選出されたキーワードが、223に示すように、指定個数個(図3ではT個)検索結果表示機能225に転送される。代表キーワード提示機能224は、キーワード予測値の平均値219を持つキーワードを検索結果の画像群を代表するキーワード108としてGUI上に表示するから、ユーザは検索結果の画像群を代表する意味情報として把握することができる(228)。これらは、また、その分散値に基いて選出されたキーワード(223)、検索結果表示機能225では、分散値220に基いて選出されたキーワードを画像群内の違いを把握するキーワード105および107としてGUI上に表示する。また、検索結果表示機能225では、検索結果211bおよび画像特徴量データベース205から、233で示すように転送される特徴量ベクトルxikと、選択されたキーワードの2つおよびこれに応じて、231で示すように転送されるキーワード特徴量b、b等bに関するデータとから、検索結果211bの画像のそれぞれをX軸、Y軸の座標値を計算して画像を配置する。ユーザは、検索された画像群の違いを意味軸上で表示された散布図として見ることができる(229)なお、検索結果211a、検索結果211bは、同一内容であるが、説明の便宜上異なる参照符号とした。 Reference numeral 221 denotes a selection function, in which a designated number is selected from those having a large calculation result of the average value 219 of keyword predicted values and the average value of variance values 220 by the function 218. The keywords selected based on the average keyword predicted value 219 are transferred to the designated number (S in FIG. 3) representative keyword presentation function 224 as indicated by 222. In addition, as shown by 223, keywords selected based on the distributed value 220 are transferred to the search result display function 225 of the designated number (T in FIG. 3). Since the representative keyword presentation function 224 displays a keyword having an average keyword predicted value 219 on the GUI as the keyword 108 representing the search result image group, the user grasps it as semantic information representing the search result image group. (228). These are the keyword (223) selected based on the variance value, and the search result display function 225 uses the keyword selected based on the variance value 220 as keywords 105 and 107 for grasping the difference in the image group. Display on GUI. Further, in the search result display function 225, the feature value vector x ik transferred as indicated by 233 from the search result 211b and the image feature value database 205, two of the selected keywords, and 231 in accordance with this. As shown in the drawing, the X-axis and Y-axis coordinate values of each of the images of the search result 211b are calculated from the data relating to the keyword feature values b 0 , b k, etc. b transferred, and the images are arranged. The user can see the difference in the searched image group as a scatter diagram displayed on the semantic axis (229). Note that the search result 211a and the search result 211b have the same contents, but are different reference for convenience of explanation. It was a sign.

図3は本発明の実施例の処理手続きを示したPAD図である。1回の検索および検索された画像間関係の表示における処理を説明している。   FIG. 3 is a PAD diagram showing the processing procedure of the embodiment of the present invention. A process in a single search and display of the relationship between searched images is described.

まず、ユーザから検索要求を受け付け(301)、任意の方法により画像検索を行い、その画像データ名を出力する(302)。   First, a search request is received from the user (301), an image search is performed by an arbitrary method, and the image data name is output (302).

次に、画像データ名に対応する画像特徴量ベクトルを画像特徴量データベース205から取得する(309)。その1検索結果に対する特徴量ベクトルから、特徴量ベクトルの各要素における平均値と分散共分散行列を更新する(310)。この309、310の処理を検索結果の画像数だけ繰り返す(303)ことにより、検索結果における平均値214と分散共分散行列215を得る。   Next, an image feature quantity vector corresponding to the image data name is acquired from the image feature quantity database 205 (309). The average value and the variance-covariance matrix for each element of the feature vector are updated from the feature vector for the one search result (310). By repeating the processes 309 and 310 as many times as the number of images of the search result (303), an average value 214 and a variance-covariance matrix 215 in the search result are obtained.

更に、キーワード特徴量データベース217からキーワード特徴量ベクトルを1つ取り出す(311)。それと画像特徴量ベクトルの各要素の平均からキーワード予測値の平均値219を計算する(312)。現時点で保存しているS個の最小値と比較しそれより大きければその最小値を捨てて、今計算したキーワードにおける平均値を保存しておく。これによって、現時点での最大値からS個のキーワードが保存されることになる(313)。キーワード予測値の分散についても、画像特徴量ベクトルの各要素の分散共分散より計算する(314)。313と同様にして、最大値からT個のキーワードにおける分散値220を保存しておく。これらの処理をキーワードの数だけ繰り返す(304)。これを終了すると全キーワードにおいて、キーワード予測値の平均値が大きいものからS個、分散値が大きいものからT個得ることができる。   Further, one keyword feature vector is extracted from the keyword feature database 217 (311). Then, an average value 219 of keyword predicted values is calculated from the average of each element of the image feature vector (312). Compared with the S minimum values stored at the present time, if it is larger than that, the minimum value is discarded, and the average value for the currently calculated keyword is stored. As a result, S keywords are stored from the current maximum value (313). The variance of the keyword prediction value is also calculated from the variance covariance of each element of the image feature vector (314). Similarly to 313, the variance value 220 for the T keywords from the maximum value is stored. These processes are repeated by the number of keywords (304). When this is finished, it is possible to obtain S keywords having the highest average keyword prediction value and T items having the large variance value for all keywords.

そして、キーワード予測値の平均に基くキーワードをユーザへ提示する(305)。これは、検索結果の画像群を代表するキーワード108となる。   Then, a keyword based on the average of keyword predicted values is presented to the user (305). This is a keyword 108 representing the image group of the search result.

また、キーワード予測値の分散に基くキーワードを、選択可能なインターフェイスとして、最初から最大U個をユーザへ提示する(306)。次にユーザに提示されているキーワードが変更されたかどうかのチェック(308)が行われるが、初回はここをYesとして扱い、ユーザに提示されているキーワードのうち、1番目をX軸、2番目をY軸に初期値として指定する(316)。そして指示されたキーワード特徴量ベクトルによって張られる空間上に、検索結果の画像特徴量ベクトルを射影し散布図として表示する(317)。初期値の指定(316)により、ユーザの特別の操作によること無く、検索直後から何らかの表示を行うことができ、ユーザの次の操作を促すことになる。次にユーザからの指示を得るための待機状態となる(318)。   Also, a maximum of U keywords are presented to the user from the beginning as a selectable interface based on the keyword prediction value variance (306). Next, a check (308) is performed as to whether or not the keyword presented to the user has been changed. The first time, this is treated as Yes, and the first of the keywords presented to the user is the X axis and the second. Is designated as the initial value on the Y-axis (316). Then, the image feature vector of the search result is projected onto the space spanned by the instructed keyword feature vector and displayed as a scatter diagram (317). By specifying the initial value (316), some kind of display can be performed immediately after the search without any special operation by the user, and the user's next operation is prompted. Next, a standby state for obtaining an instruction from the user is entered (318).

GUIを通して、何かのイベントを受信すると、まず、そのイベントが319にて判別される。それが表示のキーワードボタン105あるいは107の変更であれば、押されたボタンの軸に対し押されたキーワードを指定する(320)。それがキーワードのシフトボタン111−114のいずれかであれば、指定されたシフトボタンの軸において、ユーザに提示するキーワードをボタンの矢印の向きに従って、次あるいは後の最大U個に変更する。なければ、それぞれ最初、最後の最大U個に変更する(321)。また、それが、表示空間の移動ボタンやスクロールバーであれば、それぞれに従って、表示空間を移動したり、表示領域の拡大縮小を行う(322)。   When any event is received through the GUI, the event is first determined at 319. If it is a change of the displayed keyword button 105 or 107, the pressed keyword is designated for the axis of the pressed button (320). If it is any one of the keyword shift buttons 111-114, the keyword to be presented to the user is changed to the next or the next maximum U according to the direction of the arrow of the button on the axis of the designated shift button. If not, the first and last maximum U are changed (321). If it is a display space move button or scroll bar, the display space is moved or the display area is enlarged or reduced in accordance with the button (322).

これらを、次の検索まで繰り返す(307)ことによって、同じ検索結果に対して、ユーザは多様な観点からの表示を得ることが出来、検索結果を有用に利用することが出来る。   By repeating these operations until the next search (307), the user can obtain displays from various viewpoints for the same search result, and can use the search result effectively.

ステップ306の分散に基づくキーワードは、検索結果の画像群内の違いをより反映したものと推測されるキーワードであり、このキーワード特徴量によって張られる空間に検索結果を配置することによって、選択したキーワードの有無に対応した異なる画像が分類されて表示されることが期待される。   The keyword based on the variance in step 306 is a keyword that is presumed to reflect the difference in the search result in the image group, and the selected keyword is arranged by arranging the search result in a space spanned by this keyword feature amount. It is expected that different images corresponding to the presence or absence of the image will be classified and displayed.

以上の処理は、検索1回における処理であり、検索を繰り返す度に実行される。   The above processing is processing for one search, and is executed each time the search is repeated.

ここで、図3におけるステップ312,314の処理にかかわる演算について説明する。本発明の実施例として、重回帰分析を画像特徴量からキーワードを予測する方法として使用している。その場合の予測式は(数1)のようになる。   Here, the calculation related to the processing of steps 312 and 314 in FIG. 3 will be described. As an embodiment of the present invention, multiple regression analysis is used as a method for predicting keywords from image feature amounts. In this case, the prediction formula is as shown in (Formula 1).

Figure 0004521008
Figure 0004521008

(数1)は線形なのでキーワードによっては予測不可能な場合もありえるが、あらかじめ予測可能なキーワードだけを採用するように処理することができる。ここで、予測係数bをあらかじめキーワード毎に求めておくことが重要となる。それは重回帰分析において(数2)によって求められる。 Since (Equation 1) is linear, some keywords may be unpredictable, but processing can be performed so that only predictable keywords are adopted in advance. Here, it is important to obtain the prediction coefficient b k for each keyword in advance. It is obtained by (Equation 2) in the multiple regression analysis.

Figure 0004521008
Figure 0004521008

また画像特徴量ベクトルの全ての要素を使用すると、そのキーワードの予測に寄与しない要素だった場合、予測性能が低下してしまう。そこで、予測性能が高くなるように特徴量ベクトルの要素を取捨選択する方法がある。F検定や情報量規準AICなどによって要素を選択する方法であるが、具体的な方法は、たとえば、(株)現代数学社の「多変量解析ハンドブック」などに説明されているので、ここでは説明しない。いずれにしても、取り除かれた要素については予測係数b=0とすることにすれば、キーワード毎で採用する画像特徴量ベクトルの要素数が変わらないのでプログラム上、扱い易い。 If all the elements of the image feature vector are used, the prediction performance deteriorates if the element does not contribute to the prediction of the keyword. Therefore, there is a method of selecting elements of the feature vector so that the prediction performance is improved. This is a method of selecting elements by F-test or information criterion AIC, etc. The specific method is explained in, for example, “Multivariate Analysis Handbook” of Hyundai Mathematics Co., Ltd. do not do. In any case, if the predicted coefficient b k = 0 is set for the removed element, the number of elements of the image feature quantity vector employed for each keyword does not change, and therefore it is easy to handle in the program.

さて、検索結果の画像群を代表するキーワードを決める場合には、(数3)の式を用いる。検索結果におけるキーワード予測値の平均が(数3)によって求められる。   Now, when determining a keyword representing the image group of the search result, the equation of (Equation 3) is used. The average of keyword prediction values in the search results is obtained by (Equation 3).

Figure 0004521008
Figure 0004521008

ここで、平均値の変数についているダッシュは、平均するデータ数が(数2)の場合に全データnだったのに対し、(数3)では検索結果数mであるため両者を区別するために使用している。   Here, the dash attached to the variable of the average value is the total number of data n when the number of data to be averaged is (Equation 2), whereas in (Equation 3), the number of search results is m. It is used for.

また、検索結果の画像群の違いをより反映したキーワードを決める場合には、(数4)の式を用いる。検索結果におけるキーワード予測値の分散が(数4)によって求められる。   In addition, when determining a keyword that more reflects the difference in the image group of the search results, the equation (Equation 4) is used. The variance of the keyword prediction value in the search result is obtained by (Equation 4).

Figure 0004521008
Figure 0004521008

(数4)は、(数3)に比べ計算量が大きいのが分る。もし計算機の能力や特徴量ベクトルの要素数などによって、計算量が大きいのが気になる場合には、近似的な方法として、(数3)の値が1/2に近いものを採用するという方法がある。今、ある変数が0か1の2値を取る場合、その分散は出現頻度をPとするとP(1−P)になる。これはP=1/2のときに最大となるので、分散が最大となるものを選ぶにはP=1/2のものを選ぶとよい。全ての検索結果についてキーワード予測がうまくいっている場合には、この方法が効果的である。しかも(数3)で既に計算した値を使え、新たに計算する必要がなくなるので計算量削減に大変役立つ。   It can be seen that (Equation 4) has a larger calculation amount than (Equation 3). If you are worried that the amount of calculation is large due to the ability of the computer or the number of elements in the feature vector, use an approximate method with a value of (Equation 3) close to 1/2. There is a way. Now, when a variable takes a binary value of 0 or 1, the variance is P (1-P), where P is the appearance frequency. Since this is the maximum when P = 1/2, in order to select the one having the maximum dispersion, it is preferable to select the one having P = 1/2. This method is effective when keyword prediction is successful for all search results. Moreover, since the value already calculated in (Equation 3) can be used and it is not necessary to newly calculate, it is very useful for reducing the amount of calculation.

また、ここでは統計処理として重回帰分析を用いた例を示したが、統計処理として、2次の判別分析を用いることや、3階層以上のニューラルネットワークの学習などを用いることを妨げるものではない。これらは非線形な処理を行うために、線形な処理で予測を行う重回帰分析を用いた場合に予測できなかったキーワードをも予測できるようになる可能性がある。   Although an example using multiple regression analysis is shown here as statistical processing, it does not preclude the use of secondary discriminant analysis or the learning of neural networks of three or more layers as statistical processing. . Since these perform non-linear processing, there is a possibility that keywords that could not be predicted when using multiple regression analysis that performs prediction by linear processing can be predicted.

図4は、本発明による表示をネットワークシステムを利用して行う場合の一実施例としてクライアント側とサーバ側とのそれぞれの構成および連係関係を示した模式図である。画像検索クライアントシステム407と画像検索サーバシステム408がネットワーク402で接続された構成をしている。装置401は、図1で説明したようなGUIなどを実装する表示及び入力装置である。GUIにて表示キーワードの選択や表示領域の移動などの入力を行う。また、さまざまな画像検索の検索要求を受けつける入力機能も備えている。装置406は、ネットワークサーバ403とネットワーク402を介して通信を行うネットワーククライアントである。装置403へユーザの検索要求を送信したり、受診した画像データやキーワード、各画像の座標情報に従って画面を構成したり、装置401からの情報に従って、画像配置を変更したり、表示領域を移動したりする機能を備えている。装置403は、ネットワーク402を介してデータの送受信を行うネットワークサーバである。具体的には、ここ403で検索要求を受信したり、検索されたの画像、表示のための各座標の座標情報やキーワードなどを送信する機能を備えている。画像データベース405には画像自体と画像からあらかじめ抽出しておいた画像毎の特徴量、およびさまざまな検索を行うためのタグ情報(キーワードや文章、音声など)が格納されており、検索時に画像検索装置404に利用される。図2のようにデータベースを検索方法毎などに分離して格納することもできるが、装置としては1つのデータベースに全てを格納することも可能である。装置404は、検索要求に従って検索を行う画像検索装置である。画像データベース405にアクセスして、検索結果をネットワークサーバ403へ渡す。また、検索だけの機能に限らず、代表キーワードや画像群内の違いを表現するキーワードの選出などもここで行われる。   FIG. 4 is a schematic diagram showing a configuration and a link relationship between the client side and the server side as an embodiment when the display according to the present invention is performed using a network system. An image search client system 407 and an image search server system 408 are connected via a network 402. The device 401 is a display and input device that implements the GUI described with reference to FIG. Input such as selection of a display keyword and movement of a display area is performed on the GUI. It also has an input function that accepts various image search requests. The device 406 is a network client that communicates with the network server 403 via the network 402. Send a user search request to the device 403, configure the screen according to the image data and keywords received, the coordinate information of each image, change the image layout according to the information from the device 401, and move the display area It has a function to do. The device 403 is a network server that transmits and receives data via the network 402. Specifically, it has a function of receiving a search request in step 403, and transmitting a searched image, coordinate information of each coordinate for display, a keyword, and the like. The image database 405 stores the image itself, the feature amount of each image previously extracted from the image, and tag information (keywords, sentences, voice, etc.) for performing various searches. Used for the device 404. As shown in FIG. 2, the database can be stored separately for each search method or the like. However, as a device, all can be stored in one database. The device 404 is an image search device that performs a search according to a search request. The image database 405 is accessed and the search result is passed to the network server 403. Further, not only the search function but also selection of representative keywords and keywords expressing differences in the image group are performed here.

図5は、検索結果画像間関係の表示クライアント・サーバシステムの通信手順を説明したNSチャートである。   FIG. 5 is an NS chart for explaining the communication procedure of the display client / server system for the relationship between search result images.

まず、サーバシステム(以下、Sシステム)の起動521が行なわれる。Sシステムが初期化されて(522)、設定ファイルの読み込みなど準備される。次にクライアントシステムからの通信を待機する状態となる(523)。   First, a server system (hereinafter referred to as “S system”) is activated 521. The S system is initialized (522), and the setting file is read. Next, it enters a state of waiting for communication from the client system (523).

そして、クライアントシステム(以下、Cシステム)の起動が行われる(501)と、Sシステムと同様にして初期化がなされる(502)。通信接続処理503にて通信待機中のSシステムへ通信接続要求を送信する。Sシステムでは、通信接続処理において、通信接続要求のあったCシステムとの間に通信接続を確立する(523)。この中では、接続要求があるまで通信待機したり、Cシステムとの情報のやりとりやGUIのためのプログラムの送信などが行われることもある。Cシステムの通信接続処理503では、さらに、受信した情報を設定したり、GUIのプログラムを実行したりする。以上で画像検索の準備が完了する。以下からCシステムではGUIが起動しはじめ、SシステムではCシステムの要求に対して反応し処理を実行するようになる。   When a client system (hereinafter referred to as C system) is started (501), initialization is performed in the same manner as in the S system (502). In communication connection processing 503, a communication connection request is transmitted to the S system waiting for communication. In the S system, a communication connection is established with the C system that requested the communication connection in the communication connection process (523). In this process, communication is waited until a connection request is made, information is exchanged with the C system, and a program for GUI is transmitted. In the communication connection process 503 of the C system, the received information is further set and a GUI program is executed. This completes preparation for image search. From the following, the GUI starts in the C system, and the S system responds to the request from the C system and executes processing.

最初に、Cシステムの処理で、ユーザからのさまざまな画像検索がある中で特定の検索を実行するための検索要求を受けつける(504)。この検索要求をSシステムへ送信する(505)。このデータをC1とする。通信待機中のSシステムが通信を受信すると、まず受信内容の判定を行う(524)。通信内容が、C1であるなら、「Y」分岐へ行き画像検索を実行する(526)。「N」分岐の場合、通信待機524へ戻る(527)。このとき、Cシステムへエラー情報を送信してもよいし、送信しなくても、Cシステム側でタイムアウト処理を行うことで通信接続処理503へ戻ってもよい。   First, in the processing of the C system, a search request for executing a specific search is received among various image searches from the user (504). This search request is transmitted to the S system (505). This data is C1. When the S system waiting for communication receives the communication, the received content is first determined (524). If the communication content is C1, go to the “Y” branch and execute an image search (526). If the branch is “N”, the process returns to the communication standby 524 (527). At this time, the error information may be transmitted to the C system, or may be returned to the communication connection process 503 by performing a timeout process on the C system side without being transmitted.

Sシステムで「Y」分岐へ行って画像検索を行った後、代表・表示キーワードの演算と選出、および選出された各表示キーワード毎に、検索結果画像の座標を計算する(528)。次に、検索結果の画像自身を送信する(529)。   After performing the image search by going to the “Y” branch in the S system, the calculation and selection of the representative / display keyword and the coordinates of the search result image are calculated for each selected display keyword (528). Next, the search result image itself is transmitted (529).

Cシステムの通信待機処理506で検索結果の画像を受信すると、次に代表・表示キーワードの要求(C2)を送信する(507)。そしてCシステムは代表・表示キーワードの通信待機状態となる(508)。Sシステムから、代表・表示キーワードを受信すると、次に各表示キーワードにおける各画像の座標の要求(C3)を送信し(509)、通信待機になる(510)。更に、それらのデータを受信すると(510)、Sシステムへデータ受信確認(C4)を送信する(511)。そして、通信切断処理に入る(512)。   When the search result image is received in the communication standby process 506 of the C system, a request for representative / display keyword (C2) is transmitted (507). Then, the C system enters a communication standby state for the representative / display keyword (508). When the representative / display keyword is received from the S system, a request (C3) for the coordinates of each image for each display keyword is transmitted (509), and communication standby is performed (510). Furthermore, when those data are received (510), a data reception confirmation (C4) is transmitted to the S system (511). Then, the communication disconnection process is started (512).

Sシステムでは通信待機(530)状態において通信を受信すると、その内容が判定され、それがC2の場合、代表・表示キーワードを送信し、C3の場合各表示キーワードにおける各検索画像の座標を送信し、それぞれの終了後、通信待機(530)状態へ戻る。C4であればそのまま通信切断処理(535)へ移り、1回の検索における後始末を行い、最初の通信待機(523)へ戻る。これをシステム終了まで繰り返す(536)。システム終了時になれば終了処理を行う(537)。   In the S system, when communication is received in the communication standby (530) state, the content is determined. If it is C2, the representative / display keyword is transmitted, and if it is C3, the coordinates of each search image in each display keyword are transmitted. After each end, the communication standby (530) state is restored. If it is C4, the process proceeds to the communication disconnection process (535) as it is, the subsequent cleaning in one search is performed, and the process returns to the first communication standby (523). This is repeated until the system is terminated (536). If the system is terminated, termination processing is performed (537).

Cシステムでは、代表・表示キーワードをユーザに提示して、表示軸のキーワード指定を受け付け(513)、そのキーワードの軸に対応する各検索画像の座標を使って、画像を配置し表示を行う(514)。処理514では、表示領域の移動などの処理も行う。そして表示が終れば、最初の通信接続処理(503)へ戻る。これを検索終了まで繰り返す(515)。検索終了になれば終了処理を行う(516)。   In the C system, a representative / display keyword is presented to the user, a keyword designation of a display axis is accepted (513), and an image is arranged and displayed using the coordinates of each search image corresponding to the axis of the keyword ( 514). In processing 514, processing such as moving the display area is also performed. When the display ends, the process returns to the first communication connection process (503). This is repeated until the search is completed (515). If the search ends, end processing is performed (516).

なお、本実施例では、2次元の表示面に2軸の表示空間として検索結果を表示するものとしたが、表示空間は1軸または3軸とすることもできる。しかも、これを検索者が任意に選ぶものとすることは容易である。   In this embodiment, the search results are displayed as a two-axis display space on a two-dimensional display surface. However, the display space may be one or three axes. Moreover, it is easy for the searcher to select this arbitrarily.

本発明の実施例のグラフィック・ユーザ・インターフェースを示す模式図。1 is a schematic diagram showing a graphic user interface according to an embodiment of the present invention. 本発明の実施例のデータの流れを示した模式図。The schematic diagram which showed the flow of the data of the Example of this invention. 本発明の実施例の処理手続きを示したPAD図。The PAD figure which showed the processing procedure of the Example of this invention. 本発明による検索結果画像間関係の表示をネットワークシステムを利用して行う場合の一実施例としてクライアント側とサーバ側とのそれぞれの構成および連係関係を示した模式図。The schematic diagram which showed each structure and linkage relation of the client side and the server side as one Example at the time of displaying the relationship between search result images by this invention using a network system. 検索画像間関係の表示クライアント・サーバシステムの通信手順の説明図。Explanatory drawing of the communication procedure of the display client / server system of the relationship between search images.

符号の説明Explanation of symbols

101:表示空間のスケールを変更するスクロールバー、102:検索された画像、103:表示空間の表示領域を移動させるボタン、104:表示空間の表示領域の中央に戻ってくるボタン、105:表示のY軸に使用するキーワードを選択するボタン、106:表示空間を表示する部分、107:表示のX軸に使用するキーワードを選択するボタン、108:画像群を代表するキーワード群を表示する部分、201:ユーザからの検索要求、202:キーワードデータベース、203:文章データベース、204:音声データベース、205:画像特徴量データベース、206:さまざまな画像検索の方法、207:キーワードあるいはキーワードから作られる特徴量の流れ、208:文章あるいは文章から作られる特徴量の流れ、209:音声あるいは音声から作られる特徴量の流れ、210:画像特徴量の流れ、211:検索結果の画像データ名あるいは画像を特定する番号、212:検索結果に対応した画像の特徴量の流れ、213:検索結果における特徴量ベクトルの各要素の平均、分散共分散の計算、214:特徴量ベクトルの各要素の平均値の流れ、215:特徴量ベクトルの各要素の分散共分散の流れ、216:各キーワードにおける画像特徴量の流れ、217:キーワード特徴量データベース、218:各キーワード予測値の平均値と分散値の計算、219:各キーワード予測値の検索結果における平均値、220:各キーワード予測値の検索結果における分散値、221:平均値や分散値に基いて最大値から指定個数個選出する処理、222:平均値に基いて選出されたキーワード、223:分散値に基いて選出されたキーワードと特徴量、224:代表キーワードの提示、225:表示キーワードの表示と検索結果の表示のGUI、226:検索結果の画像自身の流れ、227:画像データベース、228:検索結果の画像群全体の意味情報、229:検索結果の画像群内の違いを表す意味情報、233:転送される特徴量ベクトルxik、301:ユーザからの検索要求の受け付け、302:画像検索と検索結果のデータ名の出力、303:検索結果数だけ反復、304:キーワード数だけ反復、305:平均値に基くキーワードを最大値からS個ユーザへ提示、306:分散値に基くキーワードを最大値からT個ユーザへ提示、307:ユーザからの表示キーワードの指示、308:検索結果の画像の表示、309:画像特徴量ベクトルの取得、310:画像特徴量ベクトルの各要素の平均と分散共分散の集計、311:キーワード特徴量ベクトルの取得、312:キーワード予測値の平均の計算、313:最大値からS個のキーワードを保存、314:キーワード予測値の分散の計算、315:最大値からT個のキーワードを保存。 101: Scroll bar for changing the scale of the display space, 102: Searched image, 103: Button for moving the display area of the display space, 104: Button for returning to the center of the display area of the display space, 105: Display Button for selecting a keyword to be used for the Y axis, 106: a part for displaying a display space, 107: a button for selecting a keyword to be used for the X axis of display, 108: a part for displaying a keyword group representing an image group, 201 : Search request from user, 202: Keyword database, 203: Text database, 204: Voice database, 205: Image feature database, 206: Various image search methods, 207: Flow of feature values created from keywords or keywords 208: A flow of a feature amount made from a sentence or a sentence, 20 : Flow of feature amount generated from voice or voice, 210: Flow of image feature amount, 211: Image data name of search result or number for specifying image, 212: Flow of feature amount of image corresponding to search result, 213 : Average of each element of feature quantity vector in search result, calculation of variance covariance, 214: Flow of average value of each element of feature quantity vector, 215: Flow of variance covariance of each element of feature quantity vector, 216: Flow of image feature value in each keyword 217: Keyword feature value database 218: Calculation of average value and variance value of each keyword predicted value 219: Average value in search result of each keyword predicted value 220: Each keyword predicted value 221: Processing for selecting a specified number from the maximum value based on the average value and the variance value, 222: Based on the average value Selected keyword, 223: Keyword and feature quantity selected based on variance value, 224: Presentation of representative keyword, 225: GUI of display keyword display and search result display, 226: Flow of search result image itself 227: Image database 228: Semantic information of the entire image group of the search result 229: Semantic information representing a difference in the image group of the search result 233: Feature quantity vector x ik to be transferred 301: Search from the user Accept request, 302: Image search and output of search result data name, 303: Repeat for the number of search results, 304: Repeat for the number of keywords, 305: Present keywords based on average value to S users from maximum value, 306 : Present keywords to T users from maximum value based on variance value, 307: Instruction of display keyword from user, 308: Search result 309: Acquisition of image feature vector, 310: Aggregation of average and variance / covariance of each element of image feature vector, 311: Acquisition of keyword feature vector, 312: Calculation of average of keyword predicted value 313: Save S keywords from the maximum value 314: Calculate the variance of keyword prediction values, 315: Save T keywords from the maximum value.

Claims (2)

画像の検索システムにおいて、
検索対象の画像群を格納する画像データベースと、該画像データベースに記録された画像ごとに画像特徴量を記録する画像特徴量データベースと、任意の画像画像特徴量から付与すべきキーワードを予測するため画像特徴量とキーワード予測値との対応関係を示すデータをキーワードと対応付けて格納したキーワード特徴量データベースと、を含むデータベース装置と、
検索要求に従って上記画像データベースに格納された画像群を検索して検索結果の画像群を出力する画像検索装置と、
該画像検索装置による検索結果を表示する表示装置とを有し、
該表示装置は、上記画像特徴量データベースを参照して検索された画像群の画像特徴量を取得し、上記キーワード特徴量データベースを参照して上記画像群の画像特徴量から該画像群に付与すべきキーワードを選出し、検索結果の画像群とともに検索結果の画像群に付与すべきキーワードを表示するとともに、
該表示装置は、表示された検索結果の画像群に付与すべきキーワードから、ユーザが選出したキーワードを1〜3軸の座標軸にあて、検索結果の各画像についてその画像特徴量から上記選出したキーワードが付与されるか否かを、上記キーワード特徴量データベースに該キーワードと対応付けて格納されたデータを用いて上記各画像の画像特徴量と演算しそのキーワード予測値を求めることで予測し、該キーワード予測値の大きさに対応した座標位置に検索結果の各画像を配置することで散布図として表示する、
ことを特徴とする画像検索システム。
In the image search system,
To predict an image database storing an image group to be searched, an image feature database for recording an image feature for each image recorded in the image database, and a keyword to be given from an image feature of an arbitrary image A keyword feature database in which data indicating the correspondence between the image feature and the keyword predicted value is stored in association with the keyword,
An image search device for searching for an image group stored in the image database according to a search request and outputting an image group of a search result;
A display device for displaying a search result by the image search device,
The display device acquires an image feature amount of an image group searched with reference to the image feature amount database, and assigns the image feature amount to the image group from the image feature amount of the image group with reference to the keyword feature amount database. keywords elect to, and displays the grant should do keyword in the image group of the search results together with images of the search results,
The display device assigns the keyword selected by the user from the keywords to be assigned to the displayed search result image group to the 1 to 3 coordinate axes, and selects the keyword selected from the image feature amount for each image of the search result. Is calculated by calculating the image feature amount of each image using the data stored in association with the keyword in the keyword feature amount database and obtaining the keyword predicted value , Display as a scatter diagram by placing each image of the search results at the coordinate position corresponding to the size of the keyword predicted value,
An image search system characterized by that.
請求項1に記載の画像検索システムにおいて、
前記表示装置は、
前記検索結果の画像群の画像特徴量を基に該画像群に付与すべきキーワード予測値の平均値を演算し、演算結果から指定個数選出することで決定され、検索結果の画像群の全体を代表する第1のキーワード群と、
前記検索結果の画像群の画像特徴量を基に該画像群に付与すべきキーワード予測値の分散値を演算し、演算結果から指定個数選出することで決定され、検索結果の画像群の個々の画像間の違いを表現する第2のキーワード群を表示するとともに、
該第2のキーワード群からユーザによって選択された2つのキーワードによって構成される表示空間に検索結果の画像群を散布図として表示する、
ことを特徴とする画像検索システム。
The image search system according to claim 1,
The display device
An average value of keyword predicted values to be assigned to the image group is calculated based on the image feature amount of the image group of the search result, and is determined by selecting a specified number from the calculation result. A representative first group of keywords,
Based on the image feature amount of the image group of the search result, the variance value of the keyword prediction value to be given to the image group is calculated, and determined by selecting a specified number from the calculation result. While displaying the second keyword group expressing the difference between images,
An image group of search results is displayed as a scatter diagram in a display space constituted by two keywords selected by the user from the second keyword group.
An image search system characterized by that.
JP2007070424A 2007-03-19 2007-03-19 Image search system Expired - Lifetime JP4521008B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007070424A JP4521008B2 (en) 2007-03-19 2007-03-19 Image search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007070424A JP4521008B2 (en) 2007-03-19 2007-03-19 Image search system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP17360599A Division JP3996723B2 (en) 1999-06-21 1999-06-21 Image display method and apparatus, and search service using the same

Publications (2)

Publication Number Publication Date
JP2007183990A JP2007183990A (en) 2007-07-19
JP4521008B2 true JP4521008B2 (en) 2010-08-11

Family

ID=38339952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007070424A Expired - Lifetime JP4521008B2 (en) 2007-03-19 2007-03-19 Image search system

Country Status (1)

Country Link
JP (1) JP4521008B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6068357B2 (en) * 2012-03-14 2017-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Content display processing device, content display processing method, program, and integrated circuit
US10970330B1 (en) * 2019-11-20 2021-04-06 International Business Machines Corporation Method of searching images using rotational gesture input

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04348474A (en) * 1990-12-28 1992-12-03 Kawasaki Steel Corp Control and retrieving device of image data base
JPH10188023A (en) * 1996-12-24 1998-07-21 Fuji Xerox Co Ltd Image design supporting device
JPH1139317A (en) * 1997-07-15 1999-02-12 Omron Corp Image retrieving device and record medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04348474A (en) * 1990-12-28 1992-12-03 Kawasaki Steel Corp Control and retrieving device of image data base
JPH10188023A (en) * 1996-12-24 1998-07-21 Fuji Xerox Co Ltd Image design supporting device
JPH1139317A (en) * 1997-07-15 1999-02-12 Omron Corp Image retrieving device and record medium

Also Published As

Publication number Publication date
JP2007183990A (en) 2007-07-19

Similar Documents

Publication Publication Date Title
JP3996723B2 (en) Image display method and apparatus, and search service using the same
JP5010126B2 (en) Query graph
JP5555327B2 (en) Search result generation method and information search system
CN107408116B (en) Using dynamic knowledge graphs to facilitate discovery of information items
US20120271842A1 (en) Learning retrieval functions incorporating query differentiation for information retrieval
US8266139B2 (en) System and interface for co-located collaborative web search
JP2012501499A (en) System and method for supporting search request by vertical proposal
WO2014182585A1 (en) Recommending context based actions for data visualizations
JP2009157500A (en) Distribution server and distribution method
JP2007219722A (en) Document retrieval server and document retrieval method
JP7069802B2 (en) Systems and methods for user-oriented topic selection and browsing, how to display multiple content items, programs, and computing devices.
Wang et al. Interactive browsing via diversified visual summarization for image search results
JP5219890B2 (en) Product information providing apparatus, product information providing method and program
Schleußinger Information retrieval interfaces in virtual reality—A scoping review focused on current generation technology
US9135328B2 (en) Ranking documents through contextual shortcuts
Alfimtsev et al. Formalization of expert knowledge about the usability of web pages based on user criteria aggregation
Cuenca et al. VERTIGo: A visual platform for querying and exploring large multilayer networks
JP4521008B2 (en) Image search system
JP2007034772A (en) Optimum display system for web site search result, its method and its program
JP2006127523A (en) Document information display system
WO2018030350A1 (en) Information provision device
US20230350955A1 (en) Comparative search within user-generated content
JP3984263B2 (en) Map information system linked search engine server system.
US20130332440A1 (en) Refinements in Document Analysis
US20140095465A1 (en) Method and apparatus for determining rank of web pages based upon past content portion selections

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100521

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4521008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

EXPY Cancellation because of completion of term