JP2009169533A - Image arrangement data generation device and image arrangement data generation method - Google Patents

Image arrangement data generation device and image arrangement data generation method Download PDF

Info

Publication number
JP2009169533A
JP2009169533A JP2008004785A JP2008004785A JP2009169533A JP 2009169533 A JP2009169533 A JP 2009169533A JP 2008004785 A JP2008004785 A JP 2008004785A JP 2008004785 A JP2008004785 A JP 2008004785A JP 2009169533 A JP2009169533 A JP 2009169533A
Authority
JP
Japan
Prior art keywords
image
information
identification information
arrangement
image arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008004785A
Other languages
Japanese (ja)
Inventor
Tamon Sadasue
多聞 貞末
Hiroyuki Sakuyama
宏幸 作山
Koji Kobayashi
幸二 小林
Yuka Kihara
酉華 木原
Junichi Hara
潤一 原
Taku Kodama
卓 児玉
Hirohisa Inamoto
浩久 稲本
Maiko Takenaka
麻衣子 竹中
Chihiro Hamaya
千尋 濱谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008004785A priority Critical patent/JP2009169533A/en
Publication of JP2009169533A publication Critical patent/JP2009169533A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate image arrangement data for displaying image map which facilitates an image retrieval. <P>SOLUTION: An image arrangement processing part 2004 retrieves featured value vectors on an SOM model whose Euclidian distance to featured value vectors extracted from an input image by a featured value extraction part 2003 is the minimum, and generates image arrangement information 2011 in which the image identification information of the input image is recorded at lattice points corresponding to the retrieved featured value vectors. An image rearrangement processing part 2006 applies consecutive sequences to the image identification information and "emptiness" information meaning that any image is not arranged to the image arrangement information 2011 while spirally tracing the lattice points, and rearranges the image by successively re-associating the image identification information and the "emptiness" information with the lattice points according to the applied sequences while spirally tracing the lattice points, and generates image arrangement data configured of the set of the pairs of the image identification information and the lattice point coordinates. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像の検索・閲覧のための技術分野に係り、特に、多数の画像を検索しやすい形で画面に縮小表示させるための画像配置データを生成する装置及び方法に関する。   The present invention relates to a technical field for image search / browsing, and more particularly, to an apparatus and method for generating image arrangement data for reducing and displaying a large number of images on a screen in an easily searchable manner.

多数の画像を画面に縮小表示させて画面上で目的の画像を探す場合、画像が無秩序に配置されていたのでは目的の画像を見つけだすことは容易でない。目的の画像を見つけやすいように画像の配置を制御することが望まれる。   When a large number of images are reduced on the screen and a target image is searched for on the screen, it is not easy to find the target image if the images are arranged randomly. It is desirable to control the arrangement of images so that a target image can be easily found.

例えば、自己組織化マップ(SOM:Self-Organizing Maps)を用いて、類似度の高い画像を互いに近い位置となるように配置する方法が考えられる(特許文献1参照)。このようにすれば、ユーザは類似度の高い画像を辿って目的の画像をより効率的に検索することができる。   For example, a method of arranging images with high similarity so as to be close to each other using a self-organizing map (SOM) can be considered (see Patent Document 1). In this way, the user can search the target image more efficiently by tracing the images with high similarity.

また、画像の多次元特徴量を2次元の特徴量に集約し、この2次元の特徴量を距離空間ととらえて画像をクラスタリングし、クラスタごとに画面の部分領域を割り当てて画像を縮小表示する方法が考えられる(特許文献2参照)。同じような特徴量を持つ画像は同じ部分領域に配置されるので、画像が無秩序に並べられて表示される場合に比べ、目的の画像を効率良く探し出すことができる。   In addition, the multidimensional feature values of the image are aggregated into a two-dimensional feature value, the two-dimensional feature value is regarded as a metric space, the images are clustered, and a partial area of the screen is assigned to each cluster, and the image is reduced and displayed. A method is conceivable (see Patent Document 2). Since images having similar feature amounts are arranged in the same partial area, the target image can be searched for more efficiently than in the case where images are displayed in random order.

特許第3614235号公報公報Japanese Patent No. 3614235 特開2005−235041号公報JP 2005-235041 A

例えば、自己組織化マップを利用して画像を配置するような場合に、複数の画像が同じ位置に重複して配置されてしまうことがある。特許文献1では、2次元空間に奥行きを追加し、2次元空間上の同じ位置に配置された画像は奥行きをずらして再配置することで、2次元空間上で同じ位置に配置された画像が重なって見えなくなることがないようにしている。しかし、このような手法は、画像の縮小画像(サムネイル)を2次元的に並べた単純な画像マップを表示する目的には採用することができない。   For example, when images are arranged using a self-organizing map, a plurality of images may be arranged in duplicate at the same position. In Patent Document 1, a depth is added to a two-dimensional space, and images arranged at the same position in the two-dimensional space are rearranged by shifting the depth so that an image arranged at the same position in the two-dimensional space is changed. It doesn't overlap and disappear. However, such a method cannot be employed for the purpose of displaying a simple image map in which reduced images (thumbnails) of images are arranged two-dimensionally.

また、自己組織化マップ等を利用して画像を2次元空間の格子点に配置した結果、画像の重なりが生じた場合に、格子点と格子点の間に画像を再配置して重なりを回避することも考えられる。しかし、同じ格子点に多くの画像が重複して配置されると、そのような再配置は困難である。また、隣接格子点に配置された画像のサムネイルが重ならないように格子点の間隔が選ばれるが、格子点間に画像を再配置するにはサムネイルの大きさを縮小する等の処理も必要となってしまい、処理コストが増加するという問題もある。   In addition, if images overlap as a result of placing images at two-dimensional space grid points using a self-organizing map, the images are rearranged between the grid points to avoid the overlap. It is also possible to do. However, such a rearrangement is difficult if many images are arranged at the same grid point. In addition, the interval between the grid points is selected so that the thumbnails of the images arranged at the adjacent grid points do not overlap, but in order to rearrange the images between the grid points, processing such as reducing the size of the thumbnails is necessary. As a result, the processing cost increases.

よって、本発明の目的は、多数の画像のサムネイルを効率的な検索が可能となるように2次元的に配置した画像マップを表示するための画像配置データを生成する、改良した装置及び方法を提供することにある。   Accordingly, an object of the present invention is to provide an improved apparatus and method for generating image arrangement data for displaying an image map arranged two-dimensionally so that thumbnails of a large number of images can be efficiently searched. It is to provide.

請求項1記載の発明に係る画像配置データ生成装置は、
画像を入力する画像入力手段と、
前記画像入力手段により入力された各画像の特徴量を抽出する特徴量抽出手段と、
画像入力手段により入力された各画像を、前記特徴量抽出手段で抽出された特徴量に基づき、類似した画像ほど近い距離になるように2次元空間の格子点に配置し、格子点に配置された画像の画像識別情報又は格子点に画像が配置されていないことを意味する”空”情報を格子点に対応付けて記録した画像配置情報を生成する画像配置情報生成手段と、
前記画像配置情報生成手段で生成された画像配置情報に対し、所定の順序で格子点を辿りながら画像識別情報及び”空”情報に連続した順番を付与する第1の処理と、前記所定の順序で格子点を辿りながら、画像識別情報及び”空”情報を、それらに前記第1の処理で付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置し、再配置後の画像識別情報とそれが対応付けられた格子点の位置情報のペアの集合からなる画像配置データを生成する第2の処理を行う画像再配置処理手段と、
を有することを特徴とする。
An image arrangement data generation device according to the invention of claim 1 is provided.
An image input means for inputting an image;
Feature quantity extraction means for extracting the feature quantity of each image input by the image input means;
Based on the feature amount extracted by the feature amount extraction unit, each image input by the image input unit is arranged at a grid point in the two-dimensional space so that a similar image is closer, and the image is arranged at the grid point. Image arrangement information generating means for generating image arrangement information in which image identification information of an image or “empty” information meaning that no image is arranged at a grid point is recorded in association with the grid point;
A first process for assigning a sequential order to image identification information and “empty” information while tracing lattice points in a predetermined order with respect to the image arrangement information generated by the image arrangement information generating unit; and the predetermined order The image is rearranged by following the grid points and re-allocating the image identification information and the “empty” information to the grid points in order according to the order given in the first process. Image relocation processing means for performing a second process of generating image arrangement data consisting of a set of pairs of image identification information and position information of lattice points associated with the image identification information;
It is characterized by having.

請求項2記載の発明の特徴は、請求項1記載の発明の画像配置データ生成装置において、前記画像再配置処理手段は前記第1及び第2の処理において渦巻き状に格子点を辿ることである。   According to a second aspect of the present invention, in the image arrangement data generating apparatus according to the first aspect of the invention, the image rearrangement processing means follows lattice points in a spiral shape in the first and second processes. .

請求項3記載の発明の特徴は、請求項1記載の発明の画像配置データ生成装置において、前記画像再配置処理手段は前記第1及び第2の処理において2次元空間の分割領域毎にラスタスキャン順に格子点を辿ることにある。   According to a third aspect of the present invention, in the image arrangement data generating device according to the first aspect of the invention, the image rearrangement processing means performs raster scan for each divided region of the two-dimensional space in the first and second processes. It is to follow the lattice points in order.

請求項4記載の発明の特徴は、請求項1記載の発明の画像配置データ生成装置において、前記画像入力手段により入力された各画像を、前記特徴量抽出手段で抽出された特徴量に基づき、複数のクラスタに分類するクラスタリング手段をさらに有し、
前記画像配置情報生成手段は、クラスタ別に画像の2次元空間の格子点への配置を行って、クラスタ別の画像配置情報を生成し、
前記画像再配置処理手段は、クラスタ別に前記第1の処理を行い、前記第2の処理において、クラスタ別に設定された起点格子点から前記所定の順序で格子点を辿りながら、各クラスタについての画像識別情報及び”空”情報を、それらに前記第1の処理で付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置することにある。
According to a fourth aspect of the present invention, in the image arrangement data generating apparatus according to the first aspect of the present invention, each image input by the image input unit is based on the feature amount extracted by the feature amount extraction unit. It further has a clustering means for classifying into a plurality of clusters,
The image arrangement information generating means performs arrangement of each image on a grid point in a two-dimensional space to generate image arrangement information for each cluster,
The image rearrangement processing means performs the first processing for each cluster, and in the second processing, the image for each cluster is traced in the predetermined order from the starting lattice point set for each cluster. The image information is rearranged by associating the identification information and the “empty” information with the grid points in order according to the order given in the first process.

請求項5記載の発明の特徴は、請求項4記載の発明の画像配置データ生成装置において、前記画像再配置処理手段は前記第1及び第2の処理において渦巻き状に格子点を辿ることにある。   According to a fifth aspect of the present invention, in the image arrangement data generating apparatus according to the fourth aspect of the invention, the image rearrangement processing means traces lattice points in a spiral shape in the first and second processes. .

請求項6記載の発明の特徴は、請求項4記載の発明の画像配置データ生成装置において、前記画像再配置処理手段は前記第1及び第2の処理においてラスタスキャン順に格子点を辿ることにある。   According to a sixth aspect of the present invention, in the image arrangement data generating apparatus according to the fourth aspect of the invention, the image rearrangement processing means follows the grid points in the raster scan order in the first and second processes. .

請求項7記載の発明の特徴は、請求項4記載の発明の画像配置データ生成装置において、前記画像再配置処理手段は、前記第1の処理において画像識別情報のみに順番を付与し、前記第2の処理において画像識別情報のみを格子点に対応付けし直すことにより画像を再配置することにある。   According to a seventh aspect of the present invention, in the image arrangement data generating device according to the fourth aspect of the invention, the image rearrangement processing unit assigns an order only to the image identification information in the first processing, and the first In the second process, the image is rearranged by re-associating only the image identification information with the lattice points.

請求項8記載の発明に係る画像配置データ生成方法は、
画像を入力する画像入力工程と、
前記画像入力工程により入力された各画像の特徴量を抽出する特徴量抽出工程と、
画像入力工程により入力された各画像を、前記特徴量抽出工程で抽出された特徴量に基づき、類似した画像ほど近い距離になるように2次元空間の格子点に配置し、格子点に配置された画像の画像識別情報又は格子点に画像が配置されていないことを意味する”空”情報を格子点に対応付けて記録した画像配置情報を生成する画像配置情報生成工程と、
前記画像配置情報生成工程で生成された画像配置情報に対し、所定の順序で格子点を辿りながら画像識別情報及び”空”情報に連続した順番を付与する第1の処理と、前記所定の順序で格子点を辿りながら、画像識別情報及び”空”情報を、それらに前記第1の処理で付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置し、再配置後の画像識別情報とそれが対応付けられた格子点の位置情報のペアの集合からなる画像配置データを生成する第2の処理を行う画像再配置処理工程と、
を有することを特徴とする。
An image arrangement data generation method according to the invention of claim 8 is provided.
An image input process for inputting an image;
A feature amount extraction step of extracting a feature amount of each image input by the image input step;
Based on the feature amount extracted in the feature amount extraction step, each image input in the image input step is arranged at a grid point in the two-dimensional space so that a similar image is closer, and the image is placed at the grid point. An image arrangement information generating step for generating image arrangement information in which image identification information of an image or “empty” information meaning that no image is arranged at a grid point is recorded in association with the grid point;
A first process for assigning a sequential order to image identification information and “empty” information while following lattice points in a predetermined order with respect to the image arrangement information generated in the image arrangement information generation step; and the predetermined order The image is rearranged by following the grid points and re-allocating the image identification information and the “empty” information to the grid points in order according to the order given in the first process. An image rearrangement process step of performing a second process of generating image arrangement data composed of a set of pairs of image identification information and position information of lattice points associated with the image identification information;
It is characterized by having.

請求項9記載の発明の特徴は、請求項8記載の発明の画像配置データ生成方法において、前記画像再配置処理工程は前記第1及び第2の処理において渦巻き状に格子点を辿ることにある。   According to a ninth aspect of the present invention, in the image arrangement data generation method according to the eighth aspect of the invention, the image rearrangement processing step traces lattice points spirally in the first and second processes. .

請求項10記載の発明の特徴は、請求項8記載の発明の画像配置データ生成方法において、前記画像再配置処理工程は前記第1及び第2の処理において2次元空間の分割領域毎にラスタスキャン順に格子点を辿ることにある。   According to a tenth aspect of the present invention, in the image arrangement data generation method according to the eighth aspect of the invention, the image rearrangement processing step performs a raster scan for each divided region of the two-dimensional space in the first and second processes. It is to follow the lattice points in order.

請求項11記載の発明は、請求項8記載の発明の画像配置データ生成方法において、
前記画像入力工程により入力された各画像を、前記特徴量抽出工程で抽出された特徴量に基づき、複数のクラスタに分類するクラスタリング工程をさらに有し、
前記画像配置情報生成工程は、クラスタ別に画像の2次元空間の格子点への配置を行って、クラスタ別の画像配置情報を生成し、
前記画像再配置処理工程は、クラスタ別に前記第1の処理を行い、前記第2の処理において、クラスタ別に設定された起点格子点から前記所定の順序で格子点を辿りながら、各区ラスタについての画像識別情報及び”空”情報を、それらに前記第1の処理で付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置することにある。
The invention according to claim 11 is the image layout data generation method according to claim 8,
A clustering step of classifying each image input in the image input step into a plurality of clusters based on the feature amount extracted in the feature amount extraction step;
The image arrangement information generation step performs arrangement of the image at a lattice point in the two-dimensional space for each cluster to generate image arrangement information for each cluster,
In the image rearrangement processing step, the first processing is performed for each cluster, and in the second processing, the image for each raster is obtained while tracing the lattice points in the predetermined order from the starting lattice points set for each cluster. The image information is rearranged by associating the identification information and the “empty” information with the grid points in order according to the order given in the first process.

請求項12記載の発明の特徴は、請求項11記載の発明の画像配置データ生成方法において、前記画像再配置処理工程は前記第1及び第2の処理において渦巻き状に格子点を辿ることにある。   According to a twelfth aspect of the present invention, in the image arrangement data generation method according to the eleventh aspect of the invention, the image rearrangement processing step traces lattice points spirally in the first and second processes. .

請求項13記載の発明の特徴は、請求項11記載の発明の画像配置データ生成方法において、前記画像再配置処理工程は前記第1及び第2の処理においてラスタスキャン順に格子点を辿ることにある。   According to a thirteenth aspect of the present invention, in the image arrangement data generation method according to the eleventh aspect of the invention, the image rearrangement processing step follows the grid points in the raster scan order in the first and second processes. .

請求項14記載の発明の特徴は、請求項11記載の発明の画像配置データ生成方法において、前記画像再配置処理工程は、前記第1の処理において画像識別情報のみに順番を付与し、前記第2の処理において画像識別情報のみを格子点に対応付けし直すことにある。   According to a fourteenth aspect of the present invention, in the image arrangement data generation method according to the eleventh aspect of the invention, the image rearrangement processing step assigns an order only to image identification information in the first processing, and the first In the second process, only the image identification information is associated with the grid points again.

請求項1乃至3もしくは請求項8乃至10に記載の発明によれば、画像配置情報生成手段もしくは工程で同じ格子点に複数の画像が重複して配置された場合、画像再配置処理手段もしくは工程により画像は重複しないように再配置される。そして、再配置の前後で画像の配置関係はそれほど変化しない。したがって、請求項1乃至3もしくは請求項8乃至10に記載の発明により生成された画像配置データに従って画像マップを表示した場合、類似した画像のサムネイルが近い距離に配置され、かつ、複数の画像のサムネイルが重なることがないため、画像マップ上で目的の画像を効率的に見つけだすことができるようになる。   According to the invention described in any one of claims 1 to 3 or claims 8 to 10, when a plurality of images are arranged in duplicate at the same grid point in the image arrangement information generation means or process, the image rearrangement processing means or process The images are rearranged so as not to overlap. The arrangement relationship of the images does not change so much before and after the rearrangement. Therefore, when an image map is displayed according to the image arrangement data generated by the invention according to claims 1 to 3 or claims 8 to 10, thumbnails of similar images are arranged at a short distance, and a plurality of images are displayed. Since the thumbnails do not overlap, the target image can be efficiently found on the image map.

請求項4乃至6もしくは請求項11乃至13に記載の発明によれば、画像配置情報生成手段もしくは工程でクラスタ別に画像が配置されるが、クラスタ内の複数の画像が同じ格子点に重複して配置された場合、画像再配置処理手段もしくは工程によりクラスタ内で画像が重複しないように再配置される。そして、再配置の前後でクラスタ内の画像の配置関係はそれほど変化しない。また、各クラスタ内の画像の再配置は、クラスタ別に設定された起点格子点から格子点を辿りながら行われる。したがって、請求項4乃至6もしくは請求項11乃至13に記載の発明により生成された画像配置データに従って画像マップを表示した場合、クラスタ別に画像のサムネイルが配置され、クラスタ内では、類似した画像のサムネイルが近い距離に配置され、かつ、複数の画像のサムネイルが重なることがないため、画像マップ上で目的の画像を効率的に見つけだすことができるようになる。   According to the invention described in claims 4 to 6 or claims 11 to 13, images are arranged for each cluster by the image arrangement information generating means or process, but a plurality of images in the cluster overlap with the same grid point. When the images are arranged, the images are rearranged by the image rearrangement processing means or process so that the images do not overlap in the cluster. The arrangement relationship of the images in the cluster does not change so much before and after the rearrangement. Further, the rearrangement of the images in each cluster is performed while tracing the lattice points from the starting point lattice points set for each cluster. Therefore, when an image map is displayed according to the image arrangement data generated by the invention according to any one of claims 4 to 6 or claims 11 to 13, thumbnails of images are arranged for each cluster, and thumbnails of similar images are arranged in the cluster. Are arranged at a close distance, and thumbnails of a plurality of images do not overlap, so that a target image can be found efficiently on the image map.

請求項7もしくは14に記載の発明によれば、画像配置情報生成手段もしくは工程でクラスタ別に画像が配置されるが、クラスタ内の複数の画像が同じ格子点に重複して配置された場合、画像再配置処理手段もしくは工程によりクラスタ内の画像は重複しないように再配置される。ただし、クラスタ内の画像は密集した状態に再配置されるため、クラスタ内の画像の配置関係は再配置の前後でかなり変化する。また、各クラスタ内の画像の再配置は、クラスタ別に設定された起点格子点から格子点を辿りながら行われる。したがって、請求項7もしくは14に記載の発明により生成された画像配置データに従って画像マップを表示した場合、クラスタ毎に画像のサムネイルは密集した形で配置され、かつ、複数の画像のサムネイルが重なることがないため、画像マップ上で目的の画像を効率的に見つけだすことができるようになる。また、各クラスタの画像は密集させて配置されるため、画像マップ上により多くの画像のサムネイルを表示させることができる。   According to the invention described in claim 7 or 14, images are arranged for each cluster by the image arrangement information generating means or process, but when a plurality of images in the cluster are arranged at the same grid point, Images in the cluster are rearranged so as not to overlap by the rearrangement processing means or process. However, since the images in the cluster are rearranged in a dense state, the arrangement relationship of the images in the cluster changes considerably before and after the rearrangement. Further, the rearrangement of the images in each cluster is performed while tracing the lattice points from the starting point lattice points set for each cluster. Therefore, when the image map is displayed according to the image arrangement data generated by the invention according to claim 7 or 14, the thumbnails of the images are arranged in a clustered manner for each cluster, and the thumbnails of a plurality of images overlap. Therefore, the target image can be efficiently found on the image map. Further, since the images of each cluster are arranged densely, more thumbnails of images can be displayed on the image map.

図1は本発明が適用される画像処理システムの一例を示すブロック図である。この画像処理システムは、画像ストレージ1000、画像配置データサーバ1001、画像配信サーバ1002及びクライアント1003から構成される。   FIG. 1 is a block diagram showing an example of an image processing system to which the present invention is applied. The image processing system includes an image storage 1000, an image arrangement data server 1001, an image distribution server 1002, and a client 1003.

画像ストレージ1000は多数の画像を記憶する装置である。画像配置データサーバ1001は、画像ストレージ1000に蓄積されている多数の画像をクライアント1003で縮小表示させる際に用いられる画像配置データを生成し、この画像配置データをクライアント1003からの要求に応じてクライアント1003へ送信する装置である。画像配信サーバ1002は、クライアント1003からの要求に応じて、画像ストレージ1000に蓄積されている画像又はその縮小画像(サムネイル)をクライアント1003へ送信する装置である。クライアント1003は画像の閲覧等を行うための装置であり、画像表示装置、その他のユーザ・インターフェース手段を備える。クライアント1003は、具体的には例えば、クライアントアプリケーションが動作するパーソナルコンピュータである。   The image storage 1000 is a device that stores a large number of images. The image arrangement data server 1001 generates image arrangement data used when a large number of images stored in the image storage 1000 are reduced and displayed on the client 1003, and the image arrangement data is sent to the client in response to a request from the client 1003. This is a device that transmits to 1003. The image distribution server 1002 is a device that transmits an image stored in the image storage 1000 or a reduced image (thumbnail) thereof to the client 1003 in response to a request from the client 1003. A client 1003 is a device for browsing images, and includes an image display device and other user interface means. Specifically, the client 1003 is, for example, a personal computer on which a client application operates.

画像配置データサーバ1001は、画像ストレージ1000に蓄積されている画像を入力する画像入力部1005、入力された各画像の特徴量に基づき各画像の配置を決定し、画像識別情報(例えばファイル名)と位置情報とからなる画像配置データを生成する画像配置データ生成部1006、生成された画像配置データを記憶する画像配置データ記憶部1007、クライアント1003からの要求に応じて画像配置データ記憶部1007に記憶されている画像配置データをクライアント1003へ送信する画像配置データ要求処理部1008を具備する。   The image layout data server 1001 determines the layout of each image based on the input feature amount of the image input unit 1005 that inputs the image stored in the image storage 1000, and image identification information (for example, a file name). The image arrangement data generating unit 1006 that generates image arrangement data including the position information, the image arrangement data storage unit 1007 that stores the generated image arrangement data, and the image arrangement data storage unit 1007 in response to a request from the client 1003 An image arrangement data request processing unit 1008 for transmitting the stored image arrangement data to the client 1003 is provided.

ここで、クライアント1003での画像閲覧に関連した動作について説明する。クライアント1003は、画像配置データ要求を画像配置データサーバ1001へ送信することにより、画像配置データサーバ1001より画像配置データを受信する。クライアント1003は、画像配置データ中の全ての画像識別情報を含むサムネイル配信要求を画像配信サーバ1002へ送信する。画像配信サーバ1002は、サムネイル配信要求に含まれる各画像識別情報に該当した画像を画像ストレージ1000より読み込み、そのサムネイルを作成してクライアント1003へ送信する。画像ストレージ1000に画像のサムネイルも蓄積されている場合には、画像配信サーバ1002は画像ストレージ1000からサムネイルを読み込み、それをクライアント1003へ送信する。   Here, operations related to image browsing on the client 1003 will be described. The client 1003 receives image arrangement data from the image arrangement data server 1001 by transmitting an image arrangement data request to the image arrangement data server 1001. The client 1003 transmits a thumbnail distribution request including all image identification information in the image arrangement data to the image distribution server 1002. The image distribution server 1002 reads an image corresponding to each piece of image identification information included in the thumbnail distribution request from the image storage 1000, creates the thumbnail, and transmits the thumbnail to the client 1003. If image thumbnails are also stored in the image storage 1000, the image distribution server 1002 reads the thumbnails from the image storage 1000 and transmits them to the client 1003.

クライアント1003は、画像配信サーバ1002から受信した各サムネイルを画像配置データ中の位置情報に従って配置した、図2に模式的に示すような画像マップを、画像表示装置の画面に表示させる。図2において、ハッチングを施した各矩形が1つの画像のサムネイルである。後述するように、画像マップにおいて、類似した画像のサムネイルは互いに近い位置に配置され、しかも複数の画像のサムネイルが同じ位置に重なることはないため、クライアント1003のユーザは、画面上で閲覧したい画像を効率よく見つけだすことができる。   The client 1003 displays on the screen of the image display device an image map as schematically shown in FIG. 2 in which the thumbnails received from the image distribution server 1002 are arranged according to the position information in the image arrangement data. In FIG. 2, each hatched rectangle is a thumbnail of one image. As will be described later, in the image map, thumbnails of similar images are arranged at positions close to each other, and the thumbnails of a plurality of images do not overlap at the same position. Therefore, the user of the client 1003 wants to view images on the screen. Can be found efficiently.

ユーザが画像マップ上で閲覧したい画像のサムネイルを指定すると、クライアント1003は当該画像に対応した画像識別情報を含む画像配信要求を画像配信サーバ1002へ送信する。画像配信サーバ1002は、受信した画像配信要求に含まれる画像識別情報に該当した画像を画像ストレージ1000より読み込み、該画像をクライアント1003へ送信する。クライアント1003は、受信した画像を画像表示装置の画面に表示し、ユーザは該画像を閲覧することができる。   When the user designates a thumbnail of an image to be viewed on the image map, the client 1003 transmits an image distribution request including image identification information corresponding to the image to the image distribution server 1002. The image distribution server 1002 reads an image corresponding to the image identification information included in the received image distribution request from the image storage 1000 and transmits the image to the client 1003. The client 1003 displays the received image on the screen of the image display device, and the user can view the image.

次に、画像配置データサーバ1001内の画像配置情報生成部1006について、詳細な実施形態を説明する。   Next, a detailed embodiment of the image arrangement information generation unit 1006 in the image arrangement data server 1001 will be described.

<画像配置データ生成部1006の第1の実施形態>
図3は、画像配置データ生成部1006の第1の実施形態を説明するためのブロック図である。この実施形態に係る画像配置データ生成部1006は、画像配置処理に自己組織化マップ(SOM)を利用するものであり、SOMモデル生成部2001、SOMモデル記憶部2002、特徴量抽出部2003、画像配置処理部2004、画像配置情報記憶部2005、画像再配置処理部2006及び制御部2007から構成される。
<First Embodiment of Image Arrangement Data Generation Unit 1006>
FIG. 3 is a block diagram for explaining the first embodiment of the image arrangement data generation unit 1006. An image arrangement data generation unit 1006 according to this embodiment uses a self-organizing map (SOM) for image arrangement processing, and includes an SOM model generation unit 2001, an SOM model storage unit 2002, a feature amount extraction unit 2003, an image, and the like. The image processing apparatus includes an arrangement processing unit 2004, an image arrangement information storage unit 2005, an image rearrangement processing unit 2006, and a control unit 2007.

まず、画像配置に利用されるSOMモデルを生成する動作と関連した構成について説明する。   First, a configuration related to an operation of generating an SOM model used for image arrangement will be described.

制御部2007の制御下で、画像ストレージ1000に蓄積されているm個のサンプル画像が画像入力部1005を通じて入力される。入力された各サンプル画像は制御部2007を介し特徴量抽出部2003へ送られる。特徴量抽出部2003において、各サンプル画像から彩度、色相、輝度、テクスチャ等のn次元の特徴量が抽出され、それら特徴量からなるn次元特徴量ベクトルが出力される。この特徴量ベクトルは制御部2007を介しSOMモデル生成部2001に入力される。最終的に、m個の特徴量ベクトルがSOMモデル生成部2001に入力される。   Under the control of the control unit 2007, m sample images stored in the image storage 1000 are input through the image input unit 1005. Each input sample image is sent to the feature amount extraction unit 2003 via the control unit 2007. The feature quantity extraction unit 2003 extracts n-dimensional feature quantities such as saturation, hue, luminance, and texture from each sample image, and outputs an n-dimensional feature quantity vector composed of these feature quantities. This feature vector is input to the SOM model generation unit 2001 via the control unit 2007. Finally, m feature quantity vectors are input to the SOM model generation unit 2001.

SOMモデル生成部2001において、入力されたm個の特徴量ベクトルを用いてSOMの学習アルゴリズムが実行され、SOMモデル2010がSOMモデル記憶部2002上に生成される。   In the SOM model generation unit 2001, an SOM learning algorithm is executed using the input m feature quantity vectors, and an SOM model 2010 is generated on the SOM model storage unit 2002.

SOMモデル2010は、m個の特徴量ベクトルを、相互間のユークリッド距離が小さいものほど近くなるように、2次元空間の格子点に重複させることなく配置したデータである。より具体的には、SOMモデル2010は例えば、2次元空間の格子点に対応したエントリーを持ち、格子点に配置された特徴量ベクトルが当該格子点に対応したエントリーに書き込まれたテーブル構造のデータとすることができる。図4はSOMモデル2010の概念図であり、図中の円が2次元空間の格子点を示し、円内の矢線が格子点に配置された特徴量ベクトルを示している。   The SOM model 2010 is data in which m feature amount vectors are arranged without overlapping with lattice points in a two-dimensional space so that the smaller the Euclidean distance between them, the closer. More specifically, the SOM model 2010 has, for example, an entry corresponding to a lattice point in a two-dimensional space, and table-structured data in which feature quantity vectors arranged at the lattice point are written in the entry corresponding to the lattice point. It can be. FIG. 4 is a conceptual diagram of the SOM model 2010, in which circles in the figure indicate lattice points in a two-dimensional space, and arrow lines in the circles indicate feature vectors arranged at the lattice points.

なお、SOMモデルが一旦生成された後は、SOMモデルの再生成が必要となる事情が生じない限りSOMモデル生成動作は実行されない。また、予め用意されたSOMモデルをSOMモデル記憶部2002に格納するようにしてもよく、この場合はSOMモデル生成部2001を設ける必要はない。   Note that once the SOM model is generated, the SOM model generation operation is not executed unless there is a situation where the SOM model needs to be regenerated. In addition, an SOM model prepared in advance may be stored in the SOM model storage unit 2002. In this case, it is not necessary to provide the SOM model generation unit 2001.

次に、画像配置データ生成動作及び関連した構成について説明する。図5に画像配置データ生成動作の概略処理フローを示す。   Next, an image arrangement data generation operation and a related configuration will be described. FIG. 5 shows a schematic processing flow of the image arrangement data generation operation.

ステップS101: 画像ストレージ1000に記憶されている1つの画像が、その画像識別情報(例えばファイル名)とともに画像入力部1005により画像配置データ生成部1006に入力される。なお、入力対象となる画像は、画像ストレージ1000内の全部の画像である場合と、例えばキーワード検索やカテゴリ指定等によって絞り込まれた画像ストレージ1000内の一部の画像である場合とがある。いずれにしても、クライアント1003での閲覧の対象となり得る画像が入力対象となる。   Step S101: One image stored in the image storage 1000 is input to the image arrangement data generation unit 1006 by the image input unit 1005 together with the image identification information (for example, file name). Note that the image to be input may be the entire image in the image storage 1000 or the partial image in the image storage 1000 narrowed down by, for example, keyword search or category designation. In any case, an image that can be browsed by the client 1003 is an input target.

ステップS102: 入力された画像は制御部2007を通じて特徴量抽出部2003へ転送される。特徴量抽出部2003では、その画像の彩度、色相、輝度、テクスチャ等のn次元の特徴量を抽出し、それら特徴量からなるn次元特徴量ベクトルを出力する。抽出される特徴量は、SOMマップ生成時に抽出されるものと同一種類のものである。   Step S102: The input image is transferred to the feature amount extraction unit 2003 through the control unit 2007. The feature quantity extraction unit 2003 extracts n-dimensional feature quantities such as the saturation, hue, luminance, and texture of the image, and outputs an n-dimensional feature quantity vector composed of these feature quantities. The extracted feature quantity is of the same type as that extracted when the SOM map is generated.

ステップS103: 特徴量抽出部2003から出力された特徴量ベクトルは、当該画像の画像識別情報とともに、制御部2007を通じ画像配置処理部2004へ転送される。画像配置処理部2004では、SOMモデル2010上の特徴量ベクトル群から当該画像より抽出された特徴量ベクトルとのユークリッド距離が最も小さい特徴量ベクトルを探し、当該特徴量ベクトルが配置された格子点を当該画像を配置する格子点と決定し、その格子点に対応付けて当該画像の画像識別情報を記録した画像配置情報2011を画像配置情報記憶部2005に生成する。この画像配置情報2011は、具体的には例えば、2次元空間の各格子点に1対1に対応付けられたエントリーを持つテーブル構造であり、ある格子点に配置された画像の画像識別情報が該格子点に対応したエントリーに書き込まれたものである。画像が配置されていない格子点に対応したエントリーの内容は、画像が配置されていないことを示す情報(以下、”空”情報と記す)である。   Step S103: The feature quantity vector output from the feature quantity extraction unit 2003 is transferred to the image arrangement processing unit 2004 through the control unit 2007 together with the image identification information of the image. The image arrangement processing unit 2004 searches for a feature vector having the shortest Euclidean distance from the feature vector extracted from the image from the feature vector group on the SOM model 2010, and finds a lattice point where the feature vector is arranged. The image arrangement information 2011 is determined in the image arrangement information storage unit 2005 by determining the lattice point where the image is arranged and recording the image identification information of the image in association with the lattice point. Specifically, the image arrangement information 2011 has, for example, a table structure having an entry associated with each grid point in a two-dimensional space in a one-to-one manner. Image identification information of an image arranged at a certain grid point is It is written in the entry corresponding to the lattice point. The content of the entry corresponding to the grid point where no image is arranged is information indicating that no image is arranged (hereinafter referred to as “empty” information).

なお、複数の画像の特徴量ベクトルが極めて類似している場合には、それぞれの特徴量ベクトルとのユークリッド距離が最も小さいSOMモデル上の特徴量ベクトルが同一となり、複数の画像が重複して同じ格子点に配置されることがある。この場合、その複数の画像の画像識別情報が同じ格子点のエントリーに書き込まれることになる。   If the feature quantity vectors of a plurality of images are very similar, the feature quantity vectors on the SOM model having the smallest Euclidean distance from each feature quantity vector are the same, and the plurality of images are duplicated and the same. May be placed at grid points. In this case, the image identification information of the plurality of images is written in the entry of the same lattice point.

ステップS104: 制御部2007は、入力対象の最後の画像まで入力されたか否かの判定を行い、入力すべき画像が残っている場合には画像入力部1005に次の画像の入力を求め、その画像に対するステップS101〜S103の処理を実行する制御を行う。制御部2007は、最後の画像まで入力されたと判定した場合には画像再配置処理部2006に対し画像再配置処理(ステップS105の処理)の実行を指示する。   Step S104: The control unit 2007 determines whether or not the last image to be input has been input. If there is an image to be input, the control unit 2007 requests the image input unit 1005 to input the next image. Control is performed to execute the processing of steps S101 to S103 on the image. When it is determined that the last image has been input, the control unit 2007 instructs the image rearrangement processing unit 2006 to execute the image rearrangement process (the process of step S105).

ステップS105: SOMモデルを利用して画像を配置した場合に、上に述べたように、同一の格子点に2個又はそれ以上の画像が重複して配置されることがある。このような画像配置情報に従って画像マップを表示した場合、2個以上の画像のサムネイルが重なってしまい、その中の最も上に表示される画像のサムネイル以外は見えない状態になる。画像再配置処理は、そのような複数の画像のサムネイルの重なりを排除するように画像の再配置を行って、最終的な画像配置データを生成する処理である。   Step S105: When images are arranged using the SOM model, as described above, two or more images may be arranged in duplicate at the same grid point. When an image map is displayed according to such image arrangement information, the thumbnails of two or more images are overlapped, and only the thumbnail of the image displayed at the top is invisible. The image rearrangement process is a process for generating final image arrangement data by rearranging images so as to eliminate such overlapping of thumbnails of a plurality of images.

なお、以上の一連の処理を終了後に、画像ストレージ1000に閲覧対象となる新たな画像が追加された場合や、画像ストレージ1000に蓄積されている一部の画像が新たに閲覧対象に追加された場合には、その新たな閲覧対象画像についてステップS101〜S104の処理を行うことにより、画像配置情報記憶部2005内の画像配置情報2011が更新される。そして、更新された画像配置情報2011に対してステップS105の画像再配置処理が実行され、更新された画像配置データが生成される。なお、更新後の画像配置データに従って表示させた画像マップ上の画像の配置関係は、更新前の画像配置関係とあまり変化しないため、ユーザは更新前の画像配置の知識を利用できる。   In addition, after completing the above series of processing, when a new image to be viewed is added to the image storage 1000, or some images accumulated in the image storage 1000 are newly added to the viewing target. In this case, the image arrangement information 2011 in the image arrangement information storage unit 2005 is updated by performing the processing of steps S101 to S104 for the new browsing target image. Then, the image rearrangement process of step S105 is executed on the updated image arrangement information 2011, and updated image arrangement data is generated. Note that the arrangement relationship of the images on the image map displayed according to the updated image arrangement data does not change much from the image arrangement relationship before the update, and thus the user can use the knowledge of the image arrangement before the update.

次に、ステップS105の画像再配置処理について説明する。図6に画像再配置処理の概略処理フローを示す。ステップS106では、画像配置情報2011に対し、所定の順序で格子点を辿りながら、画像識別情報及び”空”情報に連続した順番を付与する処理(処理A)を行う。ステップS107では、処理Aと同じ順序で格子点を辿りながら、画像識別情報及び”空”情報を、それに付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置し、再配置後の画像識別情報とそれが対応付けられた格子点の座標(位置情報)のペアの集合からなる最終的な画像配置データを生成する処理(処理B)を行う。以下、処理A及び処理Bについて具体的に説明する。   Next, the image rearrangement process in step S105 will be described. FIG. 6 shows a schematic processing flow of the image rearrangement process. In step S106, a process (process A) is performed on the image arrangement information 2011, with a sequential order added to the image identification information and the “empty” information while following the lattice points in a predetermined order. In step S107, the image points are rearranged by re-associating the image identification information and the “empty” information with the lattice points in order according to the order given thereto while tracing the lattice points in the same order as in the process A. A process (process B) is performed to generate final image arrangement data composed of a set of pairs of later image identification information and coordinates (position information) of lattice points associated with the image identification information. Hereinafter, the process A and the process B will be specifically described.

(第1の実施例)
第1の実施例によれば、処理Aにおいて、画像配置情報2011に対し、2次元空間の中心の格子点を起点として渦巻き状に格子点を辿りながら、格子点に対応した記録情報に連続した順番を付与する処理を行う。ここで、格子点に対応した記録情報とは、格子点に配置された1以上の画像の画像識別情報であるか、あるいは、画像が配置されていないことを意味する”空”情報である。
(First embodiment)
According to the first embodiment, in the process A, the image arrangement information 2011 continues to the recording information corresponding to the lattice points while tracing the lattice points spirally starting from the lattice point at the center of the two-dimensional space. Processing to assign the order is performed. Here, the recording information corresponding to the lattice point is image identification information of one or more images arranged at the lattice point, or “empty” information meaning that no image is arranged.

このような順番付与の後、処理Bにおいて、順番付け時と同様に2次元空間の中心の格子点を起点として渦巻き状に格子点を辿りながら、画像識別情報及び”空”情報を、それに付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置し、再配置後の画像識別情報とそれが対応付けられた格子点の座標のペアの集合からなる最終的な画像配置データを生成する。   After such ordering, in processing B, the image identification information and “empty” information are given to the process while tracing the lattice points in a spiral shape starting from the lattice point at the center of the two-dimensional space as in the ordering. The image is rearranged by re-associating with the lattice points in the order in which they are arranged, and the final image arrangement data comprising a set of image identification information after the rearrangement and the coordinates of the coordinates of the lattice points with which the images are associated Is generated.

例えば、画像配置情報2011が図7に示すような内容であるとする。図7において、丸印は格子点に対応しており、各丸印の内部が格子点に対応した記録情報を示している。すなわち、丸印内部のa,b等のアルファベットは画像識別情報を意味し、丸印内部の文字「空」は”空”情報を意味している。   For example, it is assumed that the image arrangement information 2011 has contents as shown in FIG. In FIG. 7, circles correspond to lattice points, and the inside of each circle indicates recording information corresponding to the lattice points. That is, alphabets such as “a” and “b” inside the circle indicate image identification information, and a character “empty” inside the circle indicates “empty” information.

ここで、画像識別情報aを持つ画像が配置された格子点を仮に2次元空間の中心の格子点であるとすると、当該格子点を起点として矢線で示すような順番で渦巻き状に格子点を辿りながら、各格子点に対応した記録情報(画像識別情報又は”空”情報)に図7に示すように連続した順番を付与する。   Here, if the lattice point on which the image having the image identification information a is arranged is the lattice point at the center of the two-dimensional space, the lattice points are spirally arranged in the order indicated by the arrow line from the lattice point as the starting point. As shown in FIG. 7, a sequential order is given to the recording information (image identification information or “empty” information) corresponding to each lattice point.

2次元空間の中心の格子点を起点として渦巻き状に格子点を辿りながら、画像識別情報及び”空”情報を、それに付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置した結果は図8のようになる。すなわち、同じ格子点に重複して配置された2つの画像の画像識別情報e,f中のfは一つ先の格子点に対応付けし直され、その先の”空”情報も一つずつ順送りされるため、画像識別情報gも一つ先の格子点に対応付けし直される。このように画像を再配置した後の画像識別情報と格子点座標(位置情報)のペアの集合が最終的な画像配置データとして生成され、これが画像配置データ記憶部1007に記憶される。   The image is rearranged by associating the image identification information and the “empty” information with the lattice points in order according to the order given to the lattice points in a spiral shape starting from the lattice point at the center of the two-dimensional space. The result is as shown in FIG. That is, f in the image identification information e and f of two images arranged in duplicate on the same grid point is re-associated with the next grid point, and the “empty” information ahead is also one by one. Since the images are sequentially fed, the image identification information g is also associated with the next grid point. A set of pairs of image identification information and grid point coordinates (position information) after rearranging images in this way is generated as final image arrangement data, and this is stored in the image arrangement data storage unit 1007.

図7と図8を比較すると分かるように、画像再配置処理によって、重複して配置された画像の分だけ画像の配置が渦巻き状にずれるが、画像再配置前の全体的な画像配置の特徴はほぼ維持されている。   As can be seen by comparing FIG. 7 and FIG. 8, the image rearrangement process causes the image arrangement to be spiraled by the amount of the overlapping image, but the overall image arrangement characteristic before the image rearrangement is characteristic. Is almost maintained.

処理A及び処理Bの処理フローの一例を図9及び図10にそれぞれ示す。   An example of the processing flow of processing A and processing B is shown in FIGS. 9 and 10, respectively.

まず、図9に示す処理Aについて説明する。起点となる格子点として、2次元空間の中心の格子点を設定し(ステップS111)、当該格子点の記録情報が画像識別情報であるか否か調べる(ステップS112)。当該格子点に画像が配置されている場合、記録情報は画像識別情報(例えばファイル名)であり、それをキュー1に追加する(ステップS113)。当該格子点に複数の画像が配置されている場合、複数の画像識別情報が記録されているので、それらの各画像識別情報を順にキュー1に追加する。当該格子点に画像が配置されていない場合、その記録情報すなわち”空”情報をキュー1に追加する(ステップS114)。   First, the process A shown in FIG. 9 will be described. A lattice point at the center of the two-dimensional space is set as a starting lattice point (step S111), and it is checked whether or not the recording information of the lattice point is image identification information (step S112). When an image is arranged at the lattice point, the recorded information is image identification information (for example, a file name), and is added to the queue 1 (step S113). When a plurality of images are arranged at the lattice points, a plurality of pieces of image identification information are recorded, so that each piece of image identification information is added to the queue 1 in order. If no image is arranged at the grid point, the recorded information, that is, “empty” information is added to the queue 1 (step S114).

当該格子点が最後の格子点であるか否か判定する(ステップS115)。当該格子点が最後の格子点でない場合(ステップS115,No)、当該格子点から渦巻き状に一つ移動した格子点を設定し(ステップS116)、再び当該格子点についてステップS112以下の処理を実行する。同様の処理を、最後の格子点まで実行する。   It is determined whether or not the grid point is the last grid point (step S115). If the grid point is not the last grid point (No in step S115), a grid point moved by one spiral from the grid point is set (step S116), and the process from step S112 is executed again on the grid point. To do. Similar processing is performed up to the last grid point.

図7の例では、処理後のキュー1の内容は図11のようになる。キュー1の各エントリの番号が、各エントリに記録された画像識別情報又は”空”情報に付けられた順番に相当する。   In the example of FIG. 7, the contents of the queue 1 after processing are as shown in FIG. The number of each entry in the queue 1 corresponds to the order given to the image identification information or “empty” information recorded in each entry.

次に、図10に示す処理Bについて説明する。まず、中心の格子点から渦巻き状に格子点を辿った格子点の数をカウントする格子点カウンタに1をセットする(ステップS121)。格子点カウンタの値が1であるということは、当該格子点が起点となる中心の格子点であることを意味する。格子点を辿る順序は決まっているため、格子点カウンタの値から格子点を特定し、その格子点の座標(位置情報)を計算することができる。   Next, processing B shown in FIG. 10 will be described. First, 1 is set to a lattice point counter that counts the number of lattice points that have spirally traced from the central lattice point (step S121). A lattice point counter value of 1 means that the lattice point is the central lattice point that is the starting point. Since the order in which the lattice points are traced is determined, the lattice points can be identified from the value of the lattice point counter, and the coordinates (position information) of the lattice points can be calculated.

キュー1の先頭からデータを1つ取りだし(ステップS122)、そのデータが画像識別情報であるか否か判定する(ステップS123)。   One piece of data is extracted from the head of the queue 1 (step S122), and it is determined whether or not the data is image identification information (step S123).

画像識別情報であるならば(ステップS123,Yes)、格子点カウンタの値に基づいて当該格子点の座標を計算し(ステップS124)、この格子点座標(位置情報)と当該画像識別情報のペアをキュー2に追加する(ステップS125)。キュー1から取り出したデータが”空”情報の場合(ステップS123,No)、ステップS124,S125はスキップされる。   If it is image identification information (step S123, Yes), the coordinates of the lattice point are calculated based on the value of the lattice point counter (step S124), and a pair of the lattice point coordinates (position information) and the image identification information. Is added to the queue 2 (step S125). If the data extracted from the queue 1 is “empty” information (No at Step S123), Steps S124 and S125 are skipped.

格子点カウンタの値を1だけ増加させ(ステップS127)、ステップS122に戻り、キュー1から次のデータを取りだし、同様の処理を行う。以上の処理をキュー1の最後のデータまで行うと(ステップS126,Yes)、処理を終了する。   The value of the grid point counter is incremented by 1 (step S127), the process returns to step S122, the next data is extracted from the queue 1, and the same processing is performed. When the above processing is performed up to the last data in the queue 1 (step S126, Yes), the processing is terminated.

図7の例では、キュー2の内容は図12のようになる。図12と図8を対比すれば明らかなように、キュー2の内容は、図8のように画像を再配置した後の画像識別情報とその格子点座標とのペアの集合からなる。このキュー2の内容が最終的な画像配置データとして画像配置データ記憶部1007に記憶される。   In the example of FIG. 7, the contents of the queue 2 are as shown in FIG. As is clear from the comparison between FIG. 12 and FIG. 8, the contents of the queue 2 are composed of a set of pairs of image identification information after rearranging the images and their lattice point coordinates as shown in FIG. The contents of the queue 2 are stored in the image arrangement data storage unit 1007 as final image arrangement data.

なお、図9の処理Aと図10の処理Bを統合することも可能である。すなわち、中心の格子点から渦巻き状に格子点を辿り、各格子点に対応して記録された画像識別情報及び”空”情報に連続した番号を付与しながら、各画像識別情報について、それに付与された番号に対応した格子点の座標を計算し、その格子点座標を画像識別情報とペアにしてキューに格納する。”空”情報はキューに格納しない。このような処理の場合、キューの内容はそのまま再配置後の最終的な画像配置データとなる。   Note that the process A in FIG. 9 and the process B in FIG. 10 can be integrated. In other words, the lattice points are traced spirally from the central lattice point, and each image identification information is assigned to the image identification information and “empty” information recorded in correspondence with each lattice point while giving a consecutive number. The coordinates of the grid point corresponding to the number assigned are calculated, and the grid point coordinates are paired with the image identification information and stored in the queue. “Empty” information is not stored in the queue. In the case of such processing, the contents of the queue are directly used as final image arrangement data after rearrangement.

(第2の実施例)
第2の実施例によれば、処理Aでは、画像配置情報2011に対し、前記第1の実施例と同様に画像識別情報及び”空”情報に連続した順番を付与する処理を行う。ただし、この第2の実施例では、2次元空間を例えば縦横に複数の領域に分割し、各分割領域毎に、その左上コーナーの格子点からラスタスキャン順に格子点を辿りながら、画像識別情報及び”空”情報に連続した順番を付与する。そして、各分割領域毎に、左上コーナーの格子点からラスタスキャン順に格子点を辿りながら、画像識別情報及び”空”情報を、それに付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置し、最終的な画像配置データを生成する。
(Second embodiment)
According to the second embodiment, in the process A, the image arrangement information 2011 is subjected to a process of assigning a sequential order to the image identification information and the “empty” information as in the first embodiment. However, in this second embodiment, the two-dimensional space is divided into a plurality of areas, for example, vertically and horizontally, and image identification information and A continuous order is assigned to the “empty” information. Then, for each divided region, the image identification information and the “empty” information are sequentially associated with the lattice points in the order given to the image while tracing the lattice points in the raster scan order from the lattice point in the upper left corner. Are rearranged to generate final image arrangement data.

例えば、ある分割領域において、画像配置情報2011が図13に示すような内容であるとする。図13と図7を対比すれば明らかなように、当該分割領域内の画像配置は図7の場合と同様である。   For example, it is assumed that the image arrangement information 2011 has contents as shown in FIG. 13 in a certain divided area. As is clear from the comparison between FIG. 13 and FIG. 7, the image arrangement in the divided area is the same as that in FIG.

ここで、分割領域の左上コーナーの格子点からラスタスキャン順に格子点を辿りながら、各格子点に対応した記録情報すなわち画像識別情報又は”空”情報に図13に示すように連続した順番を付与する。   Here, as the grid points are traced from the grid point in the upper left corner of the divided area in the raster scan order, the recording information corresponding to each grid point, that is, the image identification information or “empty” information is given a sequential order as shown in FIG. To do.

次に、処理Bにおいて、左上コーナーの格子点からラスタスキャン順に格子点を辿りながら、画像識別情報及び”空”情報を、それらに付与された順番に従って格子点に対応付け直すことにより画像を再配置した結果は図14のようになる。
図14と図13を比較すると分かるように、再配置処理によって、重複して配置された画像の分だけ画像の配置がラスタスキャン順に順送りされるが、再配置前の全体的な画像配置の特徴はほぼ維持されている。
Next, in process B, the image is re-established by associating the image identification information and the “empty” information with the lattice points in the order given to them while tracing the lattice points in the raster scan order from the lattice point in the upper left corner. The arrangement result is as shown in FIG.
As can be seen by comparing FIG. 14 and FIG. 13, the rearrangement process sequentially forwards the image layout by the amount of the redundantly arranged images in the raster scan order. Is almost maintained.

以上に述べた各分割領域についての処理Aと処理Bは、前記第1の実施例と同様に図9及び図10に示したような処理フローに従って実行することができる。ただし、図9に示した処理フローにおいて、ステップS111では分割領域の左上コーナーの格子点を設定し、ステップS116ではラスタスキャン順に1つ先の格子点に移動する。全ての分割領域について図10の処理フローに従ってキュー2に格子点座標と画像識別情報のペアを記録することにより、キュー2に最終的な画像配置データが得られる。   The processing A and the processing B for each divided region described above can be executed according to the processing flow as shown in FIGS. 9 and 10 as in the first embodiment. However, in the processing flow shown in FIG. 9, the grid point of the upper left corner of the divided region is set in step S111, and the grid point is moved to the next grid point in the raster scan order in step S116. By recording pairs of grid point coordinates and image identification information in the queue 2 according to the processing flow of FIG. 10 for all the divided areas, final image arrangement data is obtained in the queue 2.

なお、前記第1の実施例の場合と同様に、図9に示したような処理と図10に示したような処理を統合することも可能であることは当然である。   Of course, as in the case of the first embodiment, the processing as shown in FIG. 9 and the processing as shown in FIG. 10 can be integrated.

ここまでの説明から明らかなように、本実施形態は、請求項1乃至3に係る発明の一実施形態に相当する。そして、「画像入力手段」は画像入力部1005に対応し、「特徴量抽出手段」は特徴量抽出部2003に対応する。「画像配置情報生成手段」は画像配置処理部2004及びSOMマップ2010によって実現される。「画像再配置処理手段」は画像再配置処理2006に対応する。   As is clear from the above description, the present embodiment corresponds to an embodiment of the invention according to claims 1 to 3. The “image input unit” corresponds to the image input unit 1005, and the “feature amount extraction unit” corresponds to the feature amount extraction unit 2003. The “image arrangement information generation unit” is realized by the image arrangement processing unit 2004 and the SOM map 2010. “Image rearrangement processing means” corresponds to the image rearrangement processing 2006.

<画像配置データ生成部1006の第2の実施形態>
図15は、画像配置データ生成部1006の第2の実施形態を説明するためのブロック図である。この実施形態に係る画像配置データ生成部1006は、特徴量抽出部3001、画像配置処理部3002、画像配置情報記憶部3003、画像再配置処理部3004及び制御部3005から構成される。
<Second Embodiment of Image Arrangement Data Generation Unit 1006>
FIG. 15 is a block diagram for explaining a second embodiment of the image arrangement data generation unit 1006. The image arrangement data generation unit 1006 according to this embodiment includes a feature amount extraction unit 3001, an image arrangement processing unit 3002, an image arrangement information storage unit 3003, an image rearrangement processing unit 3004, and a control unit 3005.

本実施形態における画像配置データ生成動作の処理フローは、前記第1の実施形態と同様に図5のように表すことができる。ただし、ステップS103の処理内容は前記第1の実施形態と異なる。以下、図5の処理フローに沿って動作を説明する。   The processing flow of the image arrangement data generation operation in the present embodiment can be expressed as shown in FIG. 5 as in the first embodiment. However, the processing content of step S103 is different from that of the first embodiment. Hereinafter, the operation will be described along the processing flow of FIG.

ステップS101: 画像ストレージ1000に記憶されている1つの画像が、その画像識別情報(例えばファイル名)とともに画像入力部1005により画像配置データ生成部1006に入力される。入力対象となる画像は、画像ストレージ1000内の全部の画像である場合と、例えばキーワード検索等により絞り込まれた画像ストレージ1000内の一部の画像である場合とがあることは前述した通りである。いずれにしても、クライアント1003での閲覧対象となり得る画像が入力対象となる。   Step S101: One image stored in the image storage 1000 is input to the image arrangement data generation unit 1006 by the image input unit 1005 together with the image identification information (for example, file name). As described above, the input target image may be the entire image in the image storage 1000 or may be a partial image in the image storage 1000 narrowed down by, for example, keyword search. . In any case, an image that can be viewed by the client 1003 is an input target.

ステップS102: 入力された画像は制御部3005を通じて特徴量抽出部3001へ転送される。特徴量抽出部3001では、その画像の彩度、色相、輝度、テクスチャ等のn次元の特徴量を抽出し出力する。   Step S102: The input image is transferred to the feature amount extraction unit 3001 through the control unit 3005. The feature amount extraction unit 3001 extracts and outputs n-dimensional feature amounts such as saturation, hue, luminance, texture, and the like of the image.

ステップS103: 特徴量抽出部3001から出力されたn次元の特徴量は、当該画像の画像識別情報とともに、制御部3005を通じ画像配置処理部3002へ転送される。画像配置処理部3002では、入力されたn次元の特徴量を主成分分析により2次元の特徴量x,yに集約し、特徴量x,yの値をそのまま2次元座標に置き換え、当該座標の格子点に当該画像を配置した画像配置情報3006を画像配置情報記憶部3003に生成する。この画像配置情報3006は、具体的には例えば、2次元空間の各格子点に1対1に対応付けられたエントリーを持つテーブル構造であり、ある格子点に配置された画像の画像識別情報が該格子点に対応したエントリーに書き込まれたものである。画像が配置されていない格子点に対応したエントリーの内容は、画像が配置されていないことを示す情報(”空”情報)である。   Step S103: The n-dimensional feature value output from the feature value extraction unit 3001 is transferred to the image arrangement processing unit 3002 through the control unit 3005 together with the image identification information of the image. In the image arrangement processing unit 3002, the input n-dimensional feature values are aggregated into two-dimensional feature values x and y by principal component analysis, and the values of the feature values x and y are directly replaced with two-dimensional coordinates, Image arrangement information 3006 in which the image is arranged at grid points is generated in the image arrangement information storage unit 3003. Specifically, the image arrangement information 3006 has, for example, a table structure having an entry associated with each lattice point in the two-dimensional space in a one-to-one manner. Image identification information of an image arranged at a certain lattice point is It is written in the entry corresponding to the lattice point. The content of the entry corresponding to the grid point where no image is arranged is information ("empty" information) indicating that no image is arranged.

図16は本実施形態における画像配置処理の説明図である。画像1〜6について図16(a)に示すようなn次元の特徴量1〜nが抽出されるが、これら特徴量は主成分分析により図16(b)に示すような2次元の特徴量x,yに集約される。そして図16(c)に示すように、画像1〜6はそれぞれの特徴量x,yで示される2次元座標の格子点に配置される。   FIG. 16 is an explanatory diagram of image arrangement processing in the present embodiment. For the images 1 to 6, n-dimensional feature quantities 1 to n as shown in FIG. 16A are extracted. These feature quantities are obtained by principal component analysis as shown in FIG. 16B. x and y. Then, as shown in FIG. 16C, the images 1 to 6 are arranged at the grid points of the two-dimensional coordinates indicated by the feature amounts x and y.

なお、本実施形態においても、複数の画像の特徴が極めて類似している場合には、複数の画像が重複して同じ格子点に配置される。この場合、その複数の画像の画像識別情報が同じ格子点のエントリーに書き込まれることになる。   Also in this embodiment, when the characteristics of a plurality of images are very similar, the plurality of images are overlapped and arranged at the same grid point. In this case, the image identification information of the plurality of images is written in the entry of the same lattice point.

ステップS104: 制御部3005は、入力対象の最後の画像まで入力されたか否かの判定を行い、入力すべき画像が残っている場合には画像入力部1005に次の画像の入力を求め、その画像に対するステップS101〜S103の処理を実行する制御を行う。最後の画像まで入力されたと判定した場合には、制御部3005は画像再配置処理部3004に対し画像再配置処理(ステップS105の処理)の実行を指示する。   Step S104: The control unit 3005 determines whether or not the last image to be input has been input. If there is an image to be input, the control unit 3005 asks the image input unit 1005 to input the next image, and Control is performed to execute the processing of steps S101 to S103 on the image. When it is determined that the last image has been input, the control unit 3005 instructs the image rearrangement processing unit 3004 to execute the image rearrangement process (the process of step S105).

ステップS105: 画像再配置処理部3004において、画像配置情報3006に対し画像再配置処理を行って、最終的な画像配置データを画像配置データ記憶部1007に生成する。この画像再配置処理は、前記第1の実施形態における画像再配置処理部2006による処理と同様であるので、その説明は繰り返さない。   Step S105: The image rearrangement processing unit 3004 performs image rearrangement processing on the image arrangement information 3006 to generate final image arrangement data in the image arrangement data storage unit 1007. Since this image rearrangement process is the same as the process performed by the image rearrangement processing unit 2006 in the first embodiment, description thereof will not be repeated.

なお、以上の一連の処理を終了後に、画像ストレージ1000に閲覧対象となる新たな画像が追加された場合や、画像ストレージ1000に蓄積されている一部の画像が新たに閲覧対象に追加された場合には、その新たな閲覧対象画像についてステップS101〜S103の処理を行うことにより、画像配置情報記憶部3003内の画像配置情報3006が更新される。そして、更新された画像配置情報3006に対してステップS105の画像再配置処理が実行され、更新された画像配置データが生成される。   In addition, after completing the above series of processing, when a new image to be viewed is added to the image storage 1000, or some images accumulated in the image storage 1000 are newly added to the viewing target. In this case, the image arrangement information 3006 in the image arrangement information storage unit 3003 is updated by performing the processing of steps S101 to S103 for the new browsing target image. Then, the image rearrangement process in step S105 is executed on the updated image arrangement information 3006, and updated image arrangement data is generated.

ここまでの説明から明らかなように、本実施形態は、請求項1乃至3に係る発明の一実施形態に相当する。そして、「画像入力手段」は画像入力部1005に対応し、「特徴量抽出手段」は特徴量抽出部3001に対応し、「画像配置情報生成手段」は画像配置処理部3002に対応し、「画像再配置処理手段」は画像再配置処理3004に対応する。   As is clear from the above description, the present embodiment corresponds to an embodiment of the invention according to claims 1 to 3. The “image input unit” corresponds to the image input unit 1005, the “feature amount extraction unit” corresponds to the feature amount extraction unit 3001, the “image arrangement information generation unit” corresponds to the image arrangement processing unit 3002, and “ “Image rearrangement processing means” corresponds to the image rearrangement processing 3004.

<画像配置データ生成部1006の第3の実施形態>
図17は、画像配置データ生成部1006の第3の実施形態を説明するためのブロック図である。この実施形態に係る画像配置データ生成部1006は、画像配置処理に自己組織化マップ(SOM)を利用するものであり、SOMモデル生成部4001、SOMモデル記憶部4002、特徴量抽出部4003、クラスタリング部4004、画像配置処理部4005、画像配置情報記憶部4006、画像再配置処理部4007及び制御部4008から構成される。
<Third Embodiment of Image Arrangement Data Generation Unit 1006>
FIG. 17 is a block diagram for explaining a third embodiment of the image arrangement data generation unit 1006. The image arrangement data generation unit 1006 according to this embodiment uses a self-organizing map (SOM) for image arrangement processing, and includes an SOM model generation unit 4001, an SOM model storage unit 4002, a feature amount extraction unit 4003, clustering. A unit 4004, an image arrangement processing unit 4005, an image arrangement information storage unit 4006, an image rearrangement processing unit 4007, and a control unit 4008.

まず、画像配置に利用されるSOMモデルを生成する動作及び関連した構成について説明する。   First, an operation for generating an SOM model used for image arrangement and a related configuration will be described.

制御部4008の制御下で、画像ストレージ1000に蓄積されているm個のサンプル画像が画像入力部1005を通じて入力される。入力された各サンプル画像は制御部4008を介し特徴量抽出部4003へ送られる。特徴量抽出部4003において、各サンプル画像から彩度、色相、輝度、テクスチャ等のn次元の特徴量が抽出され、それら特徴量からなるn次元特徴量ベクトルが出力される。この特徴量ベクトルは制御部4008を介しSOMモデル生成部4001及びクラスタリング部4004に入力される。   Under the control of the control unit 4008, m sample images stored in the image storage 1000 are input through the image input unit 1005. Each input sample image is sent to the feature amount extraction unit 4003 via the control unit 4008. The feature quantity extraction unit 4003 extracts n-dimensional feature quantities such as saturation, hue, luminance, and texture from each sample image, and outputs an n-dimensional feature quantity vector composed of these feature quantities. This feature vector is input to the SOM model generation unit 4001 and the clustering unit 4004 via the control unit 4008.

クラスタリング部4004において、入力された各サンプル画像の特徴量ベクトルの一部次元の特徴量を用いてサンプル画像をいくつかのクラスタ(カテゴリ)に分類するクラスタリングを行い、各サンプル画像の所属クラスタの情報を出力する。この所属クラスタの情報は制御部4008を介してSOMモデル生成部4001に入力される。なお、ここでは、特徴量抽出部4003より出力されるn次元特徴量ベクトルの一部次元の特徴量をクラスタリングに用いたが、別のクラスタリング専用の特徴量を抽出し、この特徴量を用いてクラスタリングを行うようにしてもよい。   The clustering unit 4004 performs clustering to classify the sample image into several clusters (categories) using the partial dimension feature quantity of the input feature quantity vector of each sample image, and information on the cluster to which each sample image belongs Is output. The information of the cluster belonging to this is input to the SOM model generation unit 4001 via the control unit 4008. Here, the partial dimension feature quantity of the n-dimensional feature quantity vector output from the feature quantity extraction unit 4003 is used for clustering. However, another feature quantity dedicated to clustering is extracted, and this feature quantity is used. Clustering may be performed.

最終的に、m個のサンプル画像のn次元特徴量ベクトル及び所属クラスタ情報がSOMモデル生成部4001に入力される。SOMモデル生成部4001において、クラスタ毎に、それに所属するサンプル画像の特徴量ベクトルを用いてSOMの学習アルゴリズムが実行され、クラスタ別の複数のSOMモデル4010がSOMモデル記憶部4002上に生成される。   Finally, the n-dimensional feature vector and the belonging cluster information of m sample images are input to the SOM model generation unit 4001. In the SOM model generation unit 4001, for each cluster, a SOM learning algorithm is executed using the feature vector of the sample image belonging to the cluster, and a plurality of SOM models 4010 for each cluster are generated on the SOM model storage unit 4002. .

クラスタ別の各SOMモデル4010は、クラスタに所属する複数のサンプル画像の特徴量ベクトルを、相互間のユークリッド距離が小さいものほど近くなるように、2次元空間の格子点に重複させることなく配置したデータである。より具体的には、各SOMモデル4010は例えば、2次元空間の格子点に対応したエントリーを持ち、格子点に配置された特徴量ベクトルが対応したエントリーに書き込まれたテーブル構造のデータとすることができる。   Each SOM model 4010 for each cluster is data in which feature vector of a plurality of sample images belonging to a cluster is arranged without overlapping with a lattice point in a two-dimensional space so that the feature vectors of the sample images are closer to each other. It is. More specifically, each SOM model 4010 has, for example, an entry corresponding to a lattice point in a two-dimensional space, and the table structure data in which the feature amount vector arranged at the lattice point is written in the corresponding entry. Can do.

なお、SOMモデル4010が一旦生成された後は、SOMモデルの再生成が必要となる事情が生じない限りSOMモデル生成動作は実行されない。また、予め用意されたクラスタ別のSOMモデルをSOMモデル記憶部4002に格納するようにしてもよく、この場合はSOMモデル生成部4001を設ける必要はない。   Note that once the SOM model 4010 is generated, the SOM model generation operation is not executed unless there is a situation where the SOM model needs to be regenerated. In addition, a cluster-specific SOM model prepared in advance may be stored in the SOM model storage unit 4002. In this case, the SOM model generation unit 4001 need not be provided.

次に、画像配置データ生成動作と関連した構成について説明する。図18に画像配置データ生成動作の概略処理フローを示す。   Next, a configuration related to the image arrangement data generation operation will be described. FIG. 18 shows a schematic processing flow of the image arrangement data generation operation.

ステップS201: 画像ストレージ1000に記憶されている1つの画像が、その画像識別情報(例えばファイル名)とともに画像入力部1005により画像配置データ生成部1006に入力される。なお、入力対象となる画像は、画像ストレージ1000内の全部の画像である場合と、例えばキーワード検索等により絞り込まれた画像ストレージ1000内の一部の画像である場合とがあることは前述した通りである。いずれにしても、クライアント1003での閲覧対象となり得る画像が入力対象となる。   Step S201: One image stored in the image storage 1000 is input to the image arrangement data generation unit 1006 by the image input unit 1005 together with the image identification information (for example, file name). As described above, the input target image may be the entire image in the image storage 1000 or may be a partial image in the image storage 1000 narrowed down by keyword search or the like. It is. In any case, an image that can be viewed by the client 1003 is an input target.

ステップS202: 入力された画像は制御部4008を通じて特徴量抽出部4003へ転送される。特徴量抽出部4003では、その画像の彩度、色相、輝度、テクスチャ等のn次元の特徴量を抽出し、それら特徴量からなるn次元特徴量ベクトルを出力する。抽出される特徴量は、SOMマップ生成に用いられたものと同一種類のものである。この特徴量ベクトルは、当該画像の画像識別情報とともに、制御部4008を通じ画像配置処理部4005及びクラスタリング部4004へ転送される。   Step S202: The input image is transferred to the feature amount extraction unit 4003 through the control unit 4008. The feature quantity extraction unit 4003 extracts n-dimensional feature quantities such as the saturation, hue, luminance, and texture of the image, and outputs an n-dimensional feature quantity vector composed of these feature quantities. The extracted feature quantity is of the same type as that used for SOM map generation. This feature vector is transferred to the image arrangement processing unit 4005 and the clustering unit 4004 through the control unit 4008 together with the image identification information of the image.

ステップS203: クラスタリング部4004では、入力されたn次元特徴量ベクトルの一部次元の特徴量を用いたクラスタリングにより当該画像の所属クラスタを求める。この所属クラスタの情報は、制御部4008を通じて画像配置処理部4005へ入力される。なお、SOMモデル生成の場合と同様、クラスタリング専用の別の特徴量を特徴量抽出部4003で抽出し、この特徴量をクラスタリング部4004で用いて所属クラスタを求めるようにしてもよい。   Step S203: The clustering unit 4004 obtains a cluster to which the image belongs by clustering using the partial dimension feature quantity of the input n-dimensional feature quantity vector. The information of the cluster belonging to this is input to the image arrangement processing unit 4005 through the control unit 4008. As in the case of generating the SOM model, another feature quantity dedicated to clustering may be extracted by the feature quantity extraction unit 4003, and the clustering unit 4004 may use this feature quantity to obtain the belonging cluster.

ステップS204: 画像配置処理部4005では、クラスタ別に画像配置処理を行い、クラスタ別の複数の画像配置情報4011を画像配置情報記憶部4006に生成する。すなわち、当該画像の所属クラスタに対応したSOMモデル4010上の特徴量ベクトル群から当該画像より抽出された特徴量ベクトルとのユークリッド距離が最も小さい特徴量ベクトルを探し、当該特徴量ベクトルが配置された格子点を当該画像を配置する格子点と決定し、所属クラスタに対応した画像配置情報4011に当該格子点に対応付けて当該画像の画像識別情報を記録する。クラスタ別の各画像配置情報4011は、具体的には例えば、2次元空間の各格子点に1対1に対応付けられたエントリーを持つテーブル構造であり、ある格子点に配置された画像の画像識別情報が該格子点に対応したエントリーに書き込まれたものである。画像が配置されていない格子点に対応したエントリーの内容は、画像が配置されていないことを示す情報(”空”情報)である。なお、同じクラスタ内における画像の特徴量の差は小さいため、個々のクラスタ内の画像が配置される2次元空間の広さは全クラスタの画像が配置される2次元空間全体に比べ狭い。   Step S204: The image arrangement processing unit 4005 performs image arrangement processing for each cluster, and generates a plurality of image arrangement information 4011 for each cluster in the image arrangement information storage unit 4006. That is, a feature vector having the shortest Euclidean distance from the feature vector extracted from the image is searched from the feature vector group on the SOM model 4010 corresponding to the cluster to which the image belongs, and the feature vector is arranged. The lattice point is determined as the lattice point for arranging the image, and the image identification information of the image is recorded in association with the lattice point in the image arrangement information 4011 corresponding to the belonging cluster. Specifically, each cluster image arrangement information 4011 has, for example, a table structure having an entry associated with each grid point in a two-dimensional space on a one-to-one basis, and an image of an image arranged at a grid point. The identification information is written in the entry corresponding to the lattice point. The content of the entry corresponding to the grid point where no image is arranged is information ("empty" information) indicating that no image is arranged. Note that since the difference in image feature amounts in the same cluster is small, the width of the two-dimensional space in which images in individual clusters are arranged is narrower than the entire two-dimensional space in which images of all clusters are arranged.

各クラスタにおいて、複数の画像の特徴量ベクトルが極めて類似している場合には、それぞれの特徴量ベクトルとのユークリッド距離が最も小さいSOMモデル上の特徴量ベクトルが同一となり、複数の画像が重複して同じ格子点に配置される。この場合、その複数の画像の画像識別情報が同じ格子点のエントリーに書き込まれることになる。   In each cluster, when the feature vectors of a plurality of images are very similar, the feature vectors on the SOM model having the smallest Euclidean distance from each feature vector are the same, and the plurality of images overlap. Arranged at the same grid point. In this case, the image identification information of the plurality of images is written in the entry of the same lattice point.

ステップS205: 制御部4008は、入力対象の最後の画像まで入力されたか否かの判定を行い、入力すべき画像が残っている場合には画像入力部1005に次の画像の入力を求め、その画像に対するステップS201〜S204の処理を実行する制御を行う。制御部4008は最後の画像まで入力されたと判定した場合(ステップS205,No)、画像再配置処理部4007に対し画像再配置処理(ステップS206の処理)の実行を指示する。   Step S205: The control unit 4008 determines whether or not the last image to be input has been input. If there is an image to be input, the control unit 4008 asks the image input unit 1005 to input the next image, and Control for executing the processing of steps S201 to S204 on the image is performed. When it is determined that the last image has been input (No at Step S205), the control unit 4008 instructs the image rearrangement processing unit 4007 to execute the image rearrangement process (the process at Step S206).

ステップS206: SOMモデルを利用して画像を配置した場合に、上に述べたように、同一の格子点に2個又はそれ以上の画像が重複して配置されることがある。このような画像が重複した画像配置情報に従って画像マップを表示した場合、2個以上の画像のサムネイルが重なってしまい、その中の最も上に表示される画像のサムネイル以外は見えない状態になる。画像再配置処理は、そのような複数の画像のサムネイルの重なりを排除するように画像の再配置を行って、最終的な画像配置データを生成する処理である。   Step S206: When images are arranged using the SOM model, as described above, two or more images may be arranged in duplicate at the same grid point. When an image map is displayed in accordance with image arrangement information in which such images overlap, two or more image thumbnails are overlapped, and only the thumbnail of the image displayed at the top is invisible. The image rearrangement process is a process for generating final image arrangement data by rearranging images so as to eliminate such overlapping of thumbnails of a plurality of images.

なお、以上の一連の処理を終了後に、画像ストレージ1000に閲覧対象となる新たな画像が追加された場合や、画像ストレージ1000に蓄積されている一部の画像が新たに閲覧対象に追加された場合には、それら新たな閲覧対象画像についてステップS201〜S204の処理を行うことにより、画像配置情報記憶部4006内のクラスタ別画像配置情報4011が更新される。そして、更新された画像配置情報4011に対してステップS206の画像再配置処理が実行され、更新された画像配置データが生成される。   In addition, after completing the above series of processing, when a new image to be viewed is added to the image storage 1000, or some images accumulated in the image storage 1000 are newly added to the viewing target. In this case, the cluster-by-cluster image arrangement information 4011 in the image arrangement information storage unit 4006 is updated by performing the processing of steps S201 to S204 for these new browsing target images. Then, the image rearrangement process of step S206 is executed on the updated image arrangement information 4011, and updated image arrangement data is generated.

次に、画像再配置処理部4007の画像再配置処理(ステップS206)について説明する。図19は画像再配置処理の概略処理フローを示す。   Next, the image rearrangement process (step S206) of the image rearrangement processing unit 4007 will be described. FIG. 19 shows a schematic processing flow of image rearrangement processing.

まず、1つのクラスタを選択する(ステップS211)。選択したクラスタに対応した画像配置情報4011に対し、所定の順序で格子点を辿りながら、格子点に対応した画像識別情報及び”空”情報に連続した順番を付与する処理(処理A)を行う(ステップS212)。次に、全クラスタの画像が配置される2次元空間上の1つの格子点を当該クラスタの起点格子点として設定する(ステップS213)。次に、処理Aにおけると同じ順序で起点格子点から格子点を辿りながら、画像識別情報及び”空”情報を、それに付与された順番に従って格子点に再配置し、最終的な画像配置データを生成する処理(処理B)を行う(ステップS214)。未処理のクラスタが有るか調べ(ステップS215)、それが有るならばステップS211に戻り、次のクラスタについて処理を実行する。このようにして全てのクラスタについて処理を終了すると、全クラスタに属する画像についての最終的な画像配置データが生成される。   First, one cluster is selected (step S211). For the image arrangement information 4011 corresponding to the selected cluster, processing (Processing A) is performed in which the image identification information corresponding to the lattice points and the “empty” information are given a sequential order while tracing the lattice points in a predetermined order. (Step S212). Next, one lattice point on the two-dimensional space where the images of all clusters are arranged is set as the starting lattice point of the cluster (step S213). Next, the image identification information and the “empty” information are rearranged in the lattice points according to the order given thereto while tracing the lattice points from the starting lattice point in the same order as in the process A, and the final image arrangement data is obtained. A generation process (process B) is performed (step S214). It is checked whether there is an unprocessed cluster (step S215). If there is, the process returns to step S211 to execute processing for the next cluster. When the processing is completed for all clusters in this manner, final image arrangement data for images belonging to all clusters is generated.

以下、処理A及び処理Bについて具体的に説明する。   Hereinafter, the process A and the process B will be specifically described.

(第1の実施例)
第1の実施例によれば、前記第1の実施形態に係る第1の実施例の場合と同様、処理Aにおいて中心の格子点から渦巻き状に格子点を辿りながら順番付けが行われる。処理Bにおいても同様に渦巻き状に格子点を辿りながら画像の再配置が行われる。
(First embodiment)
According to the first example, as in the case of the first example according to the first embodiment, in the processing A, the order is performed while tracing the lattice points spirally from the central lattice point. Similarly, in the process B, the rearrangement of images is performed while following the lattice points in a spiral shape.

この第1の実施例において、各クラスタについての処理Aは図9に示した処理フローに従って実行することができる。また、処理Bは図10に示した処理フローに従って実行することができる。ただし、図10のステップS124では、当該クラスタの起点格子点と格子点カウンタの値に基づいて2次元空間上の格子点座標(位置情報)を計算する。   In the first embodiment, the process A for each cluster can be executed according to the process flow shown in FIG. The process B can be executed according to the process flow shown in FIG. However, in step S124 in FIG. 10, the lattice point coordinates (position information) in the two-dimensional space are calculated based on the starting lattice point of the cluster and the value of the lattice point counter.

なお、図10には示さないが、1つのクラスタに対する処理Bが終了した段階で、当該クラスタに対する処理Aで用いられたキュー1の内容はクリアされる。最後のクラスタに対する処理Bが終了した段階のキュー2の内容が最終的な画像配置データである。   Although not shown in FIG. 10, when the process B for one cluster is completed, the contents of the queue 1 used in the process A for the cluster are cleared. The contents of the queue 2 at the stage when the process B for the last cluster is completed are the final image arrangement data.

図20に、最終的な画像配置データ(キュー2の内容)を模式的に示す。   FIG. 20 schematically shows final image arrangement data (the contents of the queue 2).

図21は本実施例における画像再配置の様子を示す模式図である。ここでは画像は3つのクラスタに分類されている。画像マップ上で各クラスタの画像のサムネイル(ハッチングを施した矩形)が重ならないように、各クラスタの起点格子点が設定され、この起点格子点から渦巻き状にクラスタ内の画像が再配置される。   FIG. 21 is a schematic diagram showing a state of image rearrangement in the present embodiment. Here, the images are classified into three clusters. The starting grid points of each cluster are set so that the thumbnails (hatched rectangles) of the images of each cluster do not overlap on the image map, and the images in the clusters are rearranged in a spiral shape from this starting grid point. .

各クラスタの起点格子点の設定方法であるが、クラスタの中心と、それから最も遠い画像との距離よりも、クラスタの中心間の距離が大きければ、異なったクラスタの画像のサムネイルが重なることはない。したがって、例えば、クラスタ内の画像数からクラスタ中心から最も遠い画像までの距離を計算し、その距離よりも各クラスタの中心間距離が大きくなるように、各クラスタの起点格子点を設定することができる。このような方法は、各クラスタにおける画像配置範囲の変動に柔軟に対応できる利点がある。ただし、より簡便に、クラスタ相互間で画像の重複が生じないような充分な間隔を空けて、予め各クラスタの起点格子点を固定する方法を採ることもできる。   This is a method for setting the starting grid point of each cluster. However, if the distance between the center of the cluster is larger than the distance between the center of the cluster and the image farthest from the cluster, thumbnails of images of different clusters will not overlap. . Therefore, for example, the distance from the cluster center to the furthest image can be calculated from the number of images in the cluster, and the starting grid point of each cluster can be set so that the distance between the centers of each cluster is larger than that distance. it can. Such a method has an advantage that it can flexibly cope with fluctuations in the image arrangement range in each cluster. However, it is possible to adopt a method of fixing the starting lattice points of each cluster in advance with a sufficient interval so as not to cause overlapping of images between clusters.

(第2の実施例)
第2の実施例によれば、前記第1の実施形態に係る第2の実施例の場合と同様、処理Aにおいて、クラスタ毎に、2次元空間の左上コーナーの格子点からラスタスキャン順に格子点を辿りながら順番が付与される。処理Bにおいても同様にラスタスキャン順に格子点を辿りながら画像の再配置が行われる。
(Second embodiment)
According to the second example, as in the case of the second example according to the first embodiment, in the process A, for each cluster, the grid points are arranged in raster scan order from the grid point at the upper left corner of the two-dimensional space. The order is given while tracing. Similarly, in the process B, the image rearrangement is performed while following the lattice points in the raster scan order.

この第2の実施例において、各クラスタについての処理Aは図9に示した処理フローに従って実行することができる。ただし、ステップS111で左上コーナーの格子点を設定し、ステップS116で格子点をラスタスキャン順に一つ次の格子点に移動する。   In the second embodiment, the process A for each cluster can be executed according to the process flow shown in FIG. However, the upper left corner lattice point is set in step S111, and the lattice point is moved to the next lattice point in the raster scan order in step S116.

また、処理Bは図10に示した処理フローに従って実行することができる。ただし、図10のステップS124では、当該クラスタの起点格子点と格子点カウンタの値に基づいて2次元空間上の格子点座標(位置情報)を計算する。   The process B can be executed according to the process flow shown in FIG. However, in step S124 in FIG. 10, the lattice point coordinates (position information) in the two-dimensional space are calculated based on the starting lattice point of the cluster and the value of the lattice point counter.

なお、図10には示さないが、1つのクラスタに対する処理Bが終了した段階で、当該クラスタに対する処理Aで用いられたキュー1の内容はクリアされる。最後のクラスタに対する処理Bが終了した段階のキュー2の内容が最終的な画像配置データである。   Although not shown in FIG. 10, when the process B for one cluster is completed, the contents of the queue 1 used in the process A for the cluster are cleared. The contents of the queue 2 at the stage when the process B for the last cluster is completed are the final image arrangement data.

以上の2つの実施例では、処理A(図19のステップS212)において画像識別情報と”空”情報に連続した順番を付与したが、次に説明する第3の実施例及び第4の実施例では処理Aにおいて画像識別情報のみに順番を付与する。   In the above two embodiments, the sequential order is given to the image identification information and the “empty” information in the process A (step S212 in FIG. 19), but the third embodiment and the fourth embodiment described below. Then, in process A, the order is given only to the image identification information.

(第3の実施例)
第3の実施例によれば、前記第1の実施形態に係る第1の実施例の場合と同様、処理Aにおいて中心の格子点から渦巻き状に格子点を辿りながら順番を付与するが、”空”情報には順番を付与しない。処理Bにおいても同様に渦巻き状に格子点を辿りながら画像の再配置が行われる。
(Third embodiment)
According to the third example, as in the case of the first example according to the first embodiment, in the process A, an order is given while tracing the lattice points spirally from the central lattice point. No order is given to “empty” information. Similarly, in the process B, the rearrangement of images is performed while following the lattice points in a spiral shape.

この第3の実施例において、各クラスタについての処理Aは図9に示した処理フローに従って実行することができる。ただし、ステップS14はスキップされる。また、処理Bは図10に示した処理フローに従って実行することができる。ただし、図10のステップS124では、当該クラスタの起点格子点と格子点カウンタの値に基づいて2次元空間上の格子点座標(位置情報)を計算する。   In the third embodiment, the process A for each cluster can be executed according to the process flow shown in FIG. However, step S14 is skipped. The process B can be executed according to the process flow shown in FIG. However, in step S124 in FIG. 10, the lattice point coordinates (position information) in the two-dimensional space are calculated based on the starting lattice point of the cluster and the value of the lattice point counter.

なお、図10には示さないが、1つのクラスタに対する処理Bが終了した段階で、当該クラスタに対する処理Aで用いられたキュー1の内容はクリアされる。最後のクラスタに対する処理Bが終了した段階のキュー2の内容が最終的な画像配置データである。   Although not shown in FIG. 10, when the process B for one cluster is completed, the contents of the queue 1 used in the process A for the cluster are cleared. The contents of the queue 2 at the stage when the process B for the last cluster is completed are the final image arrangement data.

あるクラスタの画像配置情報が図22に示すような内容であり、画像識別情報aの画像が配置された格子点が中心の格子点であるとする。処理Aにより、画像識別情報に図22に示すような順番が付与される。したがって、処理Bにより、図23に示すように画像は隙間なく密集した形で再配置される。   Assume that the image arrangement information of a certain cluster has contents as shown in FIG. 22, and the lattice point where the image of the image identification information a is arranged is the center lattice point. By the process A, the order as shown in FIG. 22 is given to the image identification information. Therefore, by processing B, the images are rearranged in a dense form without gaps as shown in FIG.

このように、この実施例によれば、第1の実施例と違って、再配置の前後で画像の配置関係がかなり異なってしまう。しかし、クラスタ毎に画像が配置されるため、このような画像の配置関係の変動があっても目的の画像の探索に大きな支障とはならない。また、画像を密集させるため、より多くの画像のサムネイルを画像マップに表示することができるようになる。   As described above, according to this embodiment, unlike the first embodiment, the arrangement relationship of images before and after rearrangement is considerably different. However, since an image is arranged for each cluster, even if there is such a change in the arrangement relationship of the images, there is no big problem in searching for the target image. In addition, since the images are concentrated, more thumbnails of images can be displayed on the image map.

(第4の実施例)
第4の実施例によれば、前記第1の実施形態に係る第2の実施例の場合と同様、処理Aにおいて各クラスタの2次元空間の左上コーナーの格子点からラスタスキャン順に格子点を辿りながら順番付けが行われるが、”空”情報には順番を付与しない。処理Bにおいても同様にラスタスキャン順に格子点を辿りながら画像の再配置が行われる。
(Fourth embodiment)
According to the fourth example, as in the case of the second example according to the first embodiment, in the process A, the grid points are traced in the raster scan order from the grid point at the upper left corner of the two-dimensional space of each cluster. However, the ordering is performed, but no order is given to the “empty” information. Similarly, in the process B, the image rearrangement is performed while following the lattice points in the raster scan order.

この第4の実施例において、各クラスタについての処理Aは図9に示した処理フローに従って実行することができる。ただし、ステップS111で左上コーナーの格子点を設定し、ステップS116で格子点をラスタスキャン順に一つ先の格子点に移動する。ステップS14はスキップされる。   In the fourth embodiment, the process A for each cluster can be executed according to the process flow shown in FIG. However, the upper left corner lattice point is set in step S111, and the lattice point is moved to the next lattice point in the raster scan order in step S116. Step S14 is skipped.

また、処理Bは図10に示した処理フローに従って実行することができる。ただし、図10のステップS124では、当該クラスタの起点格子点と格子点カウンタの値に基づいて2次元空間上の格子点座標(位置情報)を計算する。   The process B can be executed according to the process flow shown in FIG. However, in step S124 in FIG. 10, the lattice point coordinates (position information) in the two-dimensional space are calculated based on the starting lattice point of the cluster and the value of the lattice point counter.

なお、図10には示さないが、1つのクラスタに対する処理Bが終了した段階で、当該クラスタに対する処理Aで用いられたキュー1の内容はクリアされる。最後のクラスタに対する処理Bが終了した段階のキュー2の内容が最終的な画像配置データである。   Although not shown in FIG. 10, when the process B for one cluster is completed, the contents of the queue 1 used in the process A for the cluster are cleared. The contents of the queue 2 at the stage when the process B for the last cluster is completed are the final image arrangement data.

この実施例においても、前記第3の実施例の場合と同様、処理Bにより画像は隙間なく密集した形で再配置されるため、再配置の前後で画像配置がかなり異なってしまう。しかし、クラスタ毎に画像が配置されるため、このような画像の配置関係の変動があっても目的の画像の探索に大きな支障とはならない。また、より多くの画像のサムネイルを画像マップ上に表示することができる。   Also in this embodiment, as in the case of the third embodiment, the images are rearranged in a dense manner by the process B, so that the image arrangement is considerably different before and after the rearrangement. However, since an image is arranged for each cluster, even if there is such a change in the arrangement relationship of the images, there is no big problem in searching for the target image. Also, more thumbnails of images can be displayed on the image map.

ここまでの説明から明らかなように、本実施形態は、請求項4乃至7に係る発明の一実施形態に相当する。そして、「画像入力手段」は画像入力部1005に対応し、「特徴量抽出手段」は特徴量抽出部4003に対応し、「クラスタリング手段」はクラスタリング部4004に対応する。「画像配置情報生成手段」は画像配置処理部4005とクラスタ別のSOMモデル4010によって実現される。また、「画像再配置処理手段」は画像再配置処理4007に対応する。   As is clear from the above description, this embodiment corresponds to an embodiment of the invention according to claims 4 to 7. The “image input unit” corresponds to the image input unit 1005, the “feature amount extraction unit” corresponds to the feature amount extraction unit 4003, and the “clustering unit” corresponds to the clustering unit 4004. The “image arrangement information generating unit” is realized by the image arrangement processing unit 4005 and the SOM model 4010 for each cluster. The “image rearrangement processing unit” corresponds to the image rearrangement processing 4007.

<画像配置データ生成部1006の第4の実施形態>
図24は、画像配置データ生成部1006の第4の実施形態を説明するためのブロック図である。この実施形態に係る画像配置データ生成部1006は、特徴量抽出部5001、クラスタリング部5002、画像配置処理部5003、画像配置情報記憶部5004、画像再配置処理部5005及び制御部5006から構成される。
<Fourth Embodiment of Image Arrangement Data Generation Unit 1006>
FIG. 24 is a block diagram for explaining a fourth embodiment of the image arrangement data generation unit 1006. The image arrangement data generation unit 1006 according to this embodiment includes a feature amount extraction unit 5001, a clustering unit 5002, an image arrangement processing unit 5003, an image arrangement information storage unit 5004, an image rearrangement processing unit 5005, and a control unit 5006. .

本実施形態に係る画像配置データ生成動作の処理フローは、前記第3の実施形態と同様に図18のように示すことができる。ただし、ステップS204の処理内容は前記第3の実施形態と異なる。以下、図18の処理フローに沿って動作を説明する。   The processing flow of the image layout data generation operation according to the present embodiment can be shown as in FIG. 18 as in the third embodiment. However, the processing content of step S204 is different from that of the third embodiment. Hereinafter, the operation will be described along the processing flow of FIG.

ステップS201: 画像ストレージ1000に記憶されている1つの画像が、その画像識別情報(例えばファイル名)とともに画像入力部1005により画像配置データ生成部1006に入力される。なお、入力対象となる画像は、画像ストレージ1000内の全部の画像である場合と、例えばキーワード検索等により絞り込まれた画像ストレージ1000内の一部の画像である場合とがあることは前述した通りである。いずれにしても、クライアント1003での閲覧対象となり得る画像が入力対象となる。   Step S201: One image stored in the image storage 1000 is input to the image arrangement data generation unit 1006 by the image input unit 1005 together with the image identification information (for example, file name). As described above, the input target image may be the entire image in the image storage 1000 or may be a partial image in the image storage 1000 narrowed down by keyword search or the like. It is. In any case, an image that can be viewed by the client 1003 is an input target.

ステップS202: 入力された画像は制御部5006を通じて特徴量抽出部5001へ転送される。特徴量抽出部5001では、その画像の彩度、色相、輝度、テクスチャ等のn次元の特徴量を抽出し、それら特徴量からなるn次元特徴量ベクトルを出力する。この特徴量ベクトルは、当該画像の画像識別情報とともに、制御部5006を通じ画像配置処理部5003及びクラスタリング部5002へ転送される。   Step S202: The input image is transferred to the feature amount extraction unit 5001 through the control unit 5006. The feature quantity extraction unit 5001 extracts n-dimensional feature quantities such as the saturation, hue, luminance, and texture of the image, and outputs an n-dimensional feature quantity vector composed of these feature quantities. This feature vector is transferred to the image arrangement processing unit 5003 and the clustering unit 5002 through the control unit 5006 together with the image identification information of the image.

ステップS203: クラスタリング部5002では、入力されたn次元特徴量ベクトルの一部次元の特徴量を用いたクラスタリングにより当該画像の所属クラスタを求める。この所属クラスタの情報は、制御部5006を通じて画像配置処理部5003へ入力される。なお、クラスタリング専用の別の特徴量を特徴量抽出部5001で抽出し、この特徴量をクラスタリング部5002で用いて所属クラスタを求めるようにしてもよい。   Step S203: The clustering unit 5002 obtains a cluster to which the image belongs by clustering using a partial dimension feature quantity of the input n-dimensional feature quantity vector. The information of the cluster belonging to this is input to the image arrangement processing unit 5003 through the control unit 5006. Note that another feature amount dedicated to clustering may be extracted by the feature amount extraction unit 5001, and the clustering unit 5002 may use this feature amount to obtain the belonging cluster.

ステップS204: 画像配置処理部5003では、クラスタ別に画像配置処理を行い、クラスタ別の複数の画像配置情報5011を画像配置情報記憶部5004に生成する。すなわち、画像配置処理部5003では、入力されたn次元の特徴量を主成分分析により2次元の特徴量x,yに集約し、特徴量x,yの値をそのまま2次元座標に置き換え、当該座標の格子点を当該画像を配置する格子点と決定し、所属クラスタに対応した画像配置情報5011に当該格子点に対応付けて当該画像の画像識別情報を記録する。クラスタ別の各画像配置情報5011は、具体的には例えば、2次元空間の各格子点に1対1に対応付けられたエントリーを持つテーブル構造であり、ある格子点に配置された画像の画像識別情報が該格子点に対応したエントリーに書き込まれたものである。画像が配置されていない格子点に対応したエントリーの内容は、画像が配置されていないことを示す情報(以下、”空”情報と記す)である。なお、同じクラスタ内における画像の特徴量の差は小さいため、個々のクラスタ内の画像が配置される2次元空間の広さは全クラスタの画像が配置される2次元空間全体に比べ狭い。   Step S204: The image arrangement processing unit 5003 performs image arrangement processing for each cluster, and generates a plurality of pieces of image arrangement information 5011 for each cluster in the image arrangement information storage unit 5004. That is, the image arrangement processing unit 5003 aggregates the input n-dimensional feature values into two-dimensional feature values x and y by principal component analysis, and directly replaces the values of the feature values x and y with two-dimensional coordinates. The grid point of the coordinate is determined as the grid point at which the image is arranged, and the image identification information of the image is recorded in association with the grid point in the image arrangement information 5011 corresponding to the belonging cluster. Specifically, each cluster image arrangement information 5011 has, for example, a table structure having an entry associated with each grid point in a two-dimensional space on a one-to-one basis, and an image of an image arranged at a grid point. The identification information is written in the entry corresponding to the lattice point. The content of the entry corresponding to the grid point where no image is arranged is information indicating that no image is arranged (hereinafter referred to as “empty” information). Note that since the difference in image feature amounts in the same cluster is small, the width of the two-dimensional space in which images in individual clusters are arranged is narrower than the entire two-dimensional space in which images of all clusters are arranged.

なお、各クラスタにおいて、複数の画像の特徴量ベクトルが極めて類似している場合には、複数の画像が重複して同じ格子点に配置されることがある。この場合、その複数の画像の画像識別情報が同じ格子点のエントリーに書き込まれることになる。   In addition, in each cluster, when the feature-value vector of a some image is very similar, a some image may overlap and be arrange | positioned at the same lattice point. In this case, the image identification information of the plurality of images is written in the entry of the same lattice point.

ステップS205: 制御部5006は、入力対象の最後の画像まで入力されたか否かの判定を行い、入力すべき画像が残っている場合には画像入力部1005に次の画像の入力を求め、その画像に対するステップS201〜S204の処理を実行する制御を行う。制御部5006は、最後の画像まで入力されたと判定した場合(ステップS205,No)、画像再配置処理部5005に対し画像再配置処理(ステップS206の処理)の実行を指示する。   Step S205: The control unit 5006 determines whether or not the last image to be input has been input. If there is an image to be input, the control unit 5006 requests the image input unit 1005 to input the next image, and Control for executing the processing of steps S201 to S204 on the image is performed. When it is determined that the last image has been input (No at Step S205), the control unit 5006 instructs the image rearrangement processing unit 5005 to execute an image rearrangement process (the process at Step S206).

ステップS206: 画像再配置処理部5005で画像再配置処理が行われる。この画像再配置処理は前記第3の実施形態の画像再配置処理部4007による処理と同様であるので、その説明は繰り返さない。   Step S206: The image rearrangement processing unit 5005 performs image rearrangement processing. Since this image rearrangement process is the same as the process by the image rearrangement processing unit 4007 of the third embodiment, the description thereof will not be repeated.

なお、以上の一連の処理を終了後に、画像ストレージ1000に閲覧対象となる新たな画像が追加された場合や、画像ストレージ1000に蓄積されている一部の画像が新たに閲覧対象に追加された場合には、それら新たな閲覧対象画像についてステップS201〜S204の処理を行うことにより、画像配置情報記憶部5004内のクラスタ別画像配置情報5011が更新される。そして、更新された画像配置情報5011に対してステップS206の画像再配置処理が実行され、更新された画像配置データが生成される。   In addition, after completing the above series of processing, when a new image to be viewed is added to the image storage 1000, or some images accumulated in the image storage 1000 are newly added to the viewing target. In this case, the cluster-by-cluster image arrangement information 5011 in the image arrangement information storage unit 5004 is updated by performing the processing of steps S201 to S204 for these new browsing target images. Then, the image rearrangement process in step S206 is executed on the updated image arrangement information 5011, and updated image arrangement data is generated.

ここまでの説明から明らかなように、本実施形態は、請求項4乃至7に係る発明の一実施形態に相当する。そして、「画像入力手段」は画像入力部1005に対応し、「特徴量抽出手段」は特徴量抽出部5001に対応し、「クラスタリング手段」はクラスタリング部5002に対応し、「画像配置情報生成手段」は画像配置処理部5003に対応し、「画像再配置処理手段」は画像再配置処理5005に対応する。   As is clear from the above description, this embodiment corresponds to an embodiment of the invention according to claims 4 to 7. The “image input unit” corresponds to the image input unit 1005, the “feature amount extraction unit” corresponds to the feature amount extraction unit 5001, the “clustering unit” corresponds to the clustering unit 5002, and the “image arrangement information generation unit”. "Corresponds to the image rearrangement processing unit 5003, and" image rearrangement processing means "corresponds to the image rearrangement processing 5005.

以上に説明した各実施形態に係る画像配置データ生成部1006及び画像入力部1005は、コンピュータのハードウェア資源を利用しプログラムにより実現することも可能であることは明らかである。そのようなプログラム、すなわち画像配置データ生成部1006の各構成手段及び画像入力部1005としてコンピュータを機能させるプログラムも本発明に包含される。そのようなプログラムが記録された半導体記憶素子、磁気ディスク、光ディスク、光磁気ディスク等のコンピュータが読み取り可能な各種情報記録(記憶)媒体も本発明に包含される。   It is obvious that the image arrangement data generation unit 1006 and the image input unit 1005 according to each embodiment described above can be realized by a program using computer hardware resources. Such a program, that is, a program that causes a computer to function as each component of the image arrangement data generation unit 1006 and the image input unit 1005 is also included in the present invention. Various information recording (storage) media that can be read by a computer, such as a semiconductor storage element, a magnetic disk, an optical disk, and a magneto-optical disk, in which such a program is recorded are also included in the present invention.

また、以上説明した各実施形態における画像配置データ生成処理の説明は、請求項8乃至14に係る発明の画像配置データ生成方法の処理手順の説明でもある。よって、本発明の画像配置データ生成方法の実施形態に関する説明は繰り返さない。   Further, the description of the image layout data generation processing in each embodiment described above is also the description of the processing procedure of the image layout data generation method according to the inventions according to claims 8 to 14. Therefore, the description regarding the embodiment of the image arrangement data generation method of the present invention will not be repeated.

なお、以上においては画像が配置される格子点として直交座標系格子点を想定して説明したが、極座標系格子点を用いることも可能である。   In the above description, an orthogonal coordinate system lattice point is assumed as a lattice point on which an image is arranged. However, a polar coordinate system lattice point can also be used.

本発明の一実施形態に係る画像処理システムのブロック図である。1 is a block diagram of an image processing system according to an embodiment of the present invention. 画像のサムネイルを画像配置データに従って配置した画像マップを模式的に示す図である。It is a figure which shows typically the image map which has arrange | positioned the thumbnail of the image according to image arrangement data. 画像配置データ生成部の第1の実施形態を示すブロック図である。It is a block diagram which shows 1st Embodiment of an image arrangement | positioning data generation part. SOMマップの概念図である。It is a conceptual diagram of an SOM map. 画像配置データ生成部の第1の実施形態における画像配置データ生成動作の概略処理フローを示す図である。It is a figure which shows the schematic processing flow of the image arrangement | positioning data generation operation | movement in 1st Embodiment of an image arrangement | positioning data generation part. 画像再配置処理の処理フローを示す図である。It is a figure which shows the processing flow of an image rearrangement process. 画像識別情報及び”空”情報への順番付与の説明図である。It is explanatory drawing of order provision to image identification information and "empty" information. 画像再配置の説明図である。It is explanatory drawing of image rearrangement. 画像識別情報及び”空”情報に順番をつける処理Aの処理フローを示す図である。It is a figure which shows the processing flow of the process A which puts order to image identification information and "empty" information. 画像を再配置して最終的な画像配置データを生成する処理Bの処理フローを示す図である。It is a figure which shows the processing flow of the process B which rearranges an image and produces | generates final image arrangement data. 処理A後のキュー1の内容を示す図である。It is a figure which shows the content of the queue 1 after the process A. FIG. 処理B後のキュー2の内容を示す図である。It is a figure which shows the content of the queue 2 after the process B. FIG. 画像識別情報及び”空”情報への順番付与の説明図である。It is explanatory drawing of order provision to image identification information and "empty" information. 画像再配置の説明図である。It is explanatory drawing of image rearrangement. 画像配置データ生成部の第2の実施形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of an image arrangement | positioning data generation part. n次元特徴量の主成分分析による2次元特徴量への集約と、2次元特徴量による画像配置の説明図である。It is explanatory drawing of the aggregation to the two-dimensional feature-value by a principal component analysis of an n-dimensional feature-value, and the image arrangement | positioning by a two-dimensional feature-value. 画像配置データ生成部の第3の実施形態を示すブロック図である。It is a block diagram which shows 3rd Embodiment of an image arrangement | positioning data generation part. 画像配置データ生成部の第3の実施形態における画像配置データ生成動作の概略処理フローを示す図である。It is a figure which shows the schematic processing flow of the image arrangement | positioning data generation operation | movement in 3rd Embodiment of an image arrangement | positioning data generation part. 画像再配置処理の概略処理フローを示す図である。It is a figure which shows the schematic process flow of an image rearrangement process. キュー2の内容(最終的な画像配置データ)の説明図である。It is explanatory drawing of the content (final image arrangement data) of the queue 2. FIG. 各クラスタの画像の再配置の説明図である。It is explanatory drawing of the rearrangement of the image of each cluster. 画像識別情報への順番付与の説明図である。It is explanatory drawing of order provision to image identification information. 画像再配置の説明図である。It is explanatory drawing of image rearrangement. 画像配置データ生成部の第4の実施形態を示すブロック図である。It is a block diagram which shows 4th Embodiment of an image arrangement | positioning data generation part.

符号の説明Explanation of symbols

1000 画像ストレージ
1001 画像配置データサーバ
1002 画像配信サーバ
1003 クライアント
1005 画像入力部
1006 画像配置データ生成部
1007 画像配置データ記憶部
1008 画像配置データ要求処理部
2001 SOMモデル生成部
2002 SOMモデル記憶部
2003 特徴量抽出部
2004 画像配置処理部
2005 画像配置情報記憶部
2006 画像再配置処理部
2007 制御部
2010 SOMモデル
2011 画像配置情報
3001 特徴量抽出部
3002 画像配置処理部
3003 画像配置情報記憶部
3004 画像再配置処理部
3005 制御部
3006 画像配置情報
4001 SOMモデル生成部
4002 SOMモデル記憶部
4003 特徴量抽出部
4004 クラスタリング部
4005 画像配置処理部
4006 画像配置情報記憶部
4007 画像再配置処理部
4008 制御部
4010 クラスタ別のSOMモデル
4011 クラスタ別の画像配置情報
5001 特徴量抽出部
5002 クラスタリング部
5003 画像配置処理部
5004 画像配置情報記憶部
5005 画像再配置処理部
5006 制御部
5011 クラスタ別の画像配置情報
1000 Image storage 1001 Image arrangement data server 1002 Image distribution server 1003 Client 1005 Image input unit 1006 Image arrangement data generation unit 1007 Image arrangement data storage unit 1008 Image arrangement data request processing unit 2001 SOM model generation unit 2002 SOM model storage unit 2003 Features Extraction unit 2004 Image arrangement processing unit 2005 Image arrangement information storage unit 2006 Image rearrangement processing unit 2007 Control unit 2010 SOM model 2011 Image arrangement information 3001 Feature amount extraction unit 3002 Image arrangement processing unit 3003 Image arrangement information storage unit 3004 Image rearrangement processing Unit 3005 control unit 3006 image arrangement information 4001 SOM model generation unit 4002 SOM model storage unit 4003 feature quantity extraction unit 4004 clustering unit 4005 image arrangement processing unit 4006 Image arrangement information storage unit 4007 Image rearrangement processing unit 4008 Control unit 4010 Cluster-specific SOM model 4011 Cluster-specific image arrangement information 5001 Feature quantity extraction unit 5002 Clustering unit 5003 Image arrangement processing unit 5004 Image arrangement information storage unit 5005 Image rearrangement Processing unit 5006 Control unit 5011 Image arrangement information for each cluster

Claims (14)

画像を入力する画像入力手段と、
前記画像入力手段により入力された各画像の特徴量を抽出する特徴量抽出手段と、
画像入力手段により入力された各画像を、前記特徴量抽出手段で抽出された特徴量に基づき、類似した画像ほど近い距離になるように2次元空間の格子点に配置し、格子点に配置された画像の画像識別情報又は格子点に画像が配置されていないことを意味する”空”情報を格子点に対応付けて記録した画像配置情報を生成する画像配置情報生成手段と、
前記画像配置情報生成手段で生成された画像配置情報に対し、所定の順序で格子点を辿りながら画像識別情報及び”空”情報に連続した順番を付与する第1の処理と、前記所定の順序で格子点を辿りながら、画像識別情報及び”空”情報を、それらに前記第1の処理で付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置し、再配置後の画像識別情報とそれが対応付けられた格子点の位置情報のペアの集合からなる画像配置データを生成する第2の処理を行う画像再配置処理手段と、
を有することを特徴とする画像配置データ生成装置。
An image input means for inputting an image;
Feature quantity extraction means for extracting the feature quantity of each image input by the image input means;
Based on the feature amount extracted by the feature amount extraction unit, each image input by the image input unit is arranged at a grid point in the two-dimensional space so that a similar image is closer, and the image is arranged at the grid point. Image arrangement information generating means for generating image arrangement information in which image identification information of an image or “empty” information meaning that no image is arranged at a grid point is recorded in association with the grid point;
A first process for assigning a sequential order to image identification information and “empty” information while tracing lattice points in a predetermined order with respect to the image arrangement information generated by the image arrangement information generating unit; and the predetermined order The image is rearranged by following the grid points and re-allocating the image identification information and the “empty” information to the grid points in order according to the order given in the first process. Image relocation processing means for performing a second process of generating image arrangement data consisting of a set of pairs of image identification information and position information of lattice points associated with the image identification information;
An image arrangement data generation device characterized by comprising:
前記画像再配置処理手段は前記第1及び第2の処理において渦巻き状に格子点を辿ることを特徴とする請求項1に記載の画像配置データ生成装置。   2. The image arrangement data generation apparatus according to claim 1, wherein the image rearrangement processing unit traces lattice points in a spiral shape in the first and second processes. 前記画像再配置処理手段は前記第1及び第2の処理において2次元空間の分割領域毎にラスタスキャン順に格子点を辿ることを特徴とする請求項1に記載の画像配置データ生成装置。   2. The image arrangement data generation apparatus according to claim 1, wherein the image rearrangement processing unit traces the grid points in the raster scan order for each divided region of the two-dimensional space in the first and second processes. 前記画像入力手段により入力された各画像を、前記特徴量抽出手段で抽出された特徴量に基づき、複数のクラスタに分類するクラスタリング手段を有し、
前記画像配置情報生成手段は、クラスタ別に画像の2次元空間の格子点への配置を行って、クラスタ別の画像配置情報を生成し、
前記画像再配置処理手段は、クラスタ別に前記第1の処理を行い、前記第2の処理において、クラスタ別に設定された起点格子点から前記所定の順序で格子点を辿りながら、各クラスタについての画像識別情報及び”空”情報を、それらに前記第1の処理により付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置することを特徴とする請求項1に記載の画像配置データ生成装置。
Clustering means for classifying each image input by the image input means into a plurality of clusters based on the feature quantity extracted by the feature quantity extraction means,
The image arrangement information generating means performs arrangement of each image on a grid point in a two-dimensional space to generate image arrangement information for each cluster,
The image rearrangement processing means performs the first processing for each cluster, and in the second processing, the image for each cluster is traced in the predetermined order from the starting lattice point set for each cluster. The image arrangement according to claim 1, wherein the image is rearranged by re-associating the identification information and the “empty” information with the grid points in order according to the order given by the first processing. Data generator.
前記画像再配置処理手段は前記第1及び第2の処理において渦巻き状に格子点を辿ることを特徴とする請求項4に記載の画像配置データ生成装置。   5. The image arrangement data generation apparatus according to claim 4, wherein the image rearrangement processing means traces lattice points in a spiral shape in the first and second processes. 前記画像再配置処理手段は前記第1及び第2の処理においてラスタスキャン順に格子点を辿ることを特徴とする請求項4に記載の画像配置データ生成装置。   5. The image arrangement data generation apparatus according to claim 4, wherein the image rearrangement processing unit traces the grid points in the raster scan order in the first and second processes. 前記画像再配置処理手段は、前記第1の処理において画像識別情報のみに順番を付与し、前記第2の処理において画像識別情報のみを格子点に対応付けし直すことにより画像を再配置することを特徴とする請求項4に記載の画像配置データ生成装置。   The image rearrangement processing unit rearranges an image by assigning an order only to the image identification information in the first process and re-associating only the image identification information with the lattice points in the second process. The image arrangement data generation device according to claim 4, wherein: 画像を入力する画像入力工程と、
前記画像入力工程により入力された各画像の特徴量を抽出する特徴量抽出工程と、
画像入力工程により入力された各画像を、前記特徴量抽出工程で抽出された特徴量に基づき、類似した画像ほど近い距離になるように2次元空間の格子点に配置し、格子点に配置された画像の画像識別情報又は格子点に画像が配置されていないことを意味する”空”情報を格子点に対応付けて記録した画像配置情報を生成する画像配置情報生成工程と、
前記画像配置情報生成工程で生成された画像配置情報に対し、所定の順序で格子点を辿りながら画像識別情報及び”空”情報に連続した順番を付与する第1の処理と、前記所定の順序で格子点を辿りながら、画像識別情報及び”空”情報を、それらに前記第1の処理で付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置し、再配置後の画像識別情報とそれが対応付けられた格子点の位置情報のペアの集合からなる画像配置データを生成する第2の処理を行う画像再配置処理工程と、
を有することを特徴とする画像配置データ生成方法。
An image input process for inputting an image;
A feature amount extraction step of extracting a feature amount of each image input by the image input step;
Based on the feature amount extracted in the feature amount extraction step, each image input in the image input step is arranged at a grid point in the two-dimensional space so that a similar image is closer, and the image is placed at the grid point. An image arrangement information generating step for generating image arrangement information in which image identification information of an image or “empty” information meaning that no image is arranged at a grid point is recorded in association with the grid point;
A first process for assigning a sequential order to image identification information and “empty” information while following lattice points in a predetermined order with respect to the image arrangement information generated in the image arrangement information generation step; and the predetermined order The image is rearranged by following the grid points and re-allocating the image identification information and the “empty” information to the grid points in order according to the order given in the first process. An image rearrangement process step of performing a second process of generating image arrangement data consisting of a set of pairs of image identification information and lattice point position information associated with the image identification information;
An image layout data generation method characterized by comprising:
前記画像再配置処理工程は前記第1及び第2の処理において渦巻き状に格子点を辿ることを特徴とする請求項8に記載の画像配置データ生成方法。   9. The image arrangement data generation method according to claim 8, wherein the image rearrangement processing step traces lattice points spirally in the first and second processes. 前記画像再配置処理工程は前記第1及び第2の処理において2次元空間の分割領域毎にラスタスキャン順に格子点を辿ることを特徴とする請求項8に記載の画像配置データ生成方法。   9. The image arrangement data generation method according to claim 8, wherein the image rearrangement processing step traces the grid points in the raster scan order for each divided region of the two-dimensional space in the first and second processes. 前記画像入力工程により入力された各画像を、前記特徴量抽出工程で抽出された特徴量に基づき、複数のクラスタに分類するクラスタリング工程を有し、
前記画像配置情報生成工程は、クラスタ別に画像の2次元空間の格子点への配置を行って、クラスタ別の画像配置情報を生成し、
前記画像再配置処理工程は、クラスタ別に前記第1の処理を行い、前記第2の処理において、クラスタ別に設定された起点格子点から前記所定の順序で格子点を辿りながら、各区ラスタについての画像識別情報及び”空”情報を、それらに前記第1の処理により付与された順番に従って順に格子点に対応付けし直すことにより画像を再配置することを特徴とする請求項8に記載の画像配置データ生成方法。
A clustering step of classifying each image input in the image input step into a plurality of clusters based on the feature amount extracted in the feature amount extraction step;
The image arrangement information generation step performs arrangement of the image at a lattice point in the two-dimensional space for each cluster to generate image arrangement information for each cluster,
In the image rearrangement processing step, the first processing is performed for each cluster, and in the second processing, the image for each raster is obtained while tracing the lattice points in the predetermined order from the starting lattice points set for each cluster. 9. The image arrangement according to claim 8, wherein the image is rearranged by re-associating the identification information and the “empty” information with the lattice points in order according to the order given by the first processing. Data generation method.
前記画像再配置処理工程は前記第1及び第2の処理において渦巻き状に格子点を辿ることを特徴とする請求項11に記載の画像配置データ生成方法。   12. The image arrangement data generation method according to claim 11, wherein the image rearrangement processing step traces lattice points spirally in the first and second processes. 前記画像再配置処理工程は前記第1及び第2の処理においてラスタスキャン順に格子点を辿ることを特徴とする請求項11に記載の画像配置データ生成方法。   12. The image arrangement data generation method according to claim 11, wherein the image rearrangement processing step traces the grid points in the raster scan order in the first and second processes. 前記画像再配置処理工程は、前記第1の処理において画像識別情報のみに順番を付与し、前記第2の処理において画像識別情報のみを格子点に対応付けし直すことにより画像を再配置することを特徴とする請求項11に記載の画像配置データ生成方法。   The image rearrangement processing step rearranges the image by assigning an order only to the image identification information in the first processing and re-associating only the image identification information with the grid points in the second processing. The image arrangement data generation method according to claim 11.
JP2008004785A 2008-01-11 2008-01-11 Image arrangement data generation device and image arrangement data generation method Pending JP2009169533A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008004785A JP2009169533A (en) 2008-01-11 2008-01-11 Image arrangement data generation device and image arrangement data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008004785A JP2009169533A (en) 2008-01-11 2008-01-11 Image arrangement data generation device and image arrangement data generation method

Publications (1)

Publication Number Publication Date
JP2009169533A true JP2009169533A (en) 2009-07-30

Family

ID=40970655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008004785A Pending JP2009169533A (en) 2008-01-11 2008-01-11 Image arrangement data generation device and image arrangement data generation method

Country Status (1)

Country Link
JP (1) JP2009169533A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160081A (en) * 2011-02-01 2012-08-23 Toshiba Tec Corp Display device, display control method and control program
JP2014215742A (en) * 2013-04-24 2014-11-17 日本電信電話株式会社 Information processing apparatus, feature amount conversion system, display control method and display control program
WO2018193516A1 (en) * 2017-04-18 2018-10-25 三菱電機株式会社 Display control device and display control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160081A (en) * 2011-02-01 2012-08-23 Toshiba Tec Corp Display device, display control method and control program
JP2014215742A (en) * 2013-04-24 2014-11-17 日本電信電話株式会社 Information processing apparatus, feature amount conversion system, display control method and display control program
WO2018193516A1 (en) * 2017-04-18 2018-10-25 三菱電機株式会社 Display control device and display control method
CN110546602A (en) * 2017-04-18 2019-12-06 三菱电机株式会社 Display control device and display control method
US10838578B2 (en) 2017-04-18 2020-11-17 Mitsubishi Electric Corporation Display control device and display control method that assigns a search target to a display area in accordance with a positional relationship between the display area and the search target
CN110546602B (en) * 2017-04-18 2023-04-28 三菱电机株式会社 Display control device and display control method

Similar Documents

Publication Publication Date Title
US9886669B2 (en) Interactive visualization of machine-learning performance
JP5062884B2 (en) Image search apparatus, image search method and program
JP6448207B2 (en) Build visual search, document triage and coverage tracking
JP4902499B2 (en) Image display device, image display method, and image display system
US9167189B2 (en) Automated content detection, analysis, visual synthesis and repurposing
US10719559B2 (en) System for identifying, associating, searching and presenting documents based on time sequentialization
JP2007328456A (en) Object display processing apparatus, object display processing method, and program for object display processing
JP2007328457A (en) Object display processing apparatus, object display processing method, and program for object display processing
JP2007317034A (en) Image processing apparatus, image processing method, program, and recording medium
JP2005236646A (en) Image display device, method, and program
CN103744998A (en) Hierarchical-division based storage and organization method for large-scale space vector data
JP2000311246A (en) Similar image display method and recording medium storing similar image display processing program
JP2004341940A (en) Similar image retrieval device, similar image retrieval method, and similar image retrieval program
Eldawy et al. The ecosystem of SpatialHadoop
JP2009505261A (en) Method and apparatus for accessing data using symbolic representation space
JPWO2017104043A1 (en) Image processing apparatus, image search interface display apparatus, and image search interface display method
JP2009169533A (en) Image arrangement data generation device and image arrangement data generation method
JP6603194B2 (en) Screen recognition device, screen recognition method, and screen recognition program
JP5298616B2 (en) Information presenting apparatus, information presenting method, and information presenting program
JP2013152543A (en) Image storage program, method and device
JP2008305268A (en) Document classification device and classification method
JP2010021766A (en) Image display apparatus, image display method, program, and storage medium
JP2009252185A (en) Information searching device, information searching method, control program, and recording medium
JP2005235041A (en) Retrieval image display method and retrieval image display program
JP2010250569A (en) Image retrieval device