JP2006344155A - Device, method, and program for determining image display position, and computer readable recording medium with program recorded thereon - Google Patents

Device, method, and program for determining image display position, and computer readable recording medium with program recorded thereon Download PDF

Info

Publication number
JP2006344155A
JP2006344155A JP2005171324A JP2005171324A JP2006344155A JP 2006344155 A JP2006344155 A JP 2006344155A JP 2005171324 A JP2005171324 A JP 2005171324A JP 2005171324 A JP2005171324 A JP 2005171324A JP 2006344155 A JP2006344155 A JP 2006344155A
Authority
JP
Japan
Prior art keywords
image
images
original
display position
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005171324A
Other languages
Japanese (ja)
Other versions
JP4565187B2 (en
Inventor
Yoshinori Haseyama
美紀 長谷山
Takahiro Ogawa
貴弘 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Original Assignee
Hokkaido University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC filed Critical Hokkaido University NUC
Priority to JP2005171324A priority Critical patent/JP4565187B2/en
Publication of JP2006344155A publication Critical patent/JP2006344155A/en
Application granted granted Critical
Publication of JP4565187B2 publication Critical patent/JP4565187B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To arrange similar images close to one another when determining the display position of each image in order to display images in a list. <P>SOLUTION: An image device list display device 1 is a device for displaying a plurality of thumbnail images in a list and includes an image display position determining part 10 for determining the display position of each thumbnail image in the images of the list. The image display position determining part 10 includes a characteristic value calculating part 12 for calculating coordinates in an original image of a domain block closest to an image similar to a range block in the original image as a first characteristic value representing characteristics of the original image, a characteristic vector generating part 13 for generating a characteristic vector including the first characteristic value calculated about each original image as an element for each original image, and an image arranging part 15 for using the characteristic vector to learn a self-organization map and for determining the display position of each thumbnail image in the images of the list on the basis of the position of an element belonging to each original image in the learned self-organization map. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数のサムネイル画像を一覧表示する際の各サムネイル画像の表示位置を決定する装置及びその装置において用いられる方法、並びにその装置を実現するためのプログラム及びにこれを記録した記録媒体に関するものである。   The present invention relates to an apparatus for determining a display position of each thumbnail image when displaying a list of a plurality of thumbnail images, a method used in the apparatus, a program for realizing the apparatus, and a recording medium recording the same Is.

近年のブロードバンドの発展や様々なディジタルメディアの普及により、個人が所有する画像の数は飛躍的に増加している。これに伴って、所望の画像を膨大な量の画像の中から検索する必要性が生じているが、人手で行うには大きな負担となる。このため、与えられる画像の中から所望の画像、あるいはそれと類似する画像を自動で選択し、ユーザに呈示する手法のニーズが高まっている。   With the recent development of broadband and the spread of various digital media, the number of images owned by individuals has increased dramatically. Along with this, there is a need to search for a desired image from an enormous amount of images, but it is a heavy burden to perform manually. For this reason, there is an increasing need for a method of automatically selecting a desired image or an image similar to the image from given images and presenting it to the user.

ところで、類似画像を自動で検索する技術については従来より活発に研究が行われており、非常に多くの手法が提案されている。一般にこれらの手法では、検索を行うためにユーザがあらかじめ質問画像を与える必要がある。   By the way, about the technique which searches a similar image automatically, research has been actively performed conventionally, and very many methods are proposed. In general, these methods require a user to provide a question image in advance in order to perform a search.

しかしながら、ユーザが検索対象とする画像に類似した画像を保持していない可能性があり、そのような場合、これらの手法では類似画像の検索を行うことができない。また、検索の初期の段階において、所望の画像がどのようなものであるかという検索意図が、ユーザにとって明確でない場合も少なくない。このような場合、ユーザは試行錯誤的に多くの画像の閲覧を希望すると考えらえる。したがって、多数の類似した画像同士をまとめ、その結果をユーザに理解しやすい形で呈示すること、すなわち可視化することが必要とされている。   However, there is a possibility that the user does not hold an image similar to the image to be searched. In such a case, it is not possible to search for a similar image by these methods. In addition, there are many cases where the search intention of what kind of desired image is in the initial stage of search is not clear to the user. In such a case, it can be considered that the user desires to browse many images by trial and error. Therefore, it is necessary to collect many similar images and present the result in a form that is easy for the user to understand, that is, to visualize the result.

このような観点から、類似の画像を近接して表示する手法について研究が行われており、そのような手法が非特許文献1〜3に記載されている。これら非特許文献1〜3に記載された手法では、画像の特徴を数値として抽出し、この数値(以下「特性値」という)を要素として有する特徴ベクトルによって、画像の特徴を表現する。そして、この特徴ベクトルを用いて自己組織化マップの学習を行い、学習後の自己組織化マップの何れの素子に画像が帰属するかによって、画像の配置を決定している。   From such a viewpoint, research has been conducted on a technique for displaying similar images close to each other, and such techniques are described in Non-Patent Documents 1 to 3. In the methods described in these Non-Patent Documents 1 to 3, image features are extracted as numerical values, and image features are expressed by feature vectors having these numerical values (hereinafter referred to as “characteristic values”) as elements. Then, learning of the self-organizing map is performed using this feature vector, and the arrangement of the images is determined depending on which element of the self-organizing map after learning belongs to.

ここで、特許文献1の手法では、上記の特性値としてMPEG(Moving Picture Expert Group)−7で規格化されているエッジヒストグラムを用いている。一方、特許文献2の手法では、上記の特性値として画像に含まれる各画素のRGB成分の平均値を用いている。また、特許文献3の手法では、上記の特性値としてガボールフィルターから得られる値を用いている。
Laaksonen, J., Koskela, M., Oja, E., “PicSOM-self-organizing image retrieval with MPEG-7 content descriptors,” IEEE Transactions on Neural Networks, v 13, n 4, July 2002, p 841-853. Bin Zhu, Ramsey, M., Hsinchun Chen, “Creating a large-scale content-based airphoto image digital library,” IEEE Transactions on Image Processing, v 9, n 1, Jan. 2000, p 163-167. Laaksonen, J., Koskela, M., Laakso, S., Oja, E., “Self-organising maps as a relevance feedback technique in content-based image retrieval,” Pattern Analysis and Applications, v 4, n 2-3, 2001, p 140-152.
Here, in the method of Patent Document 1, an edge histogram standardized by MPEG (Moving Picture Expert Group) -7 is used as the characteristic value. On the other hand, in the method of Patent Document 2, an average value of RGB components of each pixel included in an image is used as the above characteristic value. Moreover, in the method of patent document 3, the value obtained from a Gabor filter is used as said characteristic value.
Laaksonen, J., Koskela, M., Oja, E., “PicSOM-self-organizing image retrieval with MPEG-7 content descriptors,” IEEE Transactions on Neural Networks, v 13, n 4, July 2002, p 841-853 . Bin Zhu, Ramsey, M., Hsinchun Chen, “Creating a large-scale content-based airphoto image digital library,” IEEE Transactions on Image Processing, v 9, n 1, Jan. 2000, p 163-167. Laaksonen, J., Koskela, M., Laakso, S., Oja, E., “Self-organising maps as a relevance feedback technique in content-based image retrieval,” Pattern Analysis and Applications, v 4, n 2-3 , 2001, p 140-152.

しかしながら、上記の非特許文献1〜3に示した手法は研究段階にあり、類似性の判定において未だ非実用的であるという問題を有している。具体的には、非特許文献1〜3に記載された手法は、互いに類似する複数の画像(すなわち単一の類似画像群に含まれる複数の画像)をその類似度に基づいて分類することはできるものの、複数の類似画像群に含まれる多くの画像を、個々の類似画像群に分類(クラスタリング)するのには向いていない。例えば、類似の模様などが描写された複数の画像をその類似度に基づいて分類(クラスタリング)することはできるが、複数の被写体を被写体ごとに様々な角度から撮像した多くの画像について、同一の被写体のみを含む画像群に精確に分類(クラスタリング)することはできない。このようなことから、類似した画像同士を近接して表示する手法において、改善されたさらなる手法が求められている。 However, the methods shown in the above non-patent documents 1 to 3 are in a research stage and have a problem that they are still impractical in determining similarity. Specifically, the methods described in Non-Patent Documents 1 to 3 classify a plurality of similar images (that is, a plurality of images included in a single similar image group) based on the similarity. Although possible, it is not suitable for classifying (clustering) many images included in a plurality of similar image groups into individual similar image groups. For example, it is possible to classify (clustering) a plurality of images in which similar patterns or the like are drawn based on the similarity, but for many images obtained by imaging a plurality of subjects from various angles for each subject, the same It cannot be accurately classified (clustered) into an image group including only the subject. For this reason, there is a need for an improved method for displaying similar images close to each other.

本発明は上記問題点に鑑みてなされたものであり、その目的は、画像を一覧表示するために各画像の表示位置を決定する際に、類似性を精確に判断し、ユーザがどの位置にどのような画像が表示されているかを把握しやすいようにサムネイル画像を配置できる画像表示位置決定装置及び画像表示位置決定方法を提供することにある。   The present invention has been made in view of the above problems, and its purpose is to accurately determine similarity when determining the display position of each image in order to display a list of images, and to which position the user is An object of the present invention is to provide an image display position determining apparatus and an image display position determining method capable of arranging thumbnail images so that it is easy to grasp what kind of image is displayed.

本発明者は、上記課題に鑑みて研究を重ねた結果、フラクタル画像符号化法において用いられるIFSパラメタ値が、画像の特性を表す特性値として好適に利用できることを見出し、本発明を完成させるに至った。   As a result of repeated studies in view of the above problems, the present inventor has found that the IFS parameter value used in the fractal image coding method can be suitably used as a characteristic value representing the characteristic of an image, and completes the present invention. It came.

すなわち、本発明に係る画像表示位置決定装置は、複数の画像をサムネイル画像によって一覧表示する際の一覧画像内における各サムネイル画像の表示位置を決定する画像表示位置決定装置であって、上記複数の画像である元画像を取得する画像取得部と、各元画像について、元画像を分割してレンジブロックを作成するレンジブロック作成手段と、各元画像について、互いに重なりを許しながら複数の部分画像を切り出すことによって複数のドメインブロックを作成するドメインブロック作成手段と、各元画像内において、上記レンジブロックと最も似ているドメインブロックの、元画像内における座標を、元画像の特性を表す第1の特性値として算出する座標算出手段と、上記座標算出手段によって各元画像について算出された第1の特性値を要素として含む特徴ベクトルを元画像ごとに生成する特徴ベクトル生成手段と、複数の元画像について生成された上記特徴ベクトルを用いて自己組織化マップの学習を行うとともに、学習後の自己組織化マップにおける各元画像の帰属する素子の位置を決定する自己組織化マッピング手段と、上記自己組織化マップにおける各元画像の帰属する素子の位置に基づいて、各サムネイル画像の一覧画像内における表示位置を決定する画像配置手段と、を備えていることを特徴とする。   That is, the image display position determination device according to the present invention is an image display position determination device that determines a display position of each thumbnail image in a list image when a plurality of images are displayed as a list of thumbnail images. An image acquisition unit that acquires an original image that is an image, a range block creating unit that creates a range block by dividing the original image for each original image, and a plurality of partial images for each original image while allowing overlapping Domain block creating means for creating a plurality of domain blocks by cutting out, and in each original image, the coordinates of the domain block most similar to the range block in the original image A coordinate calculation means for calculating the characteristic value; and a first characteristic calculated for each original image by the coordinate calculation means. A feature vector generation unit that generates a feature vector including a value as an element for each original image, and learning of a self-organizing map using the above-described feature vector generated for a plurality of original images, and self-organization after learning Self-organizing mapping means for determining the position of the element to which each original image belongs in the map, and the display position of each thumbnail image in the list image based on the position of the element to which each original image belongs in the self-organizing map And an image arrangement means for determining the image quality.

自己組織化マップの学習では、複数の特徴ベクトルの中から任意に1つを選択し、これを入力ベクトルとして与えることによって、配列された各素子が有する重みベクトルを更新する。ここで、更新される素子は、入力ベクトルと最も類似度の高い(距離の近い)重みベクトルを有する素子(勝利素子)、及びその近傍の素子(近傍素子)である。そして、近傍素子の更新量は、通常、勝利素子の更新量よりも小さく設定される。このような学習を繰り返すことによって、自己組織化マップにおける隣接した素子同士は、類似の重みベクトルを有するようになる。   In learning of the self-organizing map, any one of a plurality of feature vectors is arbitrarily selected and given as an input vector, thereby updating a weight vector of each arranged element. Here, the elements to be updated are an element (victory element) having a weight vector having the highest similarity (close distance) to the input vector, and an element in the vicinity thereof (neighboring element). The update amount of the neighboring element is usually set smaller than the update amount of the winning element. By repeating such learning, adjacent elements in the self-organizing map have similar weight vectors.

上述した自己組織化マップの学習に、画像の特性を示す特性値を要素として含む特徴ベクトルを用い、学習後の自己組織化マップの素子に画像を特徴ベクトルに基づいて帰属させることによって、画像のクラスタリングを行うことができる。その結果、隣接する素子に帰属する画像同士は、類似の特徴ベクトルを有した画像、すなわち類似の画像となる。よって、画像配置手段によって、類似した画像が近接して配置されることになる。以上のように、本発明に係る画像表示位置決定装置は、ユーザがどの位置にどのような画像が表示されているかを把握しやすいように画像を配置することができる。   In the learning of the self-organizing map described above, a feature vector including a characteristic value indicating the characteristic of the image is used as an element, and the image is attributed to the element of the self-organizing map after learning based on the feature vector. Clustering can be performed. As a result, images belonging to adjacent elements are images having similar feature vectors, that is, similar images. Therefore, similar images are arranged close to each other by the image arrangement means. As described above, the image display position determination device according to the present invention can arrange an image so that the user can easily grasp what image is displayed at which position.

ここで、本発明では、画像の特性を示す特性値として、画像内における自己相似性に着目している。なお、上記の「レンジブロックと最も似ているドメインブロック」とは、このドメインブロックをレンジブロックと同じサイズになるように調整し、さらに必要に応じて回転させた画像と、レンジブロックとの間において、各画素の輝度の差に基づいた非類似度が、他のドメインブロックに比べて最も小さいものをいう。   Here, in the present invention, attention is paid to self-similarity in an image as a characteristic value indicating the characteristic of the image. Note that the above "domain block most similar to the range block" means that the domain block is adjusted so that it is the same size as the range block, and further rotated as necessary between the range block and the range block. The dissimilarity based on the difference in luminance of each pixel is the smallest compared to other domain blocks.

一般に類似の(例えば、含まれる被写体が同じものである)画像同士の場合、あるレンジブロックに最も似ているドメインブロックの位置も類似する傾向にある。よって、レンジブロックと似ているドメインブロックが画像内のどの位置に存在するかに基づいて、画像の類似性を判定することができる。これにより、複数の類似画像群に含まれる多くの画像を、個々の類似画像群に分類(クラスタリング)する際に、精確に分類することができる。   In general, when the images are similar (for example, the included subjects are the same), the position of the domain block most similar to a certain range block tends to be similar. Therefore, the similarity of images can be determined based on the position in the image where a domain block similar to the range block exists. Thereby, many images included in a plurality of similar image groups can be accurately classified when they are classified (clustered) into individual similar image groups.

また、このような自己相似性は、画像が各種圧縮方式で圧縮され、ノイズが含まれている場合などにおいても比較的保存される傾向がある。よって、様々な品質の画像について類似性を精確に判定することができる。   Such self-similarity tends to be relatively preserved even when an image is compressed by various compression methods and includes noise. Therefore, similarity can be accurately determined for images of various qualities.

また、上記画像表示位置決定装置は、各元画像において、上記レンジブロックに含まれる各画素の輝度の平均値を、元画像の特性を表す第2の特性値として算出するレンジブロック輝度算出手段をさらに備え、上記特徴ベクトル生成手段が、各元画像について生成する上記特徴ベクトルに、上記レンジブロック輝度算出手段によって各元画像について算出された第2の特性値を、要素としてさらに含めることが好ましい。   Further, the image display position determination device includes range block luminance calculation means for calculating an average value of luminance of each pixel included in the range block as a second characteristic value representing the characteristic of the original image in each original image. In addition, it is preferable that the feature vector generated by the feature vector generation unit further includes, as an element, the second characteristic value calculated for each original image by the range block luminance calculation unit.

上記構成によれば、上述した画像内における自己相似性に加えて、画像中の特定領域の輝度にも基づいて画像の類似性を判定することができる。よって、画像の類似性の判定を一層精確にすることができる。   According to the above configuration, in addition to the above-described self-similarity in an image, the similarity of images can be determined based on the luminance of a specific area in the image. Therefore, the determination of the similarity of images can be made more accurate.

また、上記画像表示位置決定装置は、各元画像において、上記レンジブロックと最も似ているドメインブロックに含まれる各画素の輝度の平均値を、元画像の特性を表す第3の特性値として算出するドメインブロック輝度算出手段をさらに備え、上記特徴ベクトル生成手段が、各元画像について生成する上記特徴ベクトルに、上記ドメインブロック輝度算出手段によって各元画像について算出された第3の特性値を、要素としてさらに含めることが好ましい。   Further, the image display position determination device calculates an average value of luminance of each pixel included in a domain block most similar to the range block as a third characteristic value representing the characteristic of the original image in each original image. Domain block luminance calculating means, and the feature vector generating means adds the third characteristic value calculated for each original image by the domain block luminance calculating means to the feature vector generated for each original image. It is preferable to further include.

上記構成によれば、レンジブロックに最も似ているドメインブロックの位置情報に加えて、このドメインブロックの輝度にも基づいて画像の類似性を判定することができる。よって、画像の類似性の判定を一層精確にすることができる。   According to the above configuration, the similarity of images can be determined based on the luminance of the domain block in addition to the position information of the domain block most similar to the range block. Therefore, the determination of the similarity of images can be made more accurate.

また、上記画像表示位置決定装置は、各元画像において、(a)上記レンジブロックと、(b)そのレンジブロックと最も似ているドメインブロックに基づき、かつ上記レンジブロックとサイズが同じであるサイズ調整ドメインブロックと、の非類似度を、元画像の特性を表す第4の特性値として算出する非類似度算出手段をさらに備え、上記特徴ベクトル生成手段が、各元画像について生成する上記特徴ベクトルに、上記非類似度算出手段によって各元画像について算出された第4の特性値を、要素としてさらに含めることが好ましい。   In addition, the image display position determination device is configured such that, in each original image, (a) the range block and (b) a size that is based on a domain block that is most similar to the range block and that is the same size as the range block. Dissimilarity calculating means for calculating the dissimilarity with the adjustment domain block as a fourth characteristic value representing the characteristics of the original image, further comprising the feature vector generated by the feature vector generating means for each original image It is preferable that the fourth characteristic value calculated for each original image by the dissimilarity calculating means is further included as an element.

上記構成によれば、レンジブロックに最も似ているドメインブロックの位置情報に加えて、レンジブロックと、これと相似なドメインブロックとが、どの程度異なっているかを指標として画像の特性を表現することができるようになる。よって、この非類似度にも基づいて画像を判定することにより、判定結果が一層正確になる。   According to the above configuration, in addition to the position information of the domain block that is most similar to the range block, the characteristics of the image are expressed using as an index how much the range block differs from the similar domain block. Will be able to. Therefore, the determination result becomes more accurate by determining the image based on this dissimilarity.

また、上記ドメインブロック作成手段が、上記レンジブロックと同じサイズのドメインブロックを作成してもよい。   Further, the domain block creating means may create a domain block having the same size as the range block.

上記構成によれば、レンジブロックとドメインブロックとの大きさが同じであるため、レンジブロックと最も似ているドメインブロックを求める際に、レンジブロックと合同なドメインブロックを求めればよいことになる。そのようなドメインブロックを求める際には、ブロックの拡大又は縮小の変換処理をする必要がないため、計算量を削減することができるようになる。よって、サムネイル画像の表示位置を迅速に決定することができるようになる。   According to the above configuration, since the size of the range block and the domain block is the same, when determining the domain block most similar to the range block, a domain block congruent with the range block may be determined. When obtaining such a domain block, it is not necessary to perform conversion processing for enlargement or reduction of the block, so that the amount of calculation can be reduced. Therefore, the display position of the thumbnail image can be determined quickly.

また、上記レンジブロック作成手段が、各元画像のサイズと実質的に比例したサイズを有するレンジブロックを作成し、上記ドメインブロック作成手段が、各元画像のサイズと実質的に比例した画素数でずらしながら、各元画像のサイズと実質的に比例したサイズを有する部分画像を切り出すことによって、ドメインブロックを作成することが好ましい。   Further, the range block creating means creates a range block having a size substantially proportional to the size of each original image, and the domain block creating means has a number of pixels substantially proportional to the size of each original image. It is preferable to create a domain block by cutting out a partial image having a size substantially proportional to the size of each original image while shifting.

レンジブロックのサイズを元画像のサイズに比例させることによって、元画像におけるレンジブロックの占める割合は常に一定となる。よって、異なるサイズの元画像から作成されるレンジブロックの個数は常に一定となる。   By making the size of the range block proportional to the size of the original image, the proportion of the range block in the original image is always constant. Therefore, the number of range blocks created from different-size original images is always constant.

また、切り出しの際のずらし量を元画像のサイズに比例させることによって、得られるドメインブロックの個数も一定となる。さらに、ドメインブロックのサイズを画像のサイズに比例させることによって、元画像におけるドメインブロックの占める割合も一定となる。   Further, by making the shift amount at the time of clipping proportional to the size of the original image, the number of domain blocks obtained is also constant. Further, by making the size of the domain block proportional to the size of the image, the proportion of the domain block in the original image becomes constant.

以上のことから、入力に用いられる画像のサイズが一定していなくても、得られるレンジブロック及びドメインブロックの条件は一定となり、画像のサイズに依存しない類似性の判定を行うことができるようになる。   From the above, even if the size of the image used for input is not constant, the conditions of the obtained range block and domain block are constant, so that similarity determination independent of the image size can be performed. Become.

また、各元画像について生成される上記特徴ベクトルが、異なる複数のレンジブロックについて算出された上記特性値を要素として含み、上記自己組織化マッピング手段が、自己組織化マップの学習において勝利素子の探索を行う際に、上記特徴ベクトルに含まれる各レンジブロックについて算出された上記特性値に対して、そのレンジブロックの元画像内における位置に基づいて重み付けを行うことが好ましい。   Further, the feature vector generated for each original image includes the characteristic value calculated for a plurality of different range blocks as an element, and the self-organizing mapping means searches for a winning element in learning of the self-organizing map. It is preferable to weight the characteristic values calculated for each range block included in the feature vector based on the position of the range block in the original image.

上記構成によれば、特徴ベクトルが、異なるレンジブロックについての複数の特性値を含むことになる。ここで、自己組織化マップにおいて勝利素子の判定を行うために、特性値を含む入力ベクトルと重みベクトルとの非類似度の算出を行う際に、レンジブロックに基づいた重みを特性値に与えることによって、特定のレンジブロックについての非類似度を重点的に評価できるようになる。よって、重要であると考えられる領域について非類似度を重点的に評価することによって、類似性の判定を一層精確に行うことができる。   According to the above configuration, the feature vector includes a plurality of characteristic values for different range blocks. Here, in order to determine the winning element in the self-organizing map, when calculating the dissimilarity between the input vector including the characteristic value and the weight vector, a weight based on the range block is given to the characteristic value. Thus, the dissimilarity of a specific range block can be evaluated with priority. Therefore, similarity can be determined more accurately by preferentially evaluating the dissimilarity for a region considered to be important.

また、上記重み付けが、レンジブロックの位置と画像の中心との間の距離に応じたものであることが好ましい。   Moreover, it is preferable that the said weighting is a thing according to the distance between the position of a range block, and the center of an image.

通常、画像において、被写体は画像の中心付近に配置される傾向にある。従って、上記構成によれば、類似性の判定において重要なレンジブロックについての非類似度の評価を重点的に行うことができるため、類似性の判定を一層精確に行うことができる。   Usually, in an image, the subject tends to be placed near the center of the image. Therefore, according to the above-described configuration, it is possible to focus on the evaluation of the dissimilarity with respect to the range block that is important in the similarity determination, so that the similarity determination can be performed more accurately.

また、上記画像取得部が、画像内における被写体の位置を示す被写体位置データをさらに取得し、上記重み付けが、レンジブロックの位置と、上記被写体位置データによって示される画像内における被写体の位置との間の距離に応じたものであってもよい。   Further, the image acquisition unit further acquires subject position data indicating the position of the subject in the image, and the weighting is between the position of the range block and the position of the subject in the image indicated by the subject position data. It may be in accordance with the distance.

上記構成によれば、類似性の判定において重要視するべき被写体の周辺のレンジブロックについての非類似度の評価を重点的に行うことができるため、類似性の判定が一層精確になる。   According to the above-described configuration, since the dissimilarity evaluation can be focused on the range blocks around the subject that should be regarded as important in the similarity determination, the similarity determination becomes more accurate.

また、上記元画像が、撮像によって作成されたものであり、上記元画像を撮像した際の環境を示す撮像環境データを取得する撮像環境データ取得部と、上記撮像環境データに基づいて、元画像を非階層的な複数のグループに分類する非階層的分類手段と、をさらに備え、上記自己組織化マッピング手段が、上記の自己組織化マップの学習及び元画像の帰属する素子の位置の決定を、上記グループごとに行い、上記画像配置手段が、一覧画像を上記グループに対応する部分領域に分割し、部分領域におけるサムネイル画像の表示位置を、上記自己組織化マップにおける元画像の帰属する素子の位置に基づいてグループごとに決定することによって、一覧画像における各サムネイル画像の表示位置を決定することが好ましい。   Further, the original image is created by imaging, an imaging environment data acquisition unit that acquires imaging environment data indicating an environment when the original image is captured, and the original image based on the imaging environment data Non-hierarchical classification means for classifying the image into a plurality of non-hierarchical groups, wherein the self-organizing mapping means learns the self-organizing map and determines the position of the element to which the original image belongs. The image placement unit divides the list image into partial areas corresponding to the group, and the display position of the thumbnail image in the partial area is determined by the element to which the original image belongs in the self-organizing map. It is preferable to determine the display position of each thumbnail image in the list image by determining for each group based on the position.

通常、画像を撮像する場合、画像を撮像した環境と撮像した画像に含まれる被写体とは、関係を有していることが多い。すなわち、同一の環境において撮像された画像には、互いに同一の被写体が含まれている可能性が高い。よって、撮像された画像を予め撮像環境に応じて分類しておくことによって、撮像した画像がその内容に応じて大雑把に分類されることになる。したがって、上記の特徴ベクトルを用いた自己組織化マップの学習だけでは効果的に分類できない画像が含まれていても、そのような画像を撮像環境に基づいて分類しておくことによって、類似しない画像が近接して配置されるのを回避することができる。   Usually, when an image is captured, the environment in which the image is captured and the subject included in the captured image often have a relationship. That is, there is a high possibility that images taken in the same environment include the same subject. Therefore, by classifying the captured images in advance according to the imaging environment, the captured images are roughly classified according to the contents. Therefore, even if an image that cannot be effectively classified only by learning the self-organizing map using the feature vector described above is included, an image that is not similar can be obtained by classifying such an image based on the imaging environment. Can be avoided from being placed in close proximity.

また、本発明に係る別の画像表示位置決定装置は、複数の画像をサムネイル画像によって一覧表示する際の一覧画像内における各サムネイル画像の表示位置を決定する画像表示位置決定装置であって、上記課題を解決するために、上記複数の画像である元画像を取得する画像取得部と、各元画像について、フラクタル画像符号化法によってIFSパラメタ値を算出する特性値算出手段と、複数の元画像の中から、順次2つの元画像の組み合わせを選択する画像選択手段と、上記画像選択手段によって組み合わせが選択された2つの元画像について、上記IFSパラメタ値に基づいて当該2つの元画像間の非類似度を算出する誤差値算出手段と、一覧画像内における各サムネイル画像の表示位置を、各サムネイル画像間の一覧画像内における距離が当該サムネイル画像に対応する元画像間の上記非類似度に応じた距離となるように決定するマッピング手段と、を備えていることを特徴とする。 Another image display position determining apparatus according to the present invention is an image display position determining apparatus that determines a display position of each thumbnail image in a list image when a plurality of images are displayed as a list by thumbnail images. In order to solve the problem, an image acquisition unit that acquires an original image that is the plurality of images, a characteristic value calculation unit that calculates an IFS parameter value for each original image by a fractal image encoding method, and a plurality of original images Image selection means for sequentially selecting a combination of two original images, and two original images for which the combination has been selected by the image selection means, based on the IFS parameter value. The error value calculation means for calculating the similarity and the display position of each thumbnail image in the list image indicate the distance in the list image between the thumbnail images. There, characterized in that it comprises a mapping means for determining to be a distance corresponding to the dissimilarity between the original image corresponding to the thumbnail image.

上記構成によれば、各サムネイル画像が配置された一覧画像において、画像間の非類似度がサムネイル画像間の距離に反映されることになる。よって、類似の元画像同士が、そのサムネイル画像によって近接した位置に配置される。以上のように、本発明の画像表示位置決定装置は、ユーザがどの位置にどのような画像が表示されているかを把握しやすいように画像を配置することができる。   According to the above configuration, the dissimilarity between images is reflected in the distance between thumbnail images in the list image in which the thumbnail images are arranged. Therefore, similar original images are arranged at positions closer to each other by the thumbnail images. As described above, the image display position determination device of the present invention can arrange an image so that the user can easily grasp what image is displayed at which position.

ここで、本発明では、画像の特性を示す特性値として、画像内における自己相似性に着目し、フラクタル画像符号化法によって算出されるIFSパラメタ値を用いている。このように、IFSパラメタ値を用いることによって、複数の類似画像群に含まれる多くの画像を、個々の類似画像群に分類(クラスタリング)する際に、精確に分類することができる。   Here, in the present invention, IFS parameter values calculated by the fractal image encoding method are used as characteristic values indicating the characteristics of the image, focusing on self-similarity in the image. Thus, by using the IFS parameter value, many images included in a plurality of similar image groups can be accurately classified when they are classified (clustered) into individual similar image groups.

また、このような自己相似性は、画像が各種圧縮方式で圧縮され、ノイズが含まれている場合などにおいても比較的保存される傾向がある。よって、様々な品質の画像について類似性を精確に判定することができる。   Such self-similarity tends to be relatively preserved even when an image is compressed by various compression methods and includes noise. Therefore, similarity can be accurately determined for images of various qualities.

また、上記画像表示位置決定装置は、上記画像選択手段によって選択された2つの元画像における一方の元画像のIFSパラメタ値を用いて他方の元画像を再構成して再構成画像を作成する再構成手段をさらに備え、上記誤差値算出手段が、上記他方の元画像と上記再構成画像との輝度の誤差値に基づいて、当該2つの元画像間における非類似度を算出することが好ましい。   Further, the image display position determination device reconstructs a reconstructed image by reconstructing the other original image using the IFS parameter value of one original image of the two original images selected by the image selection unit. Preferably, the image forming apparatus further includes a configuration unit, and the error value calculation unit calculates a dissimilarity between the two original images based on a luminance error value between the other original image and the reconstructed image.

上記構成によれば、再構成前後の画像における輝度の誤差値に基づいて、各画像間の非類似度を算出することができる。   According to the above configuration, the dissimilarity between the images can be calculated based on the luminance error value in the images before and after reconstruction.

ところで、上記画像表示位置決定装置の各手段は、ハードウェアで実現してもよいし、プログラムをコンピュータに実行させることによって実現してもよい。具体的には、本発明に係るプログラムは、コンピュータを上記各手段として動作させるプログラムであり、本発明に係る記録媒体には、当該プログラムが記録されている。   By the way, each unit of the image display position determination device may be realized by hardware, or may be realized by causing a computer to execute a program. Specifically, the program according to the present invention is a program that causes a computer to operate as each of the above means, and the program is recorded on a recording medium according to the present invention.

これらのプログラムがコンピュータによって実行されると、当該コンピュータは、上記画像表示位置決定装置の各手段として動作する。したがって、類似性を精確に判断し、ユーザがどの位置にどのような画像が表示されているかを把握しやすいように画像を配置することができる。   When these programs are executed by a computer, the computer operates as each unit of the image display position determination device. Therefore, it is possible to accurately determine the similarity and arrange the images so that the user can easily grasp what image is displayed at which position.

また、本発明に係る画像表示位置決定方法は、複数の画像をサムネイル画像によって一覧表示する際の一覧画像内における各サムネイル画像の表示位置を決定する画像表示位置決定方法であって、上記複数の画像である元画像を取得する画像取得工程と、各元画像について、元画像を分割してレンジブロックを作成するレンジブロック作成工程と、各元画像について、互いに重なりを許しながら複数の部分画像を切り出すことによって複数のドメインブロックを作成するドメインブロック作成工程と、各元画像内において、上記レンジブロックと最も似ているドメインブロックの、元画像内における座標を、元画像の特性を表す第1の特性値として算出する座標算出工程と、上記座標算出工程において各元画像について算出された第1の特性値を要素として含む特徴ベクトルを元画像ごとに生成する特徴ベクトル生成工程と、複数の元画像について生成された上記特徴ベクトルを用いて自己組織化マップの学習を行うとともに、学習後の自己組織化マップにおける各元画像の帰属する素子の位置を決定する自己組織化マッピング工程と、上記自己組織化マップにおける各元画像の帰属する素子の位置に基づいて、各サムネイル画像の一覧画像内における表示位置を決定する画像配置工程と、を含んでいることを特徴とする。   An image display position determination method according to the present invention is an image display position determination method for determining a display position of each thumbnail image in a list image when a plurality of images are displayed as a list of thumbnail images. An image acquisition process for acquiring an original image that is an image, a range block creation process for creating a range block by dividing the original image for each original image, and a plurality of partial images for each original image while allowing overlapping A domain block creating step of creating a plurality of domain blocks by cutting out, a first block representing the characteristics of the original image, in each original image, the coordinates of the domain block most similar to the range block in the original image A coordinate calculation step for calculating as a characteristic value, and a first characteristic calculated for each original image in the coordinate calculation step A feature vector generation step for generating a feature vector for each original image, and learning of a self-organizing map using the above-described feature vectors generated for a plurality of original images, and a self-organizing map after learning The self-organizing mapping step for determining the position of the element to which each original image belongs, and the display position of each thumbnail image in the list image based on the position of the element to which each original image belongs in the self-organizing map. And an image arrangement step to be determined.

自己組織化マップの学習に、画像の特性を示す特性値を要素として含む特徴ベクトルを用い、学習後の自己組織化マップの素子に画像を特徴ベクトルに基づいて帰属させることによって、画像のクラスタリングを行うことができる。その結果、隣接する素子に帰属する画像同士は、類似の特徴ベクトルを有した画像、すなわち類似の画像となる。よって、画像は位置工程において、類似した画像が近接して配置されることになる。以上のように、本発明に係る画像表示位置決定装置は、ユーザがどの位置にどのような画像が表示されているかを把握しやすいように画像を配置することができる。   For learning self-organizing maps, feature vectors containing characteristic values indicating the characteristics of the images are used as elements, and images are clustered by assigning images to the elements of the self-organizing map after learning based on the feature vectors. It can be carried out. As a result, images belonging to adjacent elements are images having similar feature vectors, that is, similar images. Therefore, similar images are arranged close to each other in the position process. As described above, the image display position determination device according to the present invention can arrange an image so that the user can easily grasp what image is displayed at which position.

ここで、本発明では、画像の特性を示す特性値として、画像内の自己相似性を利用している。一般に類似の(例えば、含まれる被写体が同じものである)画像同士の場合、あるレンジブロックと相似な関係にあるドメインブロックの位置も類似する傾向にある。従って、レンジブロックと最も似ているドメインブロックの位置に基づいて、画像の類似性を判定することができる。このような相似関係は、画像が各種圧縮方式で圧縮され、ノイズが含まれている場合などにおいても比較的保存される傾向がある。よって、様々な品質の画像について類似性を精確に判定することができる。   Here, in the present invention, the self-similarity in the image is used as the characteristic value indicating the characteristic of the image. In general, when the images are similar (for example, the included subjects are the same), the positions of the domain blocks that are similar to a certain range block tend to be similar. Therefore, the similarity of images can be determined based on the position of the domain block most similar to the range block. Such a similarity relationship tends to be relatively preserved even when an image is compressed by various compression methods and includes noise. Therefore, similarity can be accurately determined for images of various qualities.

また、本発明に係る別の画像表示位置決定方法は、複数の画像をサムネイル画像によって一覧表示する際の一覧画像内における各サムネイル画像の表示位置を決定する画像表示位置決定方法であって、上記課題を解決するために、上記複数の画像である元画像を取得する画像取得工程と、各元画像について、フラクタル画像符号化法によってIFSパラメタを算出する特性値算出工程と、複数の元画像の中から、順次2つの元画像の組み合わせを選択する画像選択工程と、上記画像選択工程において組み合わせが選択された2つの元画像について、上記IFSパラメタに基づいて当該2つの元画像間の非類似度を算出する誤差値算出工程と、一覧画像内における各サムネイル画像の表示位置を、各サムネイル画像間の一覧画像内における距離が当該サムネイル画像に対応する元画像間の上記非類似度に応じた距離となるように決定するマッピング工程と、を含んでいることを特徴とする。   Another image display position determination method according to the present invention is an image display position determination method for determining a display position of each thumbnail image in a list image when a plurality of images are displayed as a list of thumbnail images. In order to solve the problem, an image acquisition step of acquiring the original images as the plurality of images, a characteristic value calculation step of calculating an IFS parameter for each original image by a fractal image encoding method, and a plurality of original images An image selection step for sequentially selecting a combination of two original images, and two dissimilarities between the two original images based on the IFS parameter for the two original images selected in the image selection step. The error value calculation step for calculating the distance between the thumbnail images and the display position of each thumbnail image in the list image. Characterized in that it includes a mapping step of determining to be a distance corresponding to the dissimilarity between the original image corresponding to the thumbnail image.

上記構成によれば、各サムネイル画像が配置された一覧画像において、画像間の非類似度がサムネイル画像間の距離に反映されることになる。よって、類似の元画像同士が、そのサムネイル画像によって近接した位置に配置される。以上のように、本発明の画像表示位置決定装置は、ユーザがどの位置にどのような画像が表示されているかを把握しやすいように画像を配置することができる。   According to the above configuration, the dissimilarity between images is reflected in the distance between thumbnail images in the list image in which the thumbnail images are arranged. Therefore, similar original images are arranged at positions closer to each other by the thumbnail images. As described above, the image display position determination device of the present invention can arrange an image so that the user can easily grasp what image is displayed at which position.

ここで、本発明では、画像の特性を示す特性値として、画像内における自己相似性に着目し、フラクタル画像符号化法によって算出されるIFSパラメタ値を用いている。このように、IFSパラメタ値を用いることによって、複数の類似画像群に含まれる多くの画像を、個々の類似画像群に分類(クラスタリング)する際に、精確に分類することができる。   Here, in the present invention, IFS parameter values calculated by the fractal image encoding method are used as characteristic values indicating the characteristics of the image, focusing on self-similarity in the image. Thus, by using the IFS parameter value, many images included in a plurality of similar image groups can be accurately classified when they are classified (clustered) into individual similar image groups.

また、このような自己相似性は、画像が各種圧縮方式で圧縮され、ノイズが含まれている場合などにおいても比較的保存される傾向がある。よって、様々な品質の画像について類似性を精確に判定することができる。   Such self-similarity tends to be relatively preserved even when an image is compressed by various compression methods and includes noise. Therefore, similarity can be accurately determined for images of various qualities.

本発明に係る画像表示位置決定装置は、以上のように、元画像を取得する画像取得部と、各元画像について、元画像を分割してレンジブロックを作成するレンジブロック作成手段と、各元画像について、互いに重なりを許しながら複数の部分画像を切り出すことによって複数のドメインブロックを作成するドメインブロック作成手段と、各元画像内において、上記レンジブロックと最も似ているドメインブロックの、元画像内における座標を、元画像の特性を表す第1の特性値として算出する座標算出手段と、上記座標算出手段によって各元画像について算出された第1の特性値を要素として含む特徴ベクトルを元画像ごとに生成する特徴ベクトル生成手段と、複数の元画像について生成された上記特徴ベクトルを用いて自己組織化マップの学習を行うとともに、学習後の自己組織化マップにおける各元画像の帰属する素子の位置を決定する自己組織化マッピング手段と、上記自己組織化マップにおける各元画像の帰属する素子の位置に基づいて、各サムネイル画像の一覧画像内における表示位置を決定する画像配置手段と、を備えた構成となっている。   As described above, the image display position determination device according to the present invention includes an image acquisition unit that acquires an original image, a range block generation unit that generates a range block by dividing the original image for each original image, and each element Domain block creation means for creating a plurality of domain blocks by cutting out a plurality of partial images while allowing overlap with each other in the image, and in each original image, in the original image of the domain block that is most similar to the above range block For each original image, a coordinate calculation means for calculating the coordinates of the original image as a first characteristic value representing the characteristics of the original image, and a feature vector including the first characteristic value calculated for each original image by the coordinate calculation means as an element A self-organizing map using the feature vector generating means for generating the original image and the feature vector generated for a plurality of original images. Self-organizing mapping means for determining the position of the element to which each original image belongs in the self-organizing map after learning, and based on the position of the element to which each original image belongs in the self-organizing map And image arrangement means for determining the display position of each thumbnail image in the list image.

また、本発明に係る別の画像表示位置決定装置は、以上のように、各元画像について、フラクタル画像符号化法によってIFSパラメタ値を算出する特性値算出手段と、複数の元画像の中から、順次2つの元画像の組み合わせを選択する画像選択手段と、上記画像選択手段によって組み合わせが選択された2つの元画像について、上記IFSパラメタ値に基づいて当該2つの元画像間の非類似度を算出する誤差値算出手段と、一覧画像内における各サムネイル画像の表示位置を、各サムネイル画像間の一覧画像内における距離が当該サムネイル画像に対応する元画像間の上記非類似度に応じた距離となるように決定するマッピング手段と、を備えた構成となっている。   In addition, as described above, another image display position determination device according to the present invention includes a characteristic value calculation unit that calculates an IFS parameter value for each original image by a fractal image encoding method, and a plurality of original images. The dissimilarity between the two original images is determined based on the IFS parameter value for the image selection means for sequentially selecting the combination of the two original images and the two original images for which the combination is selected by the image selection means. The error value calculation means for calculating, and the display position of each thumbnail image in the list image, the distance in the list image between the thumbnail images is a distance according to the dissimilarity between the original images corresponding to the thumbnail image And mapping means for determining to be.

また、本発明に係る画像表示位置決定方法は、以上のように、上記複数の画像である元画像を取得する画像取得工程と、各元画像について、元画像を分割してレンジブロックを作成するレンジブロック作成工程と、各元画像について、互いに重なりを許しながら複数の部分画像を切り出すことによって複数のドメインブロックを作成するドメインブロック作成工程と、各元画像内において、上記レンジブロックと最も似ているドメインブロックの、元画像内における座標を、元画像の特性を表す第1の特性値として算出する座標算出工程と、上記座標算出工程において各元画像について算出された第1の特性値を要素として含む特徴ベクトルを元画像ごとに生成する特徴ベクトル生成工程と、複数の元画像について生成された上記特徴ベクトルを用いて自己組織化マップの学習を行うとともに、学習後の自己組織化マップにおける各元画像の帰属する素子の位置を決定する自己組織化マッピング工程と、上記自己組織化マップにおける各元画像の帰属する素子の位置に基づいて、各サムネイル画像の一覧画像内における表示位置を決定する画像配置工程と、を含んだ構成となっている。   In addition, as described above, the image display position determination method according to the present invention creates the range block by dividing the original image for each original image by acquiring the original image as the plurality of images. The range block creation step, the domain block creation step of creating a plurality of domain blocks by cutting out a plurality of partial images while allowing each other to overlap each other, and the most similar to the above range block in each original image A coordinate calculation step for calculating the coordinates of the domain block in the original image as a first characteristic value representing the characteristic of the original image, and the first characteristic value calculated for each original image in the coordinate calculation step as an element Generating a feature vector for each original image, and a feature vector generated for a plurality of original images. Is used to learn a self-organizing map, determine a position of an element to which each original image belongs in the self-organizing map after learning, and each original image in the self-organizing map. And an image arrangement step for determining the display position of each thumbnail image in the list image based on the position of the element to which it belongs.

また、本発明に係る別の画像表示位置決定方法は、以上のように、各元画像について、フラクタル画像符号化法によってIFSパラメタを算出する特性値算出工程と、複数の元画像の中から、順次2つの元画像の組み合わせを選択する画像選択工程と、画像選択工程において組み合わせが選択された2つの元画像について、IFSパラメタに基づいて当該2つの元画像間の非類似度を算出する誤差値算出工程と、一覧画像内における各サムネイル画像の表示位置を、各サムネイル画像間の一覧画像内における距離が当該サムネイル画像に対応する元画像間の上記非類似度に応じた距離となるように決定するマッピング工程と、を含んだ構成となっている。   Further, another image display position determination method according to the present invention, as described above, for each original image, a characteristic value calculation step of calculating an IFS parameter by a fractal image encoding method, and a plurality of original images, An image selection step for sequentially selecting a combination of two original images, and an error value for calculating the dissimilarity between the two original images based on the IFS parameter for the two original images for which the combination was selected in the image selection step The calculation step and the display position of each thumbnail image in the list image are determined such that the distance between the thumbnail images in the list image is a distance corresponding to the dissimilarity between the original images corresponding to the thumbnail images. And a mapping process.

従って、上述したように、画像を一覧表示するために各画像の表示位置を決定する際に、類似性を精確に判断し、ユーザがどの位置にどのような画像が表示されているかを把握しやすいようにサムネイル画像を配置することができるという効果を奏する。   Therefore, as described above, when determining the display position of each image in order to display a list of images, the similarity is accurately determined, and the user grasps what image is displayed at which position. There is an effect that thumbnail images can be arranged easily.

[実施形態1]
本発明に係る画像表示位置決定装置の一実施形態について図1から図9に基づいて説明すると以下の通りである。まず、本実施形態の概要について説明する。
[Embodiment 1]
An embodiment of the image display position determining apparatus according to the present invention will be described below with reference to FIGS. First, an outline of the present embodiment will be described.

〔概要〕
本実施形態の画像一覧表示装置1は、撮像した複数の画像のサムネイル画像を一覧表示するための装置である。ここで、撮像した画像を一覧表示する際に、画像一覧表示装置1は、撮像日時ごとに作成された自己組織化マップに基づいてサムネイル画像の表示位置を決定する。なお、自己組織化マップを作成する際の入力データ(特徴ベクトル)としては、フラクタル画像符号化法において各画像について算出されるIFSパラメタ値等を用いる。これにより、撮像した複数の画像は、同一日時グループに属する画像同士がひとまとまりになるように、かつ、グループ内では類似の画像同士が近接するように配置されることになる。このような画像一覧表示装置1の全体像を説明すると以下の通りである。
〔Overview〕
The image list display device 1 of this embodiment is a device for displaying a list of thumbnail images of a plurality of captured images. Here, when the captured images are displayed as a list, the image list display device 1 determines the display position of the thumbnail image based on the self-organizing map created for each imaging date and time. Note that, as input data (feature vector) when creating a self-organizing map, an IFS parameter value calculated for each image in the fractal image coding method or the like is used. As a result, the plurality of captured images are arranged so that the images belonging to the same date group are grouped together, and similar images are close to each other in the group. The overall image of such an image list display device 1 will be described as follows.

〔全体像〕
図1は、画像一覧表示装置1の機能ブロック図である。画像一覧表示装置1は、概略的には、画像表示位置決定部(画像表示位置決定装置)10、サムネイル画像生成部21、一覧画像生成部22、及び表示部20を備えている。
〔Overall picture〕
FIG. 1 is a functional block diagram of the image list display device 1. The image list display device 1 generally includes an image display position determination unit (image display position determination device) 10, a thumbnail image generation unit 21, a list image generation unit 22, and a display unit 20.

画像表示位置決定部10は、撮像した複数の画像のサムネイル画像を一覧表示する際の各サムネイル画像の表示位置を決定するためのものである。また、サムネイル画像生成部21は、撮像した画像に対応するサムネイル画像を生成するためのものである。通常、サムネイル画像は、撮像した画像(元画像)を縮小したものとなっているが、必ずしもこれに限定されず、元画像そのままであってもよい。一覧画像生成部22は、サムネイル画像群を一覧表示した一覧画像データを生成するためのものである。   The image display position determination unit 10 is for determining the display position of each thumbnail image when displaying a list of thumbnail images of a plurality of captured images. The thumbnail image generation unit 21 is for generating a thumbnail image corresponding to the captured image. Normally, the thumbnail image is a reduced image of the captured image (original image), but is not necessarily limited to this, and the original image may be used as it is. The list image generation unit 22 is for generating list image data displaying a list of thumbnail images.

表示部20は、一覧画像生成部20によって生成された一覧画像データに基づいて、一覧画像を表示するためのものである。なお、表示部20は、画像を表示できるものであれば特に限定されるものではなく、CRTディスプレイや液晶ディスプレイなどの表示装置、プロジェクタなどの投影装置、又はプリンタなどの印刷装置などの何れであってもよい。   The display unit 20 is for displaying a list image based on the list image data generated by the list image generation unit 20. The display unit 20 is not particularly limited as long as it can display an image, and may be any of a display device such as a CRT display or a liquid crystal display, a projection device such as a projector, or a printing device such as a printer. May be.

画像表示位置決定部10は、詳細には、撮像日時データ付き画像データ取得部(画像取得部、撮像環境データ取得部)11、特性値算出部12、特徴ベクトル生成部(特徴ベクトル生成手段)13、自己組織化マッピング部(自己組織化マッピング手段)14、画像配置部(画像配置手段)15、非階層的分類部(非階層的分類手段)16を備えている。   In detail, the image display position determination unit 10 includes an image data acquisition unit (image acquisition unit, imaging environment data acquisition unit) 11 with an imaging date and time data, a characteristic value calculation unit 12, and a feature vector generation unit (feature vector generation unit) 13. A self-organizing mapping unit (self-organizing mapping unit) 14, an image arrangement unit (image arrangement unit) 15, and a non-hierarchical classification unit (non-hierarchical classification unit) 16.

撮像日時データ付き画像データ取得部11は、ディジタルカメラなどによって撮像した複数の画像の画像データを、撮像日時データとともに取得するためのものである。   The image data acquisition unit 11 with imaging date / time data is for acquiring image data of a plurality of images captured by a digital camera or the like together with the imaging date / time data.

近年、ディジタルカメラ用の画像ファイル規格として、Exif(Exchange Image File Format)形式が用いられている。この形式によれば、撮像した画像の画像データを含む画像ファイルには、撮像したときの環境や条件に関する様々なタグ情報も同時に記録される。このタグ情報としては、例えば、画像のサイズ、圧縮モード、撮像日時、色空間情報、スペクトル感度、輝度、露出補正、被写体距離、被写体位置などが挙げられる。   In recent years, the Exif (Exchange Image File Format) format has been used as an image file standard for digital cameras. According to this format, in the image file including the image data of the captured image, various tag information related to the environment and conditions when the image is captured is recorded at the same time. Examples of the tag information include image size, compression mode, imaging date / time, color space information, spectral sensitivity, luminance, exposure correction, subject distance, subject position, and the like.

本実施形態の画像一覧表示装置1は、画像ファイルにタグ情報として含まれる撮像日時データを利用している。それゆえ、本実施形態では、画像データの取得及び撮像環境データの取得を単一の撮像日時データ付き画像データ取得部11で実現しているが、本発明はこれに限定されず、画像データの取得及び撮像環境データの取得を別の部材によって実現してもよい。また、撮像環境データについても、撮像日時に限定されるものではなく、例えば、上記のタグ情報のうちの好適なものを利用してもよい。   The image list display device 1 of the present embodiment uses imaging date / time data included as tag information in an image file. Therefore, in the present embodiment, the acquisition of the image data and the acquisition of the imaging environment data is realized by the single image data acquisition unit 11 with the imaging date / time data, but the present invention is not limited to this, and the image data Acquisition and acquisition of imaging environment data may be realized by another member. Also, the imaging environment data is not limited to the imaging date and time, and for example, a suitable piece of the tag information may be used.

撮像日時データ付き画像データ取得部(画像取得部)11のハードウェア構成としては、画像データを取得できるものであれば特に限定されるものではなく、固定ディスク又はリムーバブルディスクからデータを読み込むことのできる入出力インターフェースや、他の通信端末装置からLANを介してデータを読み込むことのできる入出力インターフェース、或いはディジタルカメラなどから画像データ及び撮像日時データを取り込むことのできる入力インターフェースなどを備えていればよい。   The hardware configuration of the image data acquisition unit (image acquisition unit) 11 with imaging date / time data is not particularly limited as long as image data can be acquired, and data can be read from a fixed disk or a removable disk. An input / output interface, an input / output interface that can read data from another communication terminal device via a LAN, or an input interface that can import image data and imaging date / time data from a digital camera or the like may be provided. .

特性値算出部12は、撮像日時データ付き画像データ取得部11によって画像データが取得された各画像について、画像の様々な特性を表す特性値を算出するためのものである。ここで、画像の特性を表す特性値としては特に限定されるものではなく、一般的な輝度値やパターン認識の分野で利用される慣用の各種パラメタ値などを用いることができるが、本実施形態の画像一覧表示装置1は、フラクタル画像符号化法において算出されるIFSパラメタ値などを用いている。なお、特性値の詳細については、後述する。   The characteristic value calculation unit 12 is for calculating characteristic values representing various characteristics of an image for each image whose image data has been acquired by the image data acquisition unit 11 with imaging date and time data. Here, the characteristic value representing the characteristic of the image is not particularly limited, and general luminance values and various commonly used parameter values used in the field of pattern recognition can be used. The image list display device 1 uses an IFS parameter value calculated in the fractal image encoding method. Details of the characteristic value will be described later.

特徴ベクトル生成部13は、特性値算出部12によって、各画像について求められた様々な特性値を要素として含む特徴ベクトルを生成し、これを、各画像の特徴を総合的に表す指標とする。この特徴ベクトルは、入力される各画像について1つずつ生成される。   The feature vector generation unit 13 generates a feature vector including various characteristic values obtained for each image by the characteristic value calculation unit 12, and uses this as an index that comprehensively represents the features of each image. One feature vector is generated for each input image.

非階層的分類手段(非階層的分類部)16は、画像データに付随する撮像環境データ(撮像日時データ)に基づいて、画像を非階層的なグループに分類するためのものである。   The non-hierarchical classification means (non-hierarchical classification unit) 16 is for classifying images into non-hierarchical groups based on imaging environment data (imaging date / time data) attached to the image data.

自己組織化マッピング手段(自己組織化マッピング部)14は、非階層的分類手段(非階層的分類部)16によって分類が行われたグループごとに、自己組織化マップの学習を行う。ここで、学習の際の入力データには、画像の特徴ベクトルが用いられる。そして、学習後の自己組織化マップにおける何れの素子に上記画像が帰属するかを決定する。   The self-organizing mapping means (self-organizing mapping section) 14 learns the self-organizing map for each group classified by the non-hierarchical classification means (non-hierarchical classification section) 16. Here, image feature vectors are used as input data for learning. Then, it is determined to which element in the self-organizing map after learning the image belongs.

画像配置手段(画像配置部)15は、自己組織化マップにおける画像の帰属する素子の位置と、上記グループとに基づいて、サムネイル画像の表示位置を決定するためのものである。   The image placement unit (image placement unit) 15 is for determining the display position of the thumbnail image based on the position of the element to which the image belongs in the self-organizing map and the group.

なお、特性値算出部12、非階層的分類部(非階層的分類手段)16、自己組織化マッピング部(自己組織化マッピング手段)14、画像配置部(画像配置手段)15は、CPU等の演算装置がROMやRAM等の記憶装置に格納されたプログラムコードを実行することで実現される機能ブロックである。   The characteristic value calculation unit 12, the non-hierarchical classification unit (non-hierarchical classification unit) 16, the self-organizing mapping unit (self-organizing mapping unit) 14, and the image arrangement unit (image arrangement unit) 15 are a CPU or the like. It is a functional block realized by an arithmetic device executing a program code stored in a storage device such as a ROM or a RAM.

次に、画像一覧表示装置1の概略的な動作について説明する。図2は、画像一覧表示装置1の動作を示す工程図である。また、図3は、画像一覧表示装置の表示方法のスキームを示す図である。   Next, a schematic operation of the image list display device 1 will be described. FIG. 2 is a process diagram showing the operation of the image list display device 1. FIG. 3 is a diagram showing a scheme of a display method of the image list display device.

まず、撮像日時データ付き画像データ取得部11が、固定ディスクやリムーバブルディスク、或いはLANなどを利用して、撮像した画像の画像データを撮像日時データとともに取得する(S1)。取得した画像データは、特性値算出部12及びサムネイル画像生成部21に送られる。また、取得した撮像日時データは、非階層分類部16に送られる。   First, the image data acquisition unit 11 with imaging date / time data acquires image data of the captured image together with the imaging date / time data using a fixed disk, a removable disk, or a LAN (S1). The acquired image data is sent to the characteristic value calculation unit 12 and the thumbnail image generation unit 21. The acquired imaging date / time data is sent to the non-hierarchical classification unit 16.

次に、非階層的分類部16が、撮像日時データに基づいて、撮像した画像を複数のグループに分類する(S2)。グループと画像との対応関係(どのグループにどの画像が所属するか)は、自己組織化マッピング部14に送られる。またその一方で、特性値算出部12が、各画像について、フラクタル符号化法に基づいて各種特性値を算出する(S3)。算出された特性値は、特徴ベクトル生成部13に送られる。なお、ステップS2及びS3の実行順序は逆であってもよい。   Next, the non-hierarchical classification unit 16 classifies the captured images into a plurality of groups based on the imaging date / time data (S2). The correspondence between the group and the image (which image belongs to which group) is sent to the self-organizing mapping unit 14. On the other hand, the characteristic value calculation unit 12 calculates various characteristic values for each image based on the fractal encoding method (S3). The calculated characteristic value is sent to the feature vector generation unit 13. Note that the execution order of steps S2 and S3 may be reversed.

次に、特徴ベクトル生成部13が、各画像について算出された各種特性値を要素として含む特徴ベクトルを画像ごとに生成する(S4)。   Next, the feature vector generation unit 13 generates a feature vector for each image including various characteristic values calculated for each image as elements (S4).

続いて、自己組織化マッピング部14が、ステップS2において作成されたグループごとに、自己組織化マップの学習を行う(S5)。このとき、自己組織化マップの入力データ(入力ベクトル)には、ステップS4において画像ごとに生成した特徴ベクトルを用いる。   Subsequently, the self-organizing mapping unit 14 learns the self-organizing map for each group created in step S2 (S5). At this time, the feature vector generated for each image in step S4 is used as input data (input vector) of the self-organizing map.

そして、各画像の特徴ベクトルが、作成した自己組織化マップに含まれる素子のうち、どの素子の有する重みベクトルと最も近いかを求め、各画像がどの素子に帰属するかを決定する(S6)。この処理は、全グループに対して行われる。そして、グループごとの自己組織化マップにおける画像の帰属する素子の位置関係情報は、画像配置部15に送られる。   Then, it is determined which element the feature vector of each image is closest to the weight vector of the elements included in the created self-organizing map, and determines which element each image belongs to (S6). . This process is performed for all groups. Then, the positional relationship information of the element to which the image belongs in the self-organizing map for each group is sent to the image placement unit 15.

続いて、画像配置部15が、画像の帰属する素子の位置情報とグループとに基づいて、画像の表示位置を決定する(S7)。決定された画像の表示位置の情報は、一覧画像生成部22に送られる。   Subsequently, the image placement unit 15 determines the display position of the image based on the position information of the element to which the image belongs and the group (S7). Information on the determined display position of the image is sent to the list image generation unit 22.

また、サムネイル画像生成部21は、撮像日時データ付き画像取得部11が取得した画像データに基づいて、各画像のサムネイル画像を生成する。生成したサムネイル画像のデータは、一覧画像生成部22に送られる。そして、一覧画像生成部22は、各画像のサムネイル画像を、画像配置部15によって決定された表示位置に配置した一覧画像を生成する。一覧画像のデータは表示部20に送られ、表示部20が一覧画像を表示する(S8)。   In addition, the thumbnail image generation unit 21 generates a thumbnail image of each image based on the image data acquired by the image acquisition unit 11 with imaging date and time data. The generated thumbnail image data is sent to the list image generation unit 22. Then, the list image generation unit 22 generates a list image in which the thumbnail images of each image are arranged at the display position determined by the image arrangement unit 15. The list image data is sent to the display unit 20, and the display unit 20 displays the list image (S8).

以上の処理により、撮像した画像が日時ごとにまとめられ、かつ、同一日時グループ内では類似する画像同士が近接して配置された一覧画像の表示を行うことができる。以下、非階層的分類部16、特性値算出部12、自己組織化マッピング部14、画像配置部15について詳述する。   Through the above processing, it is possible to display a list image in which captured images are grouped by date and time, and similar images are arranged close to each other in the same date and time group. Hereinafter, the non-hierarchical classification unit 16, the characteristic value calculation unit 12, the self-organizing mapping unit 14, and the image arrangement unit 15 will be described in detail.

〔非階層的分類部、非階層的分類工程〕
非階層的分類部16は、撮像環境データに基づいて画像をグループに分類するためのものである。
[Non-hierarchical classification, non-hierarchical classification process]
The non-hierarchical classification unit 16 is for classifying images into groups based on the imaging environment data.

通常、旅行などに行き写真を撮影する場合、複数の地点を順次移動しながら写真を撮影することが多い。この場合、同一の被写体を、略同一の時刻(又は日)に撮影することになる。逆に言えば、略同一の時刻に撮影された写真には、同一の被写体が含まれている傾向にある。従って、撮影した日時ごとに画像を複数のグループに分類すれば、同一のグループに含まれる画像同士には、同一の被写体が含まれている可能性が高くなると考えられる。   Usually, when traveling and taking a picture, the photograph is often taken while sequentially moving a plurality of points. In this case, the same subject is photographed at substantially the same time (or day). Conversely, photographs taken at approximately the same time tend to include the same subject. Therefore, if the images are classified into a plurality of groups for each shooting date and time, it is considered that the images included in the same group are more likely to contain the same subject.

上記の理由から、非階層的分類部16は、撮像した画像を日時に基づいて画像を分類する。グループへの具体的な分類方法としては、例えば、一日ごとに別個のグループに分類してもよいし、あるいは、さらに午前・午後でも別個のグループに分類してもよいし、さらには、一時間ごとに別個のグループに分類してもよい。また、上記の基準を、取得した画像の枚数に応じて調整してもよい。   For the above reason, the non-hierarchical classification unit 16 classifies the captured image based on the date and time. As a specific method for classifying into groups, for example, each day may be classified into separate groups, or may be further classified into separate groups in the morning / afternoon. You may classify into separate groups by time. Further, the above reference may be adjusted according to the number of acquired images.

なお、通常、画像を撮像する日時は、均一に分布するものではなく、特定の時間や日に偏在する傾向にある。例えば、週末が多かったり、深夜が少なかったりすることが考えられる。よって、グループに分類する際に用いられる閾値を上記のように一定の間隔で設定するかわりに、撮像された日時の分布に応じて閾値を動的に設定してもよい。これを実現するためには、撮像日時を説明変数として、周知慣用の手法でクラスタリングを行えばよい。なお、非階層的分類部16による分類の結果、画像は、非階層的なグループに分類される。そして、グループと画像との対応関係のデータは、自己組織化マッピング部14に送られる。   In general, the dates and times when images are captured are not uniformly distributed and tend to be unevenly distributed at specific times or days. For example, there may be many weekends or few late nights. Therefore, instead of setting the threshold value used when classifying into groups at regular intervals as described above, the threshold value may be set dynamically according to the distribution of the captured date and time. In order to realize this, clustering may be performed by a well-known and commonly used method using the imaging date and time as an explanatory variable. Note that as a result of classification by the non-hierarchical classification unit 16, the images are classified into non-hierarchical groups. Then, the data of the correspondence relationship between the group and the image is sent to the self-organizing mapping unit 14.

〔特性値算出部、特性値算出工程/特徴ベクトル生成部、特徴ベクトル生成工程〕
特性値算出部12は、撮像した全画像について、フラクタル画像符号化の際に用いられるIFSパラメタ値などの各種パラメタ値を画像の特性値として算出する。本発明者は、通常、画像の符号化に用いられるIFSパラメタやその類似のパラメタが、画像の特徴を表現するのに好適に利用できることを見出した。
[Characteristic Value Calculation Unit, Characteristic Value Calculation Step / Feature Vector Generation Unit, Feature Vector Generation Step]
The characteristic value calculation unit 12 calculates various parameter values such as IFS parameter values used for fractal image encoding as image characteristic values for all captured images. The inventor of the present invention has found that IFS parameters used for image encoding and similar parameters can be suitably used to express image characteristics.

フラクタル画像符号化法は、Jacquinによって提唱された手法である。その詳細は、(A. E. Jacquin, "Image coding based on fractal theory of iterated contractive iamge transformation," IEEE Trans. on Image Process., vol. 1, pp.18-30, Jan 1992.)に記載されており、本明細書ではこれを援用する。また、これに対して公知の改良を加えたものであってもよい。以下、フラクタル画像符号化法を用いた画像の特性値の算出方法を説明する。   The fractal image encoding method is a method proposed by Jacquin. The details are described in (AE Jacquin, "Image coding based on fractal theory of iterated contractive iamge transformation," IEEE Trans. On Image Process., Vol. 1, pp.18-30, Jan 1992.) This is incorporated herein. Further, a known improvement may be added to this. Hereinafter, a method for calculating an image characteristic value using the fractal image encoding method will be described.

図4は、特性値算出部12の詳細な構成を示す機能ブロック図である。特性値算出部12は、レンジブロック作成部(レンジブロック作成手段)31、ドメインブロック作成部(ドメインブロック作成手段)32、IFSパラメタ算出部(座標算出手段)33、レンジブロック輝度算出部(レンジブロック輝度算出手段)34、ドメインブロック輝度算出部(ドメインブロック輝度算出手段)35、非類似度算出部(非類似度算出手段)36を含んでいる。   FIG. 4 is a functional block diagram showing a detailed configuration of the characteristic value calculation unit 12. The characteristic value calculator 12 includes a range block generator (range block generator) 31, a domain block generator (domain block generator) 32, an IFS parameter calculator (coordinate calculator) 33, and a range block luminance calculator (range block). (Brightness calculating means) 34, domain block luminance calculating section (domain block luminance calculating means) 35, and dissimilarity calculating section (dissimilarity calculating means) 36.

図5は、フラクタル画像符号化法のスキームを示す図である。ここでは、IFSパラメタ値の算出対象となる画像fが、N×M画素からなるものとする。そして、画像fにおいて、座標(x,y)(x=1,2,…,N;y=1,2,…,M)における輝度を、f(x,y)とする。   FIG. 5 is a diagram showing a scheme of a fractal image encoding method. Here, it is assumed that the image f for which the IFS parameter value is calculated is composed of N × M pixels. In the image f, the luminance at coordinates (x, y) (x = 1, 2,..., N; y = 1, 2,..., M) is defined as f (x, y).

(手順1)
まず、画像fを、互いに重なり合わないB×B画素の分割画像R(i=1,2,…,n;n=[N/B]×[M/B])に分割する。なお、除算の結果、整数とならない場合は、小数点以下を切り捨てる。この分割画像Rをレンジブロックと呼ぶ。また、レンジブロックRに含まれる画素(x’,y’)(x’=1,2,…,B;y’=1,2,…,B)の輝度値を、fRi(x’,y’)とする。
(Procedure 1)
First, the image f is divided into B × B pixel divided images R i (i = 1, 2,..., N; n = [N / B] × [M / B]) that do not overlap each other. If the result of division does not result in an integer, the decimal part is rounded down. This divided image R i is called a range block. In addition, the luminance value of the pixel (x ′, y ′) (x ′ = 1, 2,..., B; y ′ = 1, 2,..., B) included in the range block R i is expressed as f Ri (x ′ , Y ′).

(手順2)
次に、画像fから、重なりを許し水平方向にδ、垂直方向にδずつずらしながら、2B×2B画素の部分画像D(j=1,2,…,m;m=[(N−2B+1)/δ]×[(M−2B+1)/δ])を切り出す。この部分画像Dをドメインブロックと呼ぶ。また、ドメインブロックDに含まれる画素(x’,y’)(x’=1,2,…,B;y’=1,2,…,B)の輝度値を、fDj(x’,y’)とする。
(Procedure 2)
Next, a partial image D j (j = 1, 2,..., M; m = [(N) of 2B × 2B pixels while being shifted from the image f by δ h in the horizontal direction and δ v in the vertical direction while allowing overlap. −2B + 1) / δ h ] × [(M−2B + 1) / δ v ]). This partial image D j is called a domain block. Further, the luminance value of the pixel (x ′, y ′) (x ′ = 1, 2,..., B; y ′ = 1, 2,..., B) included in the domain block D j is expressed as f Dj (x ′ , Y ′).

(手順3)
そして、各レンジブロックRに対して最良の近似を与える(換言すれば、各レンジブロックRの相似形に最も近い)ドメインブロックD(1≦k≦m)をそれぞれ求めるために、以下の手順3−1及び3−2を各レンジブロックについて行う。
(Procedure 3)
Then, in order to obtain a domain block D k (1 ≦ k ≦ m) that gives the best approximation for each range block R i (in other words, closest to the similar shape of each range block R i ), Steps 3-1 and 3-2 are performed for each range block.

(手順3−1)
まず、各ドメインブロックDを、B×B画素に縮小した縮小ドメインブロック(サイズ調整ドメインブロック)D’を求める。ここで、縮小ドメインブロックD’に含まれる画素(x’,y’)(x’=1,2,…,B;y’=1,2,…,B)の輝度値を、fD’j(x’,y’)とする。このとき、fD’j(x’,y’)は、次式に示す変換式によって求められる。
(Procedure 3-1)
First, a reduced domain block (size adjustment domain block) D ′ j obtained by reducing each domain block D j to B × B pixels is obtained. Here, the luminance value of the pixel (x ′, y ′) (x ′ = 1, 2,..., B; y ′ = 1, 2,..., B) included in the reduced domain block D ′ j is expressed as f D. Let 'j (x', y '). At this time, f Dj (x ′, y ′) is obtained by the conversion equation shown below.

ただし、   However,

ここで、θ(θ={0,π/2,π,3π/2[rad]})は回転角を表す。また、λ(λ={1,−1})は反転係数を表す。e,fは、回転や反転によって生じる座標のずれを補正するための値を表す。s,oは、それぞれ輝度変換値のスケーリング係数、オフセット係数を表す。なお、θ,λ,s,oの具体値は、次式で定義される誤差Eを最小にするときの値となる。   Here, θ (θ = {0, π / 2, π, 3π / 2 [rad]}) represents a rotation angle. Further, λ (λ = {1, −1}) represents an inversion coefficient. e and f represent values for correcting a shift in coordinates caused by rotation or inversion. s and o represent the scaling coefficient and offset coefficient of the luminance conversion value, respectively. The specific values of θ, λ, s, and o are values for minimizing the error E defined by the following equation.

上記の式(4)によって定義される誤差Eは、レンジブロックRに含まれる各画素の輝度値と縮小ドメインブロックD’に含まれる各画素の輝度値との差に基づいたものであり、レンジブロックRと縮小ドメインブロックDとの非類似度を示している。 The error E defined by the above equation (4) is based on the difference between the luminance value of each pixel included in the range block R i and the luminance value of each pixel included in the reduced domain block D ′ j . , The dissimilarity between the range block R i and the reduced domain block D j is shown.

(手順3−2)
手順3−1において求められた縮小ドメインブロックD’の中から、レンジブロックRに対して式(4)の誤差Eを最小にする縮小ドメインブロックD’opt(D’opt∈{D’,D’,…,D’})を探索する。そして、発見された縮小ドメインブロックD’optを与えるドメインブロックDoptの横方法及び縦方向の座標を表すパラメタx,y(以下、位置パラメタという)、このときの回転・反転を表すパラメタθ,λ、及び輝度変換値のスケーリングパラメタs,oがレンジブロックRに対するIFSパラメタとなる。以上により、ある画像における各レンジブロックについてのIFSパラメタ値の算出が完了する。
(Procedure 3-2)
Among the reduced domain blocks D ′ j obtained in the procedure 3-1, the reduced domain block D ′ opt (D ′ opt ∈ {D ′) that minimizes the error E of the equation (4) for the range block R i . 1 , D ′ 2 ,..., D ′ m }). Then, parameters x D , y D (hereinafter referred to as position parameters) representing the horizontal method and vertical coordinates of the domain block D opt giving the found reduced domain block D ′ opt , parameters representing rotation / inversion at this time theta, lambda, and scaling parameters s of luminance conversion value, o is the IFS parameter for range block R i. Thus, the calculation of the IFS parameter value for each range block in a certain image is completed.

ここで、各レンジブロックについて求められる上記のIFSパラメタ値の全てを画像の特性値として用いてもよいが、本実施形態では、計算量を削減する観点から、上記のIFSパラメタのうち、ドメインブロックの画像内における座標を示す位置パラメタx,yの値を特性値として用いることとする。この位置パラメタx,yの値は、請求項における第1の特性値に相当する。 Here, all of the above IFS parameter values obtained for each range block may be used as image characteristic values. However, in the present embodiment, from the viewpoint of reducing the amount of calculation, among the above IFS parameters, the domain block The values of the position parameters x D and y D indicating the coordinates in the image are used as characteristic values. The values of the position parameters x D and y D correspond to the first characteristic value in the claims.

なお、位置パラメタx,yの値は、レンジブロック1つにつき1組求められることになる。ここで、本実施形態では、位置パラメタx,yを、各画像に含まれるn個の全レンジブロックについて求めることとするが、本発明はこれに限定されるものではなく、n個のレンジブロックのうち、所定の位置にある所定の数のレンジブロックについてのみ位置パラメタx,yを求めてもよい。この場合、「所定の位置」とは、例えば、画像の中央や、画像の周縁部などを含む画像内の任意の好適な位置とすることができる。また、「所定の数」についても同様に、1からn個までの好適な数とすることができる。ただし、位置パラメタx,yを一部のレンジブロックについてのみ求める場合、上記の「所定の位置」及び「所定の数」は、全画像間で統一されている必要がある。 One set of position parameters x D and y D is obtained for each range block. Here, in the present embodiment, the position parameters x D and y D are obtained for all the n range blocks included in each image, but the present invention is not limited to this, and the n number of range blocks are determined. Among the range blocks, the position parameters x D and y D may be obtained only for a predetermined number of range blocks at a predetermined position. In this case, the “predetermined position” may be any suitable position in the image including, for example, the center of the image or the peripheral edge of the image. Similarly, the “predetermined number” can be a suitable number from 1 to n. However, when the position parameters x D and y D are obtained only for a part of the range blocks, the above “predetermined position” and “predetermined number” need to be unified among all images.

また、撮像した画像がカラー画像である場合には、画像に含まれる各画素の輝度を3つの色成分Y,Cb,Crに分解し、それぞれの色成分について上記の手順を実行することによって、色成分ごとに位置パラメタx,yの値を得ることが好ましい。この場合、レンジブロック1つにつき、各色成分についての3組の位置パラメタx,yの値が得られることになる。 Further, when the captured image is a color image, the luminance of each pixel included in the image is decomposed into three color components Y, Cb, and Cr, and the above procedure is executed for each color component. It is preferable to obtain the values of the position parameters x D and y D for each color component. In this case, for each range block, three sets of position parameters x D and y D for each color component are obtained.

なお、上記の各手順のうち、手順1はレンジブロック作成部31によって行われ、手順2はドメインブロック作成部32によって行われ、手順3はIFSパラメタ算出部33によって行われる。   Of the above-described procedures, procedure 1 is performed by the range block creation unit 31, procedure 2 is performed by the domain block creation unit 32, and procedure 3 is performed by the IFS parameter calculation unit 33.

また、本実施形態では、好ましい実施形態として、位置パラメタx,yの値以外に以下の特性値をさらに算出する。 In this embodiment, as a preferred embodiment, the following characteristic values are further calculated in addition to the values of the position parameters x D and y D.

まず、上記のレンジブロックRに含まれる各画素の輝度の平均値fave Riを、各レンジブロックについて算出する。なお、レンジブロックRに含まれる各画素の輝度の平均値fave Riの値は、次式によって算出することができる。 First, the average value f ave Ri of the luminance of each pixel included in the above range block R i, is calculated for each range block. The value of the average value f ave Ri of the luminance of pixels included in the range block R i can be calculated by the following equation.

また、各レンジブロックRについて求めた各ドメインブロックDoptに含まれる各画素の輝度の平均値fave Doptを算出する。なお、ドメインブロックDoptに含まれる各画素の輝度の平均値fave Doptの値は、次式によって算出することができる。 Further, an average value f ave Dopt of the luminance of each pixel included in each domain block D opt obtained for each range block R i is calculated. Note that the value of the average value f ave Dopt of the luminance of each pixel included in the domain block D opt can be calculated by the following equation.

さらに、上記の式(4)において求めた誤差Eを用いて、次式で定義されるERMSの値を各レンジブロックについて算出する。 Further, using the error E obtained in the above equation (4), the value of ERMS defined by the following equation is calculated for each range block.

ここで、fave Riの値は、請求項における第2の特性値に相当し、レンジブロック輝度算出部34によって算出される。また、fave Doptの値は、請求項における第3の特性値に相当し、ドメインブロック輝度算出部35によって算出される。また、ERMSの値は、請求項における第4の特性値に相当し、非類似度算出部36によって算出される。 Here, the value of f ave Ri corresponds to the second characteristic value in the claims, and is calculated by the range block luminance calculation unit 34. The value of f ave Dopt corresponds to the third characteristic value in the claims, and is calculated by the domain block luminance calculation unit 35. Further, the value of ERMS corresponds to the fourth characteristic value in the claims, and is calculated by the dissimilarity calculation unit 36.

なお、撮像した画像がカラー画像である場合には、画像に含まれる各画素の輝度を3つの色成分Y,Cb,Crに分解し、それぞれの色成分を有するレンジブロック及びドメインブロックについて上記の特性値を算出する。この場合、あるレンジブロックについて、上記の3つの特性値が3組得られることになる。   When the captured image is a color image, the luminance of each pixel included in the image is decomposed into three color components Y, Cb, and Cr, and the above-described range blocks and domain blocks having the respective color components are described above. Calculate the characteristic value. In this case, three sets of the above three characteristic values are obtained for a certain range block.

また、本実施形態では、全てのレンジブロックについて、fave Ri、fave Dopt、ERMSの値を求めることとするが、上述したように、一部のレンジブロックについてのみ求めてもよい。 In this embodiment, the values of f ave Ri , f ave Dopt , and E RMS are obtained for all range blocks. However, as described above, only some of the range blocks may be obtained.

このようにして求めた(モノクロ画像の場合は1組、カラー画像の場合は3組の)fave Ri、fave Dopt、ERMSを特性値として用いると以下の利点がある。すなわち、ドメインブロックの位置パラメタの値のみを画像の特性値として採用する場合、レンジブロックとドメインブロックとの位置関係が類似している画像同士は、後述する自己組織化マッピング工程において類似の画像であると認識される。しかしながら、ある2つの画像間でレンジブロックとドメインブロックとの位置関係が類似していても、そのような画像間で、レンジブロックの輝度やドメインブロックの輝度が異なっている場合がある。このような画像同士は実際には類似しているとはいえないが、位置パラメタの値のみを採用する場合は類似しているとみなされてしまう。 The use of f ave Ri , f ave Dopt , and E RMS as described above (one set for a monochrome image and three sets for a color image) have the following advantages. That is, when only the value of the position parameter of the domain block is adopted as the image characteristic value, images having similar positional relationships between the range block and the domain block are similar images in the self-organizing mapping process described later. It is recognized that there is. However, even if the positional relationship between the range block and the domain block is similar between two certain images, the luminance of the range block and the luminance of the domain block may be different between such images. Such images are not actually similar to each other, but are considered similar when only the position parameter value is adopted.

これに対して、画像の特性値として、各レンジブロックや各ドメインブロックの輝度fave Ri、fave Doptを採用することによって、上記の問題を解消することができる。 On the other hand, the above-mentioned problem can be solved by adopting the luminance values f ave Ri and f ave Dopt of each range block and each domain block as the characteristic value of the image.

また同様に、ERMSは、各レンジブロックに含まれる各画素の輝度値と、これに対応する縮小ドメインブロックの画素の輝度値との非類似度を表す指標である。よって、このERMSを採用することにより、それぞれのレンジブロックがドメインブロックと、どの程度相似していないか(すなわち非相似度)を、画像の特性として表現することができるようになる。 Similarly, E RMS is an index representing the degree of dissimilarity between the luminance value of each pixel included in each range block and the luminance value of the pixel of the reduced domain block corresponding thereto. Therefore, by adopting this ERMS , it is possible to express to what extent each range block is not similar to the domain block (that is, dissimilarity) as a characteristic of the image.

このように、fave Ri、fave Dopt、ERMSをさらに画像の特性値として用いることにより、画像の類似性を一層精確に推定できるようになる。 In this way, by using f ave Ri , f ave Dopt , and E RMS as image characteristic values, the similarity of images can be estimated more accurately.

ところで、上記の5つの特性値を算出する工程において、計算量を削減する観点から、レンジブロックのサイズとドメインブロックのサイズとを同一にしてもよい。これにより、ドメインブロックのサイズを変更することなく上述した縮小ドメインブロックを生成することができる。具体的には、上記の式(2)は、次式のように変更される。   By the way, in the step of calculating the above five characteristic values, the size of the range block and the size of the domain block may be the same from the viewpoint of reducing the amount of calculation. As a result, the above-described reduced domain block can be generated without changing the size of the domain block. Specifically, the above equation (2) is changed to the following equation.

また、上記の式(6)は、次式のように変更される。   Moreover, said Formula (6) is changed into the following formula.

また、撮像した画像の解像度(縦及び横の画素数)が画像によって異なっている場合には、位置パラメタx,yが画像の解像度に依存しないようにするために、画像ごとにレンジブロック及びドメインブロックのサイズを変更してもよい。具体的には、画像fのサイズが縦X,横Yである場合、レンジブロックのサイズを、縦:X/H、横:Y/V(単位はそれぞれ画素)とする。ただし、H及びVは定数とする。このようにすることによって、撮像した画像の解像度が異なっていても、得られるレンジブロックの数は常にH×V個になる。また、ドメインブロックのサイズについても同様に、レンジブロックの2倍とする場合は縦:2X/H、横:2Y/V(単位はそれぞれ画素)とし、レンジブロックと同じ場合は縦:X/H、横:Y/V(単位はそれぞれ画素)とする。さらに、ドメインブロックを切り出す際のずらし量、δ、δも画像のサイズに比例させる。これにより、得られるドメインブロックの数も一定になり、かつ、画像全体に対するドメインブロックの関係は、画像サイズが大きい場合であっても小さい場合であっても、常に一定となる。このように、レンジブロック及びドメインブロックを画像のサイズに応じて調整することにより、画像のサイズ(解像度)に依存しない類似度の判定を行うことができる。なお、除算の結果が整数でない場合は、切り捨て、切り上げなどの好適な方法を用いればよい。 In addition, when the resolution (number of vertical and horizontal pixels) of the captured image differs depending on the image, the range block for each image is used so that the position parameters x D and y D do not depend on the resolution of the image. In addition, the size of the domain block may be changed. Specifically, when the size of the image f i is the longitudinal X i, transverse Y i, the size of the range block, vertical: X i / H, the horizontal: the Y i / V (each unit is a pixel). However, H and V are constants. By doing in this way, even if the resolution of the captured image differs, the number of range blocks obtained is always H × V. Similarly, when the size of the domain block is twice as large as the range block, the length is 2X i / H and the width is 2Y i / V (units are pixels). When the size is the same as the range block, the length is X i / H, the horizontal: the Y i / V (each unit is a pixel). Further, the shift amounts δ h and δ v when cutting out the domain block are also proportional to the size of the image. As a result, the number of domain blocks obtained is also constant, and the relationship of domain blocks to the entire image is always constant regardless of whether the image size is large or small. As described above, by adjusting the range block and the domain block according to the size of the image, the similarity can be determined without depending on the size (resolution) of the image. If the result of division is not an integer, a suitable method such as rounding down or rounding up may be used.

また、後続の自己組織化マッピング工程において適切に類似度を判定できるように、算出された各値に対して、平均値や標準偏差に基づいて標準化を行ったものを特性値としてもよい。   Further, a characteristic value obtained by standardizing each calculated value based on an average value or a standard deviation may be used so that the similarity can be appropriately determined in the subsequent self-organizing mapping process.

以上のようにして画像ごとに各レンジブロックについて算出された特性値は、特徴ベクトル生成部13に送信される。特徴ベクトル生成部13は、各画像について算出された特性値のセットに含まれる各特性値を要素とする特徴ベクトルを生成する。一例を示すと、例えば、撮像した画像がモノクロ画像であり、分割して得られるレンジブロックが4×4=16個の場合、得られる特性値は、5×16=80個となる。よって、各画像の有する特徴ベクトルは80次元となる。また、撮像した画像がカラー画像で、レンジブロックの条件が上記と同じ場合、得られる特性値は、5×16×3=240個となる。よって、各画像の有する特徴ベクトルは、240次元となる。   The characteristic values calculated for each range block for each image as described above are transmitted to the feature vector generation unit 13. The feature vector generation unit 13 generates a feature vector having each characteristic value included in the set of characteristic values calculated for each image as an element. As an example, for example, when the captured image is a monochrome image and the number of range blocks obtained by division is 4 × 4 = 16, the obtained characteristic value is 5 × 16 = 80. Therefore, the feature vector of each image is 80 dimensions. If the captured image is a color image and the range block conditions are the same as described above, the obtained characteristic value is 5 × 16 × 3 = 240. Therefore, the feature vector of each image is 240 dimensions.

〔自己組織化マッピング手段、自己組織化マッピング工程〕
自己組織化マッピング部14は、非階層的分類部16によって作成されたグループごとに、そのグループに所属する画像を自己組織化マップによってクラスタリングする。
[Self-organizing mapping means, self-organizing mapping process]
For each group created by the non-hierarchical classification unit 16, the self-organizing mapping unit 14 clusters images belonging to the group using a self-organizing map.

自己組織化マップは、コホネンの提唱した教師無し競合学習型ニューラルネットワークモデルである。その詳細は、(T. Kohonen, "Self-organization and associative memory," Springer-Verlag, New York, 1989.)に記載されており、本明細書ではこれを援用する。また、これに対して公知の改良を加えたものであってもよい。   The self-organizing map is an unsupervised competitive learning type neural network model proposed by Kohonen. Details thereof are described in (T. Kohonen, “Self-organization and associative memory,” Springer-Verlag, New York, 1989.), which is incorporated herein by reference. Further, a known improvement may be added to this.

図6は、自己組織化マップのスキームを示す図である。自己組織化マップには、通常、2次元に配列された素子群を用いるが、その構成は図6に示すように素子群の層(map layer)とデータを入力する層(input layer)とからなっている。ここでデータを入力する層は、素子群の層に存在する全ての素子と結合しており、入力データを全ての素子に与えることが可能となっている。また、入力データには、上記特性値算出部12によって算出された特性値を要素とした特徴ベクトルを用いる。以下、入力に用いられる特徴ベクトルのことを入力ベクトルといい、xで表す。   FIG. 6 is a diagram showing a scheme of a self-organizing map. In the self-organizing map, an element group arranged in two dimensions is usually used. As shown in FIG. 6, the configuration is composed of an element group layer (map layer) and a data input layer (input layer). It has become. Here, the data input layer is coupled to all the elements existing in the element group layer, and the input data can be given to all the elements. In addition, a feature vector having the characteristic value calculated by the characteristic value calculation unit 12 as an element is used as input data. Hereinafter, a feature vector used for input is referred to as an input vector and is represented by x.

素子群の層における素子k(kはマップ上の素子を特定する番号であり、全素子数をK個とする)は、重みベクトルmを有している。ここで、重みベクトルmは、入力ベクトルと同次元、すなわち同じ個数の要素を持つベクトルである。 An element k in the element group layer (k is a number for identifying an element on the map, and the total number of elements is K) has a weight vector m k . Here, the weight vector m k is the same dimension as the input vector, that is, a vector having the same number of elements.

以下、自己組織化マップの学習について具体的に説明する。特に記載のない限り、各処理は自己組織化マッピング部14が行っているものとする。   Hereinafter, learning of the self-organizing map will be specifically described. Unless otherwise specified, it is assumed that each process is performed by the self-organizing mapping unit 14.

まず、全素子に対して、重みベクトルの各要素に任意のランダムな値を与える。そして、グループに所属する画像の中からランダムに1つを選択し、その画像の有する特徴ベクトルを入力ベクトルとして与え、自己組織化マップの学習を行う。   First, an arbitrary random value is given to each element of the weight vector for all elements. Then, one of the images belonging to the group is selected at random, the feature vector of the image is given as an input vector, and the self-organizing map is learned.

自己組織化マップの学習アルゴリズムは、(a)入力ベクトルxと最も類似する重みベクトルを有する素子(勝利素子)を求める類似性マッチングと、(b)その重みベクトルmとその近傍の素子の重みベクトルを、入力ベクトルxに近づける更新手続きと、からなる。 The learning algorithm of the self-organizing map includes (a) similarity matching for finding an element (winning element) having a weight vector most similar to the input vector x, and (b) the weight vector m k and the weights of neighboring elements. And an update procedure for bringing the vector close to the input vector x.

類似性マッチングでは、通常、入力ベクトルxと各素子の重みベクトルmとのユークリッド距離を算出し、その距離が最も小さい重みベクトルmを有する素子を勝利素子とする。これを数学的に表現すると、次式のようになる。 In similarity matching, usually, the Euclidean distance between the input vector x and the weight vector m k of each element is calculated, and the element having the smallest weight vector mc is determined as the winning element. This can be expressed mathematically as:

ただし、2重縦棒で括ったx−mは、入力ベクトルxと勝利素子の重みベクトルmとのユークリッド距離を表し、同様に、2重縦棒で括ったx−mは、入力ベクトルxと重みベクトルmとのユークリッド距離を表す。 However, the x-m c that enclosed in double vertical bars represent the Euclidean distance between the weight vector m c victory element and the input vector x, similarly, the x-m k that enclosed in double vertical bars, input It represents the Euclidean distance between the vector x and the weight vector m k .

そして、更新手続きでは、この勝利素子の重みベクトルmと、素子群の層において勝利素子の近傍にある素子(近傍素子)の重みベクトルmとを、入力ベクトルxに近づけるように更新する。これを数式で表現すると、次式のようになる。 Then, the update procedure, and the weight vector m c of the winning element, the weight vector m k of elements (in the vicinity elements) in the vicinity of the winner element in the layer of the element group is updated as close to the input vector x. This can be expressed by the following formula.

ただし、Nは、素子群の層における勝利素子及び近傍素子を要素とする部分集合を表し、αは正の学習パラメタを表す。なお、Nは、更新回数に依存して変化するものであり、通常、更新回数の増加に応じて小さくなるように設定されている。また、αは、更新回数及び勝利素子からの距離に依存して変化するものであり、通常、更新回数及び距離の増加に応じて小さくなるように設定されている。 Here, Nc represents a subset having the winning elements and neighboring elements in the element group layer as elements, and α represents a positive learning parameter. Note that Nc changes depending on the number of updates, and is normally set to decrease as the number of updates increases. In addition, α changes depending on the number of updates and the distance from the winning element, and is normally set to decrease as the number of updates and the distance increase.

この学習を繰り返すことによって、入力ベクトルx(すなわち、画像の特徴ベクトル)の分布を反映する重みベクトル群m(k=1,2,…,K)が生成される。換言すれば、重みベクトル群mは特徴ベクトルの分布を量子化したプロトタイプとなる。 By repeating this learning, a weight vector group m k (k = 1, 2,..., K) reflecting the distribution of the input vector x (that is, the feature vector of the image) is generated. In other words, the weight vector group m k is a prototype obtained by quantizing the distribution of feature vectors.

また、勝利素子の重みベクトルが更新される際に、近傍素子の重みベクトルも更新されるため、2次元に配列された素子群において、隣接する素子同士は類似の重みベクトルを有することになる。これにより、学習後の自己組織化マップは、入力データ空間(すなわち、画像の特徴ベクトル空間)の位相を反映したプロトタイプの集合を形成したものとなる。   In addition, when the weight vector of the winning element is updated, the weight vector of the neighboring element is also updated. Therefore, in the element group arranged two-dimensionally, adjacent elements have similar weight vectors. Thereby, the self-organizing map after learning forms a set of prototypes reflecting the phase of the input data space (that is, the feature vector space of the image).

最後に、学習後の自己組織化マップに対して、グループに属する各画像の特徴ベクトルを順次入力ベクトルとして与え、各画像がどの素子に帰属するかを決定する。ここで、帰属素子の決定方法は、上記の勝利素子の決定方法と同じである。なお、同一素子に複数の画像が帰属する場合は、帰属する複数の画像のうち、最も素子の有する重みベクトルと近い特徴ベクトルを有する画像をその素子に配置し、残りの画像はその近傍に配置する。これにより、同一の素子に複数の画像が配置されてしまうことを回避することができる。   Finally, the feature vector of each image belonging to the group is sequentially given as an input vector to the self-organizing map after learning to determine which element each image belongs to. Here, the determination method of the belonging element is the same as the determination method of the winning element. In addition, when multiple images belong to the same element, an image having a feature vector that is closest to the weight vector of the element is placed in that element, and the remaining images are placed in the vicinity thereof. To do. Thereby, it can be avoided that a plurality of images are arranged on the same element.

以上の処理を各グループについて行い、自己組織化マップにおける画像の帰属素子の位置関係を表すデータは、画像配置部15に送信される。   The above processing is performed for each group, and data representing the positional relationship of the belonging elements of the image in the self-organizing map is transmitted to the image placement unit 15.

なお、本実施形態では、好ましい実施形態として、勝利素子を求める類似性マッチングにおいて、上記複数の特性値に対して重み付けを行うこととする。具体的には、各レンジブロックについて算出された特性値のセットのそれぞれに対して、レンジブロックの位置に基づいた重み付けを行う。これに伴って、上述した類似性マッチングにおける式(8)が以下のように変更される。   In the present embodiment, as a preferred embodiment, weighting is performed on the plurality of characteristic values in similarity matching for obtaining a winning element. Specifically, weighting is performed on each set of characteristic values calculated for each range block based on the position of the range block. Along with this, Expression (8) in the similarity matching described above is changed as follows.

ただし、Tはベクトルの転置を表し、Wは対角成分が重み係数となっている対角行列を表す。上記の式(8’)は、入力ベクトルxと重みベクトルmとの各成分の差の自乗の総和(すなわち、入力ベクトルxと重みベクトルmとの距離の自乗)を算出する際に、自乗した各値に対して、レンジブロックの位置に基づいた重み係数を乗算し、得られる総和が最も小さくなる重みベクトルを有する素子を勝利素子とすることを意味している。なお、同一のレンジブロックについて求められた5つ(カラー画像の場合は15個)の特性値に対しては、同一の重み係数を乗算する。 However, T represents transposition of a vector, and W represents a diagonal matrix whose diagonal component is a weighting factor. The above formula (8 ') is, when calculating the sum of the squares of the difference of each component of the input vector x and weight vector m k (i.e., the square of the distance between the input vector x and weight vector m k), This means that each squared value is multiplied by a weighting factor based on the position of the range block, and an element having a weight vector with the smallest sum is obtained as a winning element. Note that five (15 in the case of a color image) characteristic values obtained for the same range block are multiplied by the same weight coefficient.

ここで、対角行列Wの対角成分(すなわち重み係数)は、画像の中心からレンジブロックまでの距離に基づいた値とすることができる。例えば、各画像のレンジブロックが4×4=16個の場合、各レンジブロックR(i=1,2,…,16)の座標(x,y)を図7のように定義し、重みwを、次式に示すガウス分布に基づいて設定してもよい。 Here, the diagonal component (that is, the weighting factor) of the diagonal matrix W can be a value based on the distance from the center of the image to the range block. For example, when there are 4 × 4 = 16 range blocks in each image, the coordinates (x i , y i ) of each range block R i (i = 1, 2,..., 16) are defined as shown in FIG. The weight w i may be set based on a Gaussian distribution represented by the following equation.

ただし、σは任意の好適な値である。   However, (sigma) is arbitrary suitable values.

上記の場合において、各画像の特徴ベクトル(すなわち入力ベクトルx)が、   In the above case, the feature vector of each image (ie, the input vector x) is

(ただし、上記のベクトルの各要素において、右肩についている数値はレンジブロックの番号を表す)であるとすると、式(8’)における対角行列Wは80行×80列となり、図8のようになる。 (However, in each element of the above vector, the numerical value on the right shoulder represents the number of the range block), the diagonal matrix W in the equation (8 ′) is 80 rows × 80 columns, and FIG. It becomes like this.

各レンジブロックについて求められた特性値に対して、レンジブロックの位置に基づいた重み付けを行うことには、以下の利点がある。通常、画像の中心には撮像対象となる被写体が含まれる傾向がある。よって、画像の類似性を判断する際には、被写体の存在する可能性が高い画像の中心付近を重点的に評価することが好ましい。上記の構成によれば、レンジブロックが画像の中心に近いほど重み係数wの値が大きくなるため、勝利素子の判定において、画像の中心領域に関する特性値がより重視されることになる。これにより、類似性の判断を一層精確に行うことができる。 The weighting based on the position of the range block with respect to the characteristic value obtained for each range block has the following advantages. Normally, there is a tendency that the subject to be imaged is included in the center of the image. Therefore, when judging the similarity of images, it is preferable to focus on the vicinity of the center of an image where there is a high possibility that a subject exists. According to the above configuration, the range block is the value of the higher weight coefficients w i close to the center of the image increases, in the determination of the winning element, so that the characteristic values for the central area of the image is more important. As a result, the similarity can be determined more accurately.

また、重みを、画像の中心からレンジブロックの位置までの距離ではなく、被写体の位置からレンジブロックの位置までの距離に基づいて与えてもよい。上述したように、Exif形式では、被写体位置のデータを画像ファイルに含めることもできる。よって、撮像環境データとして被写体位置データを取得しておけば、この被写体位置データが示す位置からレンジブロックまでの距離に基づいて重み付けを行うこともできる。このようにすることによって、類似性の判断を一層精確に行うことができる。   Further, the weight may be given based on the distance from the subject position to the range block position, not the distance from the center of the image to the range block position. As described above, in the Exif format, data on the subject position can be included in the image file. Therefore, if subject position data is acquired as imaging environment data, weighting can be performed based on the distance from the position indicated by the subject position data to the range block. By doing so, the similarity can be determined more accurately.

〔画像配置部、画像配置工程〕
画像配置部15は、一覧表示する際のサムネイル画像の表示位置を決定する。このとき、画像配置部15は、非階層的分類部16によって作成されたグループと、自己組織化マッピング部14において作成された、グループごとの自己組織化マップとに基づいて、位置を決定する。位置を決定するにあたっては、同一グループに所属する画像がひとまとまりになり、かつ、各グループ内では自己組織化マップに基づいて決定された位置関係になるようにすればよい。具体的には、例えば以下のように行うことができる。
[Image placement section, image placement process]
The image arrangement unit 15 determines the display position of the thumbnail image when displaying the list. At this time, the image arrangement unit 15 determines a position based on the group created by the non-hierarchical classification unit 16 and the self-organization map for each group created by the self-organization mapping unit 14. In determining the position, the images belonging to the same group may be grouped, and the positional relationship determined based on the self-organizing map in each group may be used. Specifically, for example, it can be performed as follows.

まず、画像を一覧表示する仮想的な表示領域を設定し、その表示領域をグループ数だけ分割する。そして、分割された各表示領域に、自己組織化マップに基づいた位置関係になるように、画像を配置する。   First, a virtual display area for displaying a list of images is set, and the display area is divided by the number of groups. Then, an image is arranged in each divided display area so as to have a positional relationship based on the self-organizing map.

そして、画像配置部15は、このようにして画像の配置が行われた一覧画像データを作成する。ここで、一覧表示される画像は、撮像した画像そのままであってもよいし、表示領域に収まるようにサイズを縮小した画像であってもよい。すなわち、一覧表示する際に用いるサムネイル画像は、元画像そのままであってもよいし、縮小(又は拡大)したものであってもよい。このようにして作成された一覧画像データは、表示部20に送られる。   Then, the image arrangement unit 15 creates list image data in which the images are arranged in this way. Here, the images displayed as a list may be captured images as they are, or may be images whose sizes are reduced so as to fit in the display area. In other words, the thumbnail images used when displaying the list may be the original images as they are or may be reduced (or enlarged). The list image data created in this way is sent to the display unit 20.

ここまで説明したように、本実施形態の画像一覧表示装置1は、画像を撮像した際の日時を示す撮像日時データが付随した画像データを取得する撮像日時データ付き画像データ取得部11と、撮像日時に基づいて画像をグループに分類する非階層的分類部16と、画像の特性を表す特性値を画像ごとに算出する特性値算出部12と、この特性値を要素として含む特徴ベクトルを画像ごとに生成する特徴ベクトル生成部13と、分類されたグループごとに、上記の特徴ベクトルに基づいて自己組織化マップを作成するとともに、作成した自己組織化マップにおける何れの素子に画像が帰属するかを決定する自己組織化マッピング部14と、帰属素子の位置と、グループとに基づいて、仮想的な表示領域における画像の表示位置を決定する画像配置部15と、を備えている。   As described so far, the image list display device 1 of the present embodiment includes the image data acquisition unit 11 with imaging date / time data that acquires image data accompanied by imaging date / time data indicating the date and time when the image was captured, and imaging. A non-hierarchical classification unit 16 that classifies images into groups based on the time of day, a characteristic value calculation unit 12 that calculates a characteristic value that represents the characteristics of the image for each image, and a feature vector that includes this characteristic value as an element for each image A feature vector generation unit 13 to generate a self-organization map for each classified group based on the above-described feature vector, and to which element in the generated self-organization map the image belongs Based on the self-organizing mapping unit 14 to be determined, the position of the belonging element, and the group, the image layout for determining the display position of the image in the virtual display area And parts 15, and a.

自己組織化マップによれば、特徴ベクトルが類似する画像同士は、近接した位置に配置される。従って、類似の画像同士が近い位置に表示された一覧画像を得ることができる。さらに、撮像日時によって画像をグループに分類するため、同一のグループに属する画像は、同一の被写体が含まれる可能性が高くなる。ここで、同一のグループに所属する画像同士は、ひとかたまりとなるように配置されるので、類似の画像がかたまって表示された一覧画像を得ることができる。よって、ユーザは、撮像した数多くの画像を一覧した際に、どこにどのような画像が存在しているかを容易に把握できるようになる。   According to the self-organizing map, images having similar feature vectors are arranged at close positions. Therefore, it is possible to obtain a list image in which similar images are displayed at close positions. Furthermore, since images are classified into groups according to the shooting date and time, images belonging to the same group are more likely to contain the same subject. Here, since the images belonging to the same group are arranged as a group, it is possible to obtain a list image in which similar images are gathered and displayed. Therefore, the user can easily grasp where and what images exist when listing a large number of captured images.

〔変形例・その他〕
上記の実施形態では、撮像環境データとして撮像日時データを用いた例を説明した。しかしながら、撮像日時データの代わりに、撮像した場所に関する撮像場所データを用いてもよい。図9は、撮像場所の分布を示した図である。
[Modifications / Others]
In the above embodiment, an example in which imaging date / time data is used as imaging environment data has been described. However, instead of the imaging date / time data, imaging location data relating to the imaging location may be used. FIG. 9 is a diagram showing the distribution of imaging locations.

近年では、画像データを格納する画像ファイルに、タグ情報としてGPS(Global Positioning System)による測定情報を格納することも可能になっている。GPSによれば、撮像した場所の緯度及び経度、並びに撮像者の移動速度、進行方向等を測定することができる。これらのうち、撮像した場所の緯度及び経度を用いて画像を分類することができる。   In recent years, measurement information by GPS (Global Positioning System) can be stored as tag information in an image file storing image data. According to GPS, it is possible to measure the latitude and longitude of the place where the image was taken, the moving speed of the photographer, the traveling direction, and the like. Of these, images can be classified using the latitude and longitude of the imaged location.

この場合、各画像を撮像した場所の緯度及び経度を、撮像環境データとして画像データ取得部11が取得し、取得した緯度及び経度に基づいて非階層的分類部16が画像を複数のグループに分類する。ここで、複数のグループに分類する方法としては、非階層的なクラスターに分類できる周知慣用の各種手法を用いることができ、例えば、k−means法などを用いることができる。これにより、画像を撮像した場所を、図9に示すように複数のグループに分類することができる。そして、撮像した場所が帰属するグループを、画像の所属するグループとすればよい。   In this case, the image data acquisition unit 11 acquires the latitude and longitude of the place where each image was captured as imaging environment data, and the non-hierarchical classification unit 16 classifies the images into a plurality of groups based on the acquired latitude and longitude. To do. Here, as a method of classifying into a plurality of groups, various well-known various methods that can be classified into non-hierarchical clusters can be used, and for example, a k-means method or the like can be used. Thereby, the place where the image was captured can be classified into a plurality of groups as shown in FIG. Then, the group to which the imaged location belongs may be the group to which the image belongs.

通常、有名な建築物を撮像する場合や、展望台等から景色を撮像する場合には、略同一の場所において複数の画像を撮像することが多い。従って、撮像ポイントは、あらゆる緯度及び経度に均一に分布するのではなく、特定の領域に偏在する傾向にある。同時に、略同一の場所で撮像した画像には、同一の被写体が含まれている可能性が高い。よって、画像を撮像場所に基づいて複数のグループに分類することにより、類似した画像を近接して配置することを、一層精確に行うことができる。   Usually, when a famous building is imaged or a landscape is imaged from an observation deck or the like, a plurality of images are often captured at substantially the same place. Therefore, the imaging points are not uniformly distributed at every latitude and longitude, but tend to be unevenly distributed in a specific region. At the same time, there is a high possibility that the same subject is included in images taken at substantially the same place. Therefore, by classifying the images into a plurality of groups based on the imaging location, it is possible to more accurately place similar images close to each other.

なお、画像表示位置決定装置において、一覧表示するために取得する画像データは、撮像した画像のデータに限定されず、人工的に生成された画像のデータであってもよい。さらに、上記画像データは、静止画像のデータに限定されるものでもなく、動画データであってもよい。この場合、例えば、動画の先頭の1コマに相当する静止画像データを抽出し、これについて上述した各処理を行うことによって、動画のインデキシングを行うこともできる。   In the image display position determination device, the image data acquired to display a list is not limited to captured image data, and may be artificially generated image data. Furthermore, the image data is not limited to still image data, and may be moving image data. In this case, for example, moving image indexing can be performed by extracting still image data corresponding to the first frame of the moving image and performing the above-described processes on the extracted still image data.

また、上記の実施形態では、画像取得部及び撮像環境データ取得部は、一体化した撮像環境データ付き画像データ取得部11として構成されていたが、これらは別体になっていてもよい。この場合、撮像環境データは、画像データに付随されているものに限定されることはない。例えば、画像取得部がスキャナなどからデータを取り込む入力インターフェースを備えるとともに、撮像環境データ取得部がキーボードやマウスなどからデータを取り込む入力インターフェースを備えており、画像データをスキャナから取得し、撮像環境データ(日時データ、撮像場所データなど)をユーザによる入力よって別途取得する構成としてもよい。   Moreover, in said embodiment, although the image acquisition part and the imaging environment data acquisition part were comprised as the integrated image data acquisition part 11 with imaging environment data, these may be separate. In this case, the imaging environment data is not limited to that attached to the image data. For example, the image acquisition unit includes an input interface that captures data from a scanner, and the imaging environment data acquisition unit includes an input interface that captures data from a keyboard, a mouse, or the like. (Date / time data, imaging location data, etc.) may be separately acquired by user input.

最後に、画像表示位置決定部10の各ブロック、特に特性値算出部12、非階層的分類部16、自己組織化マッピング部14、及び画像配置部15は、ハードウェアロジックによって構成してもよいし、CPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the image display position determination unit 10, in particular, the characteristic value calculation unit 12, the non-hierarchical classification unit 16, the self-organizing mapping unit 14, and the image arrangement unit 15 may be configured by hardware logic. However, it may be realized by software using a CPU.

CPUを用いてソフトウェアによって実現する場合、画像表示位置決定部10は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラム、及び各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、上述した機能を実現するソフトウェアである画像表示位置決定部10の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記画像表示位置決定部10に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、本発明の目的を達成することができる。   When implemented by software using a CPU, the image display position determination unit 10 includes a CPU (central processing unit) that executes instructions of a control program that implements each function, a ROM (read only memory) that stores the program, and the above A RAM (random access memory) for expanding the program, a storage device (recording medium) such as a memory for storing the program and various data, and the like are provided. A recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the image display position determination unit 10 which is software for realizing the functions described above is recorded so as to be readable by a computer is recorded on the image display. The object of the present invention can also be achieved by supplying to the position determination unit 10 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、画像表示位置決定部10を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the image display position determination unit 10 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

[実施形態2]
本発明に係る画像表示位置決定装置の他の実施形態について図16から図20に基づいて説明すると以下の通りである。なお、上述した実施形態1と同様の部分については説明を省略する。まず、本実施形態の概要について説明する。
[Embodiment 2]
Another embodiment of the image display position determining apparatus according to the present invention will be described below with reference to FIGS. Note that a description of the same parts as those in the first embodiment will be omitted. First, an outline of the present embodiment will be described.

〔概要〕
本実施形態の画像一覧表示装置2は、複数の画像のサムネイル画像を一覧表示するための装置である。本実施形態では、撮像した画像を一覧表示する際に、まず複数の画像の中から2つの画像を取り出し、その画像同士の非類似度を算出する。そして、この非類似度の算出を全ての画像の組み合せについて行う。その後、2次元の表示領域に複数の画像を配置する。このとき、表示領域における各サムネイル画像同士の距離が、算出した非類似度に応じた距離になるように配置する。これにより、類似していない画像同士が離れた位置に配置され、類似する画像同士が近接して配置される。なお、画像間の非類似度の算出には、上述したフラクタル画像符号化法によって算出されるIFSパラメタ値を用いる。
〔Overview〕
The image list display device 2 of the present embodiment is a device for displaying a list of thumbnail images of a plurality of images. In this embodiment, when displaying a list of captured images, first, two images are extracted from a plurality of images, and the dissimilarity between the images is calculated. The dissimilarity is calculated for all image combinations. Thereafter, a plurality of images are arranged in the two-dimensional display area. At this time, it arrange | positions so that the distance of each thumbnail image in a display area may become the distance according to the calculated dissimilarity. Thereby, dissimilar images are arranged at positions separated from each other, and similar images are arranged close to each other. Note that the IFS parameter value calculated by the above-described fractal image encoding method is used to calculate the dissimilarity between images.

〔全体像〕
図16は、画像一覧表示装置2の機能ブロック図である。画像一覧表示装置2は、概略的には、画像表示位置決定部(画像表示位置決定装置)110、サムネイル画像生成部21、一覧画像生成部22、及び表示部20を備えている。
〔Overall picture〕
FIG. 16 is a functional block diagram of the image list display device 2. The image list display device 2 schematically includes an image display position determination unit (image display position determination device) 110, a thumbnail image generation unit 21, a list image generation unit 22, and a display unit 20.

画像表示位置決定部110は、複数の画像のサムネイル画像を一覧表示する際の各サムネイル画像の表示位置を決定するためのものである。また、サムネイル画像生成部21、一覧画像生成部22、及び表示部20は、上述した実施形態1と同様である。   The image display position determination unit 110 is for determining the display position of each thumbnail image when displaying a list of thumbnail images of a plurality of images. The thumbnail image generation unit 21, the list image generation unit 22, and the display unit 20 are the same as those in the first embodiment.

画像表示位置決定部110は、詳細には、画像データ取得部(画像取得部)111、特性値算出部(特性値算出手段)112、非類似度算出部(非類似度算出手段)113、マッピング部(マッピング手段)114を備えている。   Specifically, the image display position determination unit 110 includes an image data acquisition unit (image acquisition unit) 111, a characteristic value calculation unit (characteristic value calculation unit) 112, a dissimilarity calculation unit (dissimilarity calculation unit) 113, mapping Part (mapping means) 114 is provided.

画像データ取得部(画像取得部)111は、複数の画像の画像データを、撮像日時データとともに取得するためのものである。取得する画像の種類としては特に限定されず、例えばディジタルカメラなどで撮像した画像であってもよいし、スキャナなどで取り込んだ画像であってもよいし、人工的に生成した画像であってもよい。   The image data acquisition unit (image acquisition unit) 111 is for acquiring image data of a plurality of images together with imaging date / time data. The type of image to be acquired is not particularly limited, and may be, for example, an image captured by a digital camera, an image captured by a scanner, or an artificially generated image. Good.

なお、画像データ取得部(画像取得部)111のハードウェア構成としては、画像データを取得できるものであれば特に限定されるものではなく、固定ディスク又はリムーバブルディスクからデータを読み込むことのできる入出力インターフェースや、他の通信端末装置からLANを介してデータを読み込むことのできる入出力インターフェース、或いはディジタルカメラやスキャナなどから画像データを取り込むことのできる入力インターフェースなどを備えていればよい。   The hardware configuration of the image data acquisition unit (image acquisition unit) 111 is not particularly limited as long as image data can be acquired, and input / output capable of reading data from a fixed disk or a removable disk. An interface, an input / output interface that can read data from another communication terminal device via a LAN, an input interface that can read image data from a digital camera, a scanner, or the like may be provided.

特性値算出部(特性値算出手段)112は、画像データ取得部111によって画像データを取得した各画像について、フラクタル符号化法によってIFSパラメタ値を算出するためのものである。ここで算出するIFSパラメタは、上述した実施形態1におけるx,y,θ,λ,s,o,e,fである。 The characteristic value calculation unit (characteristic value calculation means) 112 is for calculating an IFS parameter value by fractal coding for each image whose image data has been acquired by the image data acquisition unit 111. The IFS parameters calculated here are x D , y D , θ, λ, s, o, e, and f in the first embodiment described above.

非類似度算出部(非類似度算出手段)113は、取得した画像について、各画像間の非類似度を算出するためのものである。ここで非類似度の算出は、全ての画像の組み合わせについて行う。例えば、3つの画像A,B,Cがある場合、A−B間、B−C間、A−C間について非類似度を算出する。   The dissimilarity calculating unit (dissimilarity calculating means) 113 is for calculating the dissimilarity between images for the acquired images. Here, the dissimilarity is calculated for all image combinations. For example, when there are three images A, B, and C, the dissimilarity is calculated between AB, between BC, and between AC.

マッピング部(マッピング手段)114は、上記の非類似度に基づいて、サムネイル画像の配置を決定するためのものである。より詳細には、一覧画像における各サムネイル画像間の距離が上記の非類似度に応じた距離になるように、各サムネイル画像の表示位置を決定する。例えば、3つの画像A,B,C、及びそれぞれのサムネイル画像a,b,cがある場合を仮定すると、一覧画像におけるサムネイル画像a−b間の距離と、b−c間の距離と、a−c間の距離との関係が、画像A−B間の非類似度と、B−C間の非類似度と、A−C間の非類似度との関係となるべく一致するようにする。   The mapping unit (mapping means) 114 is for determining the arrangement of thumbnail images based on the above dissimilarity. More specifically, the display position of each thumbnail image is determined so that the distance between the thumbnail images in the list image is a distance corresponding to the above dissimilarity. For example, assuming that there are three images A, B, and C and their respective thumbnail images a, b, and c, the distance between thumbnail images a and b in the list image, the distance between bc, and a The relationship between the distances between -c and the dissimilarity between images A and B, the dissimilarity between B and C, and the dissimilarity between A and C are matched as much as possible.

なお、上記の特性値算出部112、非類似度算出部113、及びマッピング部114は、CPU等の演算装置がROMやRAM等の記憶装置に格納されたプログラムコードを実行することで実現される機能ブロックである。   The characteristic value calculation unit 112, the dissimilarity calculation unit 113, and the mapping unit 114 described above are realized by an arithmetic device such as a CPU executing program code stored in a storage device such as a ROM or RAM. It is a functional block.

次に、画像一覧表示装置2の概略的な動作について説明する。図18は、画像一覧表示装置2の動作を示す工程図である。   Next, a schematic operation of the image list display device 2 will be described. FIG. 18 is a process diagram illustrating the operation of the image list display device 2.

まず、画像データ取得部111がディスク装置やディジタルカメラから画像データを取得する(S11)。取得した画像データは、特性値算出部112及びサムネイル画像生成部21に送られる。   First, the image data acquisition unit 111 acquires image data from a disk device or a digital camera (S11). The acquired image data is sent to the characteristic value calculation unit 112 and the thumbnail image generation unit 21.

次に、特性値算出部112が、画像データを取得した各画像について、フラクタル符号化法に基づいてIFSパラメタ値を算出する(S12)。IFSパラメタ値の算出方法は、上述した実施形態1と同様であり、本実施形態では、各画像について、レンジブロックごとにx,y,θ,λ,s,o,e,fの具体値を算出する。各画像について算出されたIFSパラメタ値は、非類似度算出部113に送られる。 Next, the characteristic value calculation unit 112 calculates an IFS parameter value for each image from which image data has been acquired based on the fractal encoding method (S12). The calculation method of the IFS parameter value is the same as that in the first embodiment described above. In this embodiment, for each image, specific values of x D , y D , θ, λ, s, o, e, and f are given for each range block. Calculate the value. The IFS parameter value calculated for each image is sent to the dissimilarity calculation unit 113.

非類似度算出部113は、各画像間の非類似度をIFSパラメタ値に基づいて算出する(S13)。この非類似度は、全ての画像の組み合わせについて算出する。なお、非類似度の算出方法の詳細については後述する。算出された非類似度はマッピング部114に送られる。   The dissimilarity calculation unit 113 calculates the dissimilarity between the images based on the IFS parameter value (S13). This dissimilarity is calculated for all image combinations. Details of the method of calculating the dissimilarity will be described later. The calculated dissimilarity is sent to the mapping unit 114.

次に、マッピング部114は、各サムネイル画像間の距離が上記の非類似度に応じた距離になるようにサムネイル画像の表示位置を決定する(S14)。なお、表示位置の決定方法の詳細については後述する。決定された表示位置の情報は、一覧画像生成部22に送信される。   Next, the mapping unit 114 determines the display position of the thumbnail images so that the distance between the thumbnail images becomes a distance according to the dissimilarity (S14). Details of the display position determination method will be described later. Information on the determined display position is transmitted to the list image generation unit 22.

一方、サムネイル画像生成部21は、取得した各画像のサムネイル画像を作成する。生成されたサムネイル画像のデータは、一覧画像生成部22に送られる。そして、一覧画像生成部22は、各画像のサムネイル画像を、マッピング部14によって決定された表示位置に配置した一覧画像を生成する(S15)。そして、一覧画像のデータは表示部20に送られ、表示部20が一覧画像を表示する(S16)
以上の処理により、類似した画像のサムネイル画像同士が近接して配置された一覧画像の表示を行うことができる。以下、非類似度算出部113及びマッピング部114について詳述する。
On the other hand, the thumbnail image generation unit 21 creates a thumbnail image of each acquired image. The generated thumbnail image data is sent to the list image generation unit 22. Then, the list image generation unit 22 generates a list image in which the thumbnail images of the respective images are arranged at the display positions determined by the mapping unit 14 (S15). The list image data is sent to the display unit 20, and the display unit 20 displays the list image (S16).
With the above processing, it is possible to display a list image in which thumbnail images of similar images are arranged close to each other. Hereinafter, the dissimilarity calculation unit 113 and the mapping unit 114 will be described in detail.

〔非類似度算出部/非類似度算出工程〕
非類似度算出部113は各画像間の非類似度をIFSパラメタ値に基づいて算出する。ここで各画像が有するIFSパラメタ値(特性値)の個数は、8種類(すなわちx,y,θ,λ,s,o,e,及びf)×レンジブロックの個数となる。このような画像の特性値を用いて、後続のマッピング工程において各サムネイル画像間の距離に対応させる非類似度を算出するわけであるが、各画像が有する特性値の個数は上述したように複数個ある。よって、非類似度を算出する際には、複数の特性値(すなわち複数次元のベクトル)から単一の成分(すなわちスカラー)からなる非類似度へと次元の縮約を行う必要がある。
[Dissimilarity calculation unit / dissimilarity calculation process]
The dissimilarity calculation unit 113 calculates the dissimilarity between the images based on the IFS parameter value. The number of IFS parameter value (characteristic value) with each image in this case, eight the number of (i.e. x D, y D, θ, λ, s, o, e, and f) × range block. Using the characteristic value of such an image, the dissimilarity corresponding to the distance between the thumbnail images is calculated in the subsequent mapping step. As described above, the number of characteristic values possessed by each image is plural. There are pieces. Therefore, when calculating the dissimilarity, it is necessary to reduce the dimension from a plurality of characteristic values (that is, a multidimensional vector) to a dissimilarity composed of a single component (that is, a scalar).

その手法としては、例えば上述した実施形態1のように、各特性値を要素として含む特徴ベクトルを生成し、その特徴ベクトル同士のユークリッド距離を算出することによって各画像間の非類似度を算出してもよい。しかしながら、本実施形態では、好ましい実施形態として以下に示すより高度な手法を用いることとする。   As the method, for example, as in Embodiment 1 described above, a feature vector including each characteristic value as an element is generated, and the dissimilarity between the images is calculated by calculating the Euclidean distance between the feature vectors. May be. However, in this embodiment, a more advanced method described below is used as a preferred embodiment.

図17は、非類似度算出部113の詳細を示す機能ブロック図である。また、図19は、非類似度算出工程の詳細を示す工程図である。図17に示すように、非類似度算出部113は、図示しない記憶部に設けられた特性値データベース130、画像選択部(画像選択手段)131、再構成部(再構成手段)132、誤差値算出部(誤差値算出手段)133、及び誤差値平均部(誤差値平均手段)134を備えている。   FIG. 17 is a functional block diagram showing details of the dissimilarity calculation unit 113. FIG. 19 is a process diagram showing details of the dissimilarity calculation process. As shown in FIG. 17, the dissimilarity calculation unit 113 includes a characteristic value database 130 provided in a storage unit (not shown), an image selection unit (image selection unit) 131, a reconstruction unit (reconstruction unit) 132, an error value. A calculation unit (error value calculation unit) 133 and an error value averaging unit (error value averaging unit) 134 are provided.

特性値データベース130には、各画像の有するIFSパラメタ値(特性値)が画像ごとに取り出し可能なように格納されている。この特性値データベース130は、RAMなどによって構成されている。   The characteristic value database 130 stores an IFS parameter value (characteristic value) of each image so that it can be extracted for each image. The characteristic value database 130 is constituted by a RAM or the like.

画像選択部131は、全画像の中から2つの画像を選択し、それぞれの画像の有するIFSパラメタ値を特性値データベース130から取得するためのものである。なお、画像選択部131は、2つの画像の組み合わせを、全ての組み合わせが選択されるように順次選択するものとする。   The image selection unit 131 is for selecting two images from all the images and acquiring the IFS parameter value of each image from the characteristic value database 130. Note that the image selection unit 131 sequentially selects combinations of two images so that all combinations are selected.

再構成部132は、画像選択部131によって選択された2つの画像のうち、一方の画像が有するIFSパラメタ値を用いて他方の画像を再構成して、再構成画像を作成するためのものである。具体的には、第1の画像のIFSパラメタ値を用いて第2の画像を再構成し、第2の再構成画像を作成する。また、これとは逆に、第2の画像のIFSパラメタ値を用いて第1の画像を再構成し、第1の再構成画像を作成してもよい。   The reconstruction unit 132 is configured to reconstruct the other image using the IFS parameter value included in one of the two images selected by the image selection unit 131 to create a reconstructed image. is there. Specifically, the second image is reconstructed using the IFS parameter value of the first image to create a second reconstructed image. Conversely, the first image may be reconstructed using the IFS parameter value of the second image to create the first reconstructed image.

誤差値算出部133は、上記の再構成前の画像と、再構成画像との輝度値を比較することによって、再構成前の画像と再構成画像との間の誤差値を算出する。この誤差値の算出は、第1の画像および第2の画像のそれぞれについて行われる。誤差値平均部134は、誤差値算出部133によって算出された2種類の誤差値を平均することによって非類似度を算出するためのものである。   The error value calculation unit 133 calculates an error value between the pre-reconstruction image and the reconstructed image by comparing the luminance values of the pre-reconstruction image and the reconstructed image. The calculation of the error value is performed for each of the first image and the second image. The error value averaging unit 134 is for calculating the dissimilarity by averaging the two types of error values calculated by the error value calculation unit 133.

なお、上記の画像選択部131、再構成部132、誤差値算出部133、及び誤差値平均部134は、CPU等の演算装置がROMやRAM等の記憶装置に格納されたプログラムコードを実行することで実現される機能ブロックである。   The image selection unit 131, the reconstruction unit 132, the error value calculation unit 133, and the error value averaging unit 134 execute program codes stored in a storage device such as a ROM or RAM by an arithmetic device such as a CPU. It is a functional block realized by this.

このような非類似度算出部113において、まず、画像選択部131が、2つの画像を選択し、それぞれの画像のIFSパラメタ値を特性値データベース130から取得する(S131)。以下、2つの画像をそれぞれ画像A、画像Bという。そして、取得した画像A及び画像BのIFSパラメタ値は、それらの画像データとともに再構成部132に送られる。   In such a dissimilarity calculation unit 113, first, the image selection unit 131 selects two images, and acquires IFS parameter values of the respective images from the characteristic value database 130 (S131). Hereinafter, the two images are referred to as image A and image B, respectively. The acquired IFS parameter values of the image A and the image B are sent to the reconstruction unit 132 together with the image data.

IFSパラメタ値を取得した再構成部132は、まず、画像AのIFSパラメタ値を用いて画像Bを再構成する。具体的には、画像Bの或るレンジブロックに対応するドメインブロックを、画像AのIFSパラメタ値(x,y)に基づいて決定する。そして、対応するドメインブロックを、画像AのIFSパラメタ値(θ,λ,s,o,e,f)を用いてアフィン変換し、変換したドメインブロックをレンジブロックに射影する(S133)。このアフィン変換は、上述した実施形態1の式(1)〜(3)を用いて行われる。 The reconstruction unit 132 that has acquired the IFS parameter value first reconstructs the image B using the IFS parameter value of the image A. Specifically, a domain block corresponding to a certain range block of the image B is determined based on the IFS parameter value (x D , y D ) of the image A. Then, the corresponding domain block is affine transformed using the IFS parameter values (θ, λ, s, o, e, f) of the image A, and the transformed domain block is projected onto the range block (S133). This affine transformation is performed using the equations (1) to (3) of the first embodiment described above.

次に、アフィン変換が、全てのレンジブロックについて行われたかどうかを判定し(S133)、全てのレンジブロックについて行われていない場合には、ステップS132に戻り、次のレンジブロックについて同様の処理を行う。一方、アフィン変換が全てのレンジブロックについて行われた場合には、次のステップS134に進む。なお、上記のアフィン変換は、各レンジブロックについて一通り行うだけでもよいが、上記のステップS132及びS133を8〜10セット程度繰り返すことが好ましい。ステップS132及びS133の処理を再構成という。   Next, it is determined whether or not affine transformation has been performed for all range blocks (S133). If not performed for all range blocks, the process returns to step S132 and the same processing is performed for the next range block. Do. On the other hand, if the affine transformation has been performed for all range blocks, the process proceeds to the next step S134. The above affine transformation may be performed only once for each range block, but it is preferable to repeat steps S132 and S133 about 8 to 10 sets. The processing in steps S132 and S133 is called reconstruction.

このようにして、画像Bを画像AのIFSパラメタ値に基づいて再構成することによって作成された画像を画像B’とすると、誤差値算出部133は、画像Bと画像B’との輝度の誤差値を算出する(S134)。具体的には、画像に含まれる各画素の輝度値の差の自乗の総和を取り、それを画素数で除算して平方根をとることによって誤差値を算出する。すなわち、画像B及び画像B’がM×N画素で、画像Bの座標(x,y)における輝度値をf(x,y)、画像B’の座標(x,y)における輝度値をfB’(x,y)とすると、誤差値E(A→B)は、 When an image created by reconstructing the image B based on the IFS parameter value of the image A in this way is an image B ′, the error value calculation unit 133 calculates the luminance between the image B and the image B ′. An error value is calculated (S134). Specifically, an error value is calculated by taking the sum of squares of differences in luminance values of pixels included in the image and dividing the result by the number of pixels to obtain a square root. That is, the image B and the image B ′ are M × N pixels, the luminance value at the coordinates (x, y) of the image B is f B (x, y), and the luminance value at the coordinates (x, y) of the image B ′ is If f B ′ (x, y), the error value E (A → B) is

と表すことができる。 It can be expressed as.

このように、画像AのIFSパラメタ値に基づいて画像Bを再構成し、再構成前と後の画像Bの輝度の誤差値をE(A→B)とする。ここで、画像AのIFSパラメタ値に基づいて画像Bを再構成したときの誤差値E(A→B)と、画像BのIFSパラメタ値に基づいて画像Aを再構成したときの誤差値E(B→A)とは、同一の値を持つとは限らない。よって、両方向について誤差値を算出することが好ましい。   In this way, the image B is reconstructed based on the IFS parameter value of the image A, and the luminance error value of the image B before and after the reconstruction is set to E (A → B). Here, an error value E (A → B) when the image B is reconstructed based on the IFS parameter value of the image A, and an error value E when the image A is reconstructed based on the IFS parameter value of the image B (B → A) does not necessarily have the same value. Therefore, it is preferable to calculate error values in both directions.

そのために、この誤差値の算出が、両方向について行われたかどうかを判定し(S135)、両方向について行われていない場合には、ステップS132に戻り、同様の方法で誤差値E(B→A)を算出する。そして、誤差値E(A→B)、誤差値E(B→A)の両方を算出した場合には、次のステップに進む。   Therefore, it is determined whether or not the calculation of the error value has been performed in both directions (S135). If the error value has not been calculated in both directions, the process returns to step S132 and the error value E (B → A) is obtained in the same manner. Is calculated. When both the error value E (A → B) and the error value E (B → A) are calculated, the process proceeds to the next step.

次に、誤差値平均部134は、上記の誤差値E(A→B)及びE(B→A)を平均し、E(A⇔B)を算出する。これを数式で表すと、   Next, the error value averaging unit 134 averages the error values E (A → B) and E (B → A) to calculate E (A⇔B). This can be expressed as a formula:

となる。そして、このE(A⇔B)を画像A−B間の非類似度とする。 It becomes. Then, this E (A⇔B) is set as the dissimilarity between the images AB.

以上のようにして、画像A−B間の非類似度を算出することができるが、この非類似度を全ての画像間について算出する。すなわち、取得した画像が、画像A,B,…,Zだけある場合、E(A⇔B),E(A⇔C),E(A⇔D),…,E(Y⇔Z)というように、全ての画像の組み合わせについて、非類似度を算出する。そのために、全ての画像間について非類似度が算出されたかどうかを判定する(S137)。なお、算出された非類似度は、マッピング部114に送られる。   As described above, the dissimilarity between the images A and B can be calculated. The dissimilarity is calculated between all the images. That is, when there are only acquired images A, B,..., Z, E (A⇔B), E (A⇔C), E (A⇔D),. In addition, dissimilarities are calculated for all image combinations. Therefore, it is determined whether or not dissimilarities have been calculated for all images (S137). Note that the calculated dissimilarity is sent to the mapping unit 114.

以上のように、非類似度算出部113は、一方の画像のIFSパラメタ値に基づいて他方の画像を再構成し、再構成前後の画像における輝度の誤差値に基づいて非類似度を算出する。ここで、一方の画像のIFSパラメタ値に基づいて他方の画像を再構成する際に、一方の画像の全てのIFSパラメタ値に基づいて他方の画像を再構成する必要は必ずしもない。例えば、上記の画像A,Bの例を用いて説明すると、画像Bにおいてアフィン変換する際に、アフィン変換に必要なIFSパラメタのうち、x,yを除くθ,λ,s,o,e,fについては画像Aのものを用い、x,yについては画像Bのものを用いるようにしてもよい。換言すれば、画像Bを再構成する際に、画像Aの一部のIFSパラメタに基づいてもよいともいえる。 As described above, the dissimilarity calculating unit 113 reconstructs the other image based on the IFS parameter value of one image, and calculates the dissimilarity based on the luminance error value in the images before and after the reconstruction. . Here, when reconstructing the other image based on the IFS parameter value of one image, it is not always necessary to reconstruct the other image based on all the IFS parameter values of the one image. For example, to explain using the above examples of images A and B, when performing affine transformation in image B, θ, λ, s, o, excluding x D and y D among IFS parameters necessary for affine transformation. e, used as the image a for f, x D, it may be used as the image B for y D. In other words, when the image B is reconstructed, it may be based on some IFS parameters of the image A.

〔マッピング部/マッピング手段〕
マッピング部114は、一覧画像におけるサムネイル画像の位置を決定するが、この際に、一覧画像上での各サムネイル画像間の距離が、上記の非類似度に応じた距離になるようにする。
[Mapping unit / Mapping means]
The mapping unit 114 determines the position of the thumbnail image in the list image. At this time, the distance between the thumbnail images on the list image is set to be a distance corresponding to the dissimilarity.

具体的には、マッピング部114は、図20に示すように、2次元の仮想表示領域を設定し、さらに、各サムネイル画像を配置する座標を設定する。ここで、この仮想表示領域上での画像Aと画像Bとの距離をE(A⇔B)とする。なお、E(A⇔B)は、画像A及び画像Bの仮想表示領域における座標に基づいて算出することができる。この場合、取得した画像が、画像A,B,…,Zだけあるとすると、画像Aの位置は、次の式で表されるErr Specifically, as shown in FIG. 20, the mapping unit 114 sets a two-dimensional virtual display area, and further sets coordinates for arranging each thumbnail image. Here, the distance between the image A and the image B on the virtual display area is E * (A⇔B). Note that E * (A⇔B) can be calculated based on the coordinates in the virtual display area of image A and image B. In this case, if there are only acquired images A, B,..., Z, the position of the image A is Err A expressed by the following equation:

を最小にする位置であることが望まれる。また、画像B,C,…,Zも同様に、Err,Err,…,Errを最小にする位置であることが望まれる。 It is desirable that the position be a position that minimizes. The image B, C, ..., Z likewise, Err B, Err c, ..., it is desirable is a position that minimizes the Err Z.

このような配置を求めるアルゴリズムとしては、ランダムサーチ、山登り法、焼きなまし法、遺伝的アルゴリズムなどの周知慣用の各種アルゴリズムを用いることができる。例えば、山登り法を用いる場合、まず、初期状態として仮想表示領域上に各画像をランダムに配置する。   As an algorithm for obtaining such an arrangement, various known and commonly used algorithms such as a random search, a hill-climbing method, an annealing method, and a genetic algorithm can be used. For example, when using the hill-climbing method, first, each image is randomly arranged on the virtual display area as an initial state.

次に、画像Aを上、下、左、右、左上、右上、左下、右下の座標にそれぞれ移動させた場合と、移動させなかった場合とについて、それぞれ上記のErrを算出し、Errの値が最も小さくなった位置を次段階の画像Aの位置とする。そしてこれと同様の処理を画像Bから画像Zに対しても行う。このような処理を複数セット繰り返すことによって、各画像の位置は非類似度を反映した位置に近づいていく。そして、各画像が仮想表示領域上で移動しなくなった時点でこの処理を終了する。これにより、仮想表示領域上での各サムネイル画像の位置を決定することができる。 Next, the Err A is calculated for each of the case where the image A is moved to the coordinates of the upper, lower, left, right, upper left, upper right, lower left, and lower right, and the case where the image A is not moved. The position where the value of A is the smallest is taken as the position of the next stage image A. The same processing is performed on the image B to the image Z. By repeating such processing a plurality of sets, the position of each image approaches the position reflecting the degree of dissimilarity. Then, this process ends when each image stops moving on the virtual display area. Thereby, the position of each thumbnail image on the virtual display area can be determined.

本発明の一実施例を図10から図15に基づいて説明する。本実施例では、本発明の有用性を検証するために以下の実験を行った。なお、以下の実施例1から3では、基本的に上述した実施形態1の構成を用いている。   An embodiment of the present invention will be described with reference to FIGS. In this example, the following experiment was conducted in order to verify the usefulness of the present invention. In Examples 1 to 3 below, the configuration of Embodiment 1 described above is basically used.

〔実施例1〕
本実施例では、人工的に作成された画像を用いた例を示す。テスト画像として、図10に示す、COLUMBIA UNIVERSITY IMAGE LIBRARY(COIL−20)から得られる128×128画素、モノクロ256階調の20種類の画像と、これらの各画像に含まれるオブジェクトを10°,20°,…,70°回転させた画像とを用意した。そして、これら160枚の画像を、画像一覧表示装置に入力した。
[Example 1]
In this embodiment, an example using an artificially created image is shown. As test images, 20 types of images of 128 × 128 pixels and monochrome 256 gradations obtained from COLUMBIA UNIVERSITY IMAGE LIBRARY (COIL-20) shown in FIG. 10 and objects included in each of these images are 10 °, 20 An image rotated by 70 ° was prepared. These 160 images were input to the image list display device.

本実施例では、人工的に作成された画像を用いたため、撮像日時に応じた画像の分類は行わなかった。また、各画像の特性値には、上述したIFSパラメタx,yを用いた。また、自己組織化マップの勝利素子の判定において、レンジブロックの位置に基づく重みは与えなかった。 In this embodiment, since an artificially created image is used, the image is not classified according to the imaging date and time. Further, the above-described IFS parameters x D and y D are used as the characteristic values of each image. Further, in determining the winning element of the self-organizing map, no weight based on the position of the range block was given.

図11は、上記の条件に基づいて画像を一覧表示した結果を示す図である。図中において、同一のオブジェクトや類似したオブジェクトを含む画像同士はまとまって表示されている。このことから、類似した画像の判定が高精度に行われており、さらに、類似の画像が適切に近接して配置されることが検証された。なお、類似画像の高精度な判定は、本実施例で特徴ベクトルとして用いられているIFSパラメタが、オブジェクトの回転等に伴う画像の変化に頑健であることに起因していると考えられる。   FIG. 11 is a diagram showing a result of displaying a list of images based on the above conditions. In the figure, images including the same object or similar objects are displayed together. From this, it was verified that the determination of similar images was performed with high accuracy, and that similar images were appropriately arranged close to each other. Note that the high-accuracy determination of the similar image is considered to be caused by the fact that the IFS parameter used as the feature vector in this embodiment is robust against the change of the image accompanying the rotation of the object.

〔実施例2〕
本実施例では、ディジタルカメラによって撮像した自然画像を用いた例を示す。テスト画像には、4日間に渡って撮像され、画像サイズが512×384画素又は567×426画素で、24ビットカラーのカラー画像267枚を用いた。
[Example 2]
In this embodiment, an example using a natural image captured by a digital camera is shown. The test image was captured over 4 days, and 267 24-bit color images with an image size of 512 × 384 pixels or 567 × 426 pixels were used.

本実施例では、撮像日時に基づいて、画像を1時間ごとに区切られたグループに分類した。また、特性値には、実施例1と同様にIFSパラメタx,yの値を用いた。ここで、レンジブロック及びドメインブロックは、撮像した画像サイズに比例した大きさとした。また、本実施形態ではカラー画像を用いているため、x,yの値を色成分Y,Cb,Crごとに求めた。そして、自己組織化マップに配置する素子数は、3×11個とし、勝利素子の判定においてレンジブロックの位置に基づく重みは与えなかった。 In the present embodiment, the images are classified into groups divided every hour based on the imaging date and time. As the characteristic values, the values of the IFS parameters x D and y D were used as in the first embodiment. Here, the range block and the domain block have a size proportional to the captured image size. Further, since the present embodiment uses a color image was determined x D, the value of y D color components Y, Cb, each Cr. The number of elements arranged in the self-organizing map was 3 × 11, and no weight based on the position of the range block was given in the determination of the winning element.

図12は、上記の条件に基づいて画像を一覧表示した結果の一部を示す図である。図中において、各グループには互いに類似する画像が多くまとめられている。また、3つのグループを選択し、拡大表示した結果を図13に示す。図13に示すように、同一グループ内においても、類似する画像がかたまって表示されていることが分かる。また、この傾向は、入力する画像のサイズ(解像度)に関係なかったことから、サイズ(解像度)の異なる画像に対しても有効であることが検証された。   FIG. 12 is a diagram showing a part of the result of displaying a list of images based on the above conditions. In the figure, many images similar to each other are collected in each group. In addition, FIG. 13 shows the result of selecting and enlarging three groups. As shown in FIG. 13, it can be seen that similar images are displayed together in the same group. Further, since this tendency was not related to the size (resolution) of the input image, it was verified that it was effective even for images having different sizes (resolution).

〔実施例3〕
本実施例では、実施例2で用いられた画像のうち、ある一日に撮像された101枚の画像を用いた。特性値としては、IFSパラメタx,yに加えて、上述したfave Ri、fave Dopt、ERMSも用いた。また、自己組織化マップの学習において勝利素子を求める際に、上述した実施形態にて説明したように、各特性値に対して、画像の中心からレンジブロックまでの距離に基づいた重みを与えた。なお、レンジブロックの数は4×4=16個とし、式(10)におけるσを1とした。
Example 3
In this example, 101 images taken in one day among the images used in Example 2 were used. The characteristic value, IFS parameter x D, in addition to the y D, above f ave Ri, f ave Dopt, E RMS was also used. Further, when determining the winning element in learning of the self-organizing map, as described in the above-described embodiment, each characteristic value is given a weight based on the distance from the center of the image to the range block. . The number of range blocks is 4 × 4 = 16, and σ in equation (10) is 1.

図14は、一覧表示した画像を示す図である。また、参考として、実施例2の条件で一覧表示した結果を図15に示す。図14を図15と比べると、類似した画像同士が一層近接して配置されていることが分かる。よって、fave Ri、fave Dopt、ERMSを特性値として追加し、勝利素子の判定の際に重み付けを行うことによって、類似画像の判定精度が一層精確になることが検証された。 FIG. 14 is a diagram showing images displayed as a list. For reference, the results displayed as a list under the conditions of Example 2 are shown in FIG. Comparing FIG. 14 with FIG. 15, it can be seen that similar images are arranged closer to each other. Therefore, it has been verified that the accuracy of determination of similar images becomes more accurate by adding f ave Ri , f ave Doppt , and E RMS as characteristic values and performing weighting when determining a winning element.

なお、本発明は上述した実施形態及び実施例に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments and examples, and various modifications can be made within the scope of the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明によれば、個人がディジタルカメラ等で撮影したディジタル画像を、画像の類似度に基づいてクラスタリングし、類似した画像が近接して配置された一覧画像を得ることができる。よって、個人フォトアルバムのユーティリティ等に好適に利用することができる。   According to the present invention, it is possible to cluster digital images taken by an individual with a digital camera or the like based on the similarity of images and obtain a list image in which similar images are arranged close to each other. Therefore, it can be suitably used for personal photo album utilities and the like.

本発明の一実施形態を示すものであり、画像一覧表示装置の要部構成を示す機能ブロック図である。1, showing an embodiment of the present invention, is a functional block diagram illustrating a main configuration of an image list display device. FIG. 本発明の一実施形態を示すものであり、画像一覧表示装置の処理工程を示す工程図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a process diagram illustrating a processing process of an image list display device according to an embodiment of the present invention. 本発明の一実施形態を示すものであり、画像一覧表示装置の表示方法のスキームを示す図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1, showing an embodiment of the present invention, is a diagram illustrating a scheme of a display method of an image list display device. 本発明の一実施形態を示すものであり、図1の特性値算出部の詳細構成を示す機能ブロック図である。1, showing an embodiment of the present invention, is a functional block diagram illustrating a detailed configuration of a characteristic value calculation unit in FIG. 1. 本発明の一実施形態を示すものであり、フラクタル画像符号化のスキームを示す図である。FIG. 3 is a diagram illustrating a fractal image encoding scheme according to an embodiment of the present invention. 本発明の一実施形態を示すものであり、自己組織化マップのスキームを示す図である。FIG. 3 is a diagram illustrating a scheme of a self-organizing map according to an embodiment of the present invention. 本発明の一実施形態を示すものであり、レンジブロックの分割例と各レンジブロックの座標を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 illustrates an embodiment of the present invention, and is a diagram illustrating an example of range block division and coordinates of each range block. 本発明の一実施形態を示すものであり、重み付けに用いられる対角行列Wの例を示す図である。It is a figure which shows one Embodiment of this invention and shows the example of the diagonal matrix W used for weighting. 本発明の一実施形態を示すものであり、撮像場所の分布と撮像場所に基づいたグループを示す図である。FIG. 4 is a diagram illustrating an embodiment of the present invention and a group based on a distribution of imaging locations and imaging locations. 実施例1において用いたモノクロ画像群を示す図である。3 is a diagram illustrating a monochrome image group used in Example 1. FIG. 実施例1において一覧表示を行った結果を示す図である。It is a figure which shows the result of having performed the list display in Example 1. FIG. 実施例2において一覧表示を行った結果の一部を示す図である。It is a figure which shows a part of result of having performed the list display in Example 2. FIG. 実施例2において一覧表示を行った結果の一部を抽出し、拡大表示した図である。It is the figure which extracted a part of result of having performed the list display in Example 2, and expanded and displayed it. 実施例3において、特性値を増やすとともに重み付けを行った場合の一覧表示の結果を示す図である。In Example 3, it is a figure which shows the result of the list display at the time of weighting while increasing a characteristic value. 実施例3において、実施例2の条件で一覧表示を行った結果を示す図である。In Example 3, it is a figure which shows the result of having performed the list display on the conditions of Example 2. FIG. 本発明の一実施形態を示すものであり、画像一覧表示装置の要部構成を示す機能ブロック図である。1, showing an embodiment of the present invention, is a functional block diagram illustrating a main configuration of an image list display device. FIG. 本発明の一実施形態を示すものであり、図16の非類似度算出部の詳細構成を示す機能ブロック図である。FIG. 17, showing an embodiment of the present invention, is a functional block diagram illustrating a detailed configuration of a dissimilarity calculation unit in FIG. 16. 本発明の一実施形態を示すものであり、画像一覧表示装置の処理工程を示す工程図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a process diagram illustrating a processing process of an image list display device according to an embodiment of the present invention. 本発明の一実施形態を示すものであり、図18のステップS13の詳細な処理工程を示す図である。FIG. 19 illustrates an embodiment of the present invention and is a diagram illustrating a detailed processing process of step S13 in FIG. 18. 本発明の一実施形態を示すものであり、仮想表示領域を示す図である。FIG. 3 is a diagram illustrating a virtual display area according to an embodiment of the present invention.

符号の説明Explanation of symbols

1 画像一覧表示装置
2 画像一覧表示装置
10 画像表示位置決定部(画像表示位置決定装置)
11 撮像日時データ付き画像データ取得部(画像取得部、撮像環境データ取得部)
12 特性値算出部
13 特徴ベクトル生成部(特徴ベクトル生成手段)
14 自己組織化マッピング部(自己組織化マッピング手段)
15 画像配置部(画像配置手段)
16 非階層的分類部(非階層的分類手段)
31 レンジブロック作成部(レンジブロック作成手段)
32 ドメインブロック作成部(ドメインブロック作成手段)
33 IFSパラメタ算出部(座標算出手段)
34 レンジブロック輝度算出部(レンジブロック輝度算出手段)
35 ドメインブロック輝度算出部(ドメインブロック輝度算出手段)
36 非類似度算出部(非類似度算出手段)
110 画像表示位置決定部(画像表示位置決定装置)
111 画像データ取得部(画像取得部)
112 特性値算出部(特性値算出手段)
113 非類似度算出部
114 マッピング部(マッピング手段)
131 画像選択部(画像選択手段)
132 再構成部(再構成手段)
133 誤差値算出部(誤差値算出手段)
DESCRIPTION OF SYMBOLS 1 Image list display apparatus 2 Image list display apparatus 10 Image display position determination part (image display position determination apparatus)
11 Image data acquisition unit with imaging date and time data (image acquisition unit, imaging environment data acquisition unit)
12 characteristic value calculation unit 13 feature vector generation unit (feature vector generation means)
14 Self-organizing mapping unit (self-organizing mapping means)
15 Image placement unit (image placement means)
16 Non-hierarchical classification (non-hierarchical classification means)
31 Range block creation unit (range block creation means)
32 Domain block creation part (domain block creation means)
33 IFS parameter calculation unit (coordinate calculation means)
34 Range block luminance calculation unit (range block luminance calculation means)
35 Domain block luminance calculation section (domain block luminance calculation means)
36 Dissimilarity calculation unit (dissimilarity calculation means)
110 Image display position determination unit (image display position determination device)
111 Image data acquisition unit (image acquisition unit)
112 characteristic value calculation unit (characteristic value calculation means)
113 Dissimilarity calculation unit 114 Mapping unit (mapping means)
131 Image selection unit (image selection means)
132 Reconfiguration unit (reconfiguration means)
133 Error value calculation unit (error value calculation means)

Claims (16)

複数の画像をサムネイル画像によって一覧表示する際の一覧画像内における各サムネイル画像の表示位置を決定する画像表示位置決定装置であって、
上記複数の画像である元画像を取得する画像取得部と、
各元画像について、元画像を分割してレンジブロックを作成するレンジブロック作成手段と、
各元画像について、互いに重なりを許しながら複数の部分画像を切り出すことによって複数のドメインブロックを作成するドメインブロック作成手段と、
各元画像内において、上記レンジブロックと最も似ているドメインブロックの、元画像内における座標を、元画像の特性を表す第1の特性値として算出する座標算出手段と、
上記座標算出手段によって各元画像について算出された第1の特性値を要素として含む特徴ベクトルを元画像ごとに生成する特徴ベクトル生成手段と、
複数の元画像について生成された上記特徴ベクトルを用いて自己組織化マップの学習を行うとともに、学習後の自己組織化マップにおける各元画像の帰属する素子の位置を決定する自己組織化マッピング手段と、
上記自己組織化マップにおける各元画像の帰属する素子の位置に基づいて、各サムネイル画像の一覧画像内における表示位置を決定する画像配置手段と、
を備えていることを特徴とする、画像表示位置決定装置。
An image display position determination device for determining a display position of each thumbnail image in a list image when displaying a list of a plurality of images as thumbnail images,
An image acquisition unit for acquiring an original image as the plurality of images;
For each original image, a range block creating means for creating a range block by dividing the original image,
For each original image, a domain block creating means for creating a plurality of domain blocks by cutting out a plurality of partial images while allowing overlap with each other,
In each original image, coordinate calculation means for calculating the coordinates in the original image of the domain block most similar to the range block as a first characteristic value representing the characteristics of the original image;
Feature vector generation means for generating, for each original image, a feature vector including the first characteristic value calculated for each original image by the coordinate calculation means as an element;
Self-organizing mapping means for learning a self-organizing map using the feature vectors generated for a plurality of original images and determining the position of an element to which each original image belongs in the self-organizing map after learning; ,
Image placement means for determining the display position of each thumbnail image in the list image based on the position of the element to which each original image belongs in the self-organizing map;
An image display position determining device comprising:
各元画像において、上記レンジブロックに含まれる各画素の輝度の平均値を、元画像の特性を表す第2の特性値として算出するレンジブロック輝度算出手段をさらに備え、
上記特徴ベクトル生成手段が、各元画像について生成する上記特徴ベクトルに、上記レンジブロック輝度算出手段によって各元画像について算出された第2の特性値を、要素としてさらに含めることを特徴とする、請求項1に記載の画像表示位置決定装置。
In each original image, further comprising range block luminance calculation means for calculating an average value of luminance of each pixel included in the range block as a second characteristic value representing the characteristic of the original image,
The feature vector generation means further includes, as an element, the second characteristic value calculated for each original image by the range block luminance calculation means in the feature vector generated for each original image. Item 2. The image display position determination device according to Item 1.
各元画像において、上記レンジブロックと最も似ているドメインブロックに含まれる各画素の輝度の平均値を、元画像の特性を表す第3の特性値として算出するドメインブロック輝度算出手段をさらに備え、
上記特徴ベクトル生成手段が、各元画像について生成する上記特徴ベクトルに、上記ドメインブロック輝度算出手段によって各元画像について算出された第3の特性値を、要素としてさらに含めることを特徴とする、請求項1又は2に記載の画像表示位置決定装置。
In each original image, further comprising a domain block luminance calculating means for calculating an average value of luminance of each pixel included in the domain block most similar to the range block as a third characteristic value representing the characteristic of the original image,
The feature vector generation means further includes, as an element, the third characteristic value calculated for each original image by the domain block luminance calculation means in the feature vector generated for each original image. Item 3. The image display position determination device according to Item 1 or 2.
各元画像において、
(a)上記レンジブロックと、
(b)そのレンジブロックと最も似ているドメインブロックに基づき、かつ上記レンジブロックとサイズが同じであるサイズ調整ドメインブロックと、
の非類似度を、元画像の特性を表す第4の特性値として算出する非類似度算出手段をさらに備え、
上記特徴ベクトル生成手段が、各元画像について生成する上記特徴ベクトルに、上記非類似度算出手段によって各元画像について算出された第4の特性値を、要素としてさらに含めることを特徴とする、請求項1から3の何れか1項に記載の画像表示位置決定装置。
In each original image,
(A) the above range block;
(B) a size-adjusted domain block based on a domain block most similar to the range block and having the same size as the range block;
Further comprising a dissimilarity calculating means for calculating the dissimilarity as a fourth characteristic value representing the characteristics of the original image,
The feature vector generation means further includes a fourth characteristic value calculated for each original image by the dissimilarity calculation means as an element in the feature vector generated for each original image. Item 4. The image display position determination device according to any one of Items 1 to 3.
上記ドメインブロック作成手段が、上記レンジブロックと同じサイズのドメインブロックを作成することを特徴とする請求項1から4の何れか1項に記載の画像表示位置決定装置。   5. The image display position determining apparatus according to claim 1, wherein the domain block creating unit creates a domain block having the same size as the range block. 6. 上記レンジブロック作成手段が、各元画像のサイズと実質的に比例したサイズを有するレンジブロックを作成し、
上記ドメインブロック作成手段が、各元画像のサイズと実質的に比例した画素数でずらしながら、各元画像のサイズと実質的に比例したサイズを有する部分画像を切り出すことによって、ドメインブロックを作成することを特徴とする、請求項1から5の何れか1項に記載の画像表示位置決定装置。
The range block creating means creates a range block having a size substantially proportional to the size of each original image,
The domain block creation means creates a domain block by cutting out a partial image having a size substantially proportional to the size of each original image while shifting by the number of pixels substantially proportional to the size of each original image. The image display position determination apparatus according to claim 1, wherein the image display position determination apparatus is a display apparatus for determining an image display position.
各元画像について生成される上記特徴ベクトルが、異なる複数のレンジブロックについて算出された上記特性値を要素として含み、
上記自己組織化マッピング手段が、自己組織化マップの学習において勝利素子の探索を行う際に、上記特徴ベクトルに含まれる各レンジブロックについて算出された上記特性値に対して、そのレンジブロックの元画像内における位置に基づいて重み付けを行うことを特徴とする、請求項1から6の何れか1項に記載の画像表示位置決定装置。
The feature vector generated for each original image includes the characteristic value calculated for a plurality of different range blocks as an element,
When the self-organizing mapping means searches for a winning element in learning of the self-organizing map, the original image of the range block is calculated with respect to the characteristic value calculated for each range block included in the feature vector. The image display position determination apparatus according to claim 1, wherein weighting is performed based on a position within the image display position.
上記重み付けが、レンジブロックの位置と画像の中心との間の距離に応じたものであることを特徴とする、請求項7に記載の画像表示位置決定装置。   8. The image display position determining apparatus according to claim 7, wherein the weighting is in accordance with a distance between the position of the range block and the center of the image. 上記画像取得部が、画像内における被写体の位置を示す被写体位置データをさらに取得し、
上記重み付けが、レンジブロックの位置と、上記被写体位置データによって示される画像内における被写体の位置との間の距離に応じたものであることを特徴とする、請求項7に記載の画像表示位置決定装置。
The image acquisition unit further acquires subject position data indicating the position of the subject in the image,
8. The image display position determination according to claim 7, wherein the weighting is in accordance with a distance between the position of the range block and the position of the subject in the image indicated by the subject position data. apparatus.
上記元画像が、撮像によって作成されたものであり、
上記元画像を撮像した際の環境を示す撮像環境データを取得する撮像環境データ取得部と、
上記撮像環境データに基づいて、元画像を非階層的な複数のグループに分類する非階層的分類手段と、をさらに備え、
上記自己組織化マッピング手段が、上記の自己組織化マップの学習及び元画像の帰属する素子の位置の決定を、上記グループごとに行い、
上記画像配置手段が、一覧画像を上記グループに対応する部分領域に分割し、部分領域におけるサムネイル画像の表示位置を、上記自己組織化マップにおける元画像の帰属する素子の位置に基づいてグループごとに決定することによって、一覧画像における各サムネイル画像の表示位置を決定することを特徴とする、請求項1から9の何れか1項に記載の画像表示位置決定装置。
The original image is created by imaging,
An imaging environment data acquisition unit that acquires imaging environment data indicating an environment when the original image is captured;
Non-hierarchical classification means for classifying the original image into a plurality of non-hierarchical groups based on the imaging environment data,
The self-organizing mapping means performs learning of the self-organizing map and determination of the position of the element to which the original image belongs for each group,
The image arrangement means divides the list image into partial areas corresponding to the group, and the display position of the thumbnail image in the partial area is determined for each group based on the position of the element to which the original image belongs in the self-organizing map. The image display position determination device according to claim 1, wherein the display position of each thumbnail image in the list image is determined by determining.
複数の画像をサムネイル画像によって一覧表示する際の一覧画像内における各サムネイル画像の表示位置を決定する画像表示位置決定装置であって、
上記複数の画像である元画像を取得する画像取得部と、
各元画像について、フラクタル画像符号化法によってIFSパラメタ値を算出する特性値算出手段と、
複数の元画像の中から、順次2つの元画像の組み合わせを選択する画像選択手段と、
上記画像選択手段によって組み合わせが選択された2つの元画像について、上記IFSパラメタ値に基づいて当該2つの元画像間の非類似度を算出する誤差値算出手段と、
一覧画像内における各サムネイル画像の表示位置を、各サムネイル画像間の一覧画像内における距離が当該サムネイル画像に対応する元画像間の上記非類似度に応じた距離となるように決定するマッピング手段と、
を備えていることを特徴とする、画像表示位置決定装置。
An image display position determination device for determining a display position of each thumbnail image in a list image when displaying a list of a plurality of images as thumbnail images,
An image acquisition unit for acquiring an original image as the plurality of images;
For each original image, characteristic value calculating means for calculating an IFS parameter value by a fractal image encoding method,
Image selecting means for sequentially selecting a combination of two original images from a plurality of original images;
Error value calculating means for calculating the dissimilarity between the two original images based on the IFS parameter value for the two original images selected by the image selecting means;
Mapping means for determining a display position of each thumbnail image in the list image so that a distance in the list image between the thumbnail images is a distance according to the dissimilarity between the original images corresponding to the thumbnail images; ,
An image display position determining device comprising:
上記画像選択手段によって選択された2つの元画像における一方の元画像のIFSパラメタ値を用いて他方の元画像を再構成して再構成画像を作成する再構成手段をさらに備え、
上記誤差値算出手段は、上記他方の元画像と上記再構成画像との輝度の誤差値に基づいて、当該2つの元画像間における非類似度を算出することを特徴とする、請求項11に記載の画像表示位置決定装置。
Reconstructing means for reconstructing a reconstructed image by reconstructing the other original image using the IFS parameter value of one of the two original images selected by the image selecting means;
12. The error value calculating means calculates a dissimilarity between the two original images based on a luminance error value between the other original image and the reconstructed image. The image display position determination device described.
請求項1から12の何れか1項に記載の各手段として、コンピュータを動作させるための画像表示位置決定プログラム。   The image display position determination program for operating a computer as each means of any one of Claims 1-12. 請求項13に記載の画像表示位置決定プログラムが記録されたコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the image display position determination program according to claim 13 is recorded. 複数の画像をサムネイル画像によって一覧表示する際の一覧画像内における各サムネイル画像の表示位置を決定する画像表示位置決定方法であって、
上記複数の画像である元画像を取得する画像取得工程と、
各元画像について、元画像を分割してレンジブロックを作成するレンジブロック作成工程と、
各元画像について、互いに重なりを許しながら複数の部分画像を切り出すことによって複数のドメインブロックを作成するドメインブロック作成工程と、
各元画像内において、上記レンジブロックと最も似ているドメインブロックの、元画像内における座標を、元画像の特性を表す第1の特性値として算出する座標算出工程と、
上記座標算出工程において各元画像について算出された第1の特性値を要素として含む特徴ベクトルを元画像ごとに生成する特徴ベクトル生成工程と、
複数の元画像について生成された上記特徴ベクトルを用いて自己組織化マップの学習を行うとともに、学習後の自己組織化マップにおける各元画像の帰属する素子の位置を決定する自己組織化マッピング工程と、
上記自己組織化マップにおける各元画像の帰属する素子の位置に基づいて、各サムネイル画像の一覧画像内における表示位置を決定する画像配置工程と、
を含んでいることを特徴とする、画像表示位置決定方法。
An image display position determination method for determining a display position of each thumbnail image in a list image when displaying a list of a plurality of images as thumbnail images,
An image acquisition step of acquiring an original image that is the plurality of images;
For each original image, a range block creation step of creating a range block by dividing the original image,
For each original image, a domain block creating step for creating a plurality of domain blocks by cutting out a plurality of partial images while allowing overlap with each other,
In each original image, a coordinate calculation step for calculating the coordinates in the original image of the domain block most similar to the range block as a first characteristic value representing the characteristics of the original image;
A feature vector generation step for generating, for each original image, a feature vector including the first characteristic value calculated for each original image in the coordinate calculation step as an element;
A self-organizing mapping step of learning a self-organizing map using the feature vectors generated for a plurality of original images and determining the position of an element to which each original image belongs in the self-organizing map after learning. ,
An image placement step for determining a display position in the list image of each thumbnail image based on the position of the element to which each original image belongs in the self-organizing map;
The image display position determination method characterized by including.
複数の画像をサムネイル画像によって一覧表示する際の一覧画像内における各サムネイル画像の表示位置を決定する画像表示位置決定方法であって、
上記複数の画像である元画像を取得する画像取得工程と、
各元画像について、フラクタル画像符号化法によってIFSパラメタを算出する特性値算出工程と、
複数の元画像の中から、順次2つの元画像の組み合わせを選択する画像選択工程と、
上記画像選択工程において組み合わせが選択された2つの元画像について、上記IFSパラメタに基づいて当該2つの元画像間の非類似度を算出する誤差値算出工程と、
一覧画像内における各サムネイル画像の表示位置を、各サムネイル画像間の一覧画像内における距離が当該サムネイル画像に対応する元画像間の上記非類似度に応じた距離となるように決定するマッピング工程と、
を含んでいることを特徴とする、画像表示位置決定方法。
An image display position determination method for determining a display position of each thumbnail image in a list image when displaying a list of a plurality of images as thumbnail images,
An image acquisition step of acquiring an original image that is the plurality of images;
For each original image, a characteristic value calculating step for calculating an IFS parameter by a fractal image encoding method,
An image selection step of sequentially selecting a combination of two original images from a plurality of original images;
An error value calculating step of calculating a dissimilarity between the two original images based on the IFS parameter for the two original images for which the combination is selected in the image selection step;
A mapping step for determining a display position of each thumbnail image in the list image so that a distance in the list image between the thumbnail images is a distance according to the dissimilarity between the original images corresponding to the thumbnail images; ,
The image display position determination method characterized by including.
JP2005171324A 2005-06-10 2005-06-10 Image display position determination device, image display position determination method, image display position determination program, and computer-readable recording medium recording the same Active JP4565187B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005171324A JP4565187B2 (en) 2005-06-10 2005-06-10 Image display position determination device, image display position determination method, image display position determination program, and computer-readable recording medium recording the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005171324A JP4565187B2 (en) 2005-06-10 2005-06-10 Image display position determination device, image display position determination method, image display position determination program, and computer-readable recording medium recording the same

Publications (2)

Publication Number Publication Date
JP2006344155A true JP2006344155A (en) 2006-12-21
JP4565187B2 JP4565187B2 (en) 2010-10-20

Family

ID=37641055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005171324A Active JP4565187B2 (en) 2005-06-10 2005-06-10 Image display position determination device, image display position determination method, image display position determination program, and computer-readable recording medium recording the same

Country Status (1)

Country Link
JP (1) JP4565187B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217695A (en) * 2007-03-07 2008-09-18 Ricoh Co Ltd Image processor, image processing method, program, and recording medium
JP2009105594A (en) * 2007-10-23 2009-05-14 Ricoh Co Ltd Image processing device, and image processing method
WO2009072466A1 (en) * 2007-12-03 2009-06-11 National University Corporation Hokkaido University Image classification device and image classification program
JP2009193187A (en) * 2008-02-13 2009-08-27 Casio Comput Co Ltd Image retrieval method, image retrieval system, image retrieval terminal and retrieving server
WO2010053160A1 (en) * 2008-11-07 2010-05-14 国立大学法人 北海道大学 Content search device and content search program
CN105183837A (en) * 2015-09-02 2015-12-23 Tcl移动通信科技(宁波)有限公司 Mobile terminal thumbnail list view display method and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164331A (en) * 2002-11-13 2004-06-10 Fujitsu Ltd Image retrieval method, image retrieval device and image retrieval program
JP2005063307A (en) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd Image identification method and device, object identification method and device, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004164331A (en) * 2002-11-13 2004-06-10 Fujitsu Ltd Image retrieval method, image retrieval device and image retrieval program
JP2005063307A (en) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd Image identification method and device, object identification method and device, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217695A (en) * 2007-03-07 2008-09-18 Ricoh Co Ltd Image processor, image processing method, program, and recording medium
JP2009105594A (en) * 2007-10-23 2009-05-14 Ricoh Co Ltd Image processing device, and image processing method
WO2009072466A1 (en) * 2007-12-03 2009-06-11 National University Corporation Hokkaido University Image classification device and image classification program
US8180161B2 (en) 2007-12-03 2012-05-15 National University Corporation Hokkaido University Image classification device and image classification program
JP5229744B2 (en) * 2007-12-03 2013-07-03 国立大学法人北海道大学 Image classification device and image classification program
JP2009193187A (en) * 2008-02-13 2009-08-27 Casio Comput Co Ltd Image retrieval method, image retrieval system, image retrieval terminal and retrieving server
US8311369B2 (en) 2008-02-13 2012-11-13 Casio Computer Co., Ltd. Method and apparatus for searching for images
WO2010053160A1 (en) * 2008-11-07 2010-05-14 国立大学法人 北海道大学 Content search device and content search program
JP5344715B2 (en) * 2008-11-07 2013-11-20 国立大学法人北海道大学 Content search apparatus and content search program
US9077949B2 (en) 2008-11-07 2015-07-07 National University Corporation Hokkaido University Content search device and program that computes correlations among different features
CN105183837A (en) * 2015-09-02 2015-12-23 Tcl移动通信科技(宁波)有限公司 Mobile terminal thumbnail list view display method and system

Also Published As

Publication number Publication date
JP4565187B2 (en) 2010-10-20

Similar Documents

Publication Publication Date Title
Park et al. Distort-and-recover: Color enhancement using deep reinforcement learning
US6738494B1 (en) Method for varying an image processing path based on image emphasis and appeal
Wang et al. Patch based blind image super resolution
US9619734B2 (en) Classification of land based on analysis of remotely-sensed earth images
US7978918B2 (en) Digital image cropping using a blended map
Lin et al. Fast color-spatial feature based image retrieval methods
US11636570B2 (en) Generating digital images utilizing high-resolution sparse attention and semantic layout manipulation neural networks
JP4565187B2 (en) Image display position determination device, image display position determination method, image display position determination program, and computer-readable recording medium recording the same
CN108961180B (en) Infrared image enhancement method and system
US20080019574A1 (en) Machine-controlled image cropping with default
Tuia et al. Nonconvex regularization in remote sensing
Zhu et al. Learning deep patch representation for probabilistic graphical model-based face sketch synthesis
JP2010067221A (en) Image classification device
Pesaresi et al. A new compact representation of morphological profiles: Report on first massive VHR image processing at the JRC
He et al. Hyperspectral image spectral–spatial-range Gabor filtering
Dou et al. Medical image super-resolution via minimum error regression model selection using random forest
US10007856B2 (en) Processing hyperspectral or multispectral image data
CN111680579A (en) Remote sensing image classification method for adaptive weight multi-view metric learning
JP2006285570A (en) Similar image retrieval method, and similar image retrieval device
CN111354076A (en) Single-image three-dimensional part combined modeling method based on embedding space
Akram et al. A comparative study on face sketch synthesis
CN116825363B (en) Early lung adenocarcinoma pathological type prediction system based on fusion deep learning network
CN112329818B (en) Hyperspectral image non-supervision classification method based on graph convolution network embedded characterization
Yu et al. A hybrid indicator for realistic blurred image quality assessment
Chen et al. Face super resolution based on parent patch prior for VLQ scenarios

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150