JP2008276668A - Image-managing device, image-displaying device, image pickup device, processing method in these devices, and program which makes computer execute the processing method - Google Patents

Image-managing device, image-displaying device, image pickup device, processing method in these devices, and program which makes computer execute the processing method Download PDF

Info

Publication number
JP2008276668A
JP2008276668A JP2007122126A JP2007122126A JP2008276668A JP 2008276668 A JP2008276668 A JP 2008276668A JP 2007122126 A JP2007122126 A JP 2007122126A JP 2007122126 A JP2007122126 A JP 2007122126A JP 2008276668 A JP2008276668 A JP 2008276668A
Authority
JP
Japan
Prior art keywords
image
parameter
representative
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007122126A
Other languages
Japanese (ja)
Other versions
JP5034661B2 (en
Inventor
Daisuke Mochizuki
大介 望月
Sukenori Okamura
祐紀 岡村
Tamaki Kojima
環 児嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007122126A priority Critical patent/JP5034661B2/en
Publication of JP2008276668A publication Critical patent/JP2008276668A/en
Application granted granted Critical
Publication of JP5034661B2 publication Critical patent/JP5034661B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make it possible to select an image, which indicates the outline of all images, from among the images. <P>SOLUTION: A digest generation part 160 groups similar images from among a plurality of images on the basis of similarity characteristics of respective images recorded in a similarity characteristics recording part 141 and a similarity threshold value of a parameter A of a parameter storage part 150, adds weighting to image scores, which are recorded in an image score-recording part 142 in correspondence to the respective images included in each group, with a weighting coefficient of the parameter A to find weighting-added values, and selects representative images from the respective groups on the basis of the values. Further, the digest generation part 160 carries out image-selecting processing in a similar manner by using a similarity threshold value and a weighting coefficient of a parameter B to select at least one representative image from the representative images selected by using the parameter A. Thus, the representative image is selected, through the two-stage selection processing, from among the plurality of images stored in a picked-up image storage part 110. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像管理装置に関し、特に複数の画像を保持する画像管理装置、画像表示装置、撮像装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。   The present invention relates to an image management apparatus, and more particularly to an image management apparatus, an image display apparatus, an imaging apparatus, a processing method in these, and a program for causing a computer to execute the method.

近年、大容量の記憶媒体を備えたデジタルスチルカメラが普及している。このため、1つのイベントにおいて大量の写真を撮影することが可能である。また、短時間のうちに同じ構図で何枚もの写真を連続して撮影して、これらの写真を記憶媒体に記憶することも可能である。   In recent years, digital still cameras equipped with a large-capacity storage medium have become widespread. For this reason, it is possible to take a large number of photographs in one event. It is also possible to take a number of photos continuously with the same composition in a short time and store these photos in a storage medium.

さらに、最近では、連射やブラケット撮影が可能なデジタルスチルカメラが普及している。このため、これらの連射やブラケット撮影等によって、似ている写真を連続して撮影して、これらの写真を記憶媒体に記憶することが広く行われている。   Furthermore, recently, digital still cameras capable of continuous shooting and bracket photography have become widespread. For this reason, it has been widely practiced to continuously take similar photographs by such continuous shooting or bracket photography, and store these photographs in a storage medium.

このようにデジタルスチルカメラで撮影されて記憶媒体に記憶された写真については、例えば、パソコン(パーソナルコンピュータ)を用いてそのディスプレイで閲覧することができる。このようにパソコンを用いて閲覧する場合において、例えば、連続して撮影された比較的多くの写真を閲覧するときには、これらの写真を一覧表示して閲覧することが可能である。   As described above, the photograph taken with the digital still camera and stored in the storage medium can be browsed on the display using a personal computer (PC), for example. In the case of browsing using a personal computer in this way, for example, when browsing a relatively large number of photos taken continuously, it is possible to browse these photos in a list.

このように比較的多くの写真を一覧表示して閲覧する場合には、似たような写真が連続して表示されることが多くなる。この場合において、全体の写真を一望するためには長い時間が必要である。また、スライドショーが延々と終わらずに時間が経過してしまう場合がある。このような場合には、撮影された写真を楽しむことができないことが多い。   Thus, when relatively many photographs are displayed in a list and viewed, similar photographs are often displayed continuously. In this case, it takes a long time to overlook the entire photograph. In addition, the slide show may end indefinitely, and time may elapse. In such a case, it is often impossible to enjoy a photograph taken.

そこで、これらの比較的多くの写真を閲覧する場合には、これらの写真の全てを一覧表示する代わりに、比較的少数の写真を選択して、これらの選択された写真を出力することが考えられる。   Therefore, when browsing a relatively large number of these photos, instead of listing all of these photos, it may be possible to select a relatively small number of photos and output these selected photos. It is done.

例えば、複数の画像データ間の類似の程度を表す類似度に基づいて、複数の画像データのうちの隣接する画像をグループ化するとともに各画像データの項目別評価値を算出し、同一のグループ内で各評価値を補正した補正評価値を算出して、同一のグループ内において補正評価値の上位の画像データを印刷奨励画像データとして選択する画像出力装置が提案されている(例えば、特許文献1参照。)。
特開2006−259788号公報(図6)
For example, based on the degree of similarity representing the degree of similarity between a plurality of image data, adjacent images of the plurality of image data are grouped and the evaluation value for each item of the image data is calculated. An image output device has been proposed in which corrected evaluation values obtained by correcting each evaluation value are calculated and image data higher than the corrected evaluation value in the same group is selected as print encouragement image data (for example, Patent Document 1). reference.).
JP 2006-259788 A (FIG. 6)

上述の従来技術によれば、類似する同一のグループ内において補正評価値の上位の画像データを印刷奨励画像データとして選択することができる。このため、手振れが発生している画像やピントの合っていない画像ではなく、比較的きれいに撮影された画像を印刷することができる。   According to the above-described conventional technology, it is possible to select image data higher in the correction evaluation value as the print encouragement image data in the same similar group. For this reason, it is possible to print an image photographed relatively well, not an image in which camera shake occurs or an image out of focus.

ここで、比較的多くのイベントにおいて撮影された大量の画像が存在する場合において、これらの画像を閲覧する場合を考える。このような場合には、各イベントの概要を迅速に把握して興味のあるイベントの写真のみを閲覧できると便利である。しかしながら、上述の従来技術では、比較的きれいに撮影された画像を印刷することができるものの、類似していない画像が複数存在する場合には、比較的少ない数の画像を適切に選択することができない。このため、ユーザが各イベントの概要を迅速に把握することができないという問題がある。   Here, in the case where there are a large number of images taken in a relatively large number of events, consider the case of browsing these images. In such a case, it is convenient to quickly grasp the outline of each event and browse only the photos of the event of interest. However, although the above-described conventional technique can print a relatively beautifully shot image, a relatively small number of images cannot be appropriately selected when there are a plurality of dissimilar images. . For this reason, there exists a problem that the user cannot grasp | ascertain the outline | summary of each event rapidly.

そこで、本発明は、複数の画像の中からそれら画像全体の概要を示す画像を選択することを目的とする。   Therefore, an object of the present invention is to select an image showing an outline of the entire image from a plurality of images.

本発明は、上記課題を解決するためになされたものであり、その第1の側面は、複数の画像を保持する画像保持手段と、複数の値が設定されているパラメータであって当該複数の値のうちの少なくとも1つが互いに異なる値に設定されているパラメータである第1のパラメータおよび第2のパラメータを保持するパラメータ保持手段と、上記画像保持手段に保持されている各画像の特徴量を記録する特徴量記録手段と、上記特徴量記録手段に記録されている画像の特徴量と上記パラメータ保持手段に保持されている第1のパラメータとに基づいて上記画像保持手段に保持されている複数の画像から少なくとも1つの代表画像を選択する第1の画像選択手段と、上記選択された代表画像に対応して上記特徴量記録手段に記録されている特徴量と上記パラメータ保持手段に保持されている第2のパラメータとに基づいて上記第1の画像選択手段により選択された代表画像から少なくとも1つの代表画像を選択する第2の画像選択手段とを具備することを特徴とする画像管理装置およびその処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、各画像の特徴量と第1のパラメータとに基づいて、複数の画像から少なくとも1つの代表画像を選択し、さらに、この選択された代表画像に対応する特徴量と、第2のパラメータとに基づいてその代表画像から少なくとも1つの代表画像を選択するという作用をもたらす。   The present invention has been made to solve the above problems, and a first aspect of the present invention is an image holding unit that holds a plurality of images, and a parameter in which a plurality of values are set. A parameter holding means for holding a first parameter and a second parameter, each of which is a parameter in which at least one of the values is set to a different value; and a feature amount of each image held in the image holding means. A plurality of features held in the image holding unit based on a feature amount recording unit to be recorded, a feature amount of an image recorded in the feature amount recording unit, and a first parameter held in the parameter holding unit First image selection means for selecting at least one representative image from the images, and feature quantities recorded in the feature quantity recording means corresponding to the selected representative images; Second image selection means for selecting at least one representative image from the representative images selected by the first image selection means based on the second parameter held in the parameter holding means. And a processing method thereof, and a program for causing a computer to execute the method. Accordingly, at least one representative image is selected from the plurality of images based on the feature amount of each image and the first parameter, and the feature amount corresponding to the selected representative image and the second parameter are selected. And at least one representative image is selected from the representative images.

また、この第1の側面において、上記第1のパラメータは、少なくとも画像の特徴量の閾値を含み、上記第2のパラメータは、少なくとも上記第1のパラメータに含まれる画像の特徴量の閾値とは異なる値である画像の特徴量の閾値を含み、上記第1のパラメータに含まれる画像の特徴量の閾値は、上記第2のパラメータに含まれる画像の特徴量の閾値よりも条件が緩和された値に設定され、上記第1の画像選択手段は、上記特徴量記録手段に記録されている画像の特徴量と上記パラメータ保持手段に保持されている第1のパラメータの閾値とに基づいて上記画像保持手段に保持されている複数の画像を分類して当該分類された複数の画像から代表画像を選択し、上記第2の画像選択手段は、上記第1の画像選択手段により選択された代表画像に対応して上記特徴量記録手段に記録されている特徴量と上記パラメータ保持手段に保持されている第2のパラメータの閾値とに基づいて上記第1の画像選択手段により選択された代表画像を分類して当該分類された複数の代表画像から少なくとも1つの代表画像を選択することができる。これにより、画像の特徴量と、第1のパラメータの閾値とに基づいて複数の画像を分類して、この分類された複数の画像から代表画像を選択し、さらに、この選択された代表画像に対応する特徴量と、第2のパラメータの閾値とに基づいてその代表画像を分類して、この分類された複数の代表画像から少なくとも1つの代表画像を選択するという作用をもたらす。この場合において、上記第1のパラメータおよび上記第2のパラメータに含まれる画像の特徴量の閾値は、画像間の類似判定に用いる類似閾値であり、上記第1の画像選択手段は、上記特徴量記録手段に記録されている画像の特徴量と上記パラメータ保持手段に保持されている第1のパラメータの類似閾値とに基づいて上記画像保持手段に保持されている複数の画像のうちの類似する画像同士をグループ化して分類し、上記第2の画像選択手段は、上記第1の画像選択手段により選択された代表画像に対応して上記特徴量記録手段に記録されている特徴量と上記パラメータ保持手段に保持されている第2のパラメータの類似閾値とに基づいて上記第1の画像選択手段により選択された代表画像のうちの類似する画像同士をグループ化して分類することができる。これにより、画像の特徴量と第1のパラメータの類似閾値とに基づいて、複数の画像のうちの類似する画像同士をグループ化して分類して、この分類された複数の画像から代表画像を選択し、さらに、この選択された代表画像に対応する特徴量と、第2のパラメータの類似閾値とに基づいて、その選択された代表画像のうちの類似する画像同士をグループ化して分類するという作用をもたらす。   In the first aspect, the first parameter includes at least an image feature amount threshold, and the second parameter includes at least the image feature amount threshold included in the first parameter. The image feature value threshold value included in the first parameter includes a threshold value of the image feature value that is a different value. The condition of the image feature value threshold value included in the second parameter is relaxed. And the first image selection means sets the image based on the feature quantity of the image recorded in the feature quantity recording means and the threshold value of the first parameter held in the parameter holding means. A plurality of images held in the holding unit are classified and a representative image is selected from the classified plurality of images, and the second image selecting unit selects the representative image selected by the first image selecting unit. The representative image selected by the first image selection unit based on the feature amount recorded in the feature amount recording unit and the threshold value of the second parameter held in the parameter holding unit. At least one representative image can be selected from the plurality of classified representative images. Thereby, a plurality of images are classified based on the feature amount of the image and the threshold value of the first parameter, a representative image is selected from the plurality of classified images, and the selected representative image is further selected. The representative image is classified based on the corresponding feature amount and the threshold value of the second parameter, and at least one representative image is selected from the plurality of classified representative images. In this case, the threshold value of the feature amount of the image included in the first parameter and the second parameter is a similarity threshold value used for similarity determination between images, and the first image selection unit includes the feature amount. Similar images among a plurality of images held in the image holding unit based on the feature amount of the image recorded in the recording unit and the similarity threshold of the first parameter held in the parameter holding unit The second image selection unit stores the feature amount recorded in the feature amount recording unit and the parameter corresponding to the representative image selected by the first image selection unit. Based on the similarity threshold of the second parameter held in the means, the similar images of the representative images selected by the first image selection means are grouped and classified. Rukoto can. Thereby, based on the feature amount of the image and the similarity threshold of the first parameter, the similar images of the plurality of images are grouped and classified, and a representative image is selected from the plurality of classified images. In addition, based on the feature amount corresponding to the selected representative image and the similarity threshold value of the second parameter, the similar images of the selected representative images are grouped and classified. Bring.

また、この第1の側面において、上記第1のパラメータは、少なくとも画像の特徴量に関する重み付け係数を含み、上記第2のパラメータは、少なくとも上記第1のパラメータに含まれる画像の特徴量に関する重み付け係数とは異なる値である画像の特徴量に関する重み付け係数を含み、上記第1の画像選択手段は、上記特徴量記録手段に記録されている画像の特徴量と上記パラメータ保持手段に保持されている第1のパラメータとに基づいて上記画像保持手段に保持されている複数の画像を分類して上記特徴量記録手段に記録されている画像の特徴量と上記パラメータ保持手段に保持されている第1のパラメータの重み付け係数とに基づいて当該分類された複数の画像から代表画像を選択し、上記第2の画像選択手段は、上記第1の画像選択手段により選択された代表画像に対応して上記特徴量記録手段に記録されている特徴量と上記パラメータ保持手段に保持されている第2のパラメータとに基づいて上記第1の画像選択手段により選択された代表画像を分類して上記第1の画像選択手段により選択された代表画像に対応して上記特徴量記録手段に記録されている特徴量と上記パラメータ保持手段に保持されている第2のパラメータの重み付け係数とに基づいて当該分類された複数の代表画像から少なくとも1つの代表画像を選択することができる。これにより、画像の特徴量と第1のパラメータとに基づいて複数の画像を分類して、この分類された複数の画像から、画像の特徴量と第1のパラメータの重み付け係数とに基づいて代表画像を選択し、この選択された代表画像に対応する特徴量と第2のパラメータとに基づいてその選択された代表画像を分類して、この分類された複数の代表画像から、この各代表画像に対応する特徴量と第2のパラメータの重み付け係数とに基づいてさらに代表画像を選択するという作用をもたらす。この場合において、上記第1の画像選択手段は、上記特徴量記録手段に記録されている画像の特徴量を上記パラメータ保持手段に保持されている第1のパラメータの重み付け係数により重み付け加算して当該重み付け加算された値に基づいて当該分類された複数の画像から代表画像を選択し、上記第2の画像選択手段は、上記第1の画像選択手段により選択された代表画像に対応して上記特徴量記録手段に記録されている特徴量を上記パラメータ保持手段に保持されている第2のパラメータの重み付け係数により重み付け加算して当該重み付け加算された値に基づいて当該分類された複数の代表画像から少なくとも1つの代表画像を選択することができる。これにより、画像の特徴量を第1のパラメータの重み付け係数により重み付け加算して、この重み付け加算された値に基づいて、最初に分類された複数の画像から代表画像を選択し、この選択された代表画像に対応する特徴量を第2のパラメータの重み付け係数により重み付け加算して、この重み付け加算された値に基づいて、分類された複数の代表画像から少なくとも1つの代表画像を選択するという作用をもたらす。また、この場合において、上記画像の特徴量に関する重み付け係数は、少なくとも画像のボケ度合いに関する重み付け係数を含み、上記第2のパラメータに含まれる画像のボケ度合いに関する重み付け係数は、上記第1のパラメータに含まれる画像のボケ度合いに関する重み付け係数よりも重み付けの軽い値に設定されることができる。これにより、ボケ度合いに関する重み付けについては、最初の重み付け加算よりも重み付けの軽い値を用いて、2回目の重み付け加算をするという作用をもたらす。   In the first aspect, the first parameter includes at least a weighting coefficient related to an image feature amount, and the second parameter includes at least a weighting coefficient related to an image feature amount included in the first parameter. The first image selection means includes a weighting coefficient relating to a feature quantity of the image having a value different from the first feature, and the first image selection means holds the feature quantity of the image recorded in the feature quantity recording means and the parameter holding means. A plurality of images held in the image holding means are classified based on one parameter, and the image feature quantity recorded in the feature quantity recording means and the first parameter held in the parameter holding means. A representative image is selected from the plurality of classified images based on the weighting coefficient of the parameter, and the second image selection means is configured to select the first image selection. Selected by the first image selection means based on the feature quantity recorded in the feature quantity recording means corresponding to the representative image selected by the means and the second parameter held in the parameter holding means The representative image is classified and the feature amount recorded in the feature amount recording unit corresponding to the representative image selected by the first image selection unit and the second stored in the parameter holding unit At least one representative image can be selected from the classified representative images based on the parameter weighting coefficient. As a result, a plurality of images are classified based on the feature amount of the image and the first parameter, and the representative is selected from the plurality of classified images based on the feature amount of the image and the weighting coefficient of the first parameter. An image is selected, the selected representative image is classified based on the feature amount corresponding to the selected representative image and the second parameter, and each representative image is selected from the plurality of classified representative images. Further, the representative image is further selected based on the feature amount corresponding to, and the weighting coefficient of the second parameter. In this case, the first image selection unit weights and adds the feature amount of the image recorded in the feature amount recording unit by the weighting coefficient of the first parameter held in the parameter holding unit. A representative image is selected from the plurality of classified images based on the weighted value, and the second image selection unit corresponds to the representative image selected by the first image selection unit. The feature quantity recorded in the quantity recording means is weighted and added by the weighting coefficient of the second parameter held in the parameter holding means, and from the plurality of representative images classified based on the weighted value. At least one representative image can be selected. As a result, the feature amount of the image is weighted and added by the weighting coefficient of the first parameter, and based on the weighted value, a representative image is selected from a plurality of images classified first, and the selected image is selected. The feature amount corresponding to the representative image is weighted and added by the weighting coefficient of the second parameter, and at least one representative image is selected from the plurality of classified representative images based on the weighted value. Bring. In this case, the weighting coefficient related to the image feature amount includes at least a weighting coefficient related to the degree of image blur, and the weighting coefficient related to the degree of image blur included in the second parameter corresponds to the first parameter. It can be set to a value that is lighter in weight than the weighting coefficient related to the degree of blur of the included image. As a result, with respect to the weighting related to the degree of blurring, the second weighted addition is performed using a lighter value than the first weighted addition.

また、この第1の側面において、選択すべき代表画像の上限数を指定するための操作入力を受け付ける操作受付手段をさらに具備し、上記第2の画像選択手段は、上記第1の画像選択手段により選択された代表画像が上記指定された上限数以下であるか否かを判断して当該代表画像が当該上限数以下でない場合には当該代表画像に基づいて上記パラメータ保持手段に保持されている第2のパラメータの値を書き換え当該代表画像に対応して上記特徴量記録手段に記録されている特徴量と当該書き換えた第2のパラメータの値とに基づいて上記第1の画像選択手段により選択された代表画像から少なくとも1つの代表画像を選択することができる。これにより、最初に選択された代表画像が、指定された上限数以下であるか否かを判断して、その代表画像が上限数以下でない場合には、その代表画像に基づいて第2のパラメータの値を書き換え、その代表画像に対応する特徴量と、書き換えた第2のパラメータの値とに基づいて、最初に選択された代表画像から少なくとも1つの代表画像を選択するという作用をもたらす。   In the first aspect, the image processing apparatus further includes an operation receiving unit that receives an operation input for designating an upper limit number of representative images to be selected, and the second image selection unit includes the first image selection unit. It is determined whether or not the representative image selected by the number is less than or equal to the specified upper limit number. If the representative image is not less than or equal to the upper limit number, the representative image is held in the parameter holding unit based on the representative image. The second parameter value is rewritten and selected by the first image selection means based on the feature quantity recorded in the feature quantity recording means corresponding to the representative image and the rewritten second parameter value. At least one representative image can be selected from the displayed representative images. Thereby, it is determined whether or not the representative image selected first is less than or equal to the designated upper limit number. If the representative image is not less than or equal to the upper limit number, the second parameter is set based on the representative image. Is rewritten, and at least one representative image is selected from the first selected representative image based on the feature amount corresponding to the representative image and the rewritten second parameter value.

また、この第1の側面において、上記パラメータ保持手段は、設定されている複数の値のうちの少なくとも1つが異なる上記第1のパラメータおよび上記第2のパラメータの組合せを複数保持し、上記パラメータ保持手段に保持されている複数のパラメータの組合せから所望の組合せを指定するための操作入力を受け付ける操作受付手段をさらに具備することができる。これにより、複数のパラメータの組合せから所望の組合せを指定して代表画像の選択をするという作用をもたらす。   In this first aspect, the parameter holding means holds a plurality of combinations of the first parameter and the second parameter that differ in at least one of a plurality of set values, and holds the parameter holding The apparatus may further include an operation receiving unit that receives an operation input for designating a desired combination from a plurality of parameter combinations held in the unit. This brings about the effect that a representative image is selected by designating a desired combination from a plurality of parameter combinations.

また、この第1の側面において、上記画像保持手段に保持されている各画像をイベント毎に分類して記録するイベントクラスタ記録手段をさらに具備し、上記第1の画像選択手段は、上記イベントクラスタ記録手段に記録されているイベント毎に上記代表画像を選択することができる。これにより、複数の画像が分類されたイベント毎に代表画像を選択するという作用をもたらす。   Further, in the first aspect, the image processing apparatus further comprises event cluster recording means for classifying and recording each image held in the image holding means for each event, and the first image selection means includes the event cluster The representative image can be selected for each event recorded in the recording means. This brings about the effect that a representative image is selected for each event in which a plurality of images are classified.

また、この第1の側面において、上記第2の画像選択手段により選択された代表画像を出力する出力手段をさらに具備することができる。これにより、2回目に選択された代表画像を出力するという作用をもたらす。この場合において、上記出力手段は、上記第2の画像選択手段により選択された代表画像を表示する表示手段であることができる。これにより、2回目に選択された代表画像を表示するという作用をもたらす。   In the first aspect, the image processing apparatus may further include output means for outputting the representative image selected by the second image selection means. As a result, the representative image selected for the second time is output. In this case, the output means can be a display means for displaying the representative image selected by the second image selection means. As a result, the representative image selected for the second time is displayed.

また、本発明の第3の側面は、複数の画像を保持する画像保持手段と、複数の値が設定されているパラメータであって当該複数の値のうちの少なくとも1つが互いに異なる値に設定されているパラメータである第1のパラメータおよび第2のパラメータを保持するパラメータ保持手段と、上記画像保持手段に保持されている各画像の特徴量を記録する特徴量記録手段と、上記特徴量記録手段に記録されている画像の特徴量と上記パラメータ保持手段に保持されている第1のパラメータとに基づいて上記画像保持手段に保持されている複数の画像から少なくとも1つの代表画像を選択する第1の画像選択手段と、上記選択された代表画像に対応して上記特徴量記録手段に記録されている特徴量と上記パラメータ保持手段に保持されている第2のパラメータとに基づいて上記第1の画像選択手段により選択された代表画像から少なくとも1つの代表画像を選択する第2の画像選択手段と、上記第2の画像選択手段により選択された代表画像を表示する表示手段とを具備することを特徴とする画像表示装置およびその処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、各画像の特徴量と第1のパラメータとに基づいて、複数の画像から少なくとも1つの代表画像を選択し、さらに、この選択された代表画像に対応する特徴量と、第2のパラメータとに基づいてその代表画像から少なくとも1つの代表画像を選択して、この選択された代表画像を表示するという作用をもたらす。   According to a third aspect of the present invention, there is provided an image holding unit that holds a plurality of images, and a parameter in which a plurality of values are set, and at least one of the plurality of values is set to a different value. Parameter holding means for holding the first parameter and the second parameter, the feature quantity recording means for recording the feature quantity of each image held in the image holding means, and the feature quantity recording means A first selection unit selects at least one representative image from a plurality of images held in the image holding unit based on a feature amount of an image recorded in the image and a first parameter held in the parameter holding unit. Image selection means, a feature quantity recorded in the feature quantity recording means corresponding to the selected representative image, and a second value held in the parameter holding means. A second image selecting means for selecting at least one representative image from the representative images selected by the first image selecting means based on the parameters, and the representative image selected by the second image selecting means. An image display apparatus comprising the display means, a processing method therefor, and a program for causing a computer to execute the method. Accordingly, at least one representative image is selected from the plurality of images based on the feature amount of each image and the first parameter, and the feature amount corresponding to the selected representative image and the second parameter are selected. Based on the above, at least one representative image is selected from the representative images, and the selected representative image is displayed.

また、本発明の第3の側面は、撮像された複数の画像を保持する画像保持手段と、複数の値が設定されているパラメータであって当該複数の値のうちの少なくとも1つが互いに異なる値に設定されているパラメータである第1のパラメータおよび第2のパラメータを保持するパラメータ保持手段と、上記画像保持手段に保持されている各画像の特徴量を記録する特徴量記録手段と、上記特徴量記録手段に記録されている画像の特徴量と上記パラメータ保持手段に保持されている第1のパラメータとに基づいて上記画像保持手段に保持されている複数の画像から少なくとも1つの代表画像を選択する第1の画像選択手段と、上記選択された代表画像に対応して上記特徴量記録手段に記録されている特徴量と上記パラメータ保持手段に保持されている第2のパラメータとに基づいて上記第1の画像選択手段により選択された代表画像から少なくとも1つの代表画像を選択する第2の画像選択手段と、上記第2の画像選択手段により選択された代表画像を表示する表示手段とを具備することを特徴とする撮像装置およびその処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、各画像の特徴量と第1のパラメータとに基づいて、複数の画像から少なくとも1つの代表画像を選択し、さらに、この選択された代表画像に対応する特徴量と、第2のパラメータとに基づいてその代表画像から少なくとも1つの代表画像を選択して、この選択された代表画像を表示するという作用をもたらす。   According to a third aspect of the present invention, there is provided an image holding unit for holding a plurality of captured images, and a parameter for which a plurality of values are set, wherein at least one of the plurality of values is different from each other. Parameter holding means for holding the first parameter and the second parameter that are parameters set in the above, a feature quantity recording means for recording the feature quantity of each image held in the image holding means, and the feature At least one representative image is selected from a plurality of images held in the image holding means based on the feature amount of the image recorded in the quantity recording means and the first parameter held in the parameter holding means A first image selection means, a feature quantity recorded in the feature quantity recording means corresponding to the selected representative image, and held in the parameter holding means. Second image selecting means for selecting at least one representative image from representative images selected by the first image selecting means based on the second parameter, and selected by the second image selecting means An image pickup apparatus, a processing method thereof, and a program for causing a computer to execute the method include display means for displaying a representative image. Accordingly, at least one representative image is selected from the plurality of images based on the feature amount of each image and the first parameter, and the feature amount corresponding to the selected representative image and the second parameter are selected. Based on the above, at least one representative image is selected from the representative images, and the selected representative image is displayed.

本発明によれば、複数の画像の中からそれら画像全体の概要を示す画像を選択することができるという優れた効果を奏し得る。   According to the present invention, it is possible to achieve an excellent effect of being able to select an image showing an outline of the entire image from a plurality of images.

次に本発明の実施の形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態における画像管理装置100の機能構成例を示すブロック図である。画像管理装置100は、撮影画像保持部110と、時刻情報取得部121と、クラスタリング部122と、イベントクラスタ記録部123と、特徴抽出部130と、類似特徴記録部141と、画像スコア記録部142と、パラメータ保持部150と、ダイジェスト生成部160と、表示制御部170と、操作受付部180と、表示部190とを備える。   FIG. 1 is a block diagram illustrating a functional configuration example of an image management apparatus 100 according to an embodiment of the present invention. The image management apparatus 100 includes a captured image holding unit 110, a time information acquisition unit 121, a clustering unit 122, an event cluster recording unit 123, a feature extraction unit 130, a similar feature recording unit 141, and an image score recording unit 142. A parameter storage unit 150, a digest generation unit 160, a display control unit 170, an operation reception unit 180, and a display unit 190.

撮影画像保持部110は、デジタルスチルカメラ等で撮影された撮影画像(写真画像)を保持する保持部である。なお、撮影画像保持部110に記録される撮影画像にはExif(Exchangeable Image File Format)タグが格納され、このExifタグには撮影位置情報や撮影時刻(Date Time Original)等の各種メタデータが記録される。また、各撮影画像には、撮影画像の識別子である撮影画像IDが付与され、この撮影画像IDがメタデータに記録されている。   The photographed image holding unit 110 is a holding unit that holds a photographed image (photographic image) photographed by a digital still camera or the like. The captured image recorded in the captured image holding unit 110 stores an Exif (Exchangeable Image File Format) tag, and various metadata such as shooting position information and shooting time (Date Time Original) are recorded in the Exif tag. Is done. Each captured image is given a captured image ID that is an identifier of the captured image, and the captured image ID is recorded in the metadata.

時刻情報取得部121は、撮影画像保持部110に保持されている各撮影画像のExifタグから時刻情報を取得し、取得された時刻情報をクラスタリング部122に出力するものである。なお、この時刻情報の取得は、撮影画像が撮影画像保持部110に記録された場合等に必要に応じて行われる。   The time information acquisition unit 121 acquires time information from the Exif tag of each captured image stored in the captured image storage unit 110, and outputs the acquired time information to the clustering unit 122. The acquisition of the time information is performed as necessary when a captured image is recorded in the captured image holding unit 110.

クラスタリング部122は、撮影画像保持部110に保持されている撮影画像をイベントクラスタリングと呼ばれる手法を用いてイベント毎に分類するものである。このイベントクラスタリングにおいて、各撮影画像をリーフ(葉)とする二分木構造のデータが用いられる。この二分木構造データにおけるノード(節)は、クラスタに該当する。具体的には、クラスタリング部122は、時刻情報取得部121から受け取った時刻情報に基づいて、撮影画像間の撮影間隔を計算し、計算された撮影間隔に応じて二分木構造の階層型クラスタを作成する。そして、作成された二分木構造の階層型クラスタの中から、イベントクラスタのグループ化条件に基づいて、最適なクラスタの階層を決定することによって、撮影画像をイベント毎に分類する。これにより、イベントと呼ばれる単位の複数の時系列順に並んだグループに複数の撮影画像を分類することができる。このグループには、1または複数の撮影画像が属する。なお、階層型クラスタの作成については、図2を参照して詳細に説明する。   The clustering unit 122 classifies the captured images held in the captured image holding unit 110 for each event using a method called event clustering. In this event clustering, binary tree structure data with each photographed image as a leaf is used. Nodes (sections) in this binary tree structure data correspond to clusters. Specifically, the clustering unit 122 calculates a shooting interval between shot images based on the time information received from the time information acquisition unit 121, and generates a binary tree structure hierarchical cluster according to the calculated shooting interval. create. Then, the photographed images are classified for each event by determining the optimum cluster hierarchy based on the event cluster grouping condition from the created binary cluster structured hierarchical cluster. Thereby, a some picked-up image can be classify | categorized into the group arranged in order of the some time series of the unit called an event. One or more photographed images belong to this group. The creation of the hierarchical cluster will be described in detail with reference to FIG.

イベントクラスタ記録部123は、クラスタリング部122によりイベント毎に分類された撮影画像に関する情報およびそのイベントに対応するイベントクラスタに関する情報を含むイベントクラスタ情報を記録するものである。イベントクラスタ記録部123には、例えば、クラスタID、撮影画像リスト等がイベントクラスタ情報として記録される。なお、クラスタIDは、二分木構造の階層型クラスタにおける各クラスタの識別子であり、例えば、整数値が記録される。撮影画像リストは、二分木構造の階層型クラスタにおける各クラスタに含まれる撮影画像IDのリストであり、各撮影画像の撮影画像IDが記録される。   The event cluster recording unit 123 records event cluster information including information on captured images classified for each event by the clustering unit 122 and information on event clusters corresponding to the event. In the event cluster recording unit 123, for example, a cluster ID, a photographed image list, and the like are recorded as event cluster information. The cluster ID is an identifier of each cluster in the binary tree structure hierarchical cluster, and an integer value is recorded, for example. The photographed image list is a list of photographed image IDs included in each cluster in the binary tree structure hierarchical cluster, and the photographed image ID of each photographed image is recorded.

特徴抽出部130は、撮影画像保持部110に保持されている各画像について各種画像解析を行い、類似特徴を抽出するとともに画像スコアを計算するものである。特徴抽出部130により抽出された類似特徴は類似特徴記録部141に記録され、特徴抽出部130により計算された画像スコアは画像スコア記録部142に記録される。なお、これらの各種画像解析は、例えば、撮影画像が撮影画像保持部110に記録されたタイミングでその撮影画像について随時行うようにしてもよく、ユーザからの解析開始要求等に基づいて、各撮影画像について一括して行うようにしてもよい。   The feature extraction unit 130 performs various image analyzes on each image held in the captured image holding unit 110, extracts similar features, and calculates an image score. The similar features extracted by the feature extraction unit 130 are recorded in the similar feature recording unit 141, and the image score calculated by the feature extraction unit 130 is recorded in the image score recording unit 142. Note that these various types of image analysis may be performed on the photographed image at any time when the photographed image is recorded in the photographed image holding unit 110, and each photographed image is analyzed based on an analysis start request from the user. You may make it carry out collectively about an image.

ここで、特徴抽出部130による画像解析によって求められる類似特徴および画像スコアについて詳細に説明する。なお、特徴抽出部130が画像解析を行う場合には、画像解析の対象となる撮影画像について解像度変換を行い、各撮影画像の大きさを一定にする。   Here, the similar features and image scores obtained by image analysis by the feature extraction unit 130 will be described in detail. Note that, when the feature extraction unit 130 performs image analysis, resolution conversion is performed on a captured image that is an object of image analysis, and the size of each captured image is made constant.

類似特徴は、基準となる画像と他の画像との類似の程度を判断する場合に用いられる画像の特徴量を示すものであり、撮影画像の色分布や周波数分布等を用いて求めることができる。そして、求められた特徴量が類似特徴記録部141に記録される。   The similar feature indicates a feature amount of an image used when determining the degree of similarity between a reference image and another image, and can be obtained using a color distribution, a frequency distribution, or the like of a captured image. . Then, the obtained feature amount is recorded in the similar feature recording unit 141.

また、画像スコアは、複数の画像の中から代表画像を選択する場合に用いられる値であって、画像の見栄えの良さを表す評価値である。画像スコアとして、例えば、画像のボケ度合いに基づくスコア(blur_score)、画像の色の広がり具合に基づくスコア(color_variation)、画像に含まれる顔の個数に基づくスコア(face_count)、画像に含まれる顔の位置に基づくスコア(face_position)、画像に含まれる顔の面積に基づくスコア(face_area)、画像に含まれる顔に関する笑顔の度合いに基づくスコア(smile)等がある。なお、本発明の実施の形態では、ここで示した6つの画像スコアを用いて説明するが、これらの画像スコア以外の画像スコアを用いるようにしてもよい。また、これらの画像スコアのうちの少なくとも1つを用いるようにしてもよい。さらに、これらの画像スコアのうちの少なくとも1つと他の画像スコアとの組合せを用いるようにしてもよい。   The image score is a value used when a representative image is selected from a plurality of images, and is an evaluation value representing the appearance of the image. As an image score, for example, a score based on the degree of blur of the image (blur_score), a score based on the color spread of the image (color_variation), a score based on the number of faces included in the image (face_count), and a score of the face included in the image There are a score based on the position (face_position), a score based on the area of the face included in the image (face_area), a score based on the degree of smile related to the face included in the image (smile), and the like. In the embodiment of the present invention, description is made using the six image scores shown here, but image scores other than these image scores may be used. Further, at least one of these image scores may be used. Further, a combination of at least one of these image scores and another image score may be used.

画像のボケ度合いに基づくスコア(ボケ度合いスコア:BS)は、画像に含まれる周波数の高さを示すスコアであり、画像のFFT応答に対する次式により求めることができる。すなわち、高周波成分が少ない場合に、その画像にボケが生じていると推測するものである。なお、FFTを一辺を2のべき乗とする画像に対して適用するために、ここでは画像中心から256×128、または、128×256を切り出した部分を用いて計算される。

Figure 2008276668
The score based on the degree of blur of the image (blurring degree score: BS) is a score indicating the height of the frequency included in the image, and can be obtained by the following equation for the FFT response of the image. That is, when there are few high frequency components, it is estimated that the image is blurred. Note that, in order to apply FFT to an image whose one side is a power of 2, calculation is performed using a portion obtained by cutting out 256 × 128 or 128 × 256 from the center of the image.
Figure 2008276668

ここで、x、yは、FFT応答中の位置を示し、rは、中心からの距離を示し、νは、FFT応答値を示し、wは、画像の幅を示し、hは画像の高さを示す。   Here, x and y represent positions in the FFT response, r represents the distance from the center, ν represents the FFT response value, w represents the width of the image, and h represents the height of the image. Indicates.

画像の色の広がり具合に基づくスコアは、画像に含まれる色の多様性を示すスコアである。例えば、画像に含まれる画素の色空間(ここでは、La*b*色空間)における分散値を用いることができる。   The score based on the color spread of the image is a score indicating the diversity of colors included in the image. For example, a dispersion value in a color space (here, La * b * color space) of pixels included in the image can be used.

画像に含まれる顔の個数に基づくスコア、画像に含まれる顔の位置に基づくスコア、画像に含まれる顔の面積に基づくスコア、および、画像に含まれる顔に関する笑顔の度合いに基づくスコアのそれぞれの画像スコアは、画像から検出された顔の情報に基づいて求められるスコアである。   Each of the score based on the number of faces included in the image, the score based on the position of the face included in the image, the score based on the area of the face included in the image, and the score based on the degree of smile regarding the face included in the image The image score is a score obtained based on face information detected from an image.

画像に含まれる顔の個数に基づくスコアは、画像に含まれる顔の個数を示すスコアであり、顔の個数の数値がそのまま用いられる。   The score based on the number of faces included in the image is a score indicating the number of faces included in the image, and the numerical value of the number of faces is used as it is.

画像に含まれる顔の位置に基づくスコアFSは、顔の位置が画像中心付近の適切な位置に写っている度合いを示すスコアである。例えば、画像に含まれる全ての顔の重心の平均位置に関して、次式(二次元正規分布の式)を用いて求めることができる。

Figure 2008276668
The score FS based on the position of the face included in the image is a score indicating the degree to which the face position is reflected at an appropriate position near the center of the image. For example, the average position of the center of gravity of all the faces included in the image can be obtained using the following equation (two-dimensional normal distribution equation).
Figure 2008276668

ここで、x、yは、画像に含まれる全ての顔の重心の平均位置を示す。この場合に、画像中央を原点とし、[−0.5、0.5]に正規化された値が用いられる。また、(μ,μ)=(0.500,0.431)であり、(σ,σ)=(0.159,0.118)である。 Here, x and y indicate the average positions of the centroids of all the faces included in the image. In this case, a value normalized to [−0.5, 0.5] with the center of the image as the origin is used. Further, (μ x , μ y ) = (0.500, 0.431) and (σ x , σ y ) = (0.159, 0.118).

画像に含まれる顔の面積に基づくスコアは、画像に含まれる顔の大きさを示すスコアである。なお、画像に複数の顔が含まれている場合には、これらの複数の顔の面積の平均値を用いて計算される。   The score based on the area of the face included in the image is a score indicating the size of the face included in the image. When a plurality of faces are included in the image, calculation is performed using an average value of the areas of the plurality of faces.

画像に含まれる顔に関する笑顔の度合いに基づくスコアは、画像から検出された顔に関する笑顔の度合いを示すスコアである。なお、画像に複数の顔が含まれている場合には、これらの複数の顔に関する笑顔の度合いを示す値の平均値を用いる。この笑顔の度合いを求める場合には、公知の顔認識技術を用いて、検出された顔に関する笑顔を判定して、その笑顔の度合いを数値化する。   The score based on the degree of smile related to the face included in the image is a score indicating the degree of smile related to the face detected from the image. In addition, when a plurality of faces are included in the image, an average value of values indicating the degree of smile regarding the plurality of faces is used. When determining the degree of smile, a smile related to the detected face is determined using a known face recognition technique, and the degree of smile is quantified.

類似特徴記録部141は、特徴抽出部130により抽出された撮影画像の類似特徴を、撮影画像IDに関連付けて記録する記録部である。   The similar feature recording unit 141 is a recording unit that records the similar feature of the photographed image extracted by the feature extraction unit 130 in association with the photographed image ID.

画像スコア記録部142は、特徴抽出部130により計算された撮影画像の画像スコアを、撮影画像IDに関連付けて記録する記録部である。   The image score recording unit 142 is a recording unit that records the image score of the captured image calculated by the feature extraction unit 130 in association with the captured image ID.

パラメータ保持部150は、ダイジェスト生成部160が撮影画像の選択処理を実行する場合に用いるパラメータを保持するものである。なお、このパラメータについては、図3を参照して詳細に説明する。   The parameter holding unit 150 holds parameters used when the digest generation unit 160 executes a captured image selection process. This parameter will be described in detail with reference to FIG.

ダイジェスト生成部160は、類似特徴記録部141に記録されている撮影画像の類似特徴に基づいて、イベントクラスタ記録部123に記録されている各イベントクラスタに属する複数の撮影画像について各撮影画像間の類似距離を計算し、この計算結果とパラメータ保持部150に保持されているパラメータとに基づいて1または複数のグループを作成するものである。また、ダイジェスト生成部160は、画像スコア記録部142に記録されている撮影画像の画像スコアとパラメータ保持部150に保持されているパラメータとに基づいて、撮影画像の類似特徴に基づいて作成された各グループに属する1または複数の撮影画像から、1つの撮影画像を代表画像として選択する。さらに、ダイジェスト生成部160は、類似特徴記録部141に記録されている撮影画像の類似特徴に基づいて、代表画像として選択された複数の撮影画像について各撮影画像間の類似距離を計算し、この計算結果とパラメータ保持部150に保持されているパラメータとに基づいて1または複数のグループを作成する。また、ダイジェスト生成部160は、画像スコア記録部142に記録されている撮影画像の画像スコアとパラメータ保持部150に保持されているパラメータとに基づいて、代表画像から作成された各グループに属する1または複数の撮影画像から、1つの撮影画像を代表画像としてさらに選択する。これらの撮影画像のグループ化および選択については、図4および図5を参照して詳細に説明する。   Based on the similar feature of the captured image recorded in the similar feature recording unit 141, the digest generation unit 160 determines between the captured images for a plurality of captured images belonging to each event cluster recorded in the event cluster recording unit 123. The similarity distance is calculated, and one or a plurality of groups are created based on the calculation result and the parameters held in the parameter holding unit 150. In addition, the digest generation unit 160 is created based on the similar characteristics of the captured image based on the image score of the captured image recorded in the image score recording unit 142 and the parameters stored in the parameter storage unit 150. One captured image is selected as a representative image from one or a plurality of captured images belonging to each group. Furthermore, the digest generation unit 160 calculates the similarity distance between the captured images for a plurality of captured images selected as the representative image based on the similar features of the captured images recorded in the similar feature recording unit 141. One or more groups are created based on the calculation results and the parameters held in the parameter holding unit 150. The digest generation unit 160 also belongs to each group created from the representative image based on the image score of the captured image recorded in the image score recording unit 142 and the parameter stored in the parameter storage unit 150. Alternatively, one captured image is further selected as a representative image from a plurality of captured images. The grouping and selection of these captured images will be described in detail with reference to FIGS. 4 and 5.

表示制御部170は、撮影画像のダイジェスト閲覧を指示する旨の操作入力が操作受付部180から受け付けられた場合には、イベント毎に選択された代表画像に関する代表画像情報をダイジェスト生成部160から取得するとともに、撮影画像保持部110から撮影画像を読み出し、読み出された代表画像情報に基づいて、撮影画像をイベント毎に分類して閲覧ビューを構成し、閲覧ビューを表示部190に表示させるものである。なお、閲覧ビューの表示例については、図5(b)に示す。   The display control unit 170 acquires, from the digest generation unit 160, representative image information related to the representative image selected for each event when an operation input for instructing the digest viewing of the captured image is received from the operation reception unit 180. In addition, the photographed image is read from the photographed image holding unit 110, the photographed image is classified for each event based on the read representative image information, and the browse view is configured to be displayed on the display unit 190. It is. A display example of the browsing view is shown in FIG.

操作受付部180は、各種操作ボタンを備え、これらのボタン等から操作入力を受け付けると、受け付けた操作入力の内容を、パラメータ保持部150、ダイジェスト生成部160および表示制御部170に出力するものである。例えば、代表画像を選択するための指示をするダイジェスト生成ボタンや、選択された代表画像を表示させるための指示をするダイジェスト閲覧ボタン等が操作受付部180に設けられる。なお、ダイジェスト生成ボタンやダイジェスト閲覧ボタン等を表示部190に表示させ、これらのボタンを操作受付部180の操作入力に応じて押下させるようにしてもよい。また、操作受付部180の少なくとも一部と表示部190とをタッチパネルとして一体化して構成するようにしてもよい。   The operation reception unit 180 includes various operation buttons. When an operation input is received from these buttons, the operation reception unit 180 outputs the contents of the received operation input to the parameter holding unit 150, the digest generation unit 160, and the display control unit 170. is there. For example, the operation reception unit 180 is provided with a digest generation button for giving an instruction for selecting a representative image, a digest browsing button for giving an instruction for displaying the selected representative image, and the like. Note that a digest generation button, a digest browsing button, and the like may be displayed on the display unit 190, and these buttons may be pressed according to an operation input of the operation reception unit 180. Further, at least a part of the operation receiving unit 180 and the display unit 190 may be integrated as a touch panel.

表示部190は、表示制御部170からの制御に基づいて、撮影画像保持部110に保持されている撮影画像等を表示する表示部である。表示部190として、例えば、液晶表示装置(LCD:Liquid Crystal Display)を用いることができる。   The display unit 190 is a display unit that displays a captured image or the like held in the captured image holding unit 110 based on control from the display control unit 170. As the display unit 190, for example, a liquid crystal display (LCD) can be used.

図2(a)は、撮影画像保持部110に保持されている複数の画像の撮影頻度と、撮影時刻との関係を表すグラフを示す図である。   FIG. 2A is a graph showing a relationship between the shooting frequency of a plurality of images held in the shot image holding unit 110 and the shooting time.

図2(a)に示すグラフにおいて、横軸は時間軸を示し、縦軸は撮影頻度を示す。例えば、撮影頻度の値が大きい部分では、短時間に多くの撮影が行われていることを示す。図2(a)に示すグラフにおいて、例えば、区間201は、イベントとして「家族でのピクニック」があった期間を示し、区間203は、イベントとして「子供の運動会」があった期間を示し、区間205は、イベントとして「仲間との釣り」があった期間を示し、区間202および204は、特にイベントがなかった期間を示すとする。例えば、「家族でのピクニック」では、昼食時に撮影する機会が多くなるため、区間201の真中部分で撮影頻度が高くなる。また、「子供の運動会」では、昼食の前後に子供の活躍を撮影する機会が多く、昼食時には撮影する機会が少なくなるため、区間203の前部分および後部分で撮影頻度が高くなり、真中部分では撮影頻度が低くなる。また、「仲間との釣り」では、開始時に撮影する機会が多く、釣りを開始した後は撮影する機会が少なくなるため、区間203の前部分で撮影頻度が高くなり、後部分では撮影頻度が低くなる。   In the graph shown in FIG. 2A, the horizontal axis indicates the time axis, and the vertical axis indicates the imaging frequency. For example, a portion where the value of the photographing frequency is large indicates that many photographings are performed in a short time. In the graph shown in FIG. 2A, for example, a section 201 indicates a period in which “Family picnic” is an event, a section 203 indicates a period in which “Children's athletic meet” is an event, and a section 205 indicates a period in which “fishing with friends” is present as an event, and sections 202 and 204 indicate periods in which there is no particular event. For example, in “family picnics”, there are many opportunities to shoot at lunch time, so the frequency of shooting increases in the middle of the section 201. In addition, in the “children's athletic meet”, there are many opportunities to photograph children's activities before and after lunch, and there are fewer opportunities to photograph at lunch time, so the frequency of photographing increases at the front and rear portions of the section 203, and the middle portion. Then, the shooting frequency is low. In addition, in “fishing with friends”, there are many opportunities to shoot at the start, and there are fewer opportunities to shoot after starting fishing, so the shooting frequency increases in the front part of the section 203 and the shooting frequency in the rear part. Lower.

図2(a)に示すように、各イベントがあった区間201、203、205では、撮影頻度の値が比較的大きくなり、特別なイベントがなかった区間202および204では、撮影頻度の値は小さくなる。このように、撮影頻度の値の大小に応じてイベントの有無を判断することができる。これにより、撮影頻度の値が連続して大きい区間が1つのイベントとして分類される。例えば、区間201、203、205に撮影された撮影画像が、それぞれのイベントに分類される。   As shown in FIG. 2A, in the sections 201, 203, and 205 where each event occurred, the shooting frequency value was relatively large, and in the sections 202 and 204 where there was no special event, the shooting frequency value was Get smaller. In this way, it is possible to determine the presence or absence of an event according to the magnitude of the photographing frequency value. Thereby, a section in which the value of the imaging frequency is continuously large is classified as one event. For example, photographed images photographed in the sections 201, 203, and 205 are classified into respective events.

図2(b)は、撮影画像保持部110に保持されている撮影画像をクラスタリング部122がイベント毎に分類する場合に行うイベントクラスタリングの概略を示す図である。図2(b)に示すように、例えば、時間軸210において、撮影画像211乃至216がその撮影時刻の位置に時系列に配置されているものとする。この場合に、撮影画像211乃至216の撮影時刻に基づいて、撮影画像211乃至216のそれぞれの撮影間隔が計算される。そして、この計算結果に基づいて各クラスタが作成される。なお、図2(b)に示す二分木のリーフ(葉)は、撮影画像211乃至216に対応する。また、作成された各クラスタは、図2(b)に示す二分木のノード(節)に対応する。   FIG. 2B is a diagram illustrating an outline of event clustering performed when the clustering unit 122 classifies captured images held in the captured image holding unit 110 for each event. As shown in FIG. 2B, for example, on the time axis 210, the captured images 211 to 216 are arranged in time series at the positions of the capturing times. In this case, the shooting intervals of the shot images 211 to 216 are calculated based on the shooting times of the shot images 211 to 216. Then, each cluster is created based on the calculation result. Note that the leaves of the binary tree shown in FIG. 2B correspond to the captured images 211 to 216. Each created cluster corresponds to a node (node) of the binary tree shown in FIG.

例えば、撮影間隔が一番短い撮影画像215および216でクラスタ224が作成され、撮影間隔が二番目に短い撮影画像211および212でクラスタ221が作成される。続いて、作成されたクラスタ221および224と、撮影画像213および214とのそれぞれの撮影間隔が計算され、この計算結果に基づいて、さらにクラスタが作成される。例えば、クラスタ221と撮影画像213とでクラスタ222が作成され、クラスタ224と撮影画像214とでクラスタ225が作成される。さらに、クラスタ222および225で、撮影画像211乃至216の全てが属するクラスタ223が作成される。   For example, a cluster 224 is created with the captured images 215 and 216 with the shortest shooting interval, and a cluster 221 is created with the captured images 211 and 212 with the second shortest shooting interval. Subsequently, the respective shooting intervals between the created clusters 221 and 224 and the shot images 213 and 214 are calculated, and further clusters are created based on the calculation results. For example, a cluster 222 is created from the cluster 221 and the captured image 213, and a cluster 225 is created from the cluster 224 and the captured image 214. Further, a cluster 223 to which all of the captured images 211 to 216 belong is created by the clusters 222 and 225.

続いて、作成された二分木におけるクラスタ221乃至225の中から、イベントクラスタのグループ化条件に基づいて最適なクラスタの階層を決定する。このイベントクラスタのグループ化条件は、例えば、各クラスタに属する撮影画像の撮影頻度を基準として設定される。例えば、図2(b)に示す例では、撮影画像211乃至213および撮影画像214乃至216のそれぞれの撮影時間の間隔が短く、撮影画像213および214との撮影時間の間隔が比較的長くなっている。このため、クラスタ222および225に属する撮影画像の撮影頻度の値は比較的大きいのに対して、クラスタ223に属する撮影画像の撮影頻度の値は比較的小さくなる。このため、クラスタ221乃至225の中から、クラスタ222および225が決定される。これにより、クラスタ222に属する撮影画像211乃至213が1つのイベントと判断されるとともに、クラスタ225に属する撮影画像214乃至216が1つのイベントと判断され、撮影画像211乃至216が2つのイベントに分類される。このように、撮影画像211乃至216が、イベントクラスタと呼ばれる単位の複数の時系列順に並んだ撮影画像からなるグループに分類される。   Subsequently, an optimal cluster hierarchy is determined from the clusters 221 to 225 in the created binary tree based on the event cluster grouping condition. The event cluster grouping condition is set based on, for example, the shooting frequency of the shot images belonging to each cluster. For example, in the example shown in FIG. 2B, the interval between the captured images 211 to 213 and the captured images 214 to 216 is short, and the interval between the captured images 213 and 214 is relatively long. Yes. For this reason, the value of the shooting frequency of the shot images belonging to the clusters 222 and 225 is relatively large, whereas the value of the shooting frequency of the shot images belonging to the cluster 223 is relatively small. Therefore, the clusters 222 and 225 are determined from the clusters 221 to 225. Thus, the captured images 211 to 213 belonging to the cluster 222 are determined as one event, the captured images 214 to 216 belonging to the cluster 225 are determined to be one event, and the captured images 211 to 216 are classified into two events. Is done. In this way, the captured images 211 to 216 are classified into groups composed of captured images arranged in a plurality of time series in units called event clusters.

図3は、パラメータ保持部150に保持されるパラメータの一例を示す図である。ダイジェスト生成部160が撮影画像の選択処理を実行する場合に用いるパラメータ230は、2つのパラメータAおよびBを用いる。なお、この2つのパラメータAおよびBは、少なくとも1つの項目の値が異なっている。   FIG. 3 is a diagram illustrating an example of parameters held in the parameter holding unit 150. Two parameters A and B are used as the parameter 230 used when the digest generation unit 160 executes the picked-up image selection process. The two parameters A and B have different values for at least one item.

パラメータ230には、「類似閾値」、「ボケ度合いの重み付け係数」、「色の広がり具合の重み付け係数」、「顔の個数の重み付け係数」、「顔の位置の重み付け係数」、「顔のサイズの重み付け係数」、「笑顔の度合いの重み付け係数」のそれぞれの値が、パラメータAおよびパラメータBに記録されている。この例では、パラメータAおよびパラメータBにおいて、「類似閾値」および「ボケ度合いの重み付け係数」については異なる値が記録され、その他の項目については同じ値が記録されている。   The parameters 230 include “similarity threshold”, “weighting coefficient of blur degree”, “weighting coefficient of color spread”, “weighting coefficient of the number of faces”, “weighting coefficient of face position”, “face size” "Weighting coefficient" and "smiling degree weighting coefficient" are recorded in parameter A and parameter B, respectively. In this example, in parameter A and parameter B, different values are recorded for “similar threshold” and “weighting coefficient of blur degree”, and the same values are recorded for other items.

「類似閾値」は、比較対象となる2つの撮影画像が類似するか否かを判断する場合に用いる閾値である。例えば、類似特徴記録部141に記録されている2つの撮影画像の類似特徴の値の差(類似距離)が「類似閾値」の値以下であれば、この2つの撮影画像が類似すると判断される。このように、「類似閾値」を用いて、類似する撮影画像同士がグループ化され、複数の撮影画像が1または複数のグループに分類される。   The “similar threshold” is a threshold used when it is determined whether or not two captured images to be compared are similar. For example, if the difference (similar distance) between the similar feature values of two captured images recorded in the similar feature recording unit 141 is equal to or smaller than the value of the “similar threshold”, it is determined that the two captured images are similar. . Thus, using the “similarity threshold”, similar captured images are grouped, and a plurality of captured images are classified into one or a plurality of groups.

「ボケ度合いの重み付け係数」等の各重み付け係数は、「類似閾値」を用いてグループ化された撮影画像の中から1つの撮影画像を選択する場合に用いる重み付け係数である。例えば、1つのグループ内において、画像スコア記録部142に記録されている各撮影画像の各画像スコアが正規化され、この正規化された画像スコアが各重み付け係数を用いて重み付け加算され、この重み付け加算された値が各撮影画像の評価値として算出される。そして、1つのグループ内において、この算出された各評価値が比較され、比較された結果、最も評価値の大きい撮影画像が、代表画像として選択される。なお、この2つのパラメータAおよびBを用いた撮影画像の選択については、図4を参照して詳細に説明する。   Each weighting coefficient such as “weighting coefficient of blur degree” is a weighting coefficient used when one photographed image is selected from the photographed images grouped using the “similar threshold”. For example, in each group, each image score of each photographed image recorded in the image score recording unit 142 is normalized, and this normalized image score is weighted and added using each weighting coefficient. The added value is calculated as an evaluation value for each captured image. In each group, the calculated evaluation values are compared, and as a result of the comparison, a photographed image having the largest evaluation value is selected as a representative image. Note that selection of a captured image using these two parameters A and B will be described in detail with reference to FIG.

図4は、1つのイベントに属する撮影画像から代表画像を選出する場合における遷移を概略的に示す遷移図である。ここでは、撮影画像保持部110に保持されている撮影画像のうちで、イベントクラスタ記録部123に記録されているイベント310に属する撮影画像311乃至318から2つの撮影画像313および317が選択される場合について説明する。   FIG. 4 is a transition diagram schematically showing a transition when a representative image is selected from captured images belonging to one event. Here, of the captured images held in the captured image holding unit 110, two captured images 313 and 317 are selected from the captured images 311 to 318 belonging to the event 310 recorded in the event cluster recording unit 123. The case will be described.

図4(a)は、撮影画像保持部110に保持されている撮影画像のうちで、イベント310に属する撮影画像311乃至318を示す図である。なお、撮影画像311乃至318は、撮影時刻の順番で撮影画像311から並べられている。また、撮影画像311乃至318は、家族4人(父、母、娘、息子)でキャンプに行った際に撮影された画像である。撮影画像311は、川原において家族4人でテントを準備している場面が撮影された画像であり、撮影画像312乃至315は、川原において父と息子の2人で釣りをしている場面が撮影された画像であり、撮影画像316乃至318は、草原において家族4人で休憩している場面が撮影された画像である。ここで、撮影画像313および314については、画像に含まれる人、背景、人の位置等が似ているものとする。また、撮影画像317および318についても、画像に含まれる人、背景、画像全体における人の配置等が似ているものとする。さらに、撮影画像316と、撮影画像317および318とについては、画像全体における人の配置等が多少異なるものの、画像に含まれる人、背景の雰囲気や色等が似ているものとする。また、撮影画像313および314と、撮影画像311、312、315とについては、画像に含まれる人や全体における人の配置等が多少異なるものの、背景の雰囲気や色等が似ているものとする。   FIG. 4A is a diagram illustrating captured images 311 to 318 belonging to the event 310 among the captured images held in the captured image holding unit 110. Note that the captured images 311 to 318 are arranged from the captured image 311 in the order of the capturing time. The captured images 311 to 318 are images captured when camping with four families (father, mother, daughter, and son). The photographed image 311 is an image of a scene where four families are preparing a tent in Kawahara, and the photographed images 312 to 315 are photographed when a father and son are fishing in Kawahara. The captured images 316 to 318 are images in which a scene where four families are resting in the grassland is captured. Here, it is assumed that the captured images 313 and 314 have similar persons, backgrounds, positions of persons, and the like included in the images. Also, the captured images 317 and 318 are similar in the person included in the image, the background, the arrangement of people in the entire image, and the like. Further, the photographed image 316 and the photographed images 317 and 318 are similar in the arrangement of people in the entire image and the like, the person included in the image, the atmosphere and color of the background, and the like. Further, the photographed images 313 and 314 and the photographed images 311, 312, and 315 are similar in background atmosphere, color, etc., although the people included in the images and the arrangement of people in the whole are slightly different. .

最初に、図4(a)に示す撮影画像311乃至318について、パラメータ230のパラメータAに記録されている「類似閾値」の値「10000」を用いて、類似する撮影画像同士がグループ化される。このグループ化は、複数の撮影画像について時系列に沿って順次行われる。この場合に、イベント内において、時系列的に先頭の撮影画像については、時系列的に前の画像が存在せず、比較の対象がないため、新規グループが割り当てられ、時系列的に2番目以降の撮影画像から順次取り出される。例えば、撮影画像311乃至318の場合には、新規グループ321が割り当てられる。そして、時系列的に2番目の撮影画像312が取り出され、撮影画像311および312に対応して類似特徴記録部141に記録されている類似特徴の値が取り出される。そして、撮影画像311および312の類似特徴の値の差(類似距離)が算出され、この差の値がパラメータAの類似閾値「10000」以下であるか否かが判断される。この差の値がパラメータAの類似閾値「10000」以下である場合には、この2つの撮影画像が類似すると判断され、この2つの撮影画像が1つのグループに含められる。一方、この差の値がパラメータAの類似閾値「10000」以下でない場合には、この2つの撮影画像が類似しないと判断され、この2つの撮影画像が別のグループに含められる。このように、撮影画像311乃至318について、隣接する撮影画像同士の類似特徴の値の差が順次算出され、グループ化がされる。   First, regarding the captured images 311 to 318 shown in FIG. 4A, similar captured images are grouped using the “similar threshold” value “10000” recorded in the parameter A of the parameter 230. . This grouping is sequentially performed for a plurality of captured images in time series. In this case, for the first captured image in time series in the event, there is no previous image in time series and there is no comparison target, so a new group is assigned, and the second image in time series Sequentially taken from subsequent captured images. For example, in the case of the captured images 311 to 318, a new group 321 is assigned. Then, the second captured image 312 is extracted in time series, and the value of the similar feature recorded in the similar feature recording unit 141 corresponding to the captured images 311 and 312 is extracted. Then, a difference (similar distance) between similar feature values of the captured images 311 and 312 is calculated, and it is determined whether the difference value is equal to or smaller than the similarity threshold “10000” of the parameter A. When the difference value is equal to or smaller than the similarity threshold “10000” of the parameter A, it is determined that the two captured images are similar, and the two captured images are included in one group. On the other hand, when the difference value is not equal to or smaller than the similarity threshold “10000” of the parameter A, it is determined that the two captured images are not similar, and the two captured images are included in another group. In this way, for the captured images 311 to 318, the difference between the values of similar features between adjacent captured images is sequentially calculated and grouped.

例えば、図4(a)に示すように、撮影画像311、312、315、316については、隣接する撮影画像とは類似しないと判断され、それぞれが1つのグループ321、322、324、325に割り当てられる。一方、撮影画像313および314と、撮影画像317および318とについては、隣接する撮影画像と類似すると判断され、2つの撮影画像を含むグループ323、326に割り当てられる。   For example, as illustrated in FIG. 4A, the captured images 311, 312, 315, and 316 are determined not to be similar to adjacent captured images, and are assigned to one group 321, 322, 324, and 325, respectively. It is done. On the other hand, the captured images 313 and 314 and the captured images 317 and 318 are determined to be similar to the adjacent captured images and are assigned to groups 323 and 326 including two captured images.

続いて、図4(a)に示すグループ321乃至326について、パラメータ230のパラメータAに記録されている各重み付け係数の値を用いて、各グループから1つの代表画像が選択される。この選択はグループ毎に順次行われる。この場合に、1つの撮影画像のみが含まれているグループについては、その撮影画像が代表画像として選択される。例えば、1つの撮影画像のみが含まれているグループ321、322、324、325については、それぞれ撮影画像311、312、315、316が代表画像として選択される。   Subsequently, for each of the groups 321 to 326 shown in FIG. 4A, one representative image is selected from each group using the value of each weighting coefficient recorded in the parameter A of the parameter 230. This selection is performed sequentially for each group. In this case, for a group including only one captured image, the captured image is selected as a representative image. For example, for the groups 321, 322, 324, and 325 including only one captured image, the captured images 311, 312, 315, and 316 are selected as representative images, respectively.

また、複数の撮影画像が含まれているグループについては、複数の撮影画像のうちから1つの撮影画像が選択される。例えば、グループ323の場合には、グループ323に含まれる撮影画像313および314に対応して画像スコア記録部142に記録されている画像スコアの各値が取り出される。そして、撮影画像313および314の画像スコアの各値が正規化される。例えば、グループ内での最高スコアを「1.0」とし、最低スコアを「0.0」とするように、画像スコアの各値が正規化される。   For a group including a plurality of captured images, one captured image is selected from the plurality of captured images. For example, in the case of the group 323, each value of the image score recorded in the image score recording unit 142 corresponding to the captured images 313 and 314 included in the group 323 is extracted. Then, each value of the image score of the captured images 313 and 314 is normalized. For example, each value of the image score is normalized so that the highest score in the group is “1.0” and the lowest score is “0.0”.

続いて、正規化された各撮影画像の画像スコアが、パラメータAの各重み付け係数を用いて重み付け加算される。この重み付け加算されて求められた値が各撮影画像の評価値として用いられる。そして、グループ内における各撮影画像の評価値のうちで、最大の評価値の撮影画像が代表画像として選択される。   Subsequently, the normalized image score of each captured image is weighted and added using each weighting coefficient of parameter A. A value obtained by weighted addition is used as an evaluation value of each captured image. Then, the photographed image having the largest evaluation value among the evaluation values of the photographed images in the group is selected as the representative image.

例えば、グループ323の場合には、グループ323に含まれる撮影画像313および314の評価値のうちで、撮影画像313の評価値が大きいと判断され、撮影画像313が代表画像として選択される。また、グループ326の場合には、グループ326に含まれる撮影画像317および318の評価値のうちで、撮影画像317の評価値が大きいと判断され、撮影画像317が代表画像として選択される。このように、各グループから1つの代表画像が選択される。   For example, in the case of the group 323, it is determined that the evaluation value of the captured image 313 is large among the evaluation values of the captured images 313 and 314 included in the group 323, and the captured image 313 is selected as the representative image. In the case of the group 326, it is determined that the evaluation value of the captured image 317 is large among the evaluation values of the captured images 317 and 318 included in the group 326, and the captured image 317 is selected as the representative image. Thus, one representative image is selected from each group.

図4(b)は、グループ321乃至326のそれぞれから選択された代表画像群330を示す図である。例えば、グループ321乃至326のそれぞれから撮影画像311乃至313、315乃至317が代表画像として選択される。   FIG. 4B is a diagram showing a representative image group 330 selected from each of the groups 321 to 326. For example, photographed images 311 to 313 and 315 to 317 are selected as representative images from the groups 321 to 326, respectively.

代表画像として選択された撮影画像311乃至313、315乃至317について、パラメータ230のパラメータBに記録されている「類似閾値」の値「35000」を用いて、類似する撮影画像同士がグループ化される。なお、このグループ化については、パラメータの「類似閾値」が異なる以外は、図4(a)で示したものと同じであるため、ここでの詳細な説明を省略する。   For the photographed images 311 to 313 and 315 to 317 selected as the representative images, similar photographed images are grouped using the “similar threshold” value “35000” recorded in the parameter B of the parameter 230. . Since this grouping is the same as that shown in FIG. 4A except that the parameter “similarity threshold” is different, detailed description thereof is omitted here.

ここで、「類似閾値」の設定について説明する。図4(a)で示すように、最初のグループ化では、非常によく似た撮影画像がグループ化されるように、「類似閾値」が設定される。このように設定することによって、例えば、連射された写真や、同じ構図で2度3度撮り直したような画像をグループ化することができる。また、図4(b)で示すように、2段階目のグループ化では、比較的緩い「類似閾値」が設定される。このように設定することによって、被写体が異なるものの、ぱっと見の見た目が似ているような画像をグループ化することができる。このように、代表画像として選択された撮影画像については、「類似閾値」を大きくしてグループ化を行うことによって、比較的多くの撮影画像をグループ化することができる。   Here, the setting of “similar threshold” will be described. As shown in FIG. 4A, in the first grouping, a “similarity threshold” is set so that very similar captured images are grouped. By setting in this way, it is possible to group, for example, continuously shot photographs and images that have been retaken twice and three times with the same composition. Further, as shown in FIG. 4B, a relatively loose “similarity threshold” is set in the second grouping. By setting in this way, it is possible to group images having different subjects but similar in appearance. As described above, a relatively large number of captured images can be grouped by increasing the “similarity threshold value” and grouping the captured images selected as the representative images.

例えば、図4(b)に示すように、撮影画像315および316については、類似する撮影画像とは判断されないものの、撮影画像311乃至313、315については、隣接する撮影画像と類似すると判断され、各撮影画像がグループ331に割り当てられる。また、撮影画像316および317については、隣接する撮影画像と類似すると判断され、各撮影画像がグループ332に割り当てられる。   For example, as shown in FIG. 4B, the captured images 315 and 316 are not determined to be similar captured images, but the captured images 311 to 313 and 315 are determined to be similar to the adjacent captured images. Each captured image is assigned to the group 331. The captured images 316 and 317 are determined to be similar to the adjacent captured images, and each captured image is assigned to the group 332.

続いて、図4(b)に示すグループ331および332について、パラメータ230のパラメータBに記録されている各重み付け係数の値を用いて、各グループから1つの代表画像が選択される。なお、この代表画像の選択については、パラメータの「ボケ度合いの重み付け係数」が異なる以外は、図4(a)で示したものと同じであるため、ここでの詳細な説明を省略する。   Subsequently, for the groups 331 and 332 shown in FIG. 4B, one representative image is selected from each group using the value of each weighting coefficient recorded in the parameter B of the parameter 230. Note that the selection of the representative image is the same as that shown in FIG. 4A except that the parameter “weighting coefficient for blur degree” is different, and thus detailed description thereof is omitted here.

ここで、各重み付け係数の設定について説明する。最初に、「ボケ度合いの重み付け係数」について説明する。   Here, the setting of each weighting coefficient will be described. First, the “weighting coefficient for the degree of blur” will be described.

画像のボケ度合いに基づくスコアは、画像に含まれている周波数の高さを示すスコアである。例えば、酷似する2枚の画像を比較した場合において、一方の画像の周波数が高く、他方の画像の周波数が低ければ、周波数が低い画像が比較的ボケている、または、ピントがずれている等の判断をすることができる。すなわち、最初のグループ化では非常によく似た撮影画像同士がグループ化されるため、最初の代表画像の選択では、画像のボケ度合いに基づくスコアを考慮して、比較的ボケている等の画像以外の画像を代表画像として選択することができる。   The score based on the degree of blur of the image is a score indicating the height of the frequency included in the image. For example, when comparing two images that are very similar, if the frequency of one image is high and the frequency of the other image is low, the low frequency image is relatively blurred or out of focus, etc. Can be judged. That is, since very similar shot images are grouped in the first grouping, the first representative image is selected in consideration of a score based on the degree of blurring of the image and the image is relatively blurred. It is possible to select an image other than as a representative image.

一方、被写体が大きく異なる場合においては、単純に周波数の高さを比較することに意味がない場合が多い。例えば、被写体が空ならばそもそも周波数が低く、被写体が森ならばそもそも周波数が高い。このため、両者の周波数を比較しても、画像自体がボケているか否か等を判断することができない。すなわち、2段階目のグループ化では被写体が異なる撮影画像同士もグループ化されるため、2段階目の代表画像の選択では、画像のボケ度合いに基づくスコアを考慮しない。このように、最初の代表画像の選択では、画像のボケ度合いに基づくスコアを考慮するため、「ボケ度合いの重み付け係数」の値として「1.0」が設定される。これに対して、最初の代表画像の選択では、画像のボケ度合いに基づくスコアを考慮しないため、「ボケ度合いの重み付け係数」の値として「0.0」が設定される。   On the other hand, when the subjects are greatly different, it is often meaningless to simply compare the heights of the frequencies. For example, if the subject is empty, the frequency is low, and if the subject is forest, the frequency is high. For this reason, even if both frequencies are compared, it cannot be determined whether or not the image itself is blurred. That is, in the second stage grouping, captured images with different subjects are also grouped, and therefore, the selection of the representative image in the second stage does not consider a score based on the degree of image blur. Thus, in selecting the first representative image, “1.0” is set as the value of the “weighting coefficient of the degree of blur” in order to consider the score based on the degree of blur of the image. On the other hand, in the selection of the first representative image, the score based on the degree of blur of the image is not taken into consideration, and therefore “0.0” is set as the value of the “weighting coefficient of the degree of blur”.

次に、「顔の個数の重み付け係数」、「顔の位置の重み付け係数」、「顔のサイズの重み付け係数」、「笑顔の度合いの重み付け係数」について説明する。図3に示すパラメータ230のパラメータAおよびBにおいて、これらの4つの重み付け係数は同じ値を用いている。しかしながら、以下で示すように、これらの値をAおよびBのそれぞれにおいて適宜変更して用いるようにしてもよい。   Next, the “weighting coefficient for the number of faces”, “weighting coefficient for the face position”, “weighting coefficient for the face size”, and “weighting coefficient for the degree of smile” will be described. In the parameters A and B of the parameter 230 shown in FIG. 3, these four weighting coefficients use the same value. However, as shown below, these values may be appropriately changed and used in each of A and B.

例えば、最初のグループ化では非常によく似た撮影画像がグループ化される。このため、最初の代表画像の選択では、非常によく似た撮影画像の中で、顔が写っている画像、顔が真ん中にある画像、顔が大きく写っている画像、顔が笑っている画像等のように、ユーザの好みに応じた画像を代表画像として選択するように、これらの4つの重み付け係数の値を相対的に大きくしたり小さくしたりして設定することができる。   For example, very similar captured images are grouped in the first grouping. For this reason, in the selection of the first representative image, among the very similar captured images, an image with a face, an image with a face in the middle, an image with a large face, or an image with a smiling face As described above, the values of these four weighting factors can be set relatively large or small so that an image according to the user's preference is selected as a representative image.

一方、2段階目のグループ化では被写体が異なる撮影画像もグループ化される。このため、2段階目の代表画像の選択では、例えば、被写体が異なる撮影画像の中でも、顔が写っている画像を特に優先して選択したい場合には、「顔の個数の重み付け係数」の値を大きくして設定することができる。また、顔が大きく写っている画像を優先して選択したい場合には、「顔のサイズの重み付け係数」の値のみを相対的に大きくして設定することができる。このように、ユーザの好みに応じて調整することができる。   On the other hand, in the second grouping, captured images with different subjects are also grouped. For this reason, in the selection of the representative image at the second stage, for example, when it is desired to preferentially select an image showing a face among photographed images with different subjects, the value of the “weighting coefficient for the number of faces” is selected. Can be set larger. In addition, when it is desired to preferentially select an image with a large face, only the value of “weighting coefficient of face size” can be set relatively large. Thus, it can adjust according to a user's liking.

このように、どのような画像をグループ化するか、また、どのような画像を代表画像として選択するかの設定を、最初の画像選択処理で用いるパラメータと、2段階目の画像選択処理で用いるパラメータとを異なる設定にすることができるため、ユーザの好みに応じた適切な代表画像を選択することができる。   As described above, the setting of what images are grouped and what image is selected as the representative image is used in the parameters used in the first image selection processing and the image selection processing in the second stage. Since the parameter can be set differently, it is possible to select an appropriate representative image according to the user's preference.

例えば、グループ331の場合には、グループ331に含まれる撮影画像311乃至313および315の評価値のうちで、撮影画像313の評価値が大きいと判断され、撮影画像313が代表画像として選択される。また、グループ332の場合には、グループ332に含まれる撮影画像316および317の評価値のうちで、撮影画像317の評価値が大きいと判断され、撮影画像317が代表画像として選択される。   For example, in the case of the group 331, it is determined that the evaluation value of the captured image 313 is large among the evaluation values of the captured images 311 to 313 and 315 included in the group 331, and the captured image 313 is selected as the representative image. . In the case of the group 332, it is determined that the evaluation value of the photographed image 317 is large among the evaluation values of the photographed images 316 and 317 included in the group 332, and the photographed image 317 is selected as the representative image.

図4(c)は、グループ331および332のそれぞれから選択された代表画像群340を示す図である。例えば、グループ331および332のそれぞれから撮影画像313および317が代表画像として選択される。このように、撮影画像保持部110に保持されている撮影画像のうちで、イベント310に属する撮影画像311乃至318から撮影画像313および317が選択される。   FIG. 4C shows a representative image group 340 selected from each of the groups 331 and 332. For example, the captured images 313 and 317 are selected as representative images from the groups 331 and 332, respectively. As described above, the photographed images 313 and 317 are selected from the photographed images 311 to 318 belonging to the event 310 among the photographed images held in the photographed image holding unit 110.

図5は、撮影画像保持部110に保持されている撮影画像が表示部190に表示される場合における表示例を示す図である。   FIG. 5 is a diagram illustrating a display example when the captured image held in the captured image holding unit 110 is displayed on the display unit 190.

図5(a)は、撮影画像保持部110に保持されている撮影画像のうちで、イベント310に属する撮影画像311乃至318が表示部190に表示されている場合における表示例を示す図である。図5(a)に示すように、撮影画像保持部110に保持されている複数の撮影画像については、イベントクラスタ記録部123に記録されているイベント毎に表示部190に表示させることができる。なお、図5(a)に示す表示例では、撮影画像311乃至318について、ダイジェスト生成ボタンが押下された後の表示例を示す。このダイジェスト生成ボタンが押下された場合には、図4に示すように、撮影画像311乃至318について代表画像313および317が選択される。そして、選択された代表画像313および317には、代表画像として選択された旨を示す代表画像マーク351および361が、例えば画像の右下部分に付される。また、代表画像が、どの撮影画像から選択されたかを示すためのグループ枠350および360が、例えばそれぞれの撮影画像を囲むように表示される。   FIG. 5A is a diagram illustrating a display example when the captured images 311 to 318 belonging to the event 310 are displayed on the display unit 190 among the captured images retained in the captured image retaining unit 110. . As shown in FIG. 5A, the plurality of captured images held in the captured image holding unit 110 can be displayed on the display unit 190 for each event recorded in the event cluster recording unit 123. Note that the display example shown in FIG. 5A shows a display example of the captured images 311 to 318 after the digest generation button is pressed. When the digest generation button is pressed, representative images 313 and 317 are selected for the captured images 311 to 318 as shown in FIG. Then, representative image marks 351 and 361 indicating that the selected representative images 313 and 317 are selected as the representative images are attached to the lower right portion of the image, for example. Further, group frames 350 and 360 for indicating from which captured image the representative image is selected are displayed so as to surround each captured image, for example.

図5(b)は、イベント310に属する撮影画像311乃至318から選択された代表画像313および317が表示部190に表示されている場合における表示例を示す図である。図5(a)に示すように、ダイジェスト生成ボタンが押下された後の状態で、ダイジェスト閲覧ボタンが押下された場合には、図5(b)に示すように、各イベントに属する複数の撮影画像のうちから、選択された代表画像のみを表示させることができる。また、代表画像が、何枚の撮影画像から選択されているかを示すための画像が各代表画像の上側および右側に表示させる。例えば、代表画像313は、5つの撮影画像から選択された代表画像であるため、図5(b)に示すように、5枚の画像が重ねられているように代表画像313が表示される。また、代表画像317は、3つの撮影画像から選択された代表画像であるため、図5(b)に示すように、3枚の画像が重ねられているように代表画像317が表示される。例えば、各イベントに属する撮影画像が多い場合において、このように選択された代表画像のみを表示することによって、各イベントに参加していた人や各イベントの状況等の各イベントの概要を迅速に把握することができる。なお、図5では、表示部190に1つのイベントに属する撮影画像のみを表示する例について示したが、表示部190に複数のイベントを同時に表示させるようにしてもよい。また、図5(b)に示すように、代表画像のみを表示させる場合には、代表画像の数に応じて各イベントの表示領域を縮小させ、多数のイベントを表示させるようにしてもよい。   FIG. 5B is a diagram illustrating a display example in the case where representative images 313 and 317 selected from the captured images 311 to 318 belonging to the event 310 are displayed on the display unit 190. As shown in FIG. 5A, when the digest browsing button is pressed in a state after the digest generation button is pressed, as shown in FIG. Only the representative image selected from the images can be displayed. In addition, an image for indicating how many photographed images the representative image is selected is displayed on the upper side and the right side of each representative image. For example, since the representative image 313 is a representative image selected from five photographed images, the representative image 313 is displayed so that five images are overlaid as shown in FIG. Further, since the representative image 317 is a representative image selected from three photographed images, the representative image 317 is displayed so that three images are superimposed as shown in FIG. 5B. For example, when there are many photographed images belonging to each event, by displaying only the representative images selected in this way, an overview of each event such as the person who participated in each event and the status of each event can be quickly obtained. I can grasp it. Although FIG. 5 shows an example in which only the captured image belonging to one event is displayed on the display unit 190, a plurality of events may be displayed on the display unit 190 simultaneously. As shown in FIG. 5B, when only the representative images are displayed, the display area of each event may be reduced according to the number of representative images, and a large number of events may be displayed.

次に、本発明の実施の形態における画像管理装置100の動作について図面を参照して説明する。   Next, the operation of the image management apparatus 100 according to the embodiment of the present invention will be described with reference to the drawings.

図6は、画像管理装置100による撮影画像の特徴抽出処理の処理手順を示すフローチャートである。ここでは、撮影画像保持部110に保持されている撮影画像から、類似特徴を抽出するとともに画像スコアを計算して、類似特徴記録部141および画像スコア記録部142に記録する動作について説明する。   FIG. 6 is a flowchart showing a processing procedure of a feature extraction process of a captured image by the image management apparatus 100. Here, an operation of extracting a similar feature from a captured image held in the captured image holding unit 110, calculating an image score, and recording the image score in the similar feature recording unit 141 and the image score recording unit 142 will be described.

最初に、撮影画像保持部110に保持されている撮影画像が、特徴抽出部130に入力される(ステップS901)。続いて、入力された各撮影画像について、各撮影画像の大きさが一定の大きさになるように解像度変換が行われる(ステップS902)。なお、解像度変換される撮影画像の大きさとしては、例えば、横長画像の場合には横640×縦480画素となるように設定され、縦長画像の場合には横480×縦640画素となるように設定される。   First, the captured image held in the captured image holding unit 110 is input to the feature extraction unit 130 (step S901). Subsequently, resolution conversion is performed on each input captured image so that the size of each captured image becomes a constant size (step S902). Note that the size of the captured image subjected to resolution conversion is set to be 640 × 480 pixels in the case of a horizontally long image, for example, and 480 × 640 pixels in the case of a vertically long image. Set to

続いて、解像度変換された各撮影画像について類似特徴が抽出され(ステップS903)、抽出された類似特徴が、撮影画像保持部110に保持されている撮影画像に関連付けて類似特徴記録部141に記録される。   Subsequently, similar features are extracted for each captured image whose resolution has been converted (step S903), and the extracted similar features are recorded in the similar feature recording unit 141 in association with the captured images held in the captured image holding unit 110. Is done.

続いて、解像度変換された各撮影画像について画像スコアが計算され(ステップS904)、計算された画像スコアが、撮影画像保持部110に保持されている撮影画像に関連付けて画像スコア記録部142に記録される。このように、撮影画像保持部110に保持されている各撮影画像に関する類似特徴が類似特徴記録部141に記録され、画像スコアが画像スコア記録部142に記録された後に、撮影画像の特徴抽出処理を終了する。   Subsequently, an image score is calculated for each captured image whose resolution has been converted (step S904), and the calculated image score is recorded in the image score recording unit 142 in association with the captured image stored in the captured image storage unit 110. Is done. As described above, after the similar features related to the respective captured images held in the captured image holding unit 110 are recorded in the similar feature recording unit 141 and the image score is recorded in the image score recording unit 142, the feature extraction process of the captured image is performed. Exit.

図7は、画像管理装置100によるイベントクラスタの作成処理の処理手順を示すフローチャートである。   FIG. 7 is a flowchart illustrating a processing procedure of event cluster creation processing by the image management apparatus 100.

最初に、撮影画像保持部110に保持されている撮影画像が、時刻情報取得部121に入力される(ステップS911)。続いて、入力された撮影画像のExifタグから時刻情報を時刻情報取得部121が取得する(ステップS912)。この取得された時刻情報がクラスタリング部122に入力されると、この時刻情報に基づいて撮影画像間の撮影間隔が計算され(ステップS913)、計算された撮影間隔に応じて二分木構造の階層型クラスタが作成される(ステップS914)。   First, the captured image stored in the captured image storage unit 110 is input to the time information acquisition unit 121 (step S911). Subsequently, the time information acquisition unit 121 acquires time information from the Exif tag of the input captured image (step S912). When the acquired time information is input to the clustering unit 122, a shooting interval between captured images is calculated based on the time information (step S913), and a binary tree structure is formed according to the calculated shooting interval. A cluster is created (step S914).

続いて、クラスタリングされていない撮影画像が存在するか否かが判断され(ステップS915)、クラスタリングされていない撮影画像が存在する場合には、ステップS912に戻り、クラスタの作成処理手順を繰り返す(ステップS912乃至ステップS914)。   Subsequently, it is determined whether or not there is a non-clustered captured image (step S915). If there is a non-clustered captured image, the process returns to step S912 to repeat the cluster creation processing procedure (step S915). S912 to step S914).

一方、クラスタリングされていない撮影画像が存在しない場合には(ステップS915)、作成された二分木構造の階層型クラスタの中から、イベントクラスタのグループ化条件に基づいて、最適なクラスタの階層が決定され、各撮影画像がイベント毎に分類される(ステップS916)。例えば、図2(a)に示すように、区間201、203、205のそれぞれに対応する各イベントに各撮影画像が分類される。そして、分類された各イベントに対応するイベントクラスタ情報がイベントクラスタ記録部123に記録され、イベントクラスタの作成処理を終了する。   On the other hand, if there is no captured image that has not been clustered (step S915), an optimal cluster hierarchy is determined based on the event cluster grouping conditions from among the created binary clusters of the binary tree structure. Then, each captured image is classified for each event (step S916). For example, as shown in FIG. 2A, each captured image is classified into each event corresponding to each of the sections 201, 203, and 205. Event cluster information corresponding to each classified event is recorded in the event cluster recording unit 123, and the event cluster creation process is terminated.

図8は、画像管理装置100による代表画像の選択処理の処理手順を示すフローチャートである。ここでは、操作受付部180においてダイジェスト生成ボタンが押下された場合における動作について説明する。   FIG. 8 is a flowchart illustrating a processing procedure of representative image selection processing by the image management apparatus 100. Here, an operation when the digest generation button is pressed in the operation reception unit 180 will be described.

最初に、イベントクラスタ記録部123に記録されているイベントクラスタ情報がダイジェスト生成部160に入力される(ステップS921)。続いて、入力されたイベントクラスタ情報の中から、1つのイベントに対応するイベントクラスタ情報が取り出される(ステップS922)。例えば、図2(a)に示すように、区間201、203、205に対応する3つのイベントに分類されている場合には、最初のイベントである区間201に対応するイベントクラスタ情報が取り出される。   First, event cluster information recorded in the event cluster recording unit 123 is input to the digest generation unit 160 (step S921). Subsequently, event cluster information corresponding to one event is extracted from the input event cluster information (step S922). For example, as shown in FIG. 2A, when the event is classified into three events corresponding to the sections 201, 203, and 205, event cluster information corresponding to the section 201 that is the first event is extracted.

続いて、パラメータ保持部150に保持されているパラメータが取得される(ステップS923)。ここでは、最初の選択処理であるため、1つ目のパラメータが取得される。例えば、図3に示すパラメータ230のパラメータAが取得される。   Subsequently, the parameters held in the parameter holding unit 150 are acquired (step S923). Here, since this is the first selection process, the first parameter is acquired. For example, parameter A of parameter 230 shown in FIG. 3 is acquired.

続いて、ステップS922で取り出されたイベントに属する各撮影画像について画像選択処理が実行される(ステップS930)。この画像選択処理については、図9を参照して詳細に説明する。   Subsequently, image selection processing is executed for each captured image belonging to the event extracted in step S922 (step S930). This image selection process will be described in detail with reference to FIG.

続いて、ステップS922で取り出されたイベントに属する各撮影画像について、ステップS930で実行された画像選択処理が、最初の画像選択処理であったか否かが判断される(ステップS924)。ステップS930で実行された画像選択処理が、最初の画像選択処理であった場合には(ステップS924)、パラメータ保持部150に保持されているパラメータのうちで、最初に用いたパラメータとは異なるパラメータが取得される(ステップS925)。例えば、図3に示すパラメータ230のパラメータBが取得される。続いて、ステップS930に戻り、画像選択処理を繰り返す。   Subsequently, for each captured image belonging to the event extracted in step S922, it is determined whether or not the image selection process executed in step S930 is the first image selection process (step S924). If the image selection process executed in step S930 is the first image selection process (step S924), the parameters held in the parameter holding unit 150 are different from the parameters used first. Is acquired (step S925). For example, parameter B of parameter 230 shown in FIG. 3 is acquired. Then, it returns to step S930 and repeats an image selection process.

一方、ステップS930で実行された画像選択処理が、最初の画像選択処理ではなく、2回目の画像選択処理であった場合には(ステップS924)、全てのイベントについて画像選択処理が終了したか否かが判断され(ステップS926)、全てのイベントについて画像選択処理が終了していなければ、ステップS922に戻り、別のイベントに対応するイベントクラスタ情報が取り出され(ステップS922)、画像選択処理が実行される(ステップS922乃至ステップS925、ステップS930)。このように、1つのイベントに属する各撮影画像について、2つの異なるパラメータを用いて画像選択処理が実行される。   On the other hand, if the image selection process executed in step S930 is not the first image selection process but the second image selection process (step S924), whether or not the image selection process has been completed for all events. (Step S926), and if the image selection process has not been completed for all events, the process returns to step S922, event cluster information corresponding to another event is extracted (step S922), and the image selection process is executed. (Step S922 to Step S925, Step S930). In this way, image selection processing is executed using two different parameters for each captured image belonging to one event.

続いて、全てのイベントについて画像選択処理が終了していれば(ステップS926)、代表画像として選択された各撮影画像が、イベント毎に分類されて表示部190に表示される(ステップS927)。例えば、図5(b)に示すように、代表画像が表示部190に表示される。なお、ステップS927において、図5(a)に示すように、イベントに属する各撮影画像を表示させるとともに、代表画像マークおよびグループ枠を表示させ、ダイジェスト閲覧ボタンが押下された後に、図5(b)に示すように、代表画像として選択された各撮影画像が、イベント毎に分類して表示部190に表示されるようにしてもよい。   Subsequently, if the image selection processing has been completed for all events (step S926), each captured image selected as the representative image is classified for each event and displayed on the display unit 190 (step S927). For example, as shown in FIG. 5B, the representative image is displayed on the display unit 190. In step S927, as shown in FIG. 5A, each captured image belonging to the event is displayed, a representative image mark and a group frame are displayed, and after the digest view button is pressed, FIG. ), Each captured image selected as the representative image may be displayed on the display unit 190 after being classified for each event.

このように、各イベントについて複数の撮影画像の絞り込みを2段階に亘って順次行うことによって、最適な撮影画像を選択することができる。なお、最初の画像の絞り込み(ステップS930)では、連写撮影された画像や同じ構図で複数枚が撮影された画像等のような、極めて内容のよく似た画像の冗長性を排除することを目的として、画像を絞り込む。また、2回目の画像の絞り込み(ステップS930)では、最初の画像の絞り込みによって選択された代表画像について、比較的緩い基準で類似距離に基づくグループ化を行い、さらに画像の枚数を絞り込んで閲覧製を向上させることを目的として、画像を絞り込む。   As described above, an optimal captured image can be selected by sequentially narrowing down a plurality of captured images for each event in two stages. It should be noted that in the initial image narrowing down (step S930), it is necessary to eliminate the redundancy of extremely similar images such as continuously shot images or images in which a plurality of images are shot with the same composition. As an objective, narrow down the image. In the second image narrowing (step S930), the representative images selected by the first image narrowing are grouped based on similar distances on a relatively loose basis, and the number of images is further narrowed down for viewing production. Narrow the image for the purpose of improving.

なお、本発明に実施の形態では、画像の絞り込み処理(画像選択処理)(ステップS930)において、同一のアルゴリズムを異なるパラメータを用いて2回処理する方法を例にして説明した。しかしながら、最初の画像選択処理と、2回目の画像選択処理とについて、それぞれを適切な異なるアルゴリズムを用いて行うようにしてもよい。   In the embodiment of the present invention, the method of processing the same algorithm twice using different parameters in the image narrowing process (image selection process) (step S930) has been described as an example. However, the first image selection process and the second image selection process may be performed using appropriate different algorithms.

図9は、画像管理装置100による代表画像の選択処理の処理手順のうちの画像選択処理手順(図8に示すステップS930の処理手順)を示すフローチャートである。   FIG. 9 is a flowchart showing an image selection processing procedure (processing procedure of step S930 shown in FIG. 8) in the processing procedure of representative image selection processing by the image management apparatus 100.

最初に、ステップS922(図8に示す)で取り出されたイベントに属する各撮影画像について、類似画像のグルーピング処理が実行される(ステップS940)。この類似画像のグルーピング処理については、図10を参照して詳細に説明する。   First, a similar image grouping process is executed for each captured image belonging to the event extracted in step S922 (shown in FIG. 8) (step S940). This grouping process of similar images will be described in detail with reference to FIG.

続いて、類似画像のグルーピング処理により作成された1または複数のグループの中から、1つのグループを取り出す(ステップS931)。続いて、取り出されたグループについて代表画像の選択処理が実行される(ステップS950)。この代表画像の選択処理については、図11を参照して詳細に説明する。   Subsequently, one group is extracted from one or a plurality of groups created by the grouping process of similar images (step S931). Subsequently, a representative image selection process is executed for the extracted group (step S950). This representative image selection process will be described in detail with reference to FIG.

続いて、ステップS940で作成されたグループの全てについて、代表画像の選択処理が終了したか否かが判断され(ステップS932)、グループの全てについて代表画像の選択処理が終了していなければ、ステップS931に戻り、代表画像の選択処理が実行される(ステップS931およびステップS950)。一方、ステップS940で作成されたグループの全てについて代表画像の選択処理が終了していれば(ステップS932)、代表画像の選択処理を終了する。   Subsequently, it is determined whether or not the representative image selection process has been completed for all the groups created in step S940 (step S932). If the representative image selection process has not been completed for all the groups, step S940 is performed. Returning to S931, representative image selection processing is executed (steps S931 and S950). On the other hand, if the representative image selection process has been completed for all the groups created in step S940 (step S932), the representative image selection process ends.

図10は、画像管理装置100による画像選択処理の処理手順のうちの類似画像のグルーピング処理手順(図9に示すステップS940の処理手順)を示すフローチャートである。   FIG. 10 is a flowchart showing a similar image grouping processing procedure (processing procedure of step S940 shown in FIG. 9) in the processing procedure of image selection processing by the image management apparatus 100.

最初に、ステップS922(図8に示す)で取り出されたイベントに属する複数の撮影画像の中から1つの撮影画像が取り出される(ステップS941)。この場合に、イベントに属する各撮影画像が撮影時刻順に取り出される。なお、ステップS922で取り出されたイベント内において、時系列的に先頭の撮影画像については、時系列的に前の画像が存在せず、比較の対象がないため、新規グループが割り当てられる。このため、時系列的に2番目以降の撮影画像から順次取り出される。例えば、図4(a)に示すイベント310において、撮影画像312が取り出される。   First, one captured image is extracted from a plurality of captured images belonging to the event extracted in step S922 (shown in FIG. 8) (step S941). In this case, each captured image belonging to the event is extracted in order of the shooting time. In the event extracted in step S922, a new group is assigned to the first captured image in time series because there is no previous image in time series and there is no comparison target. For this reason, it is sequentially extracted from the second and subsequent captured images in time series. For example, the captured image 312 is extracted at the event 310 illustrated in FIG.

続いて、取り出された撮影画像と時系列的に1つ前の撮影画像との類似特徴の値が類似特徴記録部141から取り出され、隣り合う2つの撮影画像間の類似距離(類似度)が計算される(ステップS942)。具体的には、類似特徴記録部141から取り出された2つの類似特徴の値の差の値が計算して求められる。   Subsequently, the value of the similar feature between the taken-out photographed image and the previous photographed image in time series is taken out from the similar feature recording unit 141, and the similarity distance (similarity) between two adjacent photographed images is obtained. Calculated (step S942). Specifically, a difference value between two similar feature values extracted from the similar feature recording unit 141 is obtained by calculation.

続いて、計算して求められた類似距離の値が、パラメータの類似閾値の値以下であるか否かが判断される(ステップS943)。ここで、用いられるパラメータは、最初の画像選択処理の場合には、例えば、図3に示すパラメータAを用いて、2回目の画像選択処理の場合には、パラメータBを用いる。   Subsequently, it is determined whether or not the value of the similarity distance obtained by calculation is equal to or less than the value of the parameter similarity threshold (step S943). Here, the parameters used are, for example, the parameter A shown in FIG. 3 in the case of the first image selection process, and the parameter B in the case of the second image selection process.

続いて、計算して求められた類似距離の値が、パラメータの類似閾値以下ではない場合には(ステップS943)、取り出された撮影画像と、時系列的に1つ前の撮影画像とが非類似と判断され、取り出された撮影画像についての新規グループが作成される(ステップS944)。例えば、図4(a)に示すように、撮影画像311と撮影画像312との類似度の値が、パラメータの類似閾値以下ではない場合には、撮影画像312についての新規グループ322が作成される。   Subsequently, when the calculated similarity distance value is not less than or equal to the parameter similarity threshold value (step S943), the taken-out photographed image and the previous photographed image in time series are not. A new group is created for the taken image that is determined to be similar (step S944). For example, as illustrated in FIG. 4A, when the similarity value between the captured image 311 and the captured image 312 is not less than or equal to the parameter similarity threshold, a new group 322 for the captured image 312 is created. .

一方、計算して求められた類似距離の値が、パラメータの類似閾値の値以下である場合には(ステップS943)、取り出された撮影画像と、時系列的に1つ前の撮影画像とが類似しているため、取り出された撮影画像が時系列的に1つ前の撮影画像と同じグループに割り当てられる(ステップS945)。例えば、図4(a)に示すように、撮影画像313と撮影画像314との類似距離の値が、パラメータの類似閾値以下である場合には、撮影画像314がその直前の撮影画像313と同じグループ323に割り当てられる。   On the other hand, if the calculated similarity distance value is equal to or smaller than the parameter similarity threshold value (step S943), the taken image and the previous image taken in time series are obtained. Since they are similar, the extracted captured image is assigned to the same group as the previous captured image in time series (step S945). For example, as illustrated in FIG. 4A, when the value of the similarity distance between the captured image 313 and the captured image 314 is equal to or smaller than the parameter similarity threshold, the captured image 314 is the same as the immediately preceding captured image 313. Assigned to group 323.

続いて、ステップS922(図8に示す)で取り出されたイベントに属する複数の撮影画像の全ての撮影画像について類似画像のグルーピング処理が終了したか否かが判断され(ステップS946)、全ての撮影画像について類似画像のグルーピング処理が終了していなければ、ステップS941に戻り、類似画像のグルーピング処理が実行される(ステップS941乃至ステップS945)。一方、全ての撮影画像について類似画像のグルーピング処理が終了していれば(ステップS946)、類似画像のグルーピング処理を終了する。このように、各撮影画像間の類似距離に基づいて、類似する撮影画像同士がグループ化される。   Subsequently, it is determined whether or not the similar image grouping process has been completed for all of the plurality of photographed images belonging to the event extracted in step S922 (shown in FIG. 8) (step S946). If the similar image grouping process has not been completed for the image, the process returns to step S941, and the similar image grouping process is executed (steps S941 to S945). On the other hand, if the similar image grouping process has been completed for all the captured images (step S946), the similar image grouping process is terminated. In this manner, similar captured images are grouped based on the similar distance between the captured images.

図11は、画像管理装置100による画像選択処理の処理手順のうちの代表画像の選択処理手順(図9に示すステップS950の処理手順)を示すフローチャートである。   FIG. 11 is a flowchart showing a representative image selection processing procedure (processing procedure of step S950 shown in FIG. 9) in the processing procedure of image selection processing by the image management apparatus 100.

最初に、ステップS931(図9に示す)で取り出されたグループに属する各撮影画像に関する画像スコアが、画像スコア記録部142から取得される。そして、1つのグループ内において、取得された各撮影画像の各画像スコアが正規化される(ステップS951)。例えば、1つのグループ内での最高スコアを「1.0」とし、最低スコアを「0.0」とするように、各撮影画像の各画像スコアが正規化される。   First, an image score relating to each captured image belonging to the group extracted in step S931 (shown in FIG. 9) is acquired from the image score recording unit 142. Then, each image score of each acquired image is normalized in one group (step S951). For example, each image score of each captured image is normalized so that the highest score in one group is “1.0” and the lowest score is “0.0”.

続いて、正規化された各撮影画像の画像スコアが、パラメータの各重み付け係数を用いて重み付け加算される(ステップS952)。そして、この重み付け加算されて求められた値が各撮影画像の評価値として用いられる。ここで用いられるパラメータは、最初の画像選択処理の場合には、例えば、図3に示すパラメータAを用いて、2回目の画像選択処理の場合には、パラメータBを用いる。   Subsequently, the normalized image score of each captured image is weighted and added using each parameter weighting coefficient (step S952). The value obtained by weighted addition is used as the evaluation value of each captured image. The parameters used here are, for example, the parameter A shown in FIG. 3 in the case of the first image selection process, and the parameter B in the case of the second image selection process.

続いて、グループ内における各撮影画像の評価値のうちで、最大の評価値の撮影画像が代表画像として選択される(ステップS953)。例えば、最初の画像選択処理の場合には、図4(a)に示すように、グループ323に含まれる撮影画像313および314の評価値のうちで、撮影画像313の評価値が大きいと判断され、撮影画像313が代表画像として選択される。   Subsequently, among the evaluation values of the respective captured images in the group, the captured image having the maximum evaluation value is selected as a representative image (step S953). For example, in the case of the first image selection process, it is determined that the evaluation value of the photographed image 313 is large among the evaluation values of the photographed images 313 and 314 included in the group 323 as illustrated in FIG. The photographed image 313 is selected as a representative image.

図12は、画像管理装置100による代表画像の選択処理の処理手順を示すフローチャートである。この代表画像の選択処理は、図8に示す代表画像の選択処理の一部を変形したものであり、図8に示すステップS925の代わりに、ステップS961乃至ステップS963を実行する点が異なる。このため、ここでは、ステップS961乃至ステップS963について説明して、その他については、図8に示す代表画像の選択処理と同様であるため、ここでの説明を省略する。   FIG. 12 is a flowchart illustrating a processing procedure of representative image selection processing by the image management apparatus 100. This representative image selection process is a modification of part of the representative image selection process shown in FIG. 8, and is different in that steps S961 to S963 are executed instead of step S925 shown in FIG. For this reason, Steps S961 to S963 will be described here, and the others are the same as the representative image selection process shown in FIG.

この例では、操作受付部180において、各イベントにおいて選択される代表画像の上限数をユーザが指定することができるようにする。この上限数の指定方法としては、例えば、操作受付部180に備えられているテンキーを用いて、数字を直接入力して指定する方法や、10枚、20枚等の選択ボタンを操作受付部180に備え、これらの選択ボタンの押下により指定する方法等が考えられる。また、システムのデフォルト値として、上限数を予め設定しておくようにしてもよい。なお、これらの各種キーや選択ボタンを操作受付部180に設ける代わりに、これらの各種キーや選択ボタンを表示部190に表示させ、これらの各種キーや選択ボタンをタッチパネル等で操作することによって指定するようにしてもよい。この例では、上限数としてN(N:自然数)が指定された場合について説明する。   In this example, the operation accepting unit 180 allows the user to specify the upper limit number of representative images selected in each event. As a method for specifying the upper limit number, for example, a method of directly inputting a number using a numeric keypad provided in the operation reception unit 180 and specifying a selection button such as 10 sheets or 20 sheets is selected. In preparation for this, a method of designating by pressing these selection buttons can be considered. Further, an upper limit number may be set in advance as a system default value. Instead of providing these various keys and selection buttons in the operation receiving unit 180, these various keys and selection buttons are displayed on the display unit 190 and designated by operating these various keys and selection buttons on a touch panel or the like. You may make it do. In this example, a case where N (N: natural number) is designated as the upper limit number will be described.

また、この例では、ステップS922で取り出されたイベントに属する各撮影画像について、最初の画像選択処理(ステップS930)については、図8に示す代表画像の選択処理と同様である。そして、最初の画像選択処理(ステップS930)の後に(ステップS924)、ステップS922で取り出されたイベントについて、代表画像として選択された撮影画像の数が、指定された上限数(N)以下であるか否かが判断される(ステップS961)。   In this example, the first image selection process (step S930) for each captured image belonging to the event extracted in step S922 is the same as the representative image selection process shown in FIG. Then, after the first image selection process (step S930) (step S924), the number of photographed images selected as representative images for the event extracted in step S922 is equal to or less than the designated upper limit number (N). Is determined (step S961).

選択された代表画像の数が、指定された上限数以下である場合には(ステップS961)、ステップS926に進み、全てのイベントについて画像選択処理が終了したか否かが判断される(ステップS926)。このように、代表画像の数が指定された上限数以下である場合には、最初の画像選択処理により選択された代表画像を最終的な代表画像として、2回目の画像選択処理(ステップS930)を実行しない。   If the number of selected representative images is equal to or less than the designated upper limit number (step S961), the process proceeds to step S926, and it is determined whether or not the image selection process has been completed for all events (step S926). ). As described above, when the number of representative images is equal to or less than the designated upper limit number, the representative image selected by the first image selection process is set as the final representative image, and the second image selection process (step S930). Do not execute.

一方、選択された代表画像の数が、指定された上限数以下でない場合には(ステップS961)、パラメータ保持部150に保持されているパラメータのうちで、最初に用いたパラメータとは異なるパラメータが取得される(ステップS962)。例えば、図3に示すパラメータ230のパラメータBが取得される。   On the other hand, if the number of selected representative images is not less than or equal to the designated upper limit number (step S961), among the parameters held in the parameter holding unit 150, there is a parameter different from the parameter used first. Obtained (step S962). For example, parameter B of parameter 230 shown in FIG. 3 is acquired.

続いて、2回目の画像選択処理(ステップS930)に用いる類似閾値が計算される(ステップS963)。具体的には、ステップS922で取り出されたイベントについて、代表画像として選択された各撮影画像のうちの各隣接画像間の類似距離が計算される。続いて、計算して求められた各類似距離が、類似距離の大きい順にソートされる。続いて、ソートされた各類似距離において、先頭からN番目の類似距離の値が取り出され、このN番目の類似距離の値が類似閾値として求められる(ステップS963)。   Subsequently, a similarity threshold used for the second image selection process (step S930) is calculated (step S963). Specifically, with respect to the event extracted in step S922, the similarity distance between each adjacent image of each captured image selected as the representative image is calculated. Subsequently, the similar distances obtained by calculation are sorted in descending order of the similar distances. Subsequently, for each sorted similar distance, the value of the Nth similar distance from the head is taken out, and the value of the Nth similar distance is obtained as a similarity threshold (step S963).

続いて、ステップS962で取得されたパラメータ230のパラメータBの類似閾値の代わりに、ステップS963で求められた類似距離の値が設定される(ステップS964)。すなわち、パラメータ230のパラメータBのうちの類似閾値のみを、ステップS963で求められた類似距離の値で置き換える。続いて、ステップS930に戻り、画像選択処理を繰り返す。   Subsequently, the value of the similarity distance obtained in step S963 is set instead of the similarity threshold value of parameter B of the parameter 230 acquired in step S962 (step S964). That is, only the similarity threshold value in the parameter B of the parameter 230 is replaced with the value of the similarity distance obtained in step S963. Then, it returns to step S930 and repeats an image selection process.

このように、ステップS963で求められた類似閾値を、2回目の画像選択処理(ステップS930)に用いることによって、2回目の画像選択処理により選択される代表画像の数を、指定された上限数以下となるようにすることができる。   Thus, by using the similarity threshold obtained in step S963 for the second image selection process (step S930), the number of representative images selected in the second image selection process is set to the designated upper limit number. The following can be achieved.

また、このようにイベント毎の上限数を指定することによって、各イベントに属する撮影画像の数が大きく異なる場合であっても、各イベントについて所定枚数以内の代表画像を表示させることができる。これにより、各イベントに属する撮影画像についての代表画像を閲覧する場合に、ユーザがさらに見易くなる。   In addition, by designating the upper limit number for each event in this way, it is possible to display a predetermined number of representative images for each event even when the number of photographed images belonging to each event is greatly different. This makes it easier for the user to view the representative image for the captured image belonging to each event.

また、例えば、1つのイベントを1枚のサムネイル画像で表現することが可能となり、多数のイベントを短時間で容易に閲覧することができる。   In addition, for example, one event can be expressed by one thumbnail image, and a large number of events can be easily viewed in a short time.

また、本発明の実施の形態において、最初の画像選択処理(ステップS930)ではパラメータ230のパラメータAを用いて、2回目の画像選択処理(ステップS930)ではパラメータ230のパラメータBを用いて、1つのパターンのパラメータを用いた例について説明したが、各項目の値が異なる複数パターンのパラメータをパラメータ保持部150に保持させておき、これらのパターンの中から所望するパターンをユーザの操作で指定するようにしてもよい。また、操作受付部180において、2つのパラメータの各項目の値をユーザが入力して設定するようにしてもよい。   In the embodiment of the present invention, parameter A of parameter 230 is used in the first image selection process (step S930), and parameter B of parameter 230 is used in the second image selection process (step S930). Although an example using parameters of one pattern has been described, parameters of a plurality of patterns having different values for each item are held in the parameter holding unit 150, and a desired pattern is designated by a user operation from these patterns. You may do it. Further, in the operation reception unit 180, the user may input and set the values of the items of the two parameters.

例えば、用意するパターンとしては、「顔重視」および「風景重視」のパターンが考えられる。「顔重視」の場合には、パラメータにおける「顔の個数の重み付け係数」、「顔の位置の重み付け係数」、「顔のサイズの重み付け係数」、「笑顔の度合いの重み付け係数」の項目についての重み付け係数の値を大きくする。これにより、顔に重点をおいた代表画像を選択することができる。なお、顔に重点をおいた画像が選択される場合には、例えば、顔が写っていない画像よりも写っている画像が選択され易く、顔が写っている画像同士ならば、比較的大きい顔を含む画像が選択され易くなる。   For example, as the patterns to be prepared, “face-oriented” and “landscape-oriented” patterns can be considered. In the case of “Focus on face”, the “Face weighting coefficient”, “Face position weighting coefficient”, “Face size weighting coefficient”, and “Smiling degree weighting coefficient” parameters Increase the weighting factor. Thereby, a representative image with an emphasis on the face can be selected. When an image with an emphasis on the face is selected, for example, an image showing a face is easier to select than an image showing no face. It is easy to select an image including

また、「風景重視」の場合には、「色の広がり具合の重み付け係数」の項目についての重み付け係数の値を大きくする。この場合には、画像に顔が写っているか否かに大きく影響を受けず、画像の配色の見栄えの良い画像が代表画像として選出されるように設定することができる。   Further, in the case of “landscape-oriented”, the value of the weighting coefficient for the item “weighting coefficient of color spread” is increased. In this case, it can be set so that an image having a good color arrangement is selected as a representative image without being greatly affected by whether or not a face is reflected in the image.

また、本発明の実施の形態では、各撮影画像間における類似距離に基づいてグループ化をしているが、他の画像の特徴量に基づいてグループ化をするようにしてもよい。例えば、撮影画像の撮影時刻を用いることができる。   Further, in the embodiment of the present invention, grouping is performed based on the similar distance between the captured images, but grouping may be performed based on the feature amount of another image. For example, the shooting time of the shot image can be used.

また、本発明の実施の形態では、類似画像のグルーピング処理をする場合において、時系列的に1つ前の撮影画像を、比較の対象となる撮影画像としているが、比較の対象となる撮影画像を時系列的に1つ後の撮影画像とするようにしてもよい。また、比較の対象となる撮影画像を、時系列的に隣接する1つおきの撮影画像、または2つおきの撮影画像等とするようにしてもよい。   In the embodiment of the present invention, when grouping processing of similar images is performed, the previous captured image in time series is the captured image to be compared, but the captured image to be compared. May be taken as the next captured image in time series. Further, the captured image to be compared may be set to every other captured image that is adjacent in time series, every other captured image, or the like.

また、本発明の実施の形態では、2回目の画像選択処理で選択された代表画像を表示部190に表示する例について説明したが、この代表画像を印刷する場合についても本発明の実施の形態を適用することができる。また、この代表画像を出力する出力手段を画像管理装置100に設け、この代表画像を他の画像出力装置において出力するようにしてもよい。これにより、多数の画像が存在する場合においても、適切な少数の画像のみを出力することができる。   In the embodiment of the present invention, the example in which the representative image selected in the second image selection process is displayed on the display unit 190 has been described. However, the embodiment of the present invention also applies to the case where the representative image is printed. Can be applied. Further, an output unit that outputs the representative image may be provided in the image management apparatus 100, and the representative image may be output by another image output apparatus. Thereby, even when there are a large number of images, only a suitable small number of images can be output.

また、本発明の実施の形態では、類似画像のグルーピング処理および代表画像の選択処理を含む画像選択処理を異なるパラメータの値を用いて2段階に亘って実行して代表画像を選択する例について説明したが、さらに異なるパラメータの値を用いて画像選択処理を3段階以上に亘って実行して代表画像を選択する場合についても本発明の実施の形態を適用することができる。   In the embodiment of the present invention, an example in which image selection processing including grouping processing of similar images and selection processing of representative images is performed in two stages using different parameter values to select a representative image will be described. However, the embodiment of the present invention can also be applied to a case where a representative image is selected by executing image selection processing in three or more stages using different parameter values.

また、本発明の実施の形態では、画像管理装置を例にして説明したが、複数の画像を保持することができる携帯端末装置等の画像表示装置や、デジタルスチルカメラ等の撮像装置に本発明の実施の形態を適用することができる。   In the embodiment of the present invention, the image management apparatus has been described as an example. However, the present invention is applied to an image display apparatus such as a portable terminal apparatus that can hold a plurality of images and an imaging apparatus such as a digital still camera. The embodiment can be applied.

このように、本発明の実施の形態によれば、デジタルスチルカメラ等で撮影された大量の撮影画像について、これらの撮影画像の中から適切な撮影画像をダイジェスト生成部160により絞り込むことができる。このため、複数の画像を表示部190に表示する場合にその閲覧性を向上させることができる。また、写真等の撮影画像をサムネイル画像として表示部190に一覧表示する場合には、何ページにも亘って操作受付部180からスクロール操作をする必要がないため、閲覧性を向上させることができる。さらに、表示部190におけるスライドショー再生においても、似たような画像が連続して表示部190に再生されるような冗長性を省くことができる。このように、本発明の実施の形態によれば、複数の画像の中からそれら画像全体の概要を示す画像を選択することができる。   As described above, according to the embodiment of the present invention, it is possible to narrow down an appropriate captured image from among these captured images by the digest generating unit 160 for a large number of captured images captured by a digital still camera or the like. For this reason, when displaying a some image on the display part 190, the browsing property can be improved. In addition, when a list of photographed images such as photographs is displayed as a thumbnail image on the display unit 190, it is not necessary to perform a scroll operation from the operation receiving unit 180 over many pages, so that the viewability can be improved. . Further, also in the slide show reproduction on the display unit 190, it is possible to eliminate the redundancy that similar images are continuously reproduced on the display unit 190. As described above, according to the embodiment of the present invention, it is possible to select an image showing an outline of the entire image from a plurality of images.

なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、以下に示すように特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。   The embodiment of the present invention is an example for embodying the present invention and has a corresponding relationship with the invention-specific matters in the claims as shown below, but is not limited thereto. However, various modifications can be made without departing from the scope of the present invention.

すなわち、請求項1乃至請求項11において、画像管理装置は、例えば画像管理装置100に対応する。また、請求項12において、画像表示装置は、例えば画像管理装置100に対応する。請求項13において、撮像装置は、例えば画像管理装置100に対応する。   That is, in claims 1 to 11, the image management apparatus corresponds to, for example, the image management apparatus 100. The image display device corresponds to the image management device 100, for example. In claim 13, an imaging apparatus corresponds to the image management apparatus 100, for example.

また、請求項1、12、13において、画像保持手段は、例えば撮影画像保持部110に対応する。また、特徴量記録手段は、例えば類似特徴記録部141または画像スコア記録部142に対応する。   Further, in claims 1, 12, and 13, the image holding unit corresponds to the captured image holding unit 110, for example. The feature amount recording unit corresponds to, for example, the similar feature recording unit 141 or the image score recording unit 142.

また、請求項1、8、12、13において、パラメータ保持手段は、例えばパラメータ保持部150に対応する。   Further, in claims 1, 8, 12, and 13, the parameter holding means corresponds to the parameter holding unit 150, for example.

また、請求項1乃至5、9、12、13において、第1の画像選択手段は、例えばダイジェスト生成部160に対応する。   Further, in claims 1 to 5, 9, 12, and 13, the first image selection unit corresponds to, for example, the digest generation unit 160.

また、請求項1乃至5、7、12、13において、第2の画像選択手段は、例えばダイジェスト生成部160に対応する。   Further, in claims 1 to 5, 7, 12, and 13, the second image selection unit corresponds to, for example, the digest generation unit 160.

また、請求項7または請求項8において、操作受付手段は、例えば操作受付部180に対応する。   Further, in claim 7 or claim 8, the operation reception means corresponds to, for example, the operation reception unit 180.

また、請求項9において、イベントクラスタ記録手段は、例えばイベントクラスタ記録部123に対応する。   Further, in claim 9, the event cluster recording means corresponds to, for example, the event cluster recording unit 123.

また、請求項10において、出力手段は、例えば表示部190に対応する。   Further, in claim 10, the output means corresponds to the display unit 190, for example.

また、請求項11乃至13において、表示手段は、例えば表示部190に対応する。   Further, in claims 11 to 13, display means corresponds to the display unit 190, for example.

また、請求項14または請求項15において、第1の画像選択手順は、例えばステップS930に対応する。また、第2の画像選択手順は、例えばステップS930に対応する。   In claim 14 or claim 15, the first image selection procedure corresponds to, for example, step S <b> 930. The second image selection procedure corresponds to, for example, step S930.

なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。   The processing procedure described in the embodiment of the present invention may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program May be taken as

画像管理装置100の機能構成例を示すブロック図である。2 is a block diagram illustrating a functional configuration example of an image management apparatus 100. FIG. 複数の画像の撮影頻度と撮影時刻との関係を表すグラフ、および、撮影画像をイベント毎に分類する場合に行うイベントクラスタリングの概略を示す図である。It is a figure showing the relation between the photography frequency of a plurality of pictures, and photography time, and the figure showing the outline of the event clustering performed when classifying the photography picture for every event. パラメータ保持部150に保持されるパラメータの一例を示す図である。6 is a diagram illustrating an example of parameters held in a parameter holding unit 150. FIG. 1つのイベントに属する撮影画像から代表画像を選出する場合における遷移を概略的に示す遷移図である。It is a transition diagram which shows roughly the transition in the case of selecting a representative image from the picked-up image which belongs to one event. 撮影画像保持部110に保持されている撮影画像が表示部190に表示される場合における表示例を示す図である。6 is a diagram illustrating a display example when a captured image held in a captured image holding unit 110 is displayed on a display unit 190. FIG. 画像管理装置100による撮影画像の特徴抽出処理の処理手順を示すフローチャートである。5 is a flowchart illustrating a processing procedure of a feature extraction process of a captured image by the image management apparatus 100. 画像管理装置100によるイベントクラスタの作成処理の処理手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure for creating an event cluster by the image management apparatus 100. 画像管理装置100による代表画像の選択処理の処理手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure of representative image selection processing by the image management apparatus 100. 画像管理装置100による代表画像の選択処理の処理手順のうちの画像選択処理手順を示すフローチャートである。5 is a flowchart illustrating an image selection processing procedure in a processing procedure of representative image selection processing by the image management apparatus 100. 画像管理装置100による画像選択処理の処理手順のうちの類似画像のグルーピング処理手順を示すフローチャートである。6 is a flowchart illustrating a similar image grouping process procedure in an image selection process performed by the image management apparatus 100. 画像管理装置100による画像選択処理の処理手順のうちの代表画像の選択処理手順を示すフローチャートである。4 is a flowchart illustrating a representative image selection processing procedure in an image selection processing procedure performed by the image management apparatus 100. 画像管理装置100による代表画像の選択処理の処理手順を示すフローチャートである。4 is a flowchart illustrating a processing procedure of representative image selection processing by the image management apparatus 100.

符号の説明Explanation of symbols

100 画像管理装置
110 撮影画像保持部
121 時刻情報取得部
122 クラスタリング部
123 イベントクラスタ記録部
130 特徴抽出部
141 類似特徴記録部
142 画像スコア記録部
150 パラメータ保持部
160 ダイジェスト生成部
170 表示制御部
180 操作受付部
190 表示部
DESCRIPTION OF SYMBOLS 100 Image management apparatus 110 Captured image holding part 121 Time information acquisition part 122 Clustering part 123 Event cluster recording part 130 Feature extraction part 141 Similar feature recording part 142 Image score recording part 150 Parameter holding part 160 Digest generation part 170 Display control part 180 Operation Reception part 190 Display part

Claims (15)

複数の画像を保持する画像保持手段と、
複数の値が設定されているパラメータであって当該複数の値のうちの少なくとも1つが互いに異なる値に設定されているパラメータである第1のパラメータおよび第2のパラメータを保持するパラメータ保持手段と、
前記画像保持手段に保持されている各画像の特徴量を記録する特徴量記録手段と、
前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータとに基づいて前記画像保持手段に保持されている複数の画像から少なくとも1つの代表画像を選択する第1の画像選択手段と、
前記選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータとに基づいて前記第1の画像選択手段により選択された代表画像から少なくとも1つの代表画像を選択する第2の画像選択手段と
を具備することを特徴とする画像管理装置。
Image holding means for holding a plurality of images;
Parameter holding means for holding a first parameter and a second parameter that are parameters in which a plurality of values are set and at least one of the plurality of values is set to a different value;
Feature quantity recording means for recording the feature quantity of each image held in the image holding means;
At least one representative image from the plurality of images held in the image holding unit based on the feature amount of the image recorded in the feature amount recording unit and the first parameter held in the parameter holding unit. First image selecting means for selecting
Selected by the first image selection unit based on the feature amount recorded in the feature amount recording unit corresponding to the selected representative image and the second parameter held in the parameter holding unit. And a second image selection means for selecting at least one representative image from the representative images.
前記第1のパラメータは、少なくとも画像の特徴量の閾値を含み、
前記第2のパラメータは、少なくとも前記第1のパラメータに含まれる画像の特徴量の閾値とは異なる値である画像の特徴量の閾値を含み、
前記第1のパラメータに含まれる画像の特徴量の閾値は、前記第2のパラメータに含まれる画像の特徴量の閾値よりも条件が緩和された値に設定され、
前記第1の画像選択手段は、前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータの閾値とに基づいて前記画像保持手段に保持されている複数の画像を分類して当該分類された複数の画像から代表画像を選択し、
前記第2の画像選択手段は、前記第1の画像選択手段により選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータの閾値とに基づいて前記第1の画像選択手段により選択された代表画像を分類して当該分類された複数の代表画像から少なくとも1つの代表画像を選択する
ことを特徴とする請求項1記載の画像管理装置。
The first parameter includes at least a threshold value of an image feature amount,
The second parameter includes an image feature amount threshold value that is different from at least the image feature amount threshold value included in the first parameter;
The threshold value of the feature amount of the image included in the first parameter is set to a value whose condition is relaxed than the threshold value of the feature amount of the image included in the second parameter,
The first image selection unit is held in the image holding unit based on the feature amount of the image recorded in the feature amount recording unit and the threshold value of the first parameter held in the parameter holding unit. Classify a plurality of images and select a representative image from the classified images,
The second image selection means corresponds to the representative quantity selected by the first image selection means, and the feature quantity recorded in the feature quantity recording means and the second held in the parameter holding means. 2. The representative image selected by the first image selection unit is classified based on a threshold value of the parameter, and at least one representative image is selected from the plurality of classified representative images. The image management apparatus described.
前記第1のパラメータおよび前記第2のパラメータに含まれる画像の特徴量の閾値は、画像間の類似判定に用いる類似閾値であり、
前記第1の画像選択手段は、前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータの類似閾値とに基づいて前記画像保持手段に保持されている複数の画像のうちの類似する画像同士をグループ化して分類し、
前記第2の画像選択手段は、前記第1の画像選択手段により選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータの類似閾値とに基づいて前記第1の画像選択手段により選択された代表画像のうちの類似する画像同士をグループ化して分類する
ことを特徴とする請求項2記載の画像管理装置。
The threshold value of the feature amount of the image included in the first parameter and the second parameter is a similarity threshold value used for similarity determination between images,
The first image selection unit holds the image holding unit based on the feature amount of the image recorded in the feature amount recording unit and the similarity threshold value of the first parameter held in the parameter holding unit. Group images that are similar to each other,
The second image selection means corresponds to the representative quantity selected by the first image selection means, and the feature quantity recorded in the feature quantity recording means and the second held in the parameter holding means. 3. The image management apparatus according to claim 2, wherein similar images of the representative images selected by the first image selection unit are grouped and classified based on a similarity threshold of the parameters.
前記第1のパラメータは、少なくとも画像の特徴量に関する重み付け係数を含み、
前記第2のパラメータは、少なくとも前記第1のパラメータに含まれる画像の特徴量に関する重み付け係数とは異なる値である画像の特徴量に関する重み付け係数を含み、
前記第1の画像選択手段は、前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータとに基づいて前記画像保持手段に保持されている複数の画像を分類して前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータの重み付け係数とに基づいて当該分類された複数の画像から代表画像を選択し、
前記第2の画像選択手段は、前記第1の画像選択手段により選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータとに基づいて前記第1の画像選択手段により選択された代表画像を分類して前記第1の画像選択手段により選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータの重み付け係数とに基づいて当該分類された複数の代表画像から少なくとも1つの代表画像を選択する
ことを特徴とする請求項1記載の画像管理装置。
The first parameter includes at least a weighting coefficient related to the feature amount of the image,
The second parameter includes at least a weighting coefficient related to an image feature value that is different from a weighting coefficient related to an image feature value included in the first parameter;
The first image selection unit is held in the image holding unit based on the feature amount of the image recorded in the feature amount recording unit and the first parameter held in the parameter holding unit. Based on the feature quantity of the image recorded in the feature quantity recording means by classifying a plurality of images and the weighting coefficient of the first parameter held in the parameter holding means, from the classified images Select a representative image,
The second image selection means corresponds to the representative quantity selected by the first image selection means, and the feature quantity recorded in the feature quantity recording means and the second held in the parameter holding means. And the representative image selected by the first image selection means is classified and recorded in the feature amount recording means corresponding to the representative image selected by the first image selection means. The at least one representative image is selected from the plurality of classified representative images based on a feature amount and a weighting coefficient of a second parameter held in the parameter holding unit. Image management device.
前記第1の画像選択手段は、前記特徴量記録手段に記録されている画像の特徴量を前記パラメータ保持手段に保持されている第1のパラメータの重み付け係数により重み付け加算して当該重み付け加算された値に基づいて当該分類された複数の画像から代表画像を選択し、
前記第2の画像選択手段は、前記第1の画像選択手段により選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量を前記パラメータ保持手段に保持されている第2のパラメータの重み付け係数により重み付け加算して当該重み付け加算された値に基づいて当該分類された複数の代表画像から少なくとも1つの代表画像を選択する
ことを特徴とする請求項4記載の画像管理装置。
The first image selection unit weights and adds the feature amount of the image recorded in the feature amount recording unit by the weighting coefficient of the first parameter held in the parameter holding unit, and the weighted addition is performed. Select a representative image from a plurality of classified images based on the value,
The second image selection means stores the feature quantity recorded in the feature quantity recording means corresponding to the representative image selected by the first image selection means in the parameter holding means. 5. The image management apparatus according to claim 4, wherein at least one representative image is selected from the plurality of classified representative images based on the weighted addition value by the weighting coefficient of the parameter.
前記画像の特徴量に関する重み付け係数は、少なくとも画像のボケ度合いに関する重み付け係数を含み、
前記第2のパラメータに含まれる画像のボケ度合いに関する重み付け係数は、前記第1のパラメータに含まれる画像のボケ度合いに関する重み付け係数よりも重み付けの軽い値に設定される
ことを特徴とする請求項4記載の画像管理装置。
The weighting coefficient related to the feature amount of the image includes at least a weighting coefficient related to the degree of blur of the image,
5. The weighting coefficient related to the degree of blur of the image included in the second parameter is set to a value that is lighter than the weighting coefficient related to the degree of blur of the image included in the first parameter. The image management apparatus described.
選択すべき代表画像の上限数を指定するための操作入力を受け付ける操作受付手段をさらに具備し、
前記第2の画像選択手段は、前記第1の画像選択手段により選択された代表画像が前記指定された上限数以下であるか否かを判断して当該代表画像が当該上限数以下でない場合には当該代表画像に基づいて前記パラメータ保持手段に保持されている第2のパラメータの値を書き換え当該代表画像に対応して前記特徴量記録手段に記録されている特徴量と当該書き換えた第2のパラメータの値とに基づいて前記第1の画像選択手段により選択された代表画像から少なくとも1つの代表画像を選択する
ことを特徴とする請求項1記載の画像管理装置。
An operation receiving means for receiving an operation input for designating an upper limit number of representative images to be selected;
The second image selection means determines whether the representative image selected by the first image selection means is less than or equal to the designated upper limit number, and when the representative image is not less than or equal to the upper limit number. Rewrites the value of the second parameter held in the parameter holding means based on the representative image and the feature quantity recorded in the feature quantity recording means corresponding to the representative image and the rewritten second 2. The image management apparatus according to claim 1, wherein at least one representative image is selected from the representative images selected by the first image selection unit based on a parameter value.
前記パラメータ保持手段は、設定されている複数の値のうちの少なくとも1つが異なる前記第1のパラメータおよび前記第2のパラメータの組合せを複数保持し、
前記パラメータ保持手段に保持されている複数のパラメータの組合せから所望の組合せを指定するための操作入力を受け付ける操作受付手段をさらに具備する
ことを特徴とする請求項1記載の画像管理装置。
The parameter holding means holds a plurality of combinations of the first parameter and the second parameter that are different in at least one of a plurality of set values,
The image management apparatus according to claim 1, further comprising an operation receiving unit that receives an operation input for designating a desired combination from a plurality of parameter combinations held in the parameter holding unit.
前記画像保持手段に保持されている各画像をイベント毎に分類して記録するイベントクラスタ記録手段をさらに具備し、
前記第1の画像選択手段は、前記イベントクラスタ記録手段に記録されているイベント毎に前記代表画像を選択する
ことを特徴とする請求項1記載の画像管理装置。
Event cluster recording means for classifying and recording each image held in the image holding means for each event,
The image management apparatus according to claim 1, wherein the first image selection unit selects the representative image for each event recorded in the event cluster recording unit.
前記第2の画像選択手段により選択された代表画像を出力する出力手段をさらに具備する
ことを特徴とする請求項1記載の画像管理装置。
2. The image management apparatus according to claim 1, further comprising output means for outputting the representative image selected by the second image selection means.
前記出力手段は、前記第2の画像選択手段により選択された代表画像を表示する表示手段である
ことを特徴とする請求項10記載の画像管理装置。
The image management apparatus according to claim 10, wherein the output unit is a display unit that displays a representative image selected by the second image selection unit.
複数の画像を保持する画像保持手段と、
複数の値が設定されているパラメータであって当該複数の値のうちの少なくとも1つが互いに異なる値に設定されているパラメータである第1のパラメータおよび第2のパラメータを保持するパラメータ保持手段と、
前記画像保持手段に保持されている各画像の特徴量を記録する特徴量記録手段と、
前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータとに基づいて前記画像保持手段に保持されている複数の画像から少なくとも1つの代表画像を選択する第1の画像選択手段と、
前記選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータとに基づいて前記第1の画像選択手段により選択された代表画像から少なくとも1つの代表画像を選択する第2の画像選択手段と、
前記第2の画像選択手段により選択された代表画像を表示する表示手段と
を具備することを特徴とする画像表示装置。
Image holding means for holding a plurality of images;
Parameter holding means for holding a first parameter and a second parameter that are parameters in which a plurality of values are set and at least one of the plurality of values is set to a different value;
Feature quantity recording means for recording the feature quantity of each image held in the image holding means;
At least one representative image from the plurality of images held in the image holding unit based on the feature amount of the image recorded in the feature amount recording unit and the first parameter held in the parameter holding unit. First image selecting means for selecting
Selected by the first image selection unit based on the feature amount recorded in the feature amount recording unit corresponding to the selected representative image and the second parameter held in the parameter holding unit. Second image selecting means for selecting at least one representative image from the representative images;
An image display apparatus comprising: display means for displaying a representative image selected by the second image selection means.
撮像された複数の画像を保持する画像保持手段と、
複数の値が設定されているパラメータであって当該複数の値のうちの少なくとも1つが互いに異なる値に設定されているパラメータである第1のパラメータおよび第2のパラメータを保持するパラメータ保持手段と、
前記画像保持手段に保持されている各画像の特徴量を記録する特徴量記録手段と、
前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータとに基づいて前記画像保持手段に保持されている複数の画像から少なくとも1つの代表画像を選択する第1の画像選択手段と、
前記選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータとに基づいて前記第1の画像選択手段により選択された代表画像から少なくとも1つの代表画像を選択する第2の画像選択手段と、
前記第2の画像選択手段により選択された代表画像を表示する表示手段と
を具備することを特徴とする撮像装置。
Image holding means for holding a plurality of captured images;
Parameter holding means for holding a first parameter and a second parameter that are parameters in which a plurality of values are set and at least one of the plurality of values is set to a different value;
Feature quantity recording means for recording the feature quantity of each image held in the image holding means;
At least one representative image from the plurality of images held in the image holding unit based on the feature amount of the image recorded in the feature amount recording unit and the first parameter held in the parameter holding unit. First image selecting means for selecting
Selected by the first image selection unit based on the feature amount recorded in the feature amount recording unit corresponding to the selected representative image and the second parameter held in the parameter holding unit. Second image selecting means for selecting at least one representative image from the representative images;
An image pickup apparatus comprising: display means for displaying a representative image selected by the second image selection means.
複数の画像を保持する画像保持手段と、複数の値が設定されているパラメータであって当該複数の値のうちの少なくとも1つが互いに異なる値に設定されているパラメータである第1のパラメータおよび第2のパラメータを保持するパラメータ保持手段と、前記画像保持手段に保持されている各画像の特徴量を記録する特徴量記録手段とを具備する画像管理装置における画像管理方法において、
前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータとに基づいて前記画像保持手段に保持されている複数の画像から少なくとも1つの代表画像を選択する第1の画像選択手順と、
前記選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータとに基づいて前記選択された代表画像から少なくとも1つの代表画像を選択する第2の画像選択手順と
を具備することを特徴とする画像管理方法。
Image holding means for holding a plurality of images, a first parameter and a first parameter that are parameters for which a plurality of values are set and at least one of the plurality of values is set to a different value. In an image management method in an image management apparatus comprising: a parameter holding unit that holds two parameters; and a feature amount recording unit that records a feature amount of each image held in the image holding unit,
At least one representative image from the plurality of images held in the image holding unit based on the feature amount of the image recorded in the feature amount recording unit and the first parameter held in the parameter holding unit. A first image selection procedure for selecting
At least one selected from the selected representative image based on the feature quantity recorded in the feature quantity recording means corresponding to the selected representative image and the second parameter held in the parameter holding means. An image management method comprising: a second image selection procedure for selecting a representative image.
複数の画像を保持する画像保持手段と、複数の値が設定されているパラメータであって当該複数の値のうちの少なくとも1つが互いに異なる値に設定されているパラメータである第1のパラメータおよび第2のパラメータを保持するパラメータ保持手段と、前記画像保持手段に保持されている各画像の特徴量を記録する特徴量記録手段とを具備する画像管理装置において、
前記特徴量記録手段に記録されている画像の特徴量と前記パラメータ保持手段に保持されている第1のパラメータとに基づいて前記画像保持手段に保持されている複数の画像から少なくとも1つの代表画像を選択する第1の画像選択手順と、
前記選択された代表画像に対応して前記特徴量記録手段に記録されている特徴量と前記パラメータ保持手段に保持されている第2のパラメータとに基づいて前記選択された代表画像から少なくとも1つの代表画像を選択する第2の画像選択手順と
をコンピュータに実行させることを特徴とするプログラム。
Image holding means for holding a plurality of images, a first parameter and a first parameter that are parameters for which a plurality of values are set and at least one of the plurality of values is set to a different value. An image management apparatus comprising: a parameter holding unit that holds two parameters; and a feature amount recording unit that records a feature amount of each image held in the image holding unit;
At least one representative image from the plurality of images held in the image holding unit based on the feature amount of the image recorded in the feature amount recording unit and the first parameter held in the parameter holding unit. A first image selection procedure for selecting
At least one selected from the selected representative image based on the feature quantity recorded in the feature quantity recording means corresponding to the selected representative image and the second parameter held in the parameter holding means. A program causing a computer to execute a second image selection procedure for selecting a representative image.
JP2007122126A 2007-05-07 2007-05-07 Image management apparatus, image display apparatus, imaging apparatus, processing method in these, and program causing computer to execute the method Expired - Fee Related JP5034661B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007122126A JP5034661B2 (en) 2007-05-07 2007-05-07 Image management apparatus, image display apparatus, imaging apparatus, processing method in these, and program causing computer to execute the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007122126A JP5034661B2 (en) 2007-05-07 2007-05-07 Image management apparatus, image display apparatus, imaging apparatus, processing method in these, and program causing computer to execute the method

Publications (2)

Publication Number Publication Date
JP2008276668A true JP2008276668A (en) 2008-11-13
JP5034661B2 JP5034661B2 (en) 2012-09-26

Family

ID=40054519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007122126A Expired - Fee Related JP5034661B2 (en) 2007-05-07 2007-05-07 Image management apparatus, image display apparatus, imaging apparatus, processing method in these, and program causing computer to execute the method

Country Status (1)

Country Link
JP (1) JP5034661B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010153936A (en) * 2008-12-23 2010-07-08 Nikon Systems Inc Device and program for image evaluation
JP2010204908A (en) * 2009-03-03 2010-09-16 Kddi Corp Image retrieval system
JP2011118649A (en) * 2009-12-03 2011-06-16 Sony Computer Entertainment Inc Information processor and information processing method
JP2011150381A (en) * 2010-01-19 2011-08-04 Nippon Telegr & Teleph Corp <Ntt> Expression discriminator creation device, expression discriminator creation method, expression recognition device, expression recognition method, and program therefor
JP2012138679A (en) * 2010-12-24 2012-07-19 Nikon Corp Image processing device, image classification program, and image display program
US8271497B2 (en) 2009-12-03 2012-09-18 Sony Computer Entertainment Inc. Information processing apparatus and information processing method outputting information on movement of person
JP2012213117A (en) * 2011-03-31 2012-11-01 Jvc Kenwood Corp Image processor and image processing method
JP2014126973A (en) * 2012-12-26 2014-07-07 Sony Corp Display control device, display control method, and recording medium
JP2014232384A (en) * 2013-05-28 2014-12-11 アイキューブド研究所株式会社 Image output apparatus, image output method and program
JP2015164343A (en) * 2015-04-23 2015-09-10 オリンパス株式会社 Image processing server and imaging apparatus
JP2016505950A (en) * 2012-12-07 2016-02-25 リアルネットワークス,インコーポレーテッド Method and system for detecting and selecting the best pictures
JP2016048586A (en) * 2015-12-24 2016-04-07 レノボ・イノベーションズ・リミテッド(香港) Portable terminal and image classification method
JP2016519798A (en) * 2013-03-15 2016-07-07 アップル インコーポレイテッド Device, method and graphical user interface for organizing and presenting a collection of media items
JP2016154366A (en) * 2011-03-14 2016-08-25 株式会社ニコン Electronic apparatus and program
JP2016181823A (en) * 2015-03-24 2016-10-13 カシオ計算機株式会社 Image processing apparatus, image processing method and program
JP2017527058A (en) * 2015-07-28 2017-09-14 シャオミ・インコーポレイテッド Image display method, apparatus, program, and recording medium
KR20170132134A (en) * 2015-03-27 2017-12-01 구글 엘엘씨 Cluster-based photo navigation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330941A (en) * 2002-05-08 2003-11-21 Olympus Optical Co Ltd Similar image sorting apparatus
JP2007058795A (en) * 2005-08-26 2007-03-08 Fujifilm Holdings Corp Apparatus, method, and program for image processing
JP2007094990A (en) * 2005-09-30 2007-04-12 Fujifilm Corp Image sorting device, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330941A (en) * 2002-05-08 2003-11-21 Olympus Optical Co Ltd Similar image sorting apparatus
JP2007058795A (en) * 2005-08-26 2007-03-08 Fujifilm Holdings Corp Apparatus, method, and program for image processing
JP2007094990A (en) * 2005-09-30 2007-04-12 Fujifilm Corp Image sorting device, method, and program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010153936A (en) * 2008-12-23 2010-07-08 Nikon Systems Inc Device and program for image evaluation
JP2010204908A (en) * 2009-03-03 2010-09-16 Kddi Corp Image retrieval system
JP2011118649A (en) * 2009-12-03 2011-06-16 Sony Computer Entertainment Inc Information processor and information processing method
US8271497B2 (en) 2009-12-03 2012-09-18 Sony Computer Entertainment Inc. Information processing apparatus and information processing method outputting information on movement of person
JP2011150381A (en) * 2010-01-19 2011-08-04 Nippon Telegr & Teleph Corp <Ntt> Expression discriminator creation device, expression discriminator creation method, expression recognition device, expression recognition method, and program therefor
JP2012138679A (en) * 2010-12-24 2012-07-19 Nikon Corp Image processing device, image classification program, and image display program
US10275643B2 (en) 2011-03-14 2019-04-30 Nikon Corporation Electronic device, electronic device control method, and computer-readable recording medium having stored thereon electronic device control program
JP2016154366A (en) * 2011-03-14 2016-08-25 株式会社ニコン Electronic apparatus and program
JP2012213117A (en) * 2011-03-31 2012-11-01 Jvc Kenwood Corp Image processor and image processing method
JP2016505950A (en) * 2012-12-07 2016-02-25 リアルネットワークス,インコーポレーテッド Method and system for detecting and selecting the best pictures
JP2014126973A (en) * 2012-12-26 2014-07-07 Sony Corp Display control device, display control method, and recording medium
US11954302B2 (en) 2013-03-15 2024-04-09 Apple Inc. Device, method, and graphical user interface for organizing and presenting a collection of media items
JP2016519798A (en) * 2013-03-15 2016-07-07 アップル インコーポレイテッド Device, method and graphical user interface for organizing and presenting a collection of media items
JP2014232384A (en) * 2013-05-28 2014-12-11 アイキューブド研究所株式会社 Image output apparatus, image output method and program
JP2016181823A (en) * 2015-03-24 2016-10-13 カシオ計算機株式会社 Image processing apparatus, image processing method and program
KR20170132134A (en) * 2015-03-27 2017-12-01 구글 엘엘씨 Cluster-based photo navigation
JP2018517312A (en) * 2015-03-27 2018-06-28 グーグル エルエルシー Cluster-based photo navigation
KR102056417B1 (en) * 2015-03-27 2020-01-22 구글 엘엘씨 Cluster based photo navigation
US10769441B2 (en) 2015-03-27 2020-09-08 Google Llc Cluster based photo navigation
JP2015164343A (en) * 2015-04-23 2015-09-10 オリンパス株式会社 Image processing server and imaging apparatus
JP2017527058A (en) * 2015-07-28 2017-09-14 シャオミ・インコーポレイテッド Image display method, apparatus, program, and recording medium
US10032076B2 (en) 2015-07-28 2018-07-24 Xiaomi Inc. Method and device for displaying image
JP2016048586A (en) * 2015-12-24 2016-04-07 レノボ・イノベーションズ・リミテッド(香港) Portable terminal and image classification method

Also Published As

Publication number Publication date
JP5034661B2 (en) 2012-09-26

Similar Documents

Publication Publication Date Title
JP5034661B2 (en) Image management apparatus, image display apparatus, imaging apparatus, processing method in these, and program causing computer to execute the method
KR101605983B1 (en) Image recomposition using face detection
US10839199B2 (en) Image selecting device, image selecting method, image pickup apparatus, and computer-readable medium
US7813557B1 (en) Tagging detected objects
US8416332B2 (en) Information processing apparatus, information processing method, and program
US8041076B1 (en) Generation and usage of attractiveness scores
US7636450B1 (en) Displaying detected objects to indicate grouping
JP6009481B2 (en) Image processing apparatus, important person determination method, image layout method, program, and recording medium
JP5735330B2 (en) Image processing apparatus and image processing method
JP4895878B2 (en) Representative color extraction method and representative color extraction apparatus
US8259995B1 (en) Designating a tag icon
CN107430780B (en) Method for output creation based on video content characteristics
JP2010079446A (en) Electronic apparatus, blurring image selection method and program
US8320717B2 (en) Image processor
JP2007129434A (en) Information processor and method, and program
JP2007094990A (en) Image sorting device, method, and program
JP2011217125A (en) Image processor, image processing method, and program
JP2006314010A (en) Apparatus and method for image processing
US9025835B2 (en) Image recomposition from face detection and facial features
US20090244625A1 (en) Image processor
JP5146282B2 (en) Information processing apparatus, display control method, and program
JP6197063B2 (en) Image processing apparatus, important person determination method, image layout method, program, and recording medium
JP2010225082A (en) Image data management system and image data management method
JP4920534B2 (en) Slide show generation system and camera having this system
JP2005175839A (en) Image display device,image display method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees