JP2009267682A - Representative image determination device and camera - Google Patents

Representative image determination device and camera Download PDF

Info

Publication number
JP2009267682A
JP2009267682A JP2008113706A JP2008113706A JP2009267682A JP 2009267682 A JP2009267682 A JP 2009267682A JP 2008113706 A JP2008113706 A JP 2008113706A JP 2008113706 A JP2008113706 A JP 2008113706A JP 2009267682 A JP2009267682 A JP 2009267682A
Authority
JP
Japan
Prior art keywords
image
representative image
information
event
main cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008113706A
Other languages
Japanese (ja)
Inventor
Setsu Mihashi
説 三橋
Mikiya Tanaka
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008113706A priority Critical patent/JP2009267682A/en
Priority to PCT/JP2008/071867 priority patent/WO2009090804A1/en
Priority to US12/811,760 priority patent/US20100278396A1/en
Publication of JP2009267682A publication Critical patent/JP2009267682A/en
Priority to US14/663,335 priority patent/US20150193659A1/en
Priority to US15/074,316 priority patent/US10474931B2/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce processing needed to determine a representative image. <P>SOLUTION: The representative image determination device 1 for image groups includes: a determination means 11 of determining an image representing an image group of a plurality of images from the image group; and a control means 11 of controlling the determining means 11 to determine the representative image based upon selection reference information for selecting the representative image which corresponds to a title given to the image group. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数の画像から代表画像を決定する技術に関する。   The present invention relates to a technique for determining a representative image from a plurality of images.

グループ化された画像の中からグループの特徴を表す画像を選ぶ技術が知られている(特許文献1参照)。グループを構成する画像から、風景、静物、人物などのシーンらしさを表す評価値が個々に算出される。そして、グループ内で風景シーンの画像が最多である場合には、風景のシーンの画像のうち風景シーンについての評価値が最も大きい画像が代表画像に選ばれる。   A technique for selecting an image representing a group characteristic from among grouped images is known (see Patent Document 1). Evaluation values representing scene-likeness such as landscapes, still lifes, and persons are individually calculated from the images constituting the group. When there are the largest number of landscape scene images in the group, the image having the largest evaluation value for the landscape scene is selected as the representative image among the landscape scene images.

特開2007−94990号公報JP 2007-94990 A

従来技術では、風景、人物、静物、イベント、記念写真など、算出しようとする評価値の種類が多くなるにつれて、代表画像の決定に必要な算出処理の負担が大きくなるという問題があった。   The prior art has a problem that the burden of calculation processing necessary for determining a representative image increases as the types of evaluation values to be calculated increase, such as landscapes, people, still life, events, and commemorative photos.

(1)本発明による画像群の代表画像決定装置は、複数の画像を有する画像群を代表する画像を当該画像群の中から決定する決定手段と、代表する画像を選ぶための選択基準情報であって、画像群に付与されている標題に応じた選択基準情報に基づいて代表画像を決定するように決定手段を制御する制御手段とを備えることを特徴とする。
(2)請求項1に記載の代表画像決定装置はさらに、複数の標題にそれぞれ対応する複数の選択基準情報をあらかじめ記憶する記憶手段を備えてもよい。この場合の制御手段は、画像群に付与されている標題に対応する選択基準情報を記憶手段から読み出し、該選択基準情報に基づいて代表画像を決定するように決定手段を制御することもできる。
(3)請求項2に記載の代表画像決定装置において、選択基準情報は、標題に応じて行う処理を指示する情報を含んでもよい。この場合の決定手段は、処理の結果に基づいて代表画像を決定することもできる。
(4)請求項3に記載の代表画像決定装置において、選択基準情報は、標題が有する地域名称に関連する位置情報を含んでもよい。この場合の決定手段は、画像群を構成する個々の画像の撮影位置情報と、記憶手段から読み出された位置情報とに基づいて代表画像を決定することもできる。
(5)請求項3に記載の代表画像決定装置において、選択基準情報は、標題に応じた色の情報を含んでもよい。この場合の決定手段は、画像群を構成する個々の画像における色の領域情報に基づいて代表画像を決定することもできる。
(6)請求項3に記載の代表画像決定装置において、標題に応じて行う処理は、画像群を構成する個々の画像に関して被写体追跡情報を取得する指示を含んでもよい。この場合の決定手段は、取得された被写体追跡情報に基づいて代表画像を決定することもできる。
(7)本発明によるカメラは、請求項1〜請求項6のいずれか一項に記載の代表画像決定装置を備えることを特徴とする。
(1) A representative image determination device for an image group according to the present invention includes determination means for determining an image representative of an image group having a plurality of images from the image group, and selection criterion information for selecting a representative image. And control means for controlling the determining means so as to determine the representative image based on selection criterion information corresponding to the title assigned to the image group.
(2) The representative image determination apparatus according to claim 1 may further include a storage unit that stores in advance a plurality of selection criterion information respectively corresponding to a plurality of titles. In this case, the control means can read the selection criterion information corresponding to the title given to the image group from the storage means, and can control the determination means to determine the representative image based on the selection criterion information.
(3) In the representative image determination device according to claim 2, the selection criterion information may include information instructing processing to be performed according to the title. The determining means in this case can determine the representative image based on the processing result.
(4) In the representative image determination device according to the third aspect, the selection criterion information may include position information related to an area name included in the title. In this case, the determining means can determine the representative image based on the shooting position information of the individual images constituting the image group and the position information read from the storage means.
(5) In the representative image determination device according to the third aspect, the selection criterion information may include color information corresponding to the title. The determining means in this case can also determine the representative image based on the color area information in the individual images constituting the image group.
(6) In the representative image determination device according to the third aspect, the processing performed according to the title may include an instruction to acquire subject tracking information regarding each image constituting the image group. The determining means in this case can determine the representative image based on the acquired subject tracking information.
(7) A camera according to the present invention includes the representative image determination device according to any one of claims 1 to 6.

本発明によれば、代表画像の決定に必要な処理を低減できる。   According to the present invention, processing necessary for determining a representative image can be reduced.

以下、図面を参照して本発明を実施するための最良の形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、メインCPU11によって制御される。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram for explaining a main configuration of an electronic camera 1 according to the first embodiment of the present invention. The electronic camera 1 is controlled by the main CPU 11.

撮影レンズ21は、撮像素子22の撮像面上に被写体像を結像させる。撮像素子22はCCDイメージセンサなどで構成され、撮像面上の被写体像を撮像し、撮像信号を撮像回路23へ出力する。撮像素子22の撮像面には、それぞれR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられている。撮像素子22がカラーフィルタを通して被写体像を撮像するため、撮像素子22から出力される光電変換信号は、RGB表色系の色情報を有する。   The photographing lens 21 forms a subject image on the imaging surface of the imaging element 22. The imaging element 22 is configured by a CCD image sensor or the like, captures a subject image on the imaging surface, and outputs an imaging signal to the imaging circuit 23. R (red), G (green), and B (blue) color filters are respectively provided on the imaging surface of the imaging element 22 so as to correspond to the pixel positions. Since the image sensor 22 captures a subject image through the color filter, the photoelectric conversion signal output from the image sensor 22 has RGB color system color information.

撮像回路23は、撮像素子22から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。   The imaging circuit 23 performs analog processing (such as gain control) on the photoelectric conversion signal output from the imaging element 22, and converts the analog imaging signal into digital data by a built-in A / D conversion circuit.

メインCPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23から入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。   The main CPU 11 inputs a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block. The image processing circuit 12 is configured as an ASIC, for example, and performs image processing on the digital image signal input from the imaging circuit 23. The image processing includes, for example, contour enhancement, color temperature adjustment (white balance adjustment) processing, and format conversion processing for an image signal.

画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、たとえばJPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路15は、撮像画像を液晶モニタ16に表示させるための表示データを作成する。   The image compression circuit 13 performs image compression processing at a predetermined compression ratio on the image signal processed by the image processing circuit 12 by, for example, the JPEG method. The display image creation circuit 15 creates display data for displaying the captured image on the liquid crystal monitor 16.

バッファメモリ14は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。   The buffer memory 14 temporarily stores data before and after image processing and during image processing, stores an image file before being recorded on the recording medium 30, and stores an image file read from the recording medium 30. Used for.

記録媒体30は、電子カメラ1に対して着脱可能なメモリカードなどで構成される。記録媒体30には、メインCPU11からの指示によって撮影画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、メインCPU11からの指示によって読み出しが可能である。   The recording medium 30 includes a memory card that can be attached to and detached from the electronic camera 1. The recording medium 30 records captured image data and an image file including the information in accordance with an instruction from the main CPU 11. The image file recorded on the recording medium 30 can be read by an instruction from the main CPU 11.

フラッシュメモリ19は、メインCPU11が実行するプログラムや、メインCPU11が行う処理に必要なデータなどが格納される。フラッシュメモリ19が格納するプログラムやデータの内容は、メインCPU11からの指示によって追加、変更が可能に構成されている。   The flash memory 19 stores a program executed by the main CPU 11, data necessary for processing performed by the main CPU 11, and the like. The contents of programs and data stored in the flash memory 19 can be added and changed by an instruction from the main CPU 11.

操作部材17は、電子カメラ1の各種ボタンやスイッチ類を含み、レリーズボタンの押下操作、モード切替スイッチの切換操作など、各操作部材の操作内容に応じた操作信号をメインCPU11へ出力する。   The operation member 17 includes various buttons and switches of the electronic camera 1, and outputs an operation signal corresponding to the operation content of each operation member, such as a release button pressing operation and a mode switching switch switching operation, to the main CPU 11.

GPS装置18は、メインCPU11からの指示に応じてGPS衛星からの電波を受信し、受信信号をメインCPU11へ出力する。メインCPU11は、GPS装置18からの受信信号に基づいて所定の演算を行い、電子カメラ1の測位情報(緯度、経度、高度)を検出する。   The GPS device 18 receives radio waves from GPS satellites in response to instructions from the main CPU 11 and outputs received signals to the main CPU 11. The main CPU 11 performs a predetermined calculation based on the received signal from the GPS device 18 and detects the positioning information (latitude, longitude, altitude) of the electronic camera 1.

電子カメラ1は、撮影時に撮像素子22で取得された画像信号に所定の画像処理および圧縮処理を施し、圧縮処理後の画像データに、測位情報、および当該撮影画像に関する情報などを含む付加情報を付加した画像ファイルを生成するように構成されている。具体的には、JPEG形式の画像データを画像データ部に格納し、付加情報を付加情報部に格納したExif形式の画像ファイルを生成する。Exif形式の画像ファイルは、JPEG画像フォーマットの画像データ内にサムネイル画像や付加情報データを埋め込むようにしたものである。生成した画像ファイルは、記録媒体30に格納される。   The electronic camera 1 performs predetermined image processing and compression processing on the image signal acquired by the image sensor 22 at the time of shooting, and adds additional information including positioning information and information about the shot image to the image data after the compression processing. It is configured to generate an added image file. Specifically, an image file in Exif format is generated in which image data in JPEG format is stored in the image data portion and additional information is stored in the additional information portion. The Exif format image file is obtained by embedding thumbnail images and additional information data in image data in the JPEG image format. The generated image file is stored in the recording medium 30.

また、電子カメラ1は撮影モードと再生モードとが切替え可能に構成される。撮影モードは、被写体像を撮影し、撮影画像のデータを記録媒体30に画像ファイルとして保存する動作モードである。再生モードは、撮影済みの画像データを記録媒体30から読み出すなどして、画像データによる再生画像を液晶モニタ16に表示するモードである。   Further, the electronic camera 1 is configured to be able to switch between a shooting mode and a playback mode. The shooting mode is an operation mode in which a subject image is shot and data of the shot image is stored in the recording medium 30 as an image file. The reproduction mode is a mode in which the reproduced image based on the image data is displayed on the liquid crystal monitor 16 by reading the captured image data from the recording medium 30.

<撮影画像のグルーピング>
本実施形態の電子カメラ1は、撮影画像を自動的にグルーピングする機能を備える。具体的には、記録媒体30に記録済みの画像ファイルに対してグループ分けを行い、画像ファイルをグループごとに設けたフォルダ内に格納する。電子カメラ1はさらに、各フォルダ内に含まれる画像群に基づいて、画像群の撮影対象を表す標題(たとえば、撮影シーン)を決める。そして、この標題に基づいて、各フォルダ(グループ)の画像群を代表する画像ファイルをフォルダ(グループ)ごとにそれぞれ選ぶ。なお、画像ファイルをグループごとに設けたフォルダ内に格納しなくても、画像ファイルの管理テーブルを作成し、該テーブルに画像ファイルに対するグループ分け情報を格納するようにしてもよい。
<Grouping of shot images>
The electronic camera 1 of this embodiment has a function of automatically grouping captured images. Specifically, the image files recorded on the recording medium 30 are grouped, and the image files are stored in a folder provided for each group. Further, the electronic camera 1 determines a title (for example, a shooting scene) representing the shooting target of the image group based on the image group included in each folder. Based on the title, an image file representing the image group of each folder (group) is selected for each folder (group). Even if the image file is not stored in a folder provided for each group, an image file management table may be created, and grouping information for the image file may be stored in the table.

図2は、メインCPU11が実行する上記グルーピング処理の流れを説明するフローチャートである。メインCPU11は、操作部材17からグルーピング処理の実行を指示する操作信号が入力されると、図2による処理を開始する。   FIG. 2 is a flowchart for explaining the flow of the grouping process executed by the main CPU 11. When the operation signal instructing execution of the grouping process is input from the operation member 17, the main CPU 11 starts the process illustrated in FIG.

図2のステップS10において、メインCPU11は、記録媒体30に記録されている画像ファイルに対してクラスタリング手法によってグループ分けを行い、ステップS20へ進む。クラスタリング処理の詳細については後述する。ステップS20において、メインCPU11は、クラスタ(グループ分け後の画像ファイルの集合)に含まれる画像ごとにイベント判定を行ってステップS30へ進む。「イベント」は画像の撮影シーンを表すもので、たとえば、「運動会」、「結婚式」、「花見」、「海水浴」、「北海道旅行」などをいう。画像ごとのイベント判定処理の詳細については後述する。   In step S10 of FIG. 2, the main CPU 11 groups the image files recorded on the recording medium 30 by a clustering method, and proceeds to step S20. Details of the clustering process will be described later. In step S20, the main CPU 11 performs event determination for each image included in the cluster (a set of image files after grouping), and proceeds to step S30. “Event” represents an image shooting scene, and refers to, for example, “athletic meet”, “wedding”, “cherry blossom viewing”, “sea bathing”, “travel to Hokkaido”, and the like. Details of the event determination process for each image will be described later.

ステップS30において、メインCPU11は、クラスタごとにイベント判定を行ってステップS40へ進む。「イベント」が標題である点は上記ステップS20の場合と共通であるが、ステップS20におけるイベント判定が個々の画像を対象とするものであるのに対し、ステップS30におけるイベント判定がクラスタを代表する「イベント」を判定する点において異なる。クラスタごとのイベント判定処理の詳細については後述する。   In step S30, the main CPU 11 performs event determination for each cluster and proceeds to step S40. The point that “event” is the title is the same as in step S20 above, but the event determination in step S20 represents an individual image, whereas the event determination in step S30 represents a cluster. It differs in that “event” is determined. Details of the event determination process for each cluster will be described later.

ステップS40において、メインCPU11は、必要に応じてクラスタを統合し、ステップS50へ進む。クラスタの統合処理の詳細については後述する。ステップS50において、メインCPU11は、クラスタを代表する画像ファイルを決定して図2による処理を終了する。   In step S40, the main CPU 11 integrates the clusters as necessary, and proceeds to step S50. Details of the cluster integration processing will be described later. In step S50, the main CPU 11 determines an image file representing the cluster and ends the processing in FIG.

<クラスタリング処理>
クラスタリング処理(S10)の詳細について、図3に例示するフローチャートを参照して説明する。クラスタリング処理は、たとえば、撮影日時情報を用いて行う。図3のステップS11において、メインCPU11は全ての画像ファイルを対象に、画像ファイルの付加情報部に記録されている撮影日時を示す情報を抽出してステップS12へ進む。
<Clustering processing>
Details of the clustering process (S10) will be described with reference to the flowchart illustrated in FIG. The clustering process is performed using, for example, shooting date / time information. In step S11 of FIG. 3, the main CPU 11 extracts information indicating the shooting date and time recorded in the additional information portion of the image file for all image files, and proceeds to step S12.

ステップS12において、メインCPU11は、全ての画像ファイルから撮影日時を示す情報を抽出したか否かを判定する。メインCPU11は、全画像ファイルから必要な情報を抽出済みの場合にステップS12を肯定判定してステップS13へ進み、必要な情報を全画像ファイルから抽出済みでない場合にはステップS12を否定判定してステップS11へ戻る。ステップS11へ戻る場合は、上記抽出処理を繰り返す。   In step S12, the main CPU 11 determines whether or not information indicating the shooting date and time has been extracted from all the image files. When the necessary information has been extracted from all the image files, the main CPU 11 makes a positive determination in step S12 and proceeds to step S13. When the necessary information has not been extracted from all the image files, the main CPU 11 makes a negative determination in step S12. Return to step S11. When returning to step S11, the extraction process is repeated.

ステップS13において、メインCPU11は、階層的クラスタリングを用いる。その中で、たとえば最短距離法を用いてクラスタリングを行う。具体的には、1画像につき1クラスタを処理の起点として、撮影時刻が近いクラスタを逐次併合する処理を繰り返すことにより、画像ファイルを複数のクラスタ(撮影時刻が近い画像ファイルの集合)に分ける。メインCPU11は、クラスタ数が所定の数まで減った場合にステップS14へ進む。または、近接するクラスタ間において、一方の集合内で最も遅い撮影時刻と、他方の集合内で最も早い撮影時刻との差が所定時間(たとえば3時間)以上になった場合にステップS14へ進む。なお、階層的クラスタリングの中でも最短距離法以外の手法を用いてもよい。さらに、階層的クラスタリング以外の手法(たとえば、分割最適化法)を用いてもよい。   In step S13, the main CPU 11 uses hierarchical clustering. Among them, for example, clustering is performed using the shortest distance method. Specifically, an image file is divided into a plurality of clusters (a set of image files with close shooting times) by repeating the process of sequentially merging clusters with close shooting times starting from one cluster per image. When the number of clusters has decreased to a predetermined number, the main CPU 11 proceeds to step S14. Alternatively, when the difference between the latest shooting time in one set and the earliest shooting time in the other set is greater than or equal to a predetermined time (for example, 3 hours) between adjacent clusters, the process proceeds to step S14. Note that methods other than the shortest distance method may be used in hierarchical clustering. Furthermore, a method other than hierarchical clustering (for example, a division optimization method) may be used.

ステップS14において、メインCPU11は、上記クラスタに対応させてフォルダを記録媒体30内に生成してステップS15へ進む。ステップS15において、メインCPU11は、生成したフォルダ内へ対応する画像ファイルを移動させて図3による処理を終了する。これにより、クラスタに対応する各フォルダの中に、各クラスタに属する画像ファイルが格納される。なお、画像ファイルをグループごとに設けたフォルダ内に格納しなくても、画像ファイルの管理テーブルを作成し、該テーブルに画像ファイルに対するグループ分け情報を格納するようにしてもよい。   In step S14, the main CPU 11 generates a folder in the recording medium 30 corresponding to the cluster, and proceeds to step S15. In step S15, the main CPU 11 moves the corresponding image file into the generated folder and ends the process of FIG. As a result, the image file belonging to each cluster is stored in each folder corresponding to the cluster. Even if the image file is not stored in a folder provided for each group, an image file management table may be created, and grouping information for the image file may be stored in the table.

<画像ごとのイベント判定処理>
画像単位のイベント判定処理(S20)の詳細について、図4に例示するフローチャートを参照して説明する。図4のステップS21において、メインCPU11は、複数のクラスタの中からクラスタを1つ特定してステップS22へ進む。特定順は、たとえば、撮影日時が古い順(最も早い撮影時刻の画像ファイルを有するクラスタを優先)とする。
<Event determination process for each image>
Details of the event determination process (S20) in units of images will be described with reference to the flowchart illustrated in FIG. In step S21 of FIG. 4, the main CPU 11 identifies one cluster from the plurality of clusters and proceeds to step S22. The specific order is, for example, the order of shooting date and time (priority is given to the cluster having the image file with the earliest shooting time).

ステップS22において、メインCPU11は、判定対象とするイベント(イベント候補と呼ぶ)を決定する。メインCPU11は、図8に例示するイベント候補テーブルを参照し、クラスタを構成する画像ファイルの撮影日が属する月に対応するイベントを選ぶ。たとえば、画像ファイルが5月に撮影されたものである場合には、「花見」、「運動会」、および「結婚式」をイベント候補とする。イベント候補テーブルは、月ごとに発生頻度が高いイベントを記したものであり、過去のイベント発生月に基づいてあらかじめ作成され、フラッシュメモリ19内に記録されている。   In step S22, the main CPU 11 determines an event to be determined (referred to as an event candidate). The main CPU 11 refers to the event candidate table illustrated in FIG. 8 and selects an event corresponding to the month to which the shooting date of the image file constituting the cluster belongs. For example, if the image file was taken in May, “Hanami”, “Athletic meet”, and “Wedding” are the event candidates. The event candidate table describes events with a high occurrence frequency for each month, is created in advance based on the past event occurrence month, and is recorded in the flash memory 19.

図8によれば、発生月や季節との相関が強いイベントは該当月のみに含まれ、「結婚式」のように発生月との相関が弱いイベントは複数の月に含まれる。メインCPU11は、クラスタを構成する画像ファイルの撮影日が複数の月に属する場合は、一例として、より多くの画像ファイルが属する月に対応するイベント候補を選ぶ。メインCPU11は、以上のように判定対象とするイベントを決定したら、ステップS23へ進む。   According to FIG. 8, an event having a strong correlation with the occurrence month or season is included only in the corresponding month, and an event having a weak correlation with the occurrence month such as “wedding” is included in a plurality of months. When the shooting dates of the image files constituting the cluster belong to a plurality of months, the main CPU 11 selects event candidates corresponding to the months to which more image files belong. After determining the event to be determined as described above, the main CPU 11 proceeds to step S23.

ステップS23において、メインCPU11は、特定したクラスタを構成する画像ファイルの中から画像ファイルを1つ特定してステップS24へ進む。ステップS24において、メインCPU11は、特定した画像ファイルに含まれる画像データに基づいて、当該画像の特徴量を算出してステップS25へ進む。   In step S23, the main CPU 11 specifies one image file from the image files constituting the specified cluster, and proceeds to step S24. In step S24, the main CPU 11 calculates the feature amount of the image based on the image data included in the identified image file, and proceeds to step S25.

メインCPU11は、ステップS22において決定したイベント候補の判定に適した画像の特徴量を算出する。イベント候補と算出すべき特徴量との関係は、あらかじめテーブル化されてフラッシュメモリ19内に記録されている。特徴量は、たとえば、画像の所定領域を構成する画素データに基づいて算出される色情報、鮮鋭度情報、質感情報、模様情報、および明るさ情報などである。また、画像サイズやカラーヒストグラムの情報を特徴量として扱ってもよい。特徴量算出は公知技術であるため、本説明では特徴量算出に関する詳細な説明を省略する。   The main CPU 11 calculates a feature amount of the image suitable for determining the event candidate determined in step S22. The relationship between the event candidate and the feature quantity to be calculated is tabulated in advance and recorded in the flash memory 19. The feature amount is, for example, color information, sharpness information, texture information, pattern information, brightness information and the like calculated based on pixel data constituting a predetermined area of the image. Further, image size and color histogram information may be handled as feature amounts. Since the feature amount calculation is a known technique, a detailed description of feature amount calculation is omitted in this description.

ステップS25−ステップS27において、メインCPU11は、ステップS22において決定したイベント候補に対応した識別器をそれぞれ用いて、各イベントらしさを表す確率を算出する。識別器は、複数のサンプル画像データに基づいてSVM(Support Vector Machine)手法を用いる機械学習によって算出された特徴量情報である。たとえば、「花見」用の識別器は、複数の「花見」および「非花見」のサンプル画像に基づいて算出された特徴量情報である。「運動会」用の識別器は、複数の「運動会」および「非運動会」のサンプル画像に基づいて算出された特徴量情報である。「結婚式」用の識別器は、複数の「結婚式」および「非結婚式」のサンプル画像に基づいて算出された特徴量情報である。本実施形態では、複数のイベント候補のそれぞれに対応する識別器があらかじめ生成され、フラッシュメモリ19内に記録されている。本稿では、イベント候補の数が3つの場合を例に説明している。メインCPU11は、ステップS23において特定した1画像ごとに、イベント候補に挙げられたイベントらしさ(確率)Pを算出してステップS28へ進む。   In step S25 to step S27, the main CPU 11 calculates a probability representing the likelihood of each event using each discriminator corresponding to the event candidate determined in step S22. The discriminator is feature amount information calculated by machine learning using an SVM (Support Vector Machine) method based on a plurality of sample image data. For example, the classifier for “cherry-blossom viewing” is feature amount information calculated based on a plurality of “cherry-blossom viewing” and “non-cherry-blossom viewing” sample images. The classifier for “athletic day” is feature amount information calculated based on a plurality of sample images of “athletic day” and “non-athletic day”. The identifier for “wedding” is feature amount information calculated based on a plurality of “wedding” and “non-wedding” sample images. In the present embodiment, classifiers corresponding to each of a plurality of event candidates are generated in advance and recorded in the flash memory 19. In this article, the case where the number of event candidates is three is described as an example. The main CPU 11 calculates the event likelihood (probability) P listed as the event candidate for each image specified in step S23, and then proceeds to step S28.

イベントらしさを表す確率Pは、識別器によって表される特徴量空間において空間を仕切る境界(たとえば、「運動会」領域と、「非運動会」領域との境界)と、ステップS24において算出された特徴量との距離に対応する。ある画像から算出した特徴量が、「運動会」用の識別器によって表される特徴量空間で「運動会」に対応する特徴量領域の奥に位置し、「非運動会」に対応する特徴量領域までの距離が長ければ、「運動会」らしさの確率が高い。一方、画像から算出した特徴量が、「運動会」に対応する特徴量領域の端に位置し、「非運動会」に対応する特徴量領域までの距離が短ければ、「運動会」らしさの確率が低い。メインCPU11は、上記距離に応じて確率を算出する。   The probability P representing the likelihood of an event is a boundary that partitions the space in the feature amount space represented by the discriminator (for example, a boundary between the “athletic meet” region and the “non-athletic meet” region), and the feature amount calculated in step S24. Corresponds to the distance. The feature amount calculated from an image is located behind the feature amount region corresponding to “Athletic Meet” in the feature amount space represented by the classifier for “Athletic Meet”, up to the feature amount region corresponding to “Non-athletic Meet” If the distance is long, the probability of being “athletic meet” is high. On the other hand, if the feature amount calculated from the image is located at the end of the feature amount region corresponding to “athletic meet” and the distance to the feature amount region corresponding to “non-athletic meet” is short, the probability of being “athletic meet” is low . The main CPU 11 calculates the probability according to the distance.

ステップS28において、メインCPU11は、特定したクラスタ内の全画像ファイルに対して処理を終了したか否かを判定する。メインCPU11は、クラスタ内の全ての画像について特徴量算出、およびイベントらしさ(確率)Pの算出を行った場合にステップS28を肯定判定してステップS29へ進む。メインCPU11は、クラスタ内の全ての画像について特徴量算出、およびイベントらしさ(確率)Pの算出を行っていない場合には、ステップS28を否定判定してステップS23へ戻る。ステップS23へ戻ったメインCPU11は、特定したクラスタを構成する画像ファイルのうち他の1つの画像ファイルを特定してステップS24へ進む。   In step S28, the main CPU 11 determines whether or not the processing has been completed for all the image files in the identified cluster. When the main CPU 11 calculates the feature amount and the event likelihood (probability) P for all the images in the cluster, the main CPU 11 makes a positive determination in step S28 and proceeds to step S29. If the main CPU 11 has not performed the feature amount calculation and the event likelihood (probability) P for all the images in the cluster, the main CPU 11 makes a negative determination in step S28 and returns to step S23. After returning to step S23, the main CPU 11 identifies another image file among the image files constituting the identified cluster, and proceeds to step S24.

ステップS29において、メインCPU11は、全てのクラスタに対して処理を終了したか否かを判定する。メインCPU11は、全てのクラスタについて特徴量算出、およびイベントらしさ(確率)Pの算出を行った場合にステップS29を肯定判定して図4による処理を終了する。メインCPU11は、全てのクラスタについて特徴量算出、およびイベントらしさ(確率)Pの算出を行っていない場合には、ステップS29を否定判定してステップS21へ戻る。ステップS21へ戻ったメインCPU11は、他の1つのクラスタを特定してステップS22へ進む。   In step S29, the main CPU 11 determines whether or not the processing has been completed for all clusters. When the main CPU 11 performs the feature amount calculation and the event likelihood (probability) P for all the clusters, the main CPU 11 makes an affirmative determination in step S29 and ends the processing in FIG. When the main CPU 11 has not performed the feature amount calculation and the event likelihood (probability) P for all the clusters, the main CPU 11 makes a negative determination in step S29 and returns to step S21. After returning to step S21, the main CPU 11 identifies another cluster and proceeds to step S22.

<クラスタごとのイベント判定処理>
クラスタ単位のイベント判定処理(S30)の詳細について、図5に例示するフローチャートを参照して説明する。図5のステップS31において、メインCPU11は、複数のクラスタの中からクラスタを1つ特定してステップS32へ進む。特定順は、たとえば、撮影日時が古い順(最も早い撮影時刻の画像ファイルを有するクラスタを優先)とする。
<Event determination processing for each cluster>
Details of the event determination process (S30) in units of clusters will be described with reference to the flowchart illustrated in FIG. In step S31 of FIG. 5, the main CPU 11 specifies one cluster from the plurality of clusters and proceeds to step S32. The specific order is, for example, the order of shooting date and time (priority is given to the cluster having the image file with the earliest shooting time).

ステップS32において、メインCPU11は、イベント候補の中から判定対象とするイベントを1つ特定してステップS33へ進む。ステップS33において、メインCPU11は、S31において特定したクラスタを構成する画像ファイルの中から画像ファイルを1つ特定してステップS34へ進む。ステップS34において、メインCPU11は、S32において特定したイベントに対するイベントらしさ(確率)Pが所定の判定閾値Pth以上か否かを判定する。メインCPU11は、イベントらしさ(確率)Pが判定閾値Pth以上の場合にステップS34を肯定判定してステップS35へ進む。メインCPU11は、イベントらしさ(確率)Pが判定閾値Pth未満の場合にはステップS34を否定判定し、ステップS36へ進む。   In step S32, the main CPU 11 specifies one event to be determined from the event candidates and proceeds to step S33. In step S33, the main CPU 11 specifies one image file from the image files constituting the cluster specified in S31, and proceeds to step S34. In step S34, the main CPU 11 determines whether or not the event likelihood (probability) P for the event specified in S32 is equal to or greater than a predetermined determination threshold value Pth. When the event likelihood (probability) P is equal to or greater than the determination threshold value Pth, the main CPU 11 makes a positive determination in step S34 and proceeds to step S35. When the event likelihood (probability) P is less than the determination threshold value Pth, the main CPU 11 makes a negative determination in step S34 and proceeds to step S36.

ステップS35において、メインCPU11は、Psum=Psum+Pを算出してステップS36へ進む。ステップS36において、メインCPU11は、特定したクラスタ内の全画像ファイルに対して処理を終了したか否かを判定する。メインCPU11は、クラスタ内の全ての画像について処理を行った場合にステップS36を肯定判定してステップS37へ進む。メインCPU11は、クラスタ内の全ての画像について処理を行っていない場合には、ステップS36を否定判定してステップS33へ戻る。ステップS33へ戻ったメインCPU11は、特定したクラスタを構成する画像ファイルのうち他の1つの画像ファイルを特定してステップS34へ進む。   In step S35, the main CPU 11 calculates Psum = Psum + P and proceeds to step S36. In step S36, the main CPU 11 determines whether or not the processing has been completed for all the image files in the specified cluster. When the main CPU 11 has processed all the images in the cluster, the main CPU 11 makes an affirmative decision in step S36 and proceeds to step S37. If the main CPU 11 has not processed all the images in the cluster, the main CPU 11 makes a negative determination in step S36 and returns to step S33. After returning to step S33, the main CPU 11 specifies another one of the image files constituting the specified cluster, and proceeds to step S34.

ステップS37において、メインCPU11は、上記Psumへ加算したイベントらしさ(確率)Pの個数がクラスタ内の全画像ファイル数のNパーセント以上か否かを判定する。メインCPU11は、加算したPの個数がNパーセント以上の場合にステップS37を肯定判定してステップS38へ進む。メインCPU11は、加算したPの個数がNパーセント未満の場合にはステップS37を否定判定し、ステップS41へ進む。ステップS41において、メインCPU11は、Psum=0としてステップS38へ進む。   In step S37, the main CPU 11 determines whether the number of event probabilities (probabilities) P added to Psum is equal to or greater than N percent of the total number of image files in the cluster. When the added number of P is N percent or more, the main CPU 11 makes a positive determination in step S37 and proceeds to step S38. When the added number of P is less than N percent, the main CPU 11 makes a negative determination in step S37 and proceeds to step S41. In step S41, the main CPU 11 sets Psum = 0 and proceeds to step S38.

ステップS38において、メインCPU11は、イベント候補の全てについてPsumを算出する処理を終了したか否かを判定する。メインCPU11は、全てのイベントについて算出処理を終了した場合にステップS38を肯定判定してステップS39へ進む。メインCPU11は、全てのイベントについて算出処理を終了していない場合にはステップS38を否定判定し、ステップS32へ戻る。ステップS32へ戻ったメインCPU11は、イベント候補のうち判定対象とする他のイベント1つを特定してステップS33へ進む。   In step S38, the main CPU 11 determines whether or not the process of calculating Psum for all event candidates has been completed. When the calculation process is completed for all events, the main CPU 11 makes a positive determination in step S38 and proceeds to step S39. If the calculation process has not been completed for all events, the main CPU 11 makes a negative determination in step S38 and returns to step S32. After returning to step S32, the main CPU 11 specifies one other event to be determined from the event candidates and proceeds to step S33.

ステップS39において、メインCPU11は、イベント候補ごとに算出したPsumのうち、その最大値に対応するイベント候補を当該クラスタの標題イベントに決定してステップS42へ進む。   In step S39, the main CPU 11 determines the event candidate corresponding to the maximum value among the Psum calculated for each event candidate as the title event of the cluster, and proceeds to step S42.

ステップS42において、メインCPU11は、全てのクラスタについてPsumの算出、および標題イベントを決定する処理を終了したか否かを判定する。メインCPU11は、全てのクラスタについて処理を終了した場合にステップS42を肯定判定して図5による処理を終了する。メインCPU11は、全てのクラスタについて処理を終了していない場合にはステップS42を否定判定し、ステップS31へ戻る。ステップS31へ戻ったメインCPU11は、他のクラスタ1つを特定してステップS32へ進む。   In step S42, the main CPU 11 determines whether or not the calculation of Psum and the process for determining the title event have been completed for all clusters. When the process is finished for all clusters, the main CPU 11 makes a positive determination in step S42 and ends the process of FIG. If the processing has not been completed for all clusters, the main CPU 11 makes a negative determination in step S42 and returns to step S31. After returning to step S31, the main CPU 11 identifies another cluster and proceeds to step S32.

図9−図11は、画像ファイルの集合(画像数=5)を含むクラスタに対するイベント判定を例示する図である。イベント候補は、たとえば「運動会」、「結婚式」、および「花見」であり、画像1−画像5のそれぞれについて、「運動会」らしさ、「結婚式」らしさ、および「花見」らしさの確率Pが算出されている。本例では、判定閾値Pth=40パーセントとし、判定閾値N=40パーセントとする。   9 to 11 are diagrams illustrating event determination for a cluster including a set of image files (number of images = 5). The event candidates are, for example, “athletic meet”, “wedding”, and “cherry blossom viewing”. For each of the images 1 to 5, the probability P of “athletic meet” likelihood, “wedding” likelihood, and “cherry blossom viewing” probability is set. It has been calculated. In this example, the determination threshold value Pth = 40% and the determination threshold value N = 40%.

図9の場合、「運動会」らしさについてのPsumは、「運動会」らしさを示すPが判定閾値Pth以上の画像(すなわち、画像4以外の画像1−画像3、および画像5)について、それぞれのPを加算する(ステップS35)。この場合のPsumは、85(画像1)+90(画像2)+80(画像3)+75(画像5)=330である。   In the case of FIG. 9, the Psum regarding the “Athletic meet” likelihood is P for each of the images having the “Athletic meet” likelihood P equal to or greater than the determination threshold Pth (that is, the image 1 to the image 3 other than the image 4 and the image 5). Are added (step S35). In this case, Psum is 85 (image 1) +90 (image 2) +80 (image 3) +75 (image 5) = 330.

図10の場合、「結婚式」らしさを示すPが判定閾値Pth以上となるのは画像4のみであるため、「結婚式」らしさについてのPsumは、画像4について算出されているPのみを加算対象にする。これにより、Psum=45(画像4)を得る。ここで、画像4(1画像)は、画像数5のうち20パーセントに相当するため上記N(40パーセント)に満たない。そこでメインCPU11は、図10の場合のPsumを0とする(ステップS41)。   In the case of FIG. 10, only P4 indicating “wedding” likelihood is equal to or greater than the determination threshold Pth, so only P calculated for image 4 is added to Psum regarding “wedding” likelihood. Target. Thereby, Psum = 45 (image 4) is obtained. Here, the image 4 (one image) corresponds to 20% of the number of images 5 and is therefore less than N (40%). Therefore, the main CPU 11 sets Psum in the case of FIG. 10 to 0 (step S41).

図11において、「花見」らしさについてのPsumは、「花見」らしさを示すPが判定閾値Pth以上の画像(すなわち、画像3以外の画像1−画像2、および画像4−画像5)について、それぞれのPを加算する(ステップS35)。この場合のPsumは、60(画像1)+70(画像2)+65(画像4)+75(画像5)=270である。   In FIG. 11, Psum regarding “Hanami” -likeness is obtained for images (ie, image 1 to image 2 other than image 3 and image 4 to image 5) that are P or more indicating “hanami” -likeness, respectively. Of P is added (step S35). In this case, Psum is 60 (image 1) +70 (image 2) +65 (image 4) +75 (image 5) = 270.

メインCPU11は、イベント候補(「運動会」、「結婚式」、および「花見」)のうち、最大Psumに対応する「運動会」を、当該クラスタの標題イベントとする。   The main CPU 11 sets the “athletic meet” corresponding to the maximum Psum among the event candidates (“athletic meet”, “wedding”, and “cherry blossom viewing”) as the title event of the cluster.

<クラスタの統合処理>
クラスタの統合処理(S40)の詳細について、図6に例示するフローチャートを参照して説明する。図6のステップS51において、メインCPU11は、複数のクラスタのうち、近接するクラスタ間の時間差が判定閾値T以下か否かを判定する。メインCPU11は、たとえば、一方のクラスタで最も遅い撮影時刻と、他方のクラスタ内で最も早い撮影時刻との差が上記T以下の場合にステップS51を肯定判定してステップS52へ進む。メインCPU11は、時間差が上記Tを超える場合にはステップS51を否定判定して図6による処理を終了する。ステップS51を否定判定する場合は、クラスタの統合を行わない。
<Cluster integration processing>
Details of the cluster integration processing (S40) will be described with reference to the flowchart illustrated in FIG. In step S51 of FIG. 6, the main CPU 11 determines whether or not the time difference between adjacent clusters among the plurality of clusters is equal to or less than the determination threshold T. For example, when the difference between the latest shooting time in one cluster and the earliest shooting time in the other cluster is equal to or less than T, the main CPU 11 makes an affirmative determination in step S51 and proceeds to step S52. When the time difference exceeds T, the main CPU 11 makes a negative determination in step S51 and ends the process of FIG. When a negative determination is made in step S51, cluster integration is not performed.

ステップS52において、メインCPU11は、時間差T以下で近接するクラスタ同士の標題イベントが同一か否かを判定する。メインCPU11は、標題イベントが同一の場合にステップS52を肯定判定してステップS53へ進む。メインCPU11は、標題イベントが同一でない場合にはステップS52を否定判定して図6による処理を終了する。ステップS52を否定判定する場合は、クラスタの統合を行わない。   In step S52, the main CPU 11 determines whether or not the title events of the adjacent clusters with the time difference T or less are the same. When the title event is the same, the main CPU 11 makes a positive determination in step S52 and proceeds to step S53. If the title events are not the same, the main CPU 11 makes a negative determination in step S52 and ends the process of FIG. When a negative determination is made in step S52, cluster integration is not performed.

ステップS53において、メインCPU11は、2つのクラスタを1つのクラスタに統合して図6による処理を終了する。メインCPU11は、全クラスタに対してクラスタの統合処理を繰り返す。以上の処理により、クラスタ数が減少する。   In step S53, the main CPU 11 integrates the two clusters into one cluster and ends the process shown in FIG. The main CPU 11 repeats cluster integration processing for all clusters. With the above processing, the number of clusters decreases.

<クラスタごとの代表画像の決定処理>
クラスタ単位の代表画像決定処理の詳細について、図7に例示するフローチャートを参照して説明する。図7のステップS61において、メインCPU11は、複数のクラスタの中からクラスタを1つ特定してステップS62へ進む。特定順は、たとえば、撮影日時が古い順(最も早い撮影時刻の画像ファイルを有するクラスタを優先)とする。
<Determination of representative image for each cluster>
Details of the representative image determination processing in units of clusters will be described with reference to the flowchart illustrated in FIG. In step S61 of FIG. 7, the main CPU 11 specifies one cluster from the plurality of clusters, and proceeds to step S62. The specific order is, for example, the order of shooting date and time (priority is given to the cluster having the image file with the earliest shooting time).

ステップS62において、メインCPU11は、ステップS39において決定した標題イベントに対応する選択基準情報をフラッシュメモリ19から読み出してステップS63へ進む。選択基準情報は、代表画像の決定方法をあらかじめ標題イベントごとに定め、テーブル化してフラッシュメモリ19内に記録したものである。   In step S62, the main CPU 11 reads the selection criterion information corresponding to the title event determined in step S39 from the flash memory 19, and proceeds to step S63. The selection criterion information is obtained by predetermining a representative image determination method for each title event, forming a table, and recording it in the flash memory 19.

ステップS63において、メインCPU11は、クラスタ内に含まれる画像ファイル群の中から、選択基準情報に基づいて代表画像を選んでステップS64へ進む。ステップS64において、メインCPU11は、全てのクラスタについて代表画像を選んだか否かを判定する。メインCPU11は、全てのクラスタについて処理を終了した場合にステップS64を肯定判定して図7による処理を終了する。メインCPU11は、全てのクラスタについて処理を終了していない場合にはステップS64を否定判定し、ステップS61へ戻る。ステップS61へ戻ったメインCPU11は、他のクラスタ1つを特定してステップS62へ進む。   In step S63, the main CPU 11 selects a representative image from the image file group included in the cluster based on the selection criterion information, and proceeds to step S64. In step S64, the main CPU 11 determines whether representative images have been selected for all clusters. When the process is finished for all clusters, the main CPU 11 makes a positive determination in step S64 and ends the process of FIG. If the process has not been completed for all clusters, the main CPU 11 makes a negative determination in step S64 and returns to step S61. After returning to step S61, the main CPU 11 identifies another cluster and proceeds to step S62.

上記選択基準情報について説明する。メインCPU11は、図12に例示する選択基準情報テーブルを参照し、クラスタの標題イベントに対応する選択基準情報を選ぶ。選択基準情報テーブルは、あらかじめ作成されてフラッシュメモリ19内に記録されている。たとえば、クラスタの標題イベントが「結婚式」、「初詣」、「ひな祭り」、「入学式」、「卒業式」の場合は、当該クラスタに含まれる画像のうち、画像に含まれる顔領域の割合が所定割合に最も近いものを代表画像として選ぶ。なお、画像データに基づいて顔検出処理を行い、画像に含まれている人物の「顔」を検出する顔検出処理は、公知の技術であるため説明を省略する。   The selection criterion information will be described. The main CPU 11 refers to the selection criterion information table illustrated in FIG. 12 and selects the selection criterion information corresponding to the cluster title event. The selection criterion information table is created in advance and recorded in the flash memory 19. For example, if the title event of a cluster is “Wedding”, “Hatsumode”, “Hinamatsuri”, “Entrance Ceremony”, “Graduation Ceremony”, the proportion of the facial area included in the image in the cluster Is selected as the representative image. Note that the face detection process for performing the face detection process based on the image data and detecting the “face” of the person included in the image is a known technique, and thus the description thereof is omitted.

また、クラスタの標題イベントが「海水浴」、「ダイビング」、「紅葉狩」、「ゴルフ」の場合は、当該クラスタに含まれる画像のうち、画像に含まれる所定色領域の割合が所定割合に最も近いものを代表画像として選ぶ。所定色は、たとえば、青色領域(海水浴、ダイビング)、赤色または黄色領域(紅葉狩)、緑色領域(ゴルフ)である。   In addition, when the title event of the cluster is “sea bathing”, “diving”, “autumn leaf hunting”, “golf”, the ratio of the predetermined color area included in the image is the closest to the predetermined ratio among the images included in the cluster. Choose one as the representative image. The predetermined color is, for example, a blue region (sea bathing, diving), a red or yellow region (autumn leaves hunting), and a green region (golf).

また、クラスタに含まれる画像のうち、当該クラスタの標題イベントに対応するイベントらしさを示す確率Pが最大となる画像を代表画像として選ぶようにしてもよい。このように、あらかじめ標題イベントごとに代表画像決定条件を決めておき、その決定条件に基づいて標題イベントを代表する画像を決定する。   Further, among the images included in the cluster, an image having the maximum probability P indicating the likelihood of an event corresponding to the title event of the cluster may be selected as the representative image. As described above, the representative image determination condition is determined in advance for each title event, and an image representing the title event is determined based on the determination condition.

以上説明した実施形態によれば、以下の作用効果が得られる。
(1)クラスタ(画像ファイルの集合)に対して複数のイベント候補(運動会、結婚式、花見)を与え、各イベント候補の判定に適した特徴量をクラスタ内の画像ごとに算出し、算出した個々の画像の特徴量に基づいて当該クラスタ(画像ファイルの集合)を代表するイベントをイベント候補の中から決定するようにした。従来技術と異なり、クラスタに対してSVM手法を使わない、すなわち、クラスタに対する特徴量の算出を必要とせずに、画像ごとのイベントらしさ(確率)Pの和Psumを算出する単純加算、和Psumに加算した画像数のカウント、イベント候補間におけるPsumの大小比較、判定閾値Pthと確率Pとの大小比較のみでよいので、画像群に対する特徴量算出をする場合に比べて短時間で処理することができる。
According to the embodiment described above, the following effects can be obtained.
(1) A plurality of event candidates (athletic meet, wedding ceremony, cherry-blossom viewing) are given to a cluster (a set of image files), and feature quantities suitable for determining each event candidate are calculated for each image in the cluster. An event representative of the cluster (a set of image files) is determined from event candidates based on the feature amount of each image. Unlike the prior art, the SVM method is not used for clusters, that is, the sum Psum for calculating the sum Psum of the event-likeness (probability) P for each image without the need to calculate the feature amount for the cluster. Since only the count of the number of added images, the Psum size comparison between the event candidates, and the size comparison between the determination threshold value Pth and the probability P are sufficient, processing can be performed in a shorter time compared to the case of calculating the feature amount for the image group. it can.

(2)画像ごとのイベントらしさ(確率)Pの和Psumの最大値に対応するイベント候補に決定するようにしたので、画像ファイルの集合を代表するイベントを適切に決めることができる。 (2) Since the event candidate corresponding to the maximum value of the sum Psum of the event-likeness (probability) P for each image is determined, an event representing a set of image files can be appropriately determined.

(3)画像ごとのイベントらしさ(確率)Pが判定閾値Pthに満たない場合は和Psumに加えないようにしたので、イベント候補に該当する確率が低い画像が和Psumに寄与する度合いを抑えることができる。 (3) When the event likelihood (probability) P for each image is less than the determination threshold Pth, it is not added to the sum Psum, so that the degree of contribution of an image having a low probability of being an event candidate to the sum Psum is suppressed. Can do.

(4)判定閾値Pthを満たす画像数(すなわち、和PsumにPを加算した画像数)がクラスタ内の画像数に対して所定割合に満たない場合は、Psumを0にして当該イベント候補を除外するようにした。これにより、画像ファイルの集合を代表するイベントを適切に決めることができる。 (4) When the number of images satisfying the determination threshold Pth (that is, the number of images obtained by adding P to the sum Psum) is less than a predetermined ratio with respect to the number of images in the cluster, Psum is set to 0 and the event candidate is excluded. I tried to do it. This makes it possible to appropriately determine an event that represents a set of image files.

(5)クラスタ(画像ファイルの集合)は、画像の撮影日時に応じてクラスタリングしたものを用いるようにした。これにより、撮影日時に応じたイベント候補を与えることができる。 (5) Clusters (a set of image files) are clustered according to the shooting date and time of images. Thereby, event candidates according to the shooting date and time can be given.

(6)クラスタに対して複数のイベント候補を与えるようにしたので、これら複数のイベント候補の中から最も適切なものを決定することができる。 (6) Since a plurality of event candidates are given to the cluster, the most appropriate event can be determined from the plurality of event candidates.

(7)複数のクラスタのうち、近接するクラスタ間の時間差が判定閾値T以下であって、かつ当該クラスタ同士の標題イベントが同一の場合に両クラスタを1つに統合するようにした。これにより、撮影日時のみでクラスタリングしたものより、必要以上に細かくクラスタリングすることを避けられ、画像を分類整理する時の意図に沿ったものとなる。 (7) Among the plurality of clusters, when the time difference between adjacent clusters is equal to or less than the determination threshold T and the title events of the clusters are the same, both clusters are integrated into one. As a result, it is possible to avoid performing clustering more finely than necessary than in the case of clustering only by shooting date and time, and to conform to the intention when the images are classified and arranged.

(8)一方のクラスタで最も遅い撮影時刻と、他方のクラスタ内で最も早い撮影時刻との差が上記T以下の場合にステップS51を肯定判定するようにした。同じイベントに対しては、撮影間隔をあけずに続けて撮影することが多いので、当該クラスタ同士の標題イベントが同一である可能性が高い場合を検出できる。 (8) When the difference between the latest shooting time in one cluster and the earliest shooting time in the other cluster is equal to or less than T, the determination in step S51 is affirmative. Since the same event is often shot continuously without taking a shooting interval, it is possible to detect a case where there is a high possibility that the title events of the clusters are the same.

(9)イベント候補と算出すべき特徴量との関係をあらかじめテーブル化してフラッシュメモリ19内に記録しておくようにした。これにより、イベント候補の判定に適した画像の特徴量を算出でき、画像ファイルの集合を代表するイベントを適切に決めることができる。 (9) The relationship between the event candidate and the feature quantity to be calculated is tabulated in advance and recorded in the flash memory 19. Thereby, it is possible to calculate the image feature amount suitable for the determination of the event candidate, and to appropriately determine the event representing the set of image files.

(10)クラスタの標題イベントに対応させて設けた選択基準情報に基づいて、当該クラスタ内に含まれる画像の中から代表画像を選ぶようにした。これにより、クラスタごとに最も適した選択基準で代表画像を決定できる。 (10) A representative image is selected from images included in the cluster based on selection criterion information provided corresponding to the title event of the cluster. As a result, the representative image can be determined with the most suitable selection criterion for each cluster.

(11)標題イベントごとに適した選択基準情報をあらかじめテーブル化し、フラッシュメモリ19内に記録しておく。そして、標題イベントが異なる場合には、該選択基準情報テーブルを参照して選択基準を切り替えるようにした。テーブル化することにより、標題イベントと選択基準との組み合わせを自由に設定することができる。 (11) Selection criteria information suitable for each title event is tabulated in advance and recorded in the flash memory 19. When the title event is different, the selection criterion is switched with reference to the selection criterion information table. By making a table, combinations of title events and selection criteria can be freely set.

(変形例1)
選択基準情報テーブルは、ユーザ操作によって変更可能に構成してもよい。たとえば、液晶モニタ16に選択基準情報テーブルの編集画面を表示させて、ユーザが操作部材17を操作することによってテーブル内容を変更する。変更内容は、フラッシュメモリ19へ記録する。
(Modification 1)
The selection criterion information table may be configured to be changeable by a user operation. For example, the editing screen of the selection reference information table is displayed on the liquid crystal monitor 16, and the user changes the table contents by operating the operation member 17. The changed contents are recorded in the flash memory 19.

(変形例2)
クラスタリングの際、撮影日単位でクラスタリングを行うようにしてもよい。
(Modification 2)
At the time of clustering, clustering may be performed on a shooting date basis.

(変形例3)
クラスタリングする際、撮影日時情報に応じてでなく、撮影位置情報に応じて行うようにしてもよい。具体的には、ステップS11(図3)において、メインCPU11が全ての画像ファイルを対象に、画像ファイルの付加情報部に記録されている撮影位置を示す測位情報を抽出する。そして、メインCPU11は、ステップS13(図3)において、1画像につき1クラスタを処理起点として、撮影位置が近いクラスタを逐次併合する処理を繰り返すことにより、画像ファイルを複数のクラスタ(撮影位置が近い画像ファイルの集合)に分ける。メインCPU11は、近接するクラスタ間において、撮影位置と撮影位置との間隔(距離)が所定距離(たとえば1Km)以上の場合にステップS14へ進む。
(Modification 3)
When clustering, it may be performed according to the shooting position information, not according to the shooting date / time information. Specifically, in step S11 (FIG. 3), the main CPU 11 extracts the positioning information indicating the shooting position recorded in the additional information part of the image file for all the image files. In step S13 (FIG. 3), the main CPU 11 repeats the process of sequentially merging clusters with close shooting positions from one cluster for each image as a processing start point, so that the image file is divided into a plurality of clusters (close to shooting positions). Image files). The main CPU 11 proceeds to step S14 when the interval (distance) between the shooting positions between adjacent clusters is equal to or greater than a predetermined distance (for example, 1 km).

(変形例4)
イベント候補テーブルは、ユーザ操作によって変更可能に構成してもよい。たとえば、液晶モニタ16にイベント候補テーブルの編集画面を表示させて、ユーザが操作部材17を操作することによってテーブル内容を変更する。変更内容は、フラッシュメモリ19へ記録する。
(Modification 4)
The event candidate table may be configured to be changeable by a user operation. For example, the event candidate table editing screen is displayed on the liquid crystal monitor 16, and the user changes the table contents by operating the operation member 17. The changed contents are recorded in the flash memory 19.

(変形例5)
図4のステップS22を省略する構成としてもよい。この場合には、イベント候補テーブルを参照することなく、システムが有している全てのイベント候補を選ぶ。
(Modification 5)
It is good also as a structure which abbreviate | omits step S22 of FIG. In this case, all event candidates possessed by the system are selected without referring to the event candidate table.

(変形例6)
変形例3の場合のイベント候補テーブルは、たとえば、撮影位置を含む地域ごとにイベント候補を対応させるとよい。たとえば、海の近くであれば、海水浴、すいか割り、サーフィン、ダイビングなどのイベントを選ぶ。山の近くであれば、キャンプ、ハイキングなどのイベントを選ぶ。この場合のイベント候補テーブルは、地域ごとに発生頻度が高いイベントを記したものであり、過去のイベント発生地に基づいてあらかじめ作成し、フラッシュメモリ19内に記録しておく。
(Modification 6)
In the event candidate table in the third modification, for example, event candidates may be associated with each region including the shooting position. For example, if you are near the sea, choose events such as bathing, water splitting, surfing, diving and so on. Choose events like camping and hiking if you're near the mountains. In this case, the event candidate table describes events having a high occurrence frequency for each region. The event candidate table is created in advance based on past event occurrence locations and recorded in the flash memory 19.

(変形例7)
イベントらしさ(確率)Pが判定閾値Pthを超えた画像数に応じて、クラスタ(画像ファイルの集合)の標題イベントを決定してもよい。たとえば、イベント候補(「運動会」、「結婚式」、および「花見」)のうち、判定閾値Pthを超えた画像数が多い方に対応するイベント候補を当該クラスタの標題イベントとする。
(Modification 7)
The title event of a cluster (a set of image files) may be determined according to the number of images for which the event likelihood (probability) P exceeds the determination threshold value Pth. For example, among the event candidates (“athletic meet”, “wedding”, and “cherry blossom viewing”), the event candidate corresponding to the larger number of images exceeding the determination threshold Pth is set as the title event of the cluster.

(変形例8)
また、イベントらしさ(確率)Pが判定閾値Pthを超えた画像数が多いイベント候補を標題イベントと決定する決定方法と、最大Psumに対応するイベント候補を標題イベントと決定する決定方法とを組み合わせてもよい。この場合、いずれか一方の決定方法で優劣がつかなかった場合に、他方の決定方法を用いて判定を行う。たとえば、図9−図11の例では、イベント候補「運動会」および「花見」においてイベントらしさ(確率)Pが判定閾値Pthを超える画像数が同じであって優劣がつかない。そこで、最大Psumに対応するイベント候補「運動会」を当該クラスタの標題イベントとする。
(Modification 8)
Further, a combination of a determination method for determining an event candidate having a large number of images whose event likelihood (probability) P exceeds the determination threshold Pth as a title event and a determination method for determining an event candidate corresponding to the maximum Psum as a title event. Also good. In this case, when superiority or inferiority is not determined by any one of the determination methods, the determination is performed using the other determination method. For example, in the example of FIGS. 9 to 11, the event candidates “athletic meet” and “cherry-blossom viewing” have the same number of images whose event likelihood (probability) P exceeds the determination threshold value Pth and cannot be superior or inferior. Therefore, the event candidate “athletic meeting” corresponding to the maximum Psum is set as the title event of the cluster.

(変形例9)
近接するクラスタ間の時間差が判定閾値T以下か否かを判定する場合、各クラスタの重心に対応する時間差に基づいて判定してもよい。この場合のメインCPU11は、ステップS51(図6)において、一方のクラスタに属する画像群の平均撮影時刻と、他方のクラスタに属する画像群の平均撮影時刻との差が上記T以下の場合にステップS51を肯定判定してステップS52へ進む。
(Modification 9)
When determining whether or not the time difference between adjacent clusters is equal to or less than the determination threshold T, the determination may be made based on the time difference corresponding to the center of gravity of each cluster. In this case, the main CPU 11 performs a step when the difference between the average shooting time of the image group belonging to one cluster and the average shooting time of the image group belonging to the other cluster is equal to or less than T in step S51 (FIG. 6). Affirmative determination is made in S51 and the process proceeds to step S52.

(変形例10)
変形例3および変形例6の場合には、近接するクラスタ間の距離が判定閾値D以下か否かを判定する。この場合のメインCPU11は、ステップS51(図6)において、一方のクラスタに属する画像群の撮影位置と、他方のクラスタに属する画像群の撮影位置との間の距離のうち最短のものが、上記D以下の場合にステップS51を肯定判定してステップS52へ進む。同じイベントに対しては、同じエリア内で続けて撮影することが多いので、当該クラスタ同士の標題イベントが同一である可能性が高い場合を検出できる。
(Modification 10)
In the case of Modification 3 and Modification 6, it is determined whether or not the distance between adjacent clusters is equal to or less than the determination threshold D. In this case, the main CPU 11 determines in step S51 (FIG. 6) that the shortest distance between the shooting position of the image group belonging to one cluster and the shooting position of the image group belonging to the other cluster is the above. If it is D or less, an affirmative decision is made in step S51 and the operation proceeds to step S52. Since the same event is often continuously shot in the same area, it is possible to detect a case where there is a high possibility that the title events of the clusters are the same.

変形例10によれば、複数のクラスタのうち、近接するクラスタ間の距離差が判定閾値D以下であって、かつ当該クラスタ同士の標題イベントが同一の場合に両クラスタが1つに統合される。これにより、撮影位置のみでクラスタリングしたものより、必要以上に細かくクラスタリングされることを避けられ、画像を分類整理する時の意図に沿ったものになる。   According to the tenth modification, when the distance difference between adjacent clusters is equal to or smaller than the determination threshold D and the title events of the clusters are the same, the two clusters are integrated into one. . As a result, it is possible to avoid clustering more finely than necessary than in the case of clustering only at shooting positions, and to conform to the intention when sorting and organizing images.

(第二の実施形態)
図12に例示する選択基準情報テーブルに代えて、図14に例示する選択基準情報テーブルを参照してもよい。図14の選択基準情報テーブルは、第一の実施形態によるテーブルと同様に、あらかじめ作成されてフラッシュメモリ19内に記録されている。たとえば、クラスタの標題イベントが「北海道旅行」である場合、メインCPU11は、撮影位置情報が当該地域(たとえば、北海道の名所)に対応する位置情報に最も近いものを代表画像として選ぶ。
(Second embodiment)
Instead of the selection criterion information table illustrated in FIG. 12, a selection criterion information table illustrated in FIG. 14 may be referred to. The selection criterion information table shown in FIG. 14 is created in advance and recorded in the flash memory 19 in the same manner as the table according to the first embodiment. For example, when the title event of the cluster is “Travel in Hokkaido”, the main CPU 11 selects the representative image whose shooting position information is closest to the position information corresponding to the area (for example, a famous place in Hokkaido).

具体的には、標題イベントに含まれる地域の名称に関連する位置情報をあらかじめフラッシュメモリ19に記録しておく。メインCPU11は、たとえば、標題イベントに「北海道」が含まれている場合、「北海道」の名所(たとえば、サロベツ原野)に対応する位置情報をフラッシュメモリ19から読み出す。メインCPU11はさらに、クラスタ内に含まれる全ての画像ファイルを対象として、各画像ファイルの付加情報データに撮影地点の位置情報が記録されているか否かを判定し、撮影地点の位置情報が記録されている場合には、当該画像ファイル内から位置情報を取得する。   Specifically, position information related to the name of the area included in the title event is recorded in the flash memory 19 in advance. For example, when “Hokkaido” is included in the title event, the main CPU 11 reads position information corresponding to a famous place of “Hokkaido” (for example, Sarobetsu Wilderness) from the flash memory 19. Further, the main CPU 11 determines whether or not the position information of the shooting point is recorded in the additional information data of each image file for all the image files included in the cluster, and the position information of the shooting point is recorded. If so, position information is acquired from the image file.

そして、フラッシュメモリ19から読み出した位置情報、およびクラスタ内の画像ファイルから取得した位置情報に基づいて、各画像が名所で撮影されたものであるか否かを判定する。メインCPU11は、比較の結果、両者間の距離が最短のものをクラスタの代表画像として選ぶ。   Then, based on the position information read from the flash memory 19 and the position information acquired from the image file in the cluster, it is determined whether or not each image was taken at a famous place. As a result of comparison, the main CPU 11 selects the shortest distance between the two as the representative image of the cluster.

また、クラスタの標題イベントが「ダイビング」、「海水浴」である場合、メインCPU11は、「海が写っているもの」、すなわち、画像における特定色領域(この場合は海)の割合が所定割合に最も近いものを代表画像として選ぶ。具体的には、標題イベントに関連する色情報をあらかじめフラッシュメモリ19に記録しておく。メインCPU11は、たとえば、標題イベントに「海」に関連する文字が含まれている場合、特定色(たとえばコバルトブルー)を示す情報をフラッシュメモリ19から読み出す。   If the title event of the cluster is “diving” or “sea bathing”, the main CPU 11 sets the ratio of “what the sea is reflected”, that is, the specific color area (in this case, the sea) in the image to a predetermined ratio. Select the closest image as the representative image. Specifically, color information related to the title event is recorded in the flash memory 19 in advance. For example, when the title event includes characters related to “sea”, the main CPU 11 reads information indicating a specific color (for example, cobalt blue) from the flash memory 19.

メインCPU11はさらに、クラスタ内に含まれる全ての画像ファイルを対象として、各画像ファイルの画像データから色情報を取得する。たとえば、画像を所定数の領域に分割し、各分割領域の中央に位置する画素群の色が特定色に合致するか否かを判定する。そしてメインCPU11は、上記所定数と、特定色に合致する分割領域数との割合を得る。船上での撮影シーンや、砂浜での撮影シーン、水中での撮影シーンなど、画像において特定色(海の色)が占める割合は異なるので、あらかじめ代表画像にしたいシーンに応じた割合情報をフラッシュメモリ19内に記録しておく。このように、フラッシュメモリ19には、代表画像の決定のために必要な処理を示す情報や、当該処理に必要な情報も記録されている。   The main CPU 11 further acquires color information from the image data of each image file for all the image files included in the cluster. For example, the image is divided into a predetermined number of areas, and it is determined whether or not the color of the pixel group located at the center of each divided area matches a specific color. Then, the main CPU 11 obtains a ratio between the predetermined number and the number of divided areas that match the specific color. Since the ratio of specific colors (ocean colors) in the image, such as shooting scenes on the ship, shooting scenes on the beach, and underwater shooting scenes, is different, the ratio information according to the scene you want to be the representative image in advance is flash memory 19 is recorded. As described above, the flash memory 19 also stores information indicating processing necessary for determining the representative image and information necessary for the processing.

さらにまた、クラスタの標題イベントが「運動会」である場合、メインCPU11は、主要被写体の動き情報が所定値より大きいものを代表画像として選ぶ。具体的には、被写体追跡情報の取得を指示する情報をあらかじめフラッシュメモリ19に記録しておく。メインCPU11は、たとえば、標題イベントに「運動会」のように「スポーツ」に関連する文字が含まれている場合、被写体追跡情報の取得を指示する情報をフラッシュメモリ19から読み出す。   Furthermore, when the title event of the cluster is “athletic meet”, the main CPU 11 selects a representative image whose motion information of the main subject is larger than a predetermined value. Specifically, information instructing acquisition of subject tracking information is recorded in the flash memory 19 in advance. For example, when the title event includes characters related to “sports” such as “athletic meet”, the main CPU 11 reads information instructing acquisition of subject tracking information from the flash memory 19.

メインCPU11はさらに、クラスタ内に含まれる全ての画像ファイルを対象として、各画像ファイルの付加情報データに被写体追跡の結果に関する情報が記録されているか否かを判定し、被写体追跡の結果に関する情報が記録されている場合には、当該画像ファイル内から被写体追跡の結果に関する情報を取得する。   The main CPU 11 further determines whether or not information related to the subject tracking result is recorded in the additional information data of each image file for all the image files included in the cluster, and information related to the subject tracking result is obtained. If it is recorded, information about the result of subject tracking is acquired from the image file.

そして、メインCPU11は、取得した追跡情報に基づいて、各画像間で被写体位置の座標値の時系列変化を比較する。メインCPU11は、比較の結果、被写体位置の座標値の変化が最も大きい画像をクラスタの代表画像として選ぶ。   Then, the main CPU 11 compares time-series changes in the coordinate value of the subject position between the images based on the acquired tracking information. As a result of the comparison, the main CPU 11 selects the image having the largest change in the coordinate value of the subject position as the representative image of the cluster.

メインCPU11は、各クラスタに対応するフォルダ構造をユーザーに提供する際には、たとえば、フォルダアイコン上に代表画像のサムネイル画像を配置して液晶モニタ16に表示させる。   When the main CPU 11 provides a folder structure corresponding to each cluster to the user, for example, a thumbnail image of a representative image is arranged on the folder icon and displayed on the liquid crystal monitor 16.

すなわち、メインCPU11は、「北海道旅行」の標題イベントのフォルダアイコン上には、名所が撮影されている代表画像のサムネイル画像を表示する。また、「海水浴」の標題イベントのフォルダアイコン上には、撮影画面の所定割合をコバルトブルーが占める代表画像のサムネイル画像を表示する。さらにまた、「運動会」の標題イベントのフォルダアイコン上には、移動量が大きな主要被写体が撮影されている代表画像のサムネイル画像を表示する。   That is, the main CPU 11 displays a thumbnail image of a representative image in which a famous place is photographed on the folder icon of the title event “Hokkaido Travel”. In addition, a thumbnail image of a representative image in which cobalt blue occupies a predetermined ratio of the shooting screen is displayed on the folder icon of the title event “Sea bathing”. Furthermore, a thumbnail image of a representative image in which a main subject with a large amount of movement is captured is displayed on the folder icon of the title event of “Athletic meet”.

以上説明した第二の実施形態によれば、以下の作用効果が得られる。
(1)標題イベントが○○旅行のように地域の名称○○を含む場合には、その地域における所定点(たとえば名所など)に最も近い撮影位置情報を有する画像を代表画像として選ぶようにした。一般に、名所は地域を代表するものとして知られているため、クラスタを構成する複数の画像の代表として好適な画像を決定できる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) When the title event includes the name of the region XX as in XX trip, the image having the shooting position information closest to a predetermined point (such as a famous place) in the region is selected as the representative image. . In general, since a famous place is known to represent a region, an image suitable as a representative of a plurality of images constituting a cluster can be determined.

(2)標題イベントが「海水浴」のように特定色を連想させる場合には、画像におけるその色の被写体領域が所定割合の画像を代表画像として選ぶようにした。一般に、コバルトブルーは海の色を表わすものとして知られているため、あらかじめ「海水浴」にコバルトブルーを関連付けておけば、クラスタを構成する複数の画像の代表として好適な画像を決定できる。 (2) When the title event is reminiscent of a specific color such as “sea bathing”, an image having a predetermined ratio of the subject area of that color in the image is selected as the representative image. In general, cobalt blue is known to represent the color of the sea. Therefore, if cobalt blue is associated with “sea bathing” in advance, a suitable image can be determined as a representative of a plurality of images constituting a cluster.

(3)標題イベントが「運動会」のように動きのある被写体を含む場合には、被写体位置を示す座標の変化が大きい画像を代表画像として選ぶようにした。一般に、運動会といえば徒競走を始めとして動いている場面が多いイベントとして知られているため、クラスタを構成する複数の画像の代表として好適な画像を決定できる。 (3) When the title event includes a moving subject such as “athletic meet”, an image with a large change in coordinates indicating the subject position is selected as the representative image. Generally speaking, an athletic meet is known as an event with many moving scenes such as an athlete race, and therefore, a suitable image can be determined as a representative of a plurality of images constituting a cluster.

(変形例11)
撮影位置情報に基づいて、名所からの距離が最短の画像を代表画像として選ぶ代わりに、あらかじめ複数の名所(たとえば、サロベツ原野、利尻島)についての位置情報ををフラッシュメモリ19に記録するとともに、この名所について優先順位(たとえば、(1)利尻島、(2)サロベツ原野)をつけておくようにしてもよい。クラスタを構成する画像の中に複数の異なる名所で撮影された画像が含まれている場合には、名所から所定距離(たとえば500m)以内で撮影された画像の中から、最も高い優先度が付加されている名所(たとえば利尻島)に対応する位置情報を有する画像を代表画像として選択する。これにより、複数の名所について撮影画像が含まれる場合には、ユーザーの好みに応じた代表画像を決定できる。
(Modification 11)
Based on the shooting position information, instead of selecting the image with the shortest distance from the sight as a representative image, the position information about a plurality of sights (for example, Sarobetsu Wilderness, Rishiri Island) is recorded in the flash memory 19 in advance, Priorities (for example, (1) Rishiri Island, (2) Sarobetsu Wilderness) may be assigned to these sights. If images taken at multiple different sights are included in the images that make up the cluster, the highest priority is added among images taken within a predetermined distance (eg 500 m) from the sights. An image having position information corresponding to a famous place (for example, Rishiri Island) is selected as a representative image. Thereby, when a picked-up image is included for a plurality of sights, a representative image according to the user's preference can be determined.

(変形例12)
クラスタの標題イベントが「ダイビング」または「海水浴」である場合、画像における海の割合が所定割合であって、かつ撮影時の撮影レンズの焦点距離が所定値より短いものを代表画像として選んでもよい。焦点距離情報は、当該画像ファイルの付加情報データとして格納されている撮影条件の情報を用いる。これにより、撮影画角が広い代表画像を選ぶことができる。
(Modification 12)
If the title event of the cluster is “diving” or “sea bathing”, a representative image may be selected when the proportion of the sea in the image is a predetermined proportion and the focal length of the photographing lens at the time of photographing is shorter than a predetermined value. . As the focal length information, information on photographing conditions stored as additional information data of the image file is used. Thereby, a representative image having a wide shooting angle of view can be selected.

(変形例13)
電子カメラ1内で画像をグルーピングし、その代表画像を決定する例を説明したが、図2−図7による処理を行う代表画像決定プログラムを図13に示すコンピュータ装置10に実行させることにより、画像の代表画像決定装置を構成してもよい。代表画像決定プログラムをパーソナルコンピュータ10に取込んで使用する場合には、パーソナルコンピュータ10のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像群の代表画像の決定装置として使用する。
(Modification 13)
The example in which images are grouped in the electronic camera 1 and the representative image is determined has been described. However, by causing the computer device 10 shown in FIG. 13 to execute a representative image determination program for performing the processing illustrated in FIGS. The representative image determination device may be configured. When the representative image determination program is loaded into the personal computer 10 and used, the program is loaded into the data storage device of the personal computer 10 and then executed as a representative image determination device for the image group. To do.

パーソナルコンピュータ10に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体104をパーソナルコンピュータ10にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ10へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバー(コンピュータ)102のハードディスク装置103などにプログラムを格納しておく。代表画像決定プログラムは、記録媒体104や通信回線101を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 10 may be performed by setting the recording medium 104 such as a CD-ROM storing the program in the personal computer 10 or by a method via the communication line 101 such as a network. You may load. When passing through the communication line 101, the program is stored in the hard disk device 103 of the server (computer) 102 connected to the communication line 101. The representative image determination program can be supplied as various types of computer program products such as provision via the recording medium 104 or the communication line 101.

また、ASP(Application Service Provider)のような形態でサーバー側で実行させるようにしてもよい。   Further, it may be executed on the server side in a form such as ASP (Application Service Provider).

(変形例14)
上述した撮影日時情報、撮影位置情報、撮影条件、および特定被写体の有無に応じたイベント候補の付与について、少なくとも2つを組み合わせることにより、多次元のイベント候補テーブルを備えるように構成してもよい。
(Modification 14)
The above-described shooting date / time information, shooting position information, shooting conditions, and provision of event candidates according to the presence / absence of a specific subject may be configured to include a multidimensional event candidate table by combining at least two. .

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the electronic camera 1 by 1st embodiment of this invention. メインCPUが実行するグルーピング処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the grouping process which main CPU performs. クラスタリング処理を説明するフローチャートである。It is a flowchart explaining a clustering process. 画像ごとのイベント判定処理を説明するフローチャートである。It is a flowchart explaining the event determination process for every image. クラスタごとのイベント判定処理を説明するフローチャートである。It is a flowchart explaining the event determination process for every cluster. クラスタの統合処理を説明するフローチャートである。It is a flowchart explaining cluster integration processing. 代表画像を決める処理を説明するフローチャートである。It is a flowchart explaining the process which determines a representative image. イベント候補テーブルを例示する図である。It is a figure which illustrates an event candidate table. クラスタに対するイベント判定(運動会)を例示する図である。It is a figure which illustrates the event determination (athletic meet) with respect to a cluster. クラスタに対するイベント判定(結婚式)を例示する図である。It is a figure which illustrates the event determination (wedding) with respect to a cluster. クラスタに対するイベント判定(花見)を例示する図である。It is a figure which illustrates the event determination (cherry-blossom viewing) with respect to a cluster. 選択基準情報テーブルを例示する図である。It is a figure which illustrates a selection criteria information table. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus. 第二の実施形態による選択基準情報テーブルを例示する図である。It is a figure which illustrates the selection reference | standard information table by 2nd embodiment.

符号の説明Explanation of symbols

1…電子カメラ
11…メインCPU
14…バッファメモリ
15…表示画像作成回路
16…液晶モニタ
17…操作部材
18…GPS装置
19…フラッシュメモリ
30…記録媒体
1 ... Electronic camera 11 ... Main CPU
DESCRIPTION OF SYMBOLS 14 ... Buffer memory 15 ... Display image creation circuit 16 ... Liquid crystal monitor 17 ... Operation member 18 ... GPS apparatus 19 ... Flash memory 30 ... Recording medium

Claims (7)

複数の画像を有する画像群を代表する画像を当該画像群の中から決定する決定手段と、
前記代表する画像を選ぶための選択基準情報であって、前記画像群に付与されている標題に応じた選択基準情報に基づいて前記代表画像を決定するように前記決定手段を制御する制御手段とを備えることを特徴とする画像群の代表画像決定装置。
Determining means for determining an image representative of an image group having a plurality of images from the image group;
Control means for controlling the decision means to decide the representative image based on the selection criteria information according to the title given to the image group, the selection criteria information for selecting the representative image A representative image determination device for an image group.
請求項1に記載の代表画像決定装置において、
複数の標題にそれぞれ対応する複数の選択基準情報をあらかじめ記憶する記憶手段をさらに備え、
前記制御手段は、前記画像群に付与されている標題に対応する選択基準情報を前記記憶手段から読み出し、該選択基準情報に基づいて代表画像を決定するように前記決定手段を制御することを特徴とする画像群の代表画像決定装置。
The representative image determination device according to claim 1,
Storage means for storing in advance a plurality of selection criterion information corresponding respectively to a plurality of titles;
The control means reads selection criterion information corresponding to a title assigned to the image group from the storage means, and controls the determination means to determine a representative image based on the selection criterion information. A representative image determination device for the image group.
請求項2に記載の代表画像決定装置において、
前記選択基準情報は、前記標題に応じて行う処理を指示する情報を含み、
前記決定手段は、前記処理の結果に基づいて前記代表画像を決定することを特徴とする画像群の代表画像決定装置。
In the representative image determination device according to claim 2,
The selection criterion information includes information instructing processing to be performed according to the title,
The representative image determining apparatus for an image group, wherein the determining means determines the representative image based on the result of the processing.
請求項3に記載の代表画像決定装置において、
前記選択基準情報は、前記標題が有する地域名称に関連する位置情報を含み、
前記決定手段は、前記画像群を構成する個々の画像の撮影位置情報と、前記記憶手段から読み出された位置情報とに基づいて前記代表画像を決定することを特徴とする画像群の代表画像決定装置。
In the representative image determination device according to claim 3,
The selection criterion information includes location information related to the area name included in the title,
The determination unit determines the representative image based on shooting position information of individual images constituting the image group and position information read from the storage unit. Decision device.
請求項3に記載の代表画像決定装置において、
前記選択基準情報は、前記標題に応じた色の情報を含み、
前記決定手段は、前記画像群を構成する個々の画像における前記色の領域情報に基づいて前記代表画像を決定することを特徴とする画像群の代表画像決定装置。
In the representative image determination device according to claim 3,
The selection criterion information includes color information corresponding to the title,
The representative image determining device for an image group, wherein the determining means determines the representative image based on area information of the color in individual images constituting the image group.
請求項3に記載の代表画像決定装置において、
前記標題に応じて行う処理は、前記画像群を構成する個々の画像に関して被写体追跡情報を取得する指示を含み、
前記決定手段は、前記取得された被写体追跡情報に基づいて前記代表画像を決定することを特徴とする画像群の代表画像決定装置。
In the representative image determination device according to claim 3,
The processing to be performed according to the title includes an instruction to acquire subject tracking information regarding each image constituting the image group,
The apparatus for determining a representative image of an image group, wherein the determining means determines the representative image based on the acquired subject tracking information.
請求項1〜請求項6のいずれか一項に記載の代表画像決定装置を備えることを特徴とするカメラ。   A camera comprising the representative image determination device according to any one of claims 1 to 6.
JP2008113706A 2008-01-18 2008-04-24 Representative image determination device and camera Pending JP2009267682A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008113706A JP2009267682A (en) 2008-04-24 2008-04-24 Representative image determination device and camera
PCT/JP2008/071867 WO2009090804A1 (en) 2008-01-18 2008-12-02 Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera and image display program
US12/811,760 US20100278396A1 (en) 2008-01-18 2008-12-02 Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
US14/663,335 US20150193659A1 (en) 2008-01-18 2015-03-19 Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
US15/074,316 US10474931B2 (en) 2008-01-18 2016-03-18 Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008113706A JP2009267682A (en) 2008-04-24 2008-04-24 Representative image determination device and camera

Publications (1)

Publication Number Publication Date
JP2009267682A true JP2009267682A (en) 2009-11-12

Family

ID=41392990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008113706A Pending JP2009267682A (en) 2008-01-18 2008-04-24 Representative image determination device and camera

Country Status (1)

Country Link
JP (1) JP2009267682A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004713A (en) * 2010-06-15 2012-01-05 Canon Inc Image processing device, image processing device control method, program, and recording medium
JP2012253669A (en) * 2011-06-06 2012-12-20 Olympus Corp Photographing support system and imaging apparatus
JP2021501508A (en) * 2017-10-17 2021-01-14 フォト バトラー インコーポレイテッド Image selection based on context

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004713A (en) * 2010-06-15 2012-01-05 Canon Inc Image processing device, image processing device control method, program, and recording medium
JP2012253669A (en) * 2011-06-06 2012-12-20 Olympus Corp Photographing support system and imaging apparatus
JP2021501508A (en) * 2017-10-17 2021-01-14 フォト バトラー インコーポレイテッド Image selection based on context
JP7232478B2 (en) 2017-10-17 2023-03-03 フォト バトラー インコーポレイテッド Context-based image selection

Similar Documents

Publication Publication Date Title
WO2009090804A1 (en) Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera and image display program
JP4973585B2 (en) Image grouping device and camera
US8643746B2 (en) Video summary including a particular person
US9225855B2 (en) Imaging apparatus, imaging system, and control method for increasing accuracy when determining an imaging scene based on input image data and information stored in an external information processing apparatus
US8698920B2 (en) Image display apparatus and image display method
US8786753B2 (en) Apparatus, method and program for selecting images for a slideshow from among a large number of captured images
US20050232588A1 (en) Video processing device
US7672977B2 (en) Image reproducing apparatus, method of controlling same and control program therefor
US20130027569A1 (en) Camera having processing customized for recognized persons
JP2010079446A (en) Electronic apparatus, blurring image selection method and program
US20160179846A1 (en) Method, system, and computer readable medium for grouping and providing collected image content
JP2005269604A (en) Imaging device, imaging method, and imaging program
JP5601407B2 (en) Image classification program, image classification apparatus, and electronic camera
JP2009187109A (en) Image display device, display control method and display control program
JP2009060195A (en) Imaging apparatus, method, and program
JP2006236218A (en) Electronic album display system, electronic album display method, and electronic album display program
WO2011149860A1 (en) Ranking key video frames using camera fixation
JP2011044064A (en) Image processing device and image processing program
EP2273784B1 (en) Image recording device and method
JP2008109338A (en) Image management device, camera, image management method, and program
JP5878523B2 (en) Content processing apparatus and integrated circuit, method and program thereof
JP2007266902A (en) Camera
JP2009267682A (en) Representative image determination device and camera
JP2005267607A (en) Digital picture book system, picture book search method, and picture book search program
JP5381498B2 (en) Image processing apparatus, image processing program, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121030