JP2009267683A - Title assigning device for image and camera - Google Patents

Title assigning device for image and camera Download PDF

Info

Publication number
JP2009267683A
JP2009267683A JP2008113709A JP2008113709A JP2009267683A JP 2009267683 A JP2009267683 A JP 2009267683A JP 2008113709 A JP2008113709 A JP 2008113709A JP 2008113709 A JP2008113709 A JP 2008113709A JP 2009267683 A JP2009267683 A JP 2009267683A
Authority
JP
Japan
Prior art keywords
image
title
event
candidates
main cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008113709A
Other languages
Japanese (ja)
Inventor
Setsu Mihashi
説 三橋
Mikiya Tanaka
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008113709A priority Critical patent/JP2009267683A/en
Priority to US12/811,760 priority patent/US20100278396A1/en
Priority to PCT/JP2008/071867 priority patent/WO2009090804A1/en
Publication of JP2009267683A publication Critical patent/JP2009267683A/en
Priority to US14/663,335 priority patent/US20150193659A1/en
Priority to US15/074,316 priority patent/US10474931B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimiles In General (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a load on processing for assigning a tile of an image. <P>SOLUTION: An image title assigning device 1 is comprised of: a title candidate assigning means 11 that assigns a predetermined number of title candidates to an image; a characteristic amount calculating means 11 that individually calculates characteristic amounts of images in association with the predetermined number of title candidates, and a title determining means 11 that determines a title representing each image in accordance with the characteristic amount of the image calculated for every title candidate. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像に対して標題をつける技術に関する。   The present invention relates to a technique for adding a title to an image.

画像自体または画像の属性情報から識別情報を抽出し、抽出した識別情報に基づいて該画像のイベントを識別する技術が知られている(特許文献1参照)。   A technique is known in which identification information is extracted from an image itself or image attribute information, and an event of the image is identified based on the extracted identification information (see Patent Document 1).

特開2007−129434号公報JP 2007-129434 A

従来技術によれば、識別しようとする画像の標題(イベントや被写体名など)の種類が多くなると抽出すべき識別情報が増える上に、該識別情報に基づいて行う識別処理の負担が大きくなるという問題があった。   According to the prior art, if the type of title (event, subject name, etc.) of the image to be identified increases, the identification information to be extracted increases and the burden of the identification processing performed based on the identification information increases. There was a problem.

(1)本発明による画像の標題付与装置は、画像に対して所定数の標題候補を与える標題候補付与手段と、所定数の標題候補のそれぞれに対応させて画像の特徴量を算出する特徴量算出手段と、標題候補ごとに算出された画像の特徴量に基づいて、標題候補の中から画像の標題を決定する標題決定手段とを備えることを特徴とする。
(2)請求項1に記載する画像の標題付与装置において、標題候補付与手段は、撮影日時情報に応じて標題候補を所定数選ぶこともできる。
(3)請求項1または2に記載する画像の標題付与装置において、標題候補付与手段は、撮影位置情報に応じて標題候補を所定数選ぶこともできる。
(4)請求項1〜3のいずれか一項に記載する画像の標題付与装置はさらに、画像のデータに基づいて当該画像における人物の顔を検出する顔検出手段を備えてもよい。この場合の標題候補付与手段は、顔検出手段による顔の検出の有無に応じて標題候補を所定数選ぶこともできる。
(5)請求項4に記載する画像の標題付与装置はさらに、人物の顔を識別する顔識別手段を備えてもよい。この場合の標題候補付与手段は、顔識別手段による顔の識別結果に応じて標題候補を所定数選ぶこともできる。
(6)請求項1〜5のいずれか一項に記載する画像の標題付与装置において、標題候補付与手段は、複数の画像を有する画像群に対して所定数の標題候補を与え、特徴量算出手段は、所定数の標題候補のそれぞれに対応させて画像群に含まれる複数の画像の特徴量を個々に算出し、標題決定手段は、標題候補ごとに算出された画像の特徴量に基づいて、標題候補の中から画像群を代表する標題を決定することもできる。
(7)本発明によるカメラは、請求項1〜請求項6のいずれか一項に記載する画像の標題付与装置を備えることを特徴とする。
(1) An image title assigning apparatus according to the present invention includes a title candidate assigning unit for giving a predetermined number of title candidates to an image, and a feature amount for calculating an image feature amount corresponding to each of the predetermined number of title candidates. The image processing apparatus includes: a calculation unit; and a title determination unit that determines the title of the image from the title candidates based on the feature amount of the image calculated for each title candidate.
(2) In the image title assigning device described in claim 1, the title candidate assigning means can select a predetermined number of title candidates according to the photographing date and time information.
(3) In the image title assigning device described in claim 1 or 2, the title candidate assigning means can select a predetermined number of title candidates according to the photographing position information.
(4) The image title assigning apparatus according to any one of claims 1 to 3 may further include a face detection unit that detects a human face in the image based on the image data. In this case, the title candidate assigning means can select a predetermined number of title candidates according to the presence or absence of face detection by the face detection means.
(5) The image title assigning device described in claim 4 may further include a face identifying means for identifying a person's face. In this case, the title candidate assigning means can select a predetermined number of title candidates according to the face identification result by the face identifying means.
(6) In the image title assigning device according to any one of claims 1 to 5, the title candidate assigning unit gives a predetermined number of title candidates to an image group having a plurality of images, and calculates a feature amount. The means individually calculates feature amounts of a plurality of images included in the image group in correspondence with each of a predetermined number of title candidates, and the title determining means is based on the image feature amounts calculated for each title candidate. The title representing the image group can be determined from the title candidates.
(7) A camera according to the present invention includes the image title assigning device according to any one of claims 1 to 6.

本発明によれば、画像に標題をつける処理の負担を軽減できる。   According to the present invention, it is possible to reduce the burden of processing for adding a title to an image.

以下、図面を参照して本発明を実施するための最良の形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、メインCPU11によって制御される。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram for explaining a main configuration of an electronic camera 1 according to the first embodiment of the present invention. The electronic camera 1 is controlled by the main CPU 11.

撮影レンズ21は、撮像素子22の撮像面上に被写体像を結像させる。撮像素子22はCCDイメージセンサなどで構成され、撮像面上の被写体像を撮像し、撮像信号を撮像回路23へ出力する。撮像素子22の撮像面には、それぞれR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられている。撮像素子22がカラーフィルタを通して被写体像を撮像するため、撮像素子22から出力される光電変換信号は、RGB表色系の色情報を有する。   The photographing lens 21 forms a subject image on the imaging surface of the imaging element 22. The imaging element 22 is configured by a CCD image sensor or the like, captures a subject image on the imaging surface, and outputs an imaging signal to the imaging circuit 23. R (red), G (green), and B (blue) color filters are respectively provided on the imaging surface of the imaging element 22 so as to correspond to the pixel positions. Since the image sensor 22 captures a subject image through the color filter, the photoelectric conversion signal output from the image sensor 22 has RGB color system color information.

撮像回路23は、撮像素子22から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。   The imaging circuit 23 performs analog processing (such as gain control) on the photoelectric conversion signal output from the imaging element 22, and converts the analog imaging signal into digital data by a built-in A / D conversion circuit.

メインCPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23から入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。   The main CPU 11 inputs a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block. The image processing circuit 12 is configured as an ASIC, for example, and performs image processing on the digital image signal input from the imaging circuit 23. The image processing includes, for example, contour enhancement, color temperature adjustment (white balance adjustment) processing, and format conversion processing for an image signal.

画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、たとえばJPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路15は、撮像画像を液晶モニタ16に表示させるための表示データを作成する。   The image compression circuit 13 performs image compression processing at a predetermined compression ratio on the image signal processed by the image processing circuit 12 by, for example, the JPEG method. The display image creation circuit 15 creates display data for displaying the captured image on the liquid crystal monitor 16.

バッファメモリ14は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。   The buffer memory 14 temporarily stores data before and after image processing and during image processing, stores an image file before being recorded on the recording medium 30, and stores an image file read from the recording medium 30. Used for.

記録媒体30は、電子カメラ1に対して着脱可能なメモリカードなどで構成される。記録媒体30には、メインCPU11からの指示によって撮影画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、メインCPU11からの指示によって読み出しが可能である。   The recording medium 30 includes a memory card that can be attached to and detached from the electronic camera 1. The recording medium 30 records captured image data and an image file including the information in accordance with an instruction from the main CPU 11. The image file recorded on the recording medium 30 can be read by an instruction from the main CPU 11.

フラッシュメモリ19は、メインCPU11が実行するプログラムや、メインCPU11が行う処理に必要なデータなどが格納される。フラッシュメモリ19が格納するプログラムやデータの内容は、メインCPU11からの指示によって追加、変更が可能に構成されている。   The flash memory 19 stores a program executed by the main CPU 11, data necessary for processing performed by the main CPU 11, and the like. The contents of programs and data stored in the flash memory 19 can be added and changed by an instruction from the main CPU 11.

操作部材17は、電子カメラ1の各種ボタンやスイッチ類を含み、レリーズボタンの押下操作、モード切替スイッチの切換操作など、各操作部材の操作内容に応じた操作信号をメインCPU11へ出力する。   The operation member 17 includes various buttons and switches of the electronic camera 1, and outputs an operation signal corresponding to the operation content of each operation member, such as a release button pressing operation and a mode switching switch switching operation, to the main CPU 11.

GPS装置18は、メインCPU11からの指示に応じてGPS衛星からの電波を受信し、受信信号をメインCPU11へ出力する。メインCPU11は、GPS装置18からの受信信号に基づいて所定の演算を行い、電子カメラ1の測位情報(緯度、経度、高度)を検出する。   The GPS device 18 receives radio waves from GPS satellites in response to instructions from the main CPU 11 and outputs received signals to the main CPU 11. The main CPU 11 performs a predetermined calculation based on the received signal from the GPS device 18 and detects the positioning information (latitude, longitude, altitude) of the electronic camera 1.

電子カメラ1は、撮影時に撮像素子22で取得された画像信号に所定の画像処理および圧縮処理を施し、圧縮処理後の画像データに、測位情報、および当該撮影画像に関する情報などを含む付加情報を付加した画像ファイルを生成するように構成されている。具体的には、JPEG形式の画像データを画像データ部に格納し、付加情報を付加情報部に格納したExif形式の画像ファイルを生成する。Exif形式の画像ファイルは、JPEG画像フォーマットの画像データ内にサムネイル画像や付加情報データを埋め込むようにしたものである。生成した画像ファイルは、記録媒体30に格納される。   The electronic camera 1 performs predetermined image processing and compression processing on the image signal acquired by the image sensor 22 at the time of shooting, and adds additional information including positioning information and information about the shot image to the image data after the compression processing. It is configured to generate an added image file. Specifically, an image file in Exif format is generated in which image data in JPEG format is stored in the image data portion and additional information is stored in the additional information portion. The Exif format image file is obtained by embedding thumbnail images and additional information data in image data in the JPEG image format. The generated image file is stored in the recording medium 30.

また、電子カメラ1は撮影モードと再生モードとが切替え可能に構成される。撮影モードは、被写体像を撮影し、撮影画像のデータを記録媒体30に画像ファイルとして保存する動作モードである。再生モードは、撮影済みの画像データを記録媒体30から読み出すなどして、画像データによる再生画像を液晶モニタ16に表示するモードである。   Further, the electronic camera 1 is configured to be able to switch between a shooting mode and a playback mode. The shooting mode is an operation mode in which a subject image is shot and data of the shot image is stored in the recording medium 30 as an image file. The reproduction mode is a mode in which the reproduced image based on the image data is displayed on the liquid crystal monitor 16 by reading the captured image data from the recording medium 30.

<撮影画像のグルーピング>
本実施形態の電子カメラ1は、撮影画像を自動的にグルーピングする機能を備える。具体的には、記録媒体30に記録済みの画像ファイルに対してグループ分けを行い、画像ファイルをグループごとに設けたフォルダ内に格納する。電子カメラ1はさらに、各フォルダ内に含まれる画像群に基づいて、画像群の撮影対象を表す標題(たとえば、撮影シーン)を決める。そして、この標題に基づいて、各フォルダ(グループ)の画像群を代表する画像ファイルをフォルダ(グループ)ごとにそれぞれ選ぶ。なお、画像ファイルをグループごとに設けたフォルダ内に格納しなくても、画像ファイルの管理テーブルを作成し、該テーブルに画像ファイルに対するグループ分け情報を格納するようにしてもよい。
<Grouping of shot images>
The electronic camera 1 of this embodiment has a function of automatically grouping captured images. Specifically, the image files recorded on the recording medium 30 are grouped, and the image files are stored in a folder provided for each group. Further, the electronic camera 1 determines a title (for example, a shooting scene) representing the shooting target of the image group based on the image group included in each folder. Based on the title, an image file representing the image group of each folder (group) is selected for each folder (group). Even if the image file is not stored in a folder provided for each group, an image file management table may be created, and grouping information for the image file may be stored in the table.

図2は、メインCPU11が実行する上記グルーピング処理の流れを説明するフローチャートである。メインCPU11は、操作部材17からグルーピング処理の実行を指示する操作信号が入力されると、図2による処理を開始する。   FIG. 2 is a flowchart for explaining the flow of the grouping process executed by the main CPU 11. When the operation signal instructing execution of the grouping process is input from the operation member 17, the main CPU 11 starts the process illustrated in FIG.

図2のステップS10において、メインCPU11は、記録媒体30に記録されている画像ファイルに対してクラスタリング手法によってグループ分けを行い、ステップS20へ進む。クラスタリング処理の詳細については後述する。ステップS20において、メインCPU11は、クラスタ(グループ分け後の画像ファイルの集合)に含まれる画像ごとにイベント判定を行ってステップS30へ進む。「イベント」は画像の撮影シーンを表すもので、たとえば、「運動会」、「結婚式」、「花見」、「海水浴」、「北海道旅行」などをいう。画像ごとのイベント判定処理の詳細については後述する。   In step S10 of FIG. 2, the main CPU 11 groups the image files recorded on the recording medium 30 by a clustering method, and proceeds to step S20. Details of the clustering process will be described later. In step S20, the main CPU 11 performs event determination for each image included in the cluster (a set of image files after grouping), and proceeds to step S30. “Event” represents an image shooting scene, and refers to, for example, “athletic meet”, “wedding”, “cherry blossom viewing”, “sea bathing”, “travel to Hokkaido”, and the like. Details of the event determination process for each image will be described later.

ステップS30において、メインCPU11は、クラスタごとにイベント判定を行ってステップS40へ進む。「イベント」が標題である点は上記ステップS20の場合と共通であるが、ステップS20におけるイベント判定が個々の画像を対象とするものであるのに対し、ステップS30におけるイベント判定がクラスタを代表する「イベント」を判定する点において異なる。クラスタごとのイベント判定処理の詳細については後述する。   In step S30, the main CPU 11 performs event determination for each cluster and proceeds to step S40. The point that “event” is the title is the same as in step S20 above, but the event determination in step S20 represents an individual image, whereas the event determination in step S30 represents a cluster. It differs in that “event” is determined. Details of the event determination process for each cluster will be described later.

ステップS40において、メインCPU11は、必要に応じてクラスタを統合し、ステップS50へ進む。クラスタの統合処理の詳細については後述する。ステップS50において、メインCPU11は、クラスタを代表する画像ファイルを決定して図2による処理を終了する。   In step S40, the main CPU 11 integrates the clusters as necessary, and proceeds to step S50. Details of the cluster integration processing will be described later. In step S50, the main CPU 11 determines an image file representing the cluster and ends the processing in FIG.

<クラスタリング処理>
クラスタリング処理(S10)の詳細について、図3に例示するフローチャートを参照して説明する。クラスタリング処理は、たとえば、撮影日時情報を用いて行う。図3のステップS11において、メインCPU11は全ての画像ファイルを対象に、画像ファイルの付加情報部に記録されている撮影日時を示す情報を抽出してステップS12へ進む。
<Clustering processing>
Details of the clustering process (S10) will be described with reference to the flowchart illustrated in FIG. The clustering process is performed using, for example, shooting date / time information. In step S11 of FIG. 3, the main CPU 11 extracts information indicating the shooting date and time recorded in the additional information portion of the image file for all image files, and proceeds to step S12.

ステップS12において、メインCPU11は、全ての画像ファイルから撮影日時を示す情報を抽出したか否かを判定する。メインCPU11は、全画像ファイルから必要な情報を抽出済みの場合にステップS12を肯定判定してステップS13へ進み、必要な情報を全画像ファイルから抽出済みでない場合にはステップS12を否定判定してステップS11へ戻る。ステップS11へ戻る場合は、上記抽出処理を繰り返す。   In step S12, the main CPU 11 determines whether or not information indicating the shooting date and time has been extracted from all the image files. When the necessary information has been extracted from all the image files, the main CPU 11 makes a positive determination in step S12 and proceeds to step S13. When the necessary information has not been extracted from all the image files, the main CPU 11 makes a negative determination in step S12. Return to step S11. When returning to step S11, the extraction process is repeated.

ステップS13において、メインCPU11は、階層的クラスタリングを用いる。その中で、たとえば最短距離法を用いてクラスタリングを行う。具体的には、1画像につき1クラスタを処理の起点として、撮影時刻が近いクラスタを逐次併合する処理を繰り返すことにより、画像ファイルを複数のクラスタ(撮影時刻が近い画像ファイルの集合)に分ける。メインCPU11は、クラスタ数が所定の数まで減った場合にステップS14へ進む。または、近接するクラスタ間において、一方の集合内で最も遅い撮影時刻と、他方の集合内で最も早い撮影時刻との差が所定時間(たとえば3時間)以上になった場合にステップS14へ進む。なお、階層的クラスタリングの中でも最短距離法以外の手法を用いてもよい。さらに、階層的クラスタリング以外の手法(たとえば、分割最適化法)を用いてもよい。   In step S13, the main CPU 11 uses hierarchical clustering. Among them, for example, clustering is performed using the shortest distance method. Specifically, an image file is divided into a plurality of clusters (a set of image files with close shooting times) by repeating the process of sequentially merging clusters with close shooting times starting from one cluster per image. When the number of clusters has decreased to a predetermined number, the main CPU 11 proceeds to step S14. Alternatively, when the difference between the latest shooting time in one set and the earliest shooting time in the other set is greater than or equal to a predetermined time (for example, 3 hours) between adjacent clusters, the process proceeds to step S14. Note that methods other than the shortest distance method may be used in hierarchical clustering. Furthermore, a method other than hierarchical clustering (for example, a division optimization method) may be used.

ステップS14において、メインCPU11は、上記クラスタに対応させてフォルダを記録媒体30内に生成してステップS15へ進む。ステップS15において、メインCPU11は、生成したフォルダ内へ対応する画像ファイルを移動させて図3による処理を終了する。これにより、クラスタに対応する各フォルダの中に、各クラスタに属する画像ファイルが格納される。なお、画像ファイルをグループごとに設けたフォルダ内に格納しなくても、画像ファイルの管理テーブルを作成し、該テーブルに画像ファイルに対するグループ分け情報を格納するようにしてもよい。   In step S14, the main CPU 11 generates a folder in the recording medium 30 corresponding to the cluster, and proceeds to step S15. In step S15, the main CPU 11 moves the corresponding image file into the generated folder and ends the process of FIG. As a result, the image file belonging to each cluster is stored in each folder corresponding to the cluster. Even if the image file is not stored in a folder provided for each group, an image file management table may be created, and grouping information for the image file may be stored in the table.

<画像ごとのイベント判定処理>
画像単位のイベント判定処理(S20)の詳細について、図4に例示するフローチャートを参照して説明する。図4のステップS21において、メインCPU11は、複数のクラスタの中からクラスタを1つ特定してステップS22へ進む。特定順は、たとえば、撮影日時が古い順(最も早い撮影時刻の画像ファイルを有するクラスタを優先)とする。
<Event determination process for each image>
Details of the event determination process (S20) in units of images will be described with reference to the flowchart illustrated in FIG. In step S21 of FIG. 4, the main CPU 11 identifies one cluster from the plurality of clusters and proceeds to step S22. The specific order is, for example, the order of shooting date and time (priority is given to the cluster having the image file with the earliest shooting time).

ステップS22において、メインCPU11は、判定対象とするイベント(イベント候補と呼ぶ)を決定する。メインCPU11は、図8に例示するイベント候補テーブルを参照し、クラスタを構成する画像ファイルの撮影日が属する月に対応するイベントを選ぶ。たとえば、画像ファイルが5月に撮影されたものである場合には、「花見」、「運動会」、および「結婚式」をイベント候補とする。イベント候補テーブルは、月ごとに発生頻度が高いイベントを記したものであり、過去のイベント発生月に基づいてあらかじめ作成され、フラッシュメモリ19内に記録されている。なお、各月に対応させるイベント候補の数は、所定数(本例においては3つ)に制限されている。   In step S22, the main CPU 11 determines an event to be determined (referred to as an event candidate). The main CPU 11 refers to the event candidate table illustrated in FIG. 8 and selects an event corresponding to the month to which the shooting date of the image file constituting the cluster belongs. For example, if the image file was taken in May, “Hanami”, “Athletic meet”, and “Wedding” are the event candidates. The event candidate table describes events with a high occurrence frequency for each month, is created in advance based on the past event occurrence month, and is recorded in the flash memory 19. Note that the number of event candidates associated with each month is limited to a predetermined number (three in this example).

図8によれば、発生月や季節との相関が強いイベントは該当月のみに含まれ、「結婚式」のように発生月との相関が弱いイベントは複数の月に含まれる。メインCPU11は、クラスタを構成する画像ファイルの撮影日が複数の月に属する場合は、一例として、より多くの画像ファイルが属する月に対応するイベント候補を選ぶ。メインCPU11は、以上のように判定対象とするイベントを決定したら、ステップS23へ進む。   According to FIG. 8, an event having a strong correlation with the occurrence month or season is included only in the corresponding month, and an event having a weak correlation with the occurrence month such as “wedding” is included in a plurality of months. When the shooting dates of the image files constituting the cluster belong to a plurality of months, the main CPU 11 selects event candidates corresponding to the months to which more image files belong. After determining the event to be determined as described above, the main CPU 11 proceeds to step S23.

ステップS23において、メインCPU11は、特定したクラスタを構成する画像ファイルの中から画像ファイルを1つ特定してステップS24へ進む。ステップS24において、メインCPU11は、特定した画像ファイルに含まれる画像データに基づいて、当該画像の特徴量を算出してステップS25へ進む。   In step S23, the main CPU 11 specifies one image file from the image files constituting the specified cluster, and proceeds to step S24. In step S24, the main CPU 11 calculates the feature amount of the image based on the image data included in the identified image file, and proceeds to step S25.

メインCPU11は、ステップS22において決定したイベント候補の判定に適した画像の特徴量を算出する。イベント候補と算出すべき特徴量との関係は、あらかじめテーブル化されてフラッシュメモリ19内に記録されている。特徴量は、たとえば、画像の所定領域を構成する画素データに基づいて算出される色情報、鮮鋭度情報、質感情報、模様情報、および明るさ情報などである。また、画像サイズやカラーヒストグラムの情報を特徴量として扱ってもよい。特徴量算出は公知技術であるため、本説明では特徴量算出に関する詳細な説明を省略する。   The main CPU 11 calculates a feature amount of the image suitable for determining the event candidate determined in step S22. The relationship between the event candidate and the feature quantity to be calculated is tabulated in advance and recorded in the flash memory 19. The feature amount is, for example, color information, sharpness information, texture information, pattern information, brightness information and the like calculated based on pixel data constituting a predetermined area of the image. Further, image size and color histogram information may be handled as feature amounts. Since the feature amount calculation is a known technique, a detailed description of feature amount calculation is omitted in this description.

ステップS25−ステップS27において、メインCPU11は、ステップS22において決定したイベント候補に対応した識別器をそれぞれ用いて、各イベントらしさを表す確率を算出する。識別器は、複数のサンプル画像データに基づいてSVM(Support Vector Machine)手法を用いる機械学習によって算出された特徴量情報である。たとえば、「花見」用の識別器は、複数の「花見」および「非花見」のサンプル画像に基づいて算出された特徴量情報である。「運動会」用の識別器は、複数の「運動会」および「非運動会」のサンプル画像に基づいて算出された特徴量情報である。「結婚式」用の識別器は、複数の「結婚式」および「非結婚式」のサンプル画像に基づいて算出された特徴量情報である。本実施形態では、複数のイベント候補のそれぞれに対応する識別器があらかじめ生成され、フラッシュメモリ19内に記録されている。メインCPU11は、ステップS23において特定した1画像ごとに、イベント候補に挙げられたイベントらしさ(確率)Pを算出してステップS28へ進む。   In step S25 to step S27, the main CPU 11 calculates a probability representing the likelihood of each event using each discriminator corresponding to the event candidate determined in step S22. The discriminator is feature amount information calculated by machine learning using an SVM (Support Vector Machine) method based on a plurality of sample image data. For example, the classifier for “cherry-blossom viewing” is feature amount information calculated based on a plurality of “cherry-blossom viewing” and “non-cherry-blossom viewing” sample images. The classifier for “athletic day” is feature amount information calculated based on a plurality of sample images of “athletic day” and “non-athletic day”. The identifier for “wedding” is feature amount information calculated based on a plurality of “wedding” and “non-wedding” sample images. In the present embodiment, classifiers corresponding to each of a plurality of event candidates are generated in advance and recorded in the flash memory 19. The main CPU 11 calculates the event likelihood (probability) P listed as the event candidate for each image specified in step S23, and then proceeds to step S28.

イベントらしさを表す確率Pは、識別器によって表される特徴量空間において空間を仕切る境界(たとえば、「運動会」領域と、「非運動会」領域との境界)と、ステップS24において算出された特徴量との距離に対応する。ある画像から算出した特徴量が、「運動会」用の識別器によって表される特徴量空間で「運動会」に対応する特徴量領域の奥に位置し、「非運動会」に対応する特徴量領域までの距離が長ければ、「運動会」らしさの確率が高い。一方、画像から算出した特徴量が、「運動会」に対応する特徴量領域の端に位置し、「非運動会」に対応する特徴量領域までの距離が短ければ、「運動会」らしさの確率が低い。メインCPU11は、上記距離に応じて確率を算出する。   The probability P representing the likelihood of an event is a boundary that partitions the space in the feature amount space represented by the discriminator (for example, a boundary between the “athletic meet” region and the “non-athletic meet” region), and the feature amount calculated in step S24. Corresponds to the distance. The feature amount calculated from an image is located behind the feature amount region corresponding to “Athletic Meet” in the feature amount space represented by the classifier for “Athletic Meet”, up to the feature amount region corresponding to “Non-athletic Meet” If the distance is long, the probability of being “athletic meet” is high. On the other hand, if the feature amount calculated from the image is located at the end of the feature amount region corresponding to “athletic meet” and the distance to the feature amount region corresponding to “non-athletic meet” is short, the probability of being “athletic meet” is low . The main CPU 11 calculates the probability according to the distance.

ステップS28において、メインCPU11は、特定したクラスタ内の全画像ファイルに対して処理を終了したか否かを判定する。メインCPU11は、クラスタ内の全ての画像について特徴量算出、およびイベントらしさ(確率)Pの算出を行った場合にステップS28を肯定判定してステップS29へ進む。メインCPU11は、クラスタ内の全ての画像について特徴量算出、およびイベントらしさ(確率)Pの算出を行っていない場合には、ステップS28を否定判定してステップS23へ戻る。ステップS23へ戻ったメインCPU11は、特定したクラスタを構成する画像ファイルのうち他の1つの画像ファイルを特定してステップS24へ進む。   In step S28, the main CPU 11 determines whether or not the processing has been completed for all the image files in the identified cluster. When the main CPU 11 calculates the feature amount and the event likelihood (probability) P for all the images in the cluster, the main CPU 11 makes a positive determination in step S28 and proceeds to step S29. If the main CPU 11 has not performed the feature amount calculation and the event likelihood (probability) P for all the images in the cluster, the main CPU 11 makes a negative determination in step S28 and returns to step S23. After returning to step S23, the main CPU 11 identifies another image file among the image files constituting the identified cluster, and proceeds to step S24.

ステップS29において、メインCPU11は、全てのクラスタに対して処理を終了したか否かを判定する。メインCPU11は、全てのクラスタについて特徴量算出、およびイベントらしさ(確率)Pの算出を行った場合にステップS29を肯定判定して図4による処理を終了する。メインCPU11は、全てのクラスタについて特徴量算出、およびイベントらしさ(確率)Pの算出を行っていない場合には、ステップS29を否定判定してステップS21へ戻る。ステップS21へ戻ったメインCPU11は、他の1つのクラスタを特定してステップS22へ進む。   In step S29, the main CPU 11 determines whether or not the processing has been completed for all clusters. When the main CPU 11 performs the feature amount calculation and the event likelihood (probability) P for all the clusters, the main CPU 11 makes an affirmative determination in step S29 and ends the processing in FIG. When the main CPU 11 has not performed the feature amount calculation and the event likelihood (probability) P for all the clusters, the main CPU 11 makes a negative determination in step S29 and returns to step S21. After returning to step S21, the main CPU 11 identifies another cluster and proceeds to step S22.

<クラスタごとのイベント判定処理>
クラスタ単位のイベント判定処理(S30)の詳細について、図5に例示するフローチャートを参照して説明する。図5のステップS31において、メインCPU11は、複数のクラスタの中からクラスタを1つ特定してステップS32へ進む。特定順は、たとえば、撮影日時が古い順(最も早い撮影時刻の画像ファイルを有するクラスタを優先)とする。
<Event determination processing for each cluster>
Details of the event determination process (S30) in units of clusters will be described with reference to the flowchart illustrated in FIG. In step S31 of FIG. 5, the main CPU 11 specifies one cluster from the plurality of clusters and proceeds to step S32. The specific order is, for example, the order of shooting date and time (priority is given to the cluster having the image file with the earliest shooting time).

ステップS32において、メインCPU11は、イベント候補の中から判定対象とするイベントを1つ特定してステップS33へ進む。ステップS33において、メインCPU11は、S31において特定したクラスタを構成する画像ファイルの中から画像ファイルを1つ特定してステップS34へ進む。ステップS34において、メインCPU11は、S32において特定したイベントに対するイベントらしさ(確率)Pが所定の判定閾値Pth以上か否かを判定する。メインCPU11は、イベントらしさ(確率)Pが判定閾値Pth以上の場合にステップS34を肯定判定してステップS35へ進む。メインCPU11は、イベントらしさ(確率)Pが判定閾値Pth未満の場合にはステップS34を否定判定し、ステップS36へ進む。   In step S32, the main CPU 11 specifies one event to be determined from the event candidates and proceeds to step S33. In step S33, the main CPU 11 specifies one image file from the image files constituting the cluster specified in S31, and proceeds to step S34. In step S34, the main CPU 11 determines whether or not the event likelihood (probability) P for the event specified in S32 is equal to or greater than a predetermined determination threshold value Pth. When the event likelihood (probability) P is equal to or greater than the determination threshold value Pth, the main CPU 11 makes a positive determination in step S34 and proceeds to step S35. When the event likelihood (probability) P is less than the determination threshold value Pth, the main CPU 11 makes a negative determination in step S34 and proceeds to step S36.

ステップS35において、メインCPU11は、Psum=Psum+Pを算出してステップS36へ進む。ステップS36において、メインCPU11は、特定したクラスタ内の全画像ファイルに対して処理を終了したか否かを判定する。メインCPU11は、クラスタ内の全ての画像について処理を行った場合にステップS36を肯定判定してステップS37へ進む。メインCPU11は、クラスタ内の全ての画像について処理を行っていない場合には、ステップS36を否定判定してステップS33へ戻る。ステップS33へ戻ったメインCPU11は、特定したクラスタを構成する画像ファイルのうち他の1つの画像ファイルを特定してステップS34へ進む。   In step S35, the main CPU 11 calculates Psum = Psum + P and proceeds to step S36. In step S36, the main CPU 11 determines whether or not the processing has been completed for all the image files in the specified cluster. When the main CPU 11 has processed all the images in the cluster, the main CPU 11 makes an affirmative decision in step S36 and proceeds to step S37. If the main CPU 11 has not processed all the images in the cluster, the main CPU 11 makes a negative determination in step S36 and returns to step S33. After returning to step S33, the main CPU 11 specifies another one of the image files constituting the specified cluster, and proceeds to step S34.

ステップS37において、メインCPU11は、上記Psumへ加算したイベントらしさ(確率)Pの個数がクラスタ内の全画像ファイル数のNパーセント以上か否かを判定する。メインCPU11は、加算したPの個数がNパーセント以上の場合にステップS37を肯定判定してステップS38へ進む。メインCPU11は、加算したPの個数がNパーセント未満の場合にはステップS37を否定判定し、ステップS41へ進む。ステップS41において、メインCPU11は、Psum=0としてステップS38へ進む。   In step S37, the main CPU 11 determines whether the number of event probabilities (probabilities) P added to Psum is equal to or greater than N percent of the total number of image files in the cluster. When the added number of P is N percent or more, the main CPU 11 makes a positive determination in step S37 and proceeds to step S38. When the added number of P is less than N percent, the main CPU 11 makes a negative determination in step S37 and proceeds to step S41. In step S41, the main CPU 11 sets Psum = 0 and proceeds to step S38.

ステップS38において、メインCPU11は、イベント候補の全てについてPsumを算出する処理を終了したか否かを判定する。メインCPU11は、全てのイベントについて算出処理を終了した場合にステップS38を肯定判定してステップS39へ進む。メインCPU11は、全てのイベントについて算出処理を終了していない場合にはステップS38を否定判定し、ステップS32へ戻る。ステップS32へ戻ったメインCPU11は、イベント候補のうち判定対象とする他のイベント1つを特定してステップS33へ進む。   In step S38, the main CPU 11 determines whether or not the process of calculating Psum for all event candidates has been completed. When the calculation process is completed for all events, the main CPU 11 makes a positive determination in step S38 and proceeds to step S39. If the calculation process has not been completed for all events, the main CPU 11 makes a negative determination in step S38 and returns to step S32. After returning to step S32, the main CPU 11 specifies one other event to be determined from the event candidates and proceeds to step S33.

ステップS39において、メインCPU11は、イベント候補ごとに算出したPsumのうち、その最大値に対応するイベント候補を当該クラスタの標題イベントに決定してステップS42へ進む。   In step S39, the main CPU 11 determines the event candidate corresponding to the maximum value among the Psum calculated for each event candidate as the title event of the cluster, and proceeds to step S42.

ステップS42において、メインCPU11は、全てのクラスタについてPsumの算出、および標題イベントを決定する処理を終了したか否かを判定する。メインCPU11は、全てのクラスタについて処理を終了した場合にステップS42を肯定判定して図5による処理を終了する。メインCPU11は、全てのクラスタについて処理を終了していない場合にはステップS42を否定判定し、ステップS31へ戻る。ステップS31へ戻ったメインCPU11は、他のクラスタ1つを特定してステップS32へ進む。   In step S42, the main CPU 11 determines whether or not the calculation of Psum and the process for determining the title event have been completed for all clusters. When the process is finished for all clusters, the main CPU 11 makes a positive determination in step S42 and ends the process of FIG. If the processing has not been completed for all clusters, the main CPU 11 makes a negative determination in step S42 and returns to step S31. After returning to step S31, the main CPU 11 identifies another cluster and proceeds to step S32.

図9−図11は、画像ファイルの集合(画像数=5)を含むクラスタに対するイベント判定を例示する図である。イベント候補は、たとえば「運動会」、「結婚式」、および「花見」であり、画像1−画像5のそれぞれについて、「運動会」らしさ、「結婚式」らしさ、および「花見」らしさの確率Pが算出されている。本例では、判定閾値Pth=40パーセントとし、判定閾値N=40パーセントとする。   9 to 11 are diagrams illustrating event determination for a cluster including a set of image files (number of images = 5). The event candidates are, for example, “athletic meet”, “wedding”, and “cherry blossom viewing”. For each of the images 1 to 5, the probability P of “athletic meet” likelihood, “wedding” likelihood, and “cherry blossom viewing” probability is set. It has been calculated. In this example, the determination threshold value Pth = 40% and the determination threshold value N = 40%.

図9の場合、「運動会」らしさについてのPsumは、「運動会」らしさを示すPが判定閾値Pth以上の画像(すなわち、画像4以外の画像1−画像3、および画像5)について、それぞれのPを加算する(ステップS35)。この場合のPsumは、85(画像1)+90(画像2)+80(画像3)+75(画像5)=330である。   In the case of FIG. 9, the Psum regarding the “Athletic meet” likelihood is P for each of the images having the “Athletic meet” likelihood P equal to or greater than the determination threshold Pth (that is, the image 1 to the image 3 other than the image 4 and the image 5). Are added (step S35). In this case, Psum is 85 (image 1) +90 (image 2) +80 (image 3) +75 (image 5) = 330.

図10の場合、「結婚式」らしさを示すPが判定閾値Pth以上となるのは画像4のみであるため、「結婚式」らしさについてのPsumは、画像4について算出されているPのみを加算対象にする。これにより、Psum=45(画像4)を得る。ここで、画像4(1画像)は、画像数5のうち20パーセントに相当するため上記N(40パーセント)に満たない。そこでメインCPU11は、図10の場合のPsumを0とする(ステップS41)。   In the case of FIG. 10, only P4 indicating “wedding” likelihood is equal to or greater than the determination threshold Pth, so only P calculated for image 4 is added to Psum regarding “wedding” likelihood. Target. Thereby, Psum = 45 (image 4) is obtained. Here, the image 4 (one image) corresponds to 20% of the number of images 5 and is therefore less than N (40%). Therefore, the main CPU 11 sets Psum in the case of FIG. 10 to 0 (step S41).

図11において、「花見」らしさについてのPsumは、「花見」らしさを示すPが判定閾値Pth以上の画像(すなわち、画像3以外の画像1−画像2、および画像4−画像5)について、それぞれのPを加算する(ステップS35)。この場合のPsumは、60(画像1)+70(画像2)+65(画像4)+75(画像5)=270である。   In FIG. 11, Psum regarding “Hanami” -likeness is obtained for images (ie, image 1 to image 2 other than image 3 and image 4 to image 5) that are P or more indicating “hanami” -likeness, respectively. Of P is added (step S35). In this case, Psum is 60 (image 1) +70 (image 2) +65 (image 4) +75 (image 5) = 270.

メインCPU11は、イベント候補(「運動会」、「結婚式」、および「花見」)のうち、最大Psumに対応する「運動会」を、当該クラスタの標題イベントとする。   The main CPU 11 sets the “athletic meet” corresponding to the maximum Psum among the event candidates (“athletic meet”, “wedding”, and “cherry blossom viewing”) as the title event of the cluster.

<クラスタの統合処理>
クラスタの統合処理(S40)の詳細について、図6に例示するフローチャートを参照して説明する。図6のステップS51において、メインCPU11は、複数のクラスタのうち、近接するクラスタ間の時間差が判定閾値T以下か否かを判定する。メインCPU11は、たとえば、一方のクラスタで最も遅い撮影時刻と、他方のクラスタ内で最も早い撮影時刻との差が上記T以下の場合にステップS51を肯定判定してステップS52へ進む。メインCPU11は、時間差が上記Tを超える場合にはステップS51を否定判定して図6による処理を終了する。ステップS51を否定判定する場合は、クラスタの統合を行わない。
<Cluster integration processing>
Details of the cluster integration processing (S40) will be described with reference to the flowchart illustrated in FIG. In step S51 of FIG. 6, the main CPU 11 determines whether or not the time difference between adjacent clusters among the plurality of clusters is equal to or less than the determination threshold T. For example, when the difference between the latest shooting time in one cluster and the earliest shooting time in the other cluster is equal to or less than T, the main CPU 11 makes an affirmative determination in step S51 and proceeds to step S52. When the time difference exceeds T, the main CPU 11 makes a negative determination in step S51 and ends the process of FIG. When a negative determination is made in step S51, cluster integration is not performed.

ステップS52において、メインCPU11は、時間差T以下で近接するクラスタ同士の標題イベントが同一か否かを判定する。メインCPU11は、標題イベントが同一の場合にステップS52を肯定判定してステップS53へ進む。メインCPU11は、標題イベントが同一でない場合にはステップS52を否定判定して図6による処理を終了する。ステップS52を否定判定する場合は、クラスタの統合を行わない。   In step S52, the main CPU 11 determines whether or not the title events of the adjacent clusters with the time difference T or less are the same. When the title event is the same, the main CPU 11 makes a positive determination in step S52 and proceeds to step S53. If the title events are not the same, the main CPU 11 makes a negative determination in step S52 and ends the process of FIG. When a negative determination is made in step S52, cluster integration is not performed.

ステップS53において、メインCPU11は、2つのクラスタを1つのクラスタに統合して図6による処理を終了する。メインCPU11は、全クラスタに対してクラスタの統合処理を繰り返す。以上の処理により、クラスタ数が減少する。   In step S53, the main CPU 11 integrates the two clusters into one cluster and ends the process shown in FIG. The main CPU 11 repeats cluster integration processing for all clusters. With the above processing, the number of clusters decreases.

<クラスタごとの代表画像の決定処理>
クラスタ単位の代表画像決定処理の詳細について、図7に例示するフローチャートを参照して説明する。図7のステップS61において、メインCPU11は、複数のクラスタの中からクラスタを1つ特定してステップS62へ進む。特定順は、たとえば、撮影日時が古い順(最も早い撮影時刻の画像ファイルを有するクラスタを優先)とする。
<Determination of representative image for each cluster>
Details of the representative image determination processing in units of clusters will be described with reference to the flowchart illustrated in FIG. In step S61 of FIG. 7, the main CPU 11 specifies one cluster from the plurality of clusters, and proceeds to step S62. The specific order is, for example, the order of shooting date and time (priority is given to the cluster having the image file with the earliest shooting time).

ステップS62において、メインCPU11は、ステップS39において決定した標題イベントに対応する選択基準情報をフラッシュメモリ19から読み出してステップS63へ進む。選択基準情報は、代表画像の決定方法をあらかじめ標題イベントごとに定め、テーブル化してフラッシュメモリ19内に記録したものである。   In step S62, the main CPU 11 reads the selection criterion information corresponding to the title event determined in step S39 from the flash memory 19, and proceeds to step S63. The selection criterion information is obtained by predetermining a representative image determination method for each title event, forming a table, and recording it in the flash memory 19.

ステップS63において、メインCPU11は、クラスタ内に含まれる画像ファイル群の中から、選択基準情報に基づいて代表画像を選んでステップS64へ進む。ステップS64において、メインCPU11は、全てのクラスタについて代表画像を選んだか否かを判定する。メインCPU11は、全てのクラスタについて処理を終了した場合にステップS64を肯定判定して図7による処理を終了する。メインCPU11は、全てのクラスタについて処理を終了していない場合にはステップS64を否定判定し、ステップS61へ戻る。ステップS61へ戻ったメインCPU11は、他のクラスタ1つを特定してステップS62へ進む。   In step S63, the main CPU 11 selects a representative image from the image file group included in the cluster based on the selection criterion information, and proceeds to step S64. In step S64, the main CPU 11 determines whether representative images have been selected for all clusters. When the process is finished for all clusters, the main CPU 11 makes a positive determination in step S64 and ends the process of FIG. If the process has not been completed for all clusters, the main CPU 11 makes a negative determination in step S64 and returns to step S61. After returning to step S61, the main CPU 11 identifies another cluster and proceeds to step S62.

上記選択基準情報について説明する。メインCPU11は、図12に例示する選択基準情報テーブルを参照し、クラスタの標題イベントに対応する選択基準情報を選ぶ。選択基準情報テーブルは、あらかじめ作成されてフラッシュメモリ19内に記録されている。たとえば、クラスタの標題イベントが「結婚式」、「初詣」、「ひな祭り」、「入学式」、「卒業式」の場合は、当該クラスタに含まれる画像のうち、画像に含まれる顔領域の割合が所定割合に最も近いものを代表画像として選ぶ。なお、画像データに基づいて顔検出処理を行い、画像に含まれている人物の「顔」を検出する顔検出処理は、公知の技術であるため説明を省略する。   The selection criterion information will be described. The main CPU 11 refers to the selection criterion information table illustrated in FIG. 12 and selects the selection criterion information corresponding to the cluster title event. The selection criterion information table is created in advance and recorded in the flash memory 19. For example, if the title event of a cluster is “Wedding”, “Hatsumode”, “Hinamatsuri”, “Entrance Ceremony”, “Graduation Ceremony”, the proportion of the facial area included in the image in the cluster Is selected as the representative image. Note that the face detection process for performing the face detection process based on the image data and detecting the “face” of the person included in the image is a known technique, and thus the description thereof is omitted.

また、クラスタの標題イベントが「海水浴」、「ダイビング」、「紅葉狩」、「ゴルフ」の場合は、当該クラスタに含まれる画像のうち、画像に含まれる所定色領域の割合が所定割合に最も近いものを代表画像として選ぶ。所定色は、たとえば、青色領域(海水浴、ダイビング)、赤色または黄色領域(紅葉狩)、緑色領域(ゴルフ)である。   In addition, when the title event of the cluster is “sea bathing”, “diving”, “autumn leaf hunting”, “golf”, the ratio of the predetermined color area included in the image is the closest to the predetermined ratio among the images included in the cluster. Choose one as the representative image. The predetermined color is, for example, a blue region (sea bathing, diving), a red or yellow region (autumn leaves hunting), and a green region (golf).

また、クラスタに含まれる画像のうち、当該クラスタの標題イベントに対応するイベントらしさを示す確率Pが最大となる画像を代表画像として選ぶようにしてもよい。このように、あらかじめ標題イベントごとに代表画像決定条件を決めておき、その決定条件に基づいて標題イベントを代表する画像を決定する。   Further, among the images included in the cluster, an image having the maximum probability P indicating the likelihood of an event corresponding to the title event of the cluster may be selected as the representative image. As described above, the representative image determination condition is determined in advance for each title event, and an image representing the title event is determined based on the determination condition.

以上説明した第一の実施形態によれば、以下の作用効果が得られる。
(1)クラスタ(画像ファイルの集合)に対して複数のイベント候補(運動会、結婚式、花見)を与え、各イベント候補の判定に適した特徴量をクラスタ内の画像ごとに算出し、算出した個々の画像の特徴量に基づいて当該クラスタ(画像ファイルの集合)を代表するイベントをイベント候補の中から決定するようにした。従来技術と異なり、クラスタに対してSVM手法を使わない、すなわち、クラスタに対する特徴量の算出を必要とせずに、画像ごとのイベントらしさ(確率)Pの和Psumを算出する単純加算、和Psumに加算した画像数のカウント、イベント候補間におけるPsumの大小比較、判定閾値Pthと確率Pとの大小比較のみでよいので、画像群に対する特徴量算出をする場合に比べて短時間で処理することができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) A plurality of event candidates (athletic meet, wedding ceremony, cherry-blossom viewing) are given to a cluster (a set of image files), and feature quantities suitable for determining each event candidate are calculated for each image in the cluster. An event representative of the cluster (a set of image files) is determined from event candidates based on the feature amount of each image. Unlike the prior art, the SVM method is not used for clusters, that is, the sum Psum for calculating the sum Psum of the event-likeness (probability) P for each image without the need to calculate the feature amount for the cluster. Since only the count of the number of added images, the Psum size comparison between the event candidates, and the size comparison between the determination threshold value Pth and the probability P are sufficient, processing can be performed in a shorter time compared to the case of calculating the feature amount for the image group. it can.

(2)画像ごとのイベントらしさ(確率)Pの和Psumの最大値に対応するイベント候補に決定するようにしたので、画像ファイルの集合を代表するイベントを適切に決めることができる。 (2) Since the event candidate corresponding to the maximum value of the sum Psum of the event-likeness (probability) P for each image is determined, an event representing a set of image files can be appropriately determined.

(3)画像ごとのイベントらしさ(確率)Pが判定閾値Pthに満たない場合は和Psumに加えないようにしたので、イベント候補に該当する確率が低い画像が和Psumに寄与する度合いを抑えることができる。 (3) When the event likelihood (probability) P for each image is less than the determination threshold Pth, it is not added to the sum Psum, so that the degree of contribution of an image having a low probability of being an event candidate to the sum Psum is suppressed. Can do.

(4)判定閾値Pthを満たす画像数(すなわち、和PsumにPを加算した画像数)がクラスタ内の画像数に対して所定割合に満たない場合は、Psumを0にして当該イベント候補を除外するようにした。これにより、画像ファイルの集合を代表するイベントを適切に決めることができる。 (4) When the number of images satisfying the determination threshold Pth (that is, the number of images obtained by adding P to the sum Psum) is less than a predetermined ratio with respect to the number of images in the cluster, Psum is set to 0 and the event candidate is excluded. I tried to do it. This makes it possible to appropriately determine an event that represents a set of image files.

(5)クラスタ(画像ファイルの集合)は、画像の撮影日時に応じてクラスタリングしたものを用いるようにした。これにより、撮影日時に応じたイベント候補を与えることができる。 (5) Clusters (a set of image files) are clustered according to the shooting date and time of images. Thereby, event candidates according to the shooting date and time can be given.

(6)クラスタに対して複数のイベント候補を与えるようにしたので、これら複数のイベント候補の中から最も適切なものを決定することができる。なお、画像ファイルの集合でなく単一の画像に対しても複数のイベント候補を与え、これら複数のイベント候補の中から最も適切なものを決定させてもよい。 (6) Since a plurality of event candidates are given to the cluster, the most appropriate event can be determined from the plurality of event candidates. It should be noted that a plurality of event candidates may be given to a single image instead of a set of image files, and the most appropriate one of these plurality of event candidates may be determined.

(7)過去のイベント発生月に基づいてあらかじめ作成したイベント候補テーブルに基づいて複数のイベント候補を与えるようにしたので、適合率が高いイベント候補を与えることができる。 (7) Since a plurality of event candidates are given based on an event candidate table created in advance based on past event occurrence months, event candidates with a high relevance rate can be given.

(8)イベント候補テーブルにおいて各月に対応させるイベント候補の数の上限を3つに制限したので、イベント候補の数の上限を制限しない場合に比べて、画像ごとのイベントらしさ(確率)Pを算出する処理の負担を抑えることができる。なお、各月に対応させるイベント候補の数を3つ以上許容して、クラスタに対してイベント候補を与える際に、優先度が高いものから3つ選ぶように構成しても構わない。 (8) Since the upper limit of the number of event candidates corresponding to each month is limited to three in the event candidate table, the event likelihood (probability) P for each image is compared with the case where the upper limit of the number of event candidates is not limited. It is possible to reduce the burden of calculation processing. Note that three or more event candidates corresponding to each month may be allowed, and three event candidates may be selected from those having higher priority when the event candidates are given to the cluster.

(9)複数のクラスタのうち、近接するクラスタ間の時間差が判定閾値T以下であって、かつ当該クラスタ同士の標題イベントが同一の場合に両クラスタを1つに統合するようにした。これにより、撮影日時のみでクラスタリングしたものより、必要以上に細かくクラスタリングすることを避けられ、画像を分類整理する時の意図に沿ったものとなる。 (9) Among the plurality of clusters, when the time difference between adjacent clusters is equal to or less than the determination threshold T and the title events of the clusters are the same, both clusters are integrated into one. As a result, it is possible to avoid performing clustering more finely than necessary than in the case of clustering only by shooting date and time, and to conform to the intention when the images are classified and arranged.

(10)一方のクラスタで最も遅い撮影時刻と、他方のクラスタ内で最も早い撮影時刻との差が上記T以下の場合にステップS51を肯定判定するようにした。同じイベントに対しては、撮影間隔をあけずに続けて撮影することが多いので、当該クラスタ同士の標題イベントが同一である可能性が高い場合を検出できる。 (10) When the difference between the latest shooting time in one cluster and the earliest shooting time in the other cluster is equal to or less than T, the determination in step S51 is affirmative. Since the same event is often shot continuously without taking a shooting interval, it is possible to detect a case where there is a high possibility that the title events of the clusters are the same.

(11)イベント候補と算出すべき特徴量との関係をあらかじめテーブル化してフラッシュメモリ19内に記録しておくようにした。これにより、イベント候補の判定に適した画像の特徴量を算出でき、画像ファイルの集合を代表するイベントを適切に決めることができる。 (11) The relationship between event candidates and feature quantities to be calculated is tabulated in advance and recorded in the flash memory 19. Thereby, it is possible to calculate the image feature amount suitable for the determination of the event candidate, and to appropriately determine the event representing the set of image files.

(変形例1)
クラスタリング(S10)の際、撮影日単位でクラスタリングを行うようにしてもよい。
(Modification 1)
During clustering (S10), clustering may be performed on the basis of the shooting date.

(変形例2)
図8に例示したイベント候補テーブルは、ユーザ操作によって変更可能に構成してもよい。たとえば、液晶モニタ16にイベント候補テーブルの編集画面を表示させて、ユーザが操作部材17を操作することによってテーブル内容を変更する。変更内容は、フラッシュメモリ19へ記録する。なお、各月に対応させるイベント候補の数は、上述した通り、通常は所定数(たとえば3つ)に制限しておくのが好ましい。
(Modification 2)
The event candidate table illustrated in FIG. 8 may be configured to be changeable by a user operation. For example, the event candidate table editing screen is displayed on the liquid crystal monitor 16, and the user changes the table contents by operating the operation member 17. The changed contents are recorded in the flash memory 19. Note that the number of event candidates associated with each month is preferably limited to a predetermined number (for example, three) in general as described above.

(変形例3)
撮影時刻に応じてイベント候補を与えるようにしてもよい。この場合には、たとえば、撮影時刻が18時以降の場合のイベント候補に、「新年会」、「忘年会」、「宴会」などを含める。一方、「運動会」、「ゴルフ」、「遠足」、「ダイビング」など、過去のイベント発生時刻に基づいて18時以降に行わないものは、イベント候補に含めない。イベント候補の数を減らすことで、画像ごとのイベントらしさ(確率)Pを算出する処理の負担を抑えることができる。
(Modification 3)
Event candidates may be given according to the shooting time. In this case, for example, “new year party”, “year-end party”, “banquet” and the like are included in the event candidates when the shooting time is after 18:00. On the other hand, events not performed after 18:00 based on the past event occurrence time, such as “athletic meet”, “golf”, “excursion”, “diving”, are not included in the event candidates. By reducing the number of event candidates, it is possible to reduce the processing load for calculating the event likelihood (probability) P for each image.

(変形例4)
イベントらしさ(確率)Pが判定閾値Pthを超えた画像数に応じて、クラスタ(画像ファイルの集合)の標題イベントを決定してもよい。たとえば、イベント候補(「運動会」、「結婚式」、および「花見」)のうち、判定閾値Pthを超えた画像数が多い方に対応するイベント候補を当該クラスタの標題イベントとする。
(Modification 4)
The title event of a cluster (a set of image files) may be determined according to the number of images for which the event likelihood (probability) P exceeds the determination threshold value Pth. For example, among the event candidates (“athletic meet”, “wedding”, and “cherry blossom viewing”), the event candidate corresponding to the larger number of images exceeding the determination threshold Pth is set as the title event of the cluster.

(変形例5)
また、イベントらしさ(確率)Pが判定閾値Pthを超えた画像数が多いイベント候補を標題イベントと決定する決定方法と、最大Psumに対応するイベント候補を標題イベントと決定する決定方法とを組み合わせてもよい。この場合、いずれか一方の決定方法で優劣がつかなかった場合に、他方の決定方法を用いて判定を行う。たとえば、図9−図11の例では、イベント候補「運動会」および「花見」においてイベントらしさ(確率)Pが判定閾値Pthを超える画像数が同じであって優劣がつかない。そこで、最大Psumに対応するイベント候補「運動会」を当該クラスタの標題イベントとする。
(Modification 5)
Further, a combination of a determination method for determining an event candidate having a large number of images whose event likelihood (probability) P exceeds the determination threshold Pth as a title event and a determination method for determining an event candidate corresponding to the maximum Psum as a title event. Also good. In this case, when superiority or inferiority is not determined by any one of the determination methods, the determination is performed using the other determination method. For example, in the example of FIGS. 9 to 11, the event candidates “athletic meet” and “cherry-blossom viewing” have the same number of images whose event likelihood (probability) P exceeds the determination threshold value Pth and cannot be superior or inferior. Therefore, the event candidate “athletic meeting” corresponding to the maximum Psum is set as the title event of the cluster.

(変形例6)
近接するクラスタ間の時間差が判定閾値T以下か否かを判定する場合、各クラスタの重心に対応する時間差に基づいて判定してもよい。この場合のメインCPU11は、ステップS51(図6)において、一方のクラスタに属する画像群の平均撮影時刻と、他方のクラスタに属する画像群の平均撮影時刻との差が上記T以下の場合にステップS51を肯定判定してステップS52へ進む。
(Modification 6)
When determining whether or not the time difference between adjacent clusters is equal to or less than the determination threshold T, the determination may be made based on the time difference corresponding to the center of gravity of each cluster. In this case, the main CPU 11 performs a step when the difference between the average shooting time of the image group belonging to one cluster and the average shooting time of the image group belonging to the other cluster is equal to or less than T in step S51 (FIG. 6). Affirmative determination is made in S51 and the process proceeds to step S52.

(第二の実施形態)
クラスタリング処理(S10)の際、撮影日時情報に応じてでなく、撮影位置情報に応じて分けるようにしてもよい。具体的には、ステップS11(図3)において、メインCPU11が全ての画像ファイルを対象に、画像ファイルの付加情報部に記録されている撮影位置を示す測位情報を抽出する。そして、メインCPU11は、ステップS13(図3)において、1画像につき1クラスタを処理起点として、撮影位置が近いクラスタを逐次併合する処理を繰り返すことにより、画像ファイルを複数のクラスタ(撮影位置が近い画像ファイルの集合)に分ける。メインCPU11は、近接するクラスタ間において、撮影位置と撮影位置との間隔(距離)が所定距離(たとえば1Km)以上の場合にステップS14へ進む。
(Second embodiment)
In the clustering process (S10), the processing may be performed according to the shooting position information, not according to the shooting date / time information. Specifically, in step S11 (FIG. 3), the main CPU 11 extracts the positioning information indicating the shooting position recorded in the additional information part of the image file for all the image files. In step S13 (FIG. 3), the main CPU 11 repeats the process of sequentially merging clusters with close shooting positions from one cluster for each image as a processing start point, so that the image file is divided into a plurality of clusters (close to shooting positions). Image files). The main CPU 11 proceeds to step S14 when the interval (distance) between the shooting positions between adjacent clusters is equal to or greater than a predetermined distance (for example, 1 km).

第二の実施形態の場合のイベント候補テーブルは、撮影位置を含む地域ごとにイベント候補を対応させる。図14は、第二の実施形態において参照するイベント候補テーブルを例示する図である。たとえば関東地方の場合、東京都、神奈川県、千葉県、埼玉県、群馬県、茨城県、および栃木県ごとに複数のイベント候補を対応させる。イベント候補は、地域名、名所、公園、テーマパーク、ランドマークなどとする。メインCPU11は、イベント候補テーブルを参照することにより、クラスタを構成する画像ファイルの撮影位置情報が示す地域(都、県)に対応するイベントを選ぶ。たとえば、画像ファイルが千葉県で撮影されたものである場合には、「ディズニーリゾート」、「成田空港」、「マザー牧場(登録商標)」などをイベント候補とする。イベント候補テーブルは、地域ごとに発生頻度が高いイベントを記したものであり、過去のイベント発生地に基づいてあらかじめ作成し、フラッシュメモリ19内に記録しておく。また、各地域(本例では都、県)に対応させるイベント候補の数は、所定数(本例においては3つ)に制限しておく。   In the event candidate table in the case of the second embodiment, event candidates are associated with each region including the shooting position. FIG. 14 is a diagram illustrating an event candidate table referred to in the second embodiment. For example, in the Kanto region, a plurality of event candidates are associated with each of Tokyo, Kanagawa, Chiba, Saitama, Gunma, Ibaraki, and Tochigi. The event candidate is an area name, a famous place, a park, a theme park, a landmark, or the like. By referring to the event candidate table, the main CPU 11 selects an event corresponding to the region (city, prefecture) indicated by the shooting position information of the image files that constitute the cluster. For example, if the image file was taken in Chiba Prefecture, “Disney Resort”, “Narita Airport”, “Mother Farm (registered trademark)”, and the like are the event candidates. The event candidate table describes events with a high occurrence frequency for each region, and is created in advance based on past event occurrence locations and recorded in the flash memory 19. Further, the number of event candidates associated with each region (in this example, the capital or prefecture) is limited to a predetermined number (three in this example).

メインCPU11は、近接するクラスタ間の距離が判定閾値D以下か否かを判定する。具体的には、ステップS51(図6)において、一方のクラスタに属する画像群の撮影位置と、他方のクラスタに属する画像群の撮影位置との間の距離のうち最短のものが、上記D以下の場合にステップS51を肯定判定してステップS52へ進む。同じイベントに対しては、同じエリア内で続けて撮影することが多いので、当該クラスタ同士の標題イベントが同一である可能性が高い場合を検出できる。   The main CPU 11 determines whether or not the distance between adjacent clusters is equal to or less than the determination threshold D. Specifically, in step S51 (FIG. 6), the shortest distance between the shooting position of the image group belonging to one cluster and the shooting position of the image group belonging to the other cluster is equal to or less than D above. In this case, an affirmative decision is made in step S51 and the process proceeds to step S52. Since the same event is often continuously shot in the same area, it is possible to detect a case where there is a high possibility that the title events of the clusters are the same.

以上説明した第二の実施形態によれば、複数のクラスタのうち、近接するクラスタ間の距離差が判定閾値D以下であって、かつ当該クラスタ同士の標題イベントが同一の場合に両クラスタが1つに統合される。これにより、撮影位置のみでクラスタリングしたものより、必要以上に細かくクラスタリングされることを避けられ、画像を分類整理する時の意図に沿ったものになる。   According to the second embodiment described above, when the distance difference between adjacent clusters is equal to or less than the determination threshold D among the plurality of clusters and the title events of the clusters are the same, both clusters are 1 Integrated into one. As a result, it is possible to avoid clustering more finely than necessary than in the case of clustering only at shooting positions, and to conform to the intention when sorting and organizing images.

また、過去のイベント発生地に基づいてあらかじめ作成したイベント候補テーブルに基づいて複数のイベント候補を与えるようにしたので、適合率が高いイベント候補を与えることができる。   In addition, since a plurality of event candidates are given based on an event candidate table created in advance based on past event locations, event candidates with a high relevance rate can be given.

さらにまた、第一の実施形態と同様に、イベント候補テーブルにおいて各地域に対応させるイベント候補の数の上限を3つに制限したので、イベント候補の数の上限を制限しない場合に比べて、画像ごとのイベントらしさ(確率)Pを算出する処理の負担を抑えることができる。   Furthermore, as in the first embodiment, since the upper limit of the number of event candidates corresponding to each region is limited to three in the event candidate table, the image is compared with the case where the upper limit of the number of event candidates is not limited. The burden of the process of calculating the event likelihood (probability) P for each event can be suppressed.

(変形例7)
撮影日時情報や撮影位置情報に代えて、撮影条件に応じてイベント候補を与えるようにしてもよい。この場合には、撮影条件ごとにイベント候補を対応させたイベント候補テーブルを備える。たとえば、付加情報データに格納しておいた撮影条件(シャッター速度、絞り、フォーカス調節情報、フラッシュ発光の有無、色温度調整係数など)を用い、シャッター速度が所定値より高速の場合のイベント候補に、「カーレース」、「オートレース」、および「スポーツ競技会」などを含める。また、フラッシュ発光の有の場合のイベント候補には、「結婚式」、「クリスマス」、「宴会」などを含める。一方、「スキー」、「花見」、「遠足」、「海水浴」など、過去のイベント発生時の撮影においてフラッシュ発光させないものは、イベント候補に含めない。イベント候補の数を減らすことで、画像ごとのイベントらしさ(確率)Pを算出する処理の負担を抑えることができる。
(Modification 7)
Instead of shooting date / time information and shooting position information, event candidates may be given according to shooting conditions. In this case, an event candidate table in which event candidates are associated with each shooting condition is provided. For example, using the shooting conditions (shutter speed, aperture, focus adjustment information, presence / absence of flash emission, color temperature adjustment coefficient, etc.) stored in the additional information data, select the event candidate when the shutter speed is higher than a predetermined value. , "Car racing", "auto racing", and "sports competition". In addition, “wedding”, “Christmas”, “banquet”, etc. are included in the event candidates in the case of flash emission. On the other hand, items that do not cause flash emission in the past shootings such as “skiing”, “cherry blossom viewing”, “excursion”, “sea bathing” are not included in the event candidates. By reducing the number of event candidates, it is possible to reduce the processing load for calculating the event likelihood (probability) P for each image.

(変形例8)
画像における特定被写体の有無に応じてイベント候補を与えるようにしてもよい。たとえば、画像データに基づいて顔検出処理を行い、画像に人物の「顔」が含まれている場合には、「新年会」、「卒業式」、「入学式」、「忘年会」などをイベント候補に含める。一方、「紅葉狩」、「ダイビング」など、過去のイベント発生時の撮影画像に「顔」が含まれないものは、イベント候補に含めない。イベント候補の数を減らすことで、画像ごとのイベントらしさ(確率)Pを算出する処理の負担を抑えることができる。
(Modification 8)
Event candidates may be given according to the presence or absence of a specific subject in the image. For example, if face detection processing is performed based on image data and the face of a person is included in the image, events such as “New Year Party”, “Graduation Ceremony”, “Entrance Ceremony”, “Year-end Party”, etc. Include in the candidate. On the other hand, items that do not include “face” in the captured image at the time of the past event occurrence, such as “autumn leaves hunting” and “diving”, are not included in the event candidates. By reducing the number of event candidates, it is possible to reduce the processing load for calculating the event likelihood (probability) P for each image.

(変形例9)
さらに、特定人物の「顔」を識別するように構成した上で、画像に家族など特定人物の「顔」が含まれていれば、イベント候補に「初詣」、「七五三」、「ひな祭り」などを含めるとよい。この場合、家族が参加しない催事についてはイベント候補に含めない。イベント候補の数を減らすことで、画像ごとのイベントらしさ(確率)Pを算出する処理の負担を抑えることができる。なお、画像に含まれている人物の「顔」を識別する顔識別処理は、公知の技術であるため説明を省略する。
(Modification 9)
Furthermore, if it is configured to identify the “face” of a specific person, and the image includes a “face” of a specific person such as a family, the event candidates are “Hatsugome”, “Shichigosan”, “Hinamatsuri”, etc. Should be included. In this case, events that are not attended by the family are not included in the event candidates. By reducing the number of event candidates, it is possible to reduce the processing load for calculating the event likelihood (probability) P for each image. Note that the face identification process for identifying the “face” of a person included in the image is a known technique, and thus the description thereof is omitted.

(変形例10)
さらにまた、人物の「顔」が大人の「顔」と子供の「顔」かを判定したり、男の「顔」か女の「顔」かを判定するように構成した上で、それぞれに合致するイベント候補を含めたり、あるいは合致しないイベント候補を除外したりするようにしてもよい。イベント候補の数を減らすことで、画像ごとのイベントらしさ(確率)Pを算出する処理の負担を抑えることができる。
(Modification 10)
Furthermore, it is configured to determine whether a person's “face” is an adult “face” and a child “face”, or to determine whether a person is a “face” or a woman “face”. Matching event candidates may be included, or event candidates that do not match may be excluded. By reducing the number of event candidates, it is possible to reduce the processing load for calculating the event likelihood (probability) P for each image.

(変形例11)
なお、以上説明した撮影日時情報、撮影位置情報、撮影条件、および特定被写体の有無に応じたイベント候補の付与について、少なくとも2つを組み合わせることにより、多次元のイベント候補テーブルを備えるように構成してもよい。
(Modification 11)
The above-described shooting date / time information, shooting position information, shooting conditions, and event candidate assignment according to the presence / absence of a specific subject are combined to provide a multidimensional event candidate table by combining at least two. May be.

(変形例12)
電子カメラ1内で画像をグルーピングし、その標題を付与する例を説明したが、図2−図7による処理を行う標題付与プログラムを図13に示すコンピュータ装置10に実行させることにより、画像の標題付与装置を構成してもよい。標題付与プログラムをパーソナルコンピュータ10に取込んで使用する場合には、パーソナルコンピュータ10のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像群の標題付与装置として使用する。
(Modification 12)
The example in which images are grouped in the electronic camera 1 and the titles are given has been described. However, by causing the computer device 10 shown in FIG. 13 to execute the title assignment program for performing the processing shown in FIGS. You may comprise a provision apparatus. When the title assigning program is used by being loaded into the personal computer 10, the program is loaded on the data storage device of the personal computer 10 and then executed as a title assigning device for the image group.

パーソナルコンピュータ10に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体104をパーソナルコンピュータ10にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ10へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバー(コンピュータ)102のハードディスク装置103などにプログラムを格納しておく。標題付与プログラムは、記録媒体104や通信回線101を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 10 may be performed by setting the recording medium 104 such as a CD-ROM storing the program in the personal computer 10 or by a method via the communication line 101 such as a network. You may load. When passing through the communication line 101, the program is stored in the hard disk device 103 of the server (computer) 102 connected to the communication line 101. The title assignment program can be supplied as various types of computer program products such as provision via the recording medium 104 or the communication line 101.

また、ASP(Application Service Provider)のような形態でサーバー側で実行させるようにしてもよい。   Further, it may be executed on the server side in a form such as ASP (Application Service Provider).

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の第一の実施形態による電子カメラ1の要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the electronic camera 1 by 1st embodiment of this invention. メインCPUが実行するグルーピング処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the grouping process which main CPU performs. クラスタリング処理を説明するフローチャートである。It is a flowchart explaining a clustering process. 画像ごとのイベント判定処理を説明するフローチャートである。It is a flowchart explaining the event determination process for every image. クラスタごとのイベント判定処理を説明するフローチャートである。It is a flowchart explaining the event determination process for every cluster. クラスタの統合処理を説明するフローチャートである。It is a flowchart explaining cluster integration processing. 代表画像を決める処理を説明するフローチャートである。It is a flowchart explaining the process which determines a representative image. イベント候補テーブルを例示する図である。It is a figure which illustrates an event candidate table. クラスタに対するイベント判定(運動会)を例示する図である。It is a figure which illustrates the event determination (athletic meet) with respect to a cluster. クラスタに対するイベント判定(結婚式)を例示する図である。It is a figure which illustrates the event determination (wedding) with respect to a cluster. クラスタに対するイベント判定(花見)を例示する図である。It is a figure which illustrates the event determination (cherry-blossom viewing) with respect to a cluster. 選択基準情報テーブルを例示する図である。It is a figure which illustrates a selection criteria information table. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus. 第二の実施形態によるイベント候補テーブルを例示する図である。It is a figure which illustrates the event candidate table by 2nd embodiment.

符号の説明Explanation of symbols

1…電子カメラ
11…メインCPU
14…バッファメモリ
15…表示画像作成回路
16…液晶モニタ
17…操作部材
18…GPS装置
19…フラッシュメモリ
30…記録媒体
1 ... Electronic camera 11 ... Main CPU
DESCRIPTION OF SYMBOLS 14 ... Buffer memory 15 ... Display image creation circuit 16 ... Liquid crystal monitor 17 ... Operation member 18 ... GPS apparatus 19 ... Flash memory 30 ... Recording medium

Claims (7)

画像に対して所定数の標題候補を与える標題候補付与手段と、
前記所定数の標題候補のそれぞれに対応させて前記画像の特徴量を算出する特徴量算出手段と、
前記標題候補ごとに算出された前記画像の特徴量に基づいて、前記標題候補の中から前記画像の標題を決定する標題決定手段とを備えることを特徴とする画像の標題付与装置。
Title candidate giving means for giving a predetermined number of title candidates to an image;
Feature amount calculating means for calculating the feature amount of the image corresponding to each of the predetermined number of title candidates;
An image title assigning device comprising: title determining means for determining the title of the image from the title candidates based on the feature amount of the image calculated for each of the title candidates.
請求項1に記載する画像の標題付与装置において、
前記標題候補付与手段は、撮影日時情報に応じて標題候補を所定数選ぶことを特徴とする画像の標題付与装置。
In the title provision apparatus of the image described in Claim 1,
The title candidate assigning unit selects a predetermined number of title candidates according to shooting date and time information.
請求項1または2に記載する画像の標題付与装置において、
前記標題候補付与手段は、撮影位置情報に応じて標題候補を所定数選ぶことを特徴とする画像の標題付与装置。
In the title provision apparatus of the image described in Claim 1 or 2,
The title candidate assigning device, wherein the title candidate assigning means selects a predetermined number of title candidates according to the photographing position information.
請求項1〜3のいずれか一項に記載する画像の標題付与装置において、
前記画像のデータに基づいて当該画像における人物の顔を検出する顔検出手段をさらに備え、
前記標題候補付与手段は、前記顔検出手段による顔の検出の有無に応じて標題候補を所定数選ぶことを特徴とする画像の標題付与装置。
In the title provision apparatus of the image as described in any one of Claims 1-3,
Further comprising face detection means for detecting a human face in the image based on the image data;
The title candidate assigning device selects a predetermined number of title candidates in accordance with the presence or absence of face detection by the face detection means.
請求項4に記載する画像の標題付与装置において、
前記人物の顔を識別する顔識別手段をさらに備え、
前記標題候補付与手段は、前記顔識別手段による顔の識別結果に応じて標題候補を所定数選ぶことを特徴とする画像の標題付与装置。
In the title provision apparatus of the image described in Claim 4,
Further comprising face identifying means for identifying the face of the person,
The title candidate assigning unit selects a predetermined number of title candidates according to the face identification result by the face identifying unit.
請求項1〜5のいずれか一項に記載する画像の標題付与装置において、
前記標題候補付与手段は、複数の画像を有する画像群に対して所定数の標題候補を与え、
前記特徴量算出手段は、前記所定数の標題候補のそれぞれに対応させて前記画像群に含まれる複数の画像の特徴量を個々に算出し、
前記標題決定手段は、前記標題候補ごとに算出された前記画像の特徴量に基づいて、前記標題候補の中から前記画像群を代表する標題を決定することを特徴とする画像の標題付与装置。
In the title provision apparatus of the image as described in any one of Claims 1-5,
The title candidate giving means gives a predetermined number of title candidates to an image group having a plurality of images,
The feature amount calculating means individually calculates feature amounts of a plurality of images included in the image group in correspondence with each of the predetermined number of title candidates;
The title determining device determines the title representing the image group from the title candidates based on the feature amount of the image calculated for each of the title candidates.
請求項1〜請求項6のいずれか一項に記載する画像の標題付与装置を備えることを特徴とするカメラ。   A camera comprising the image title assigning device according to any one of claims 1 to 6.
JP2008113709A 2008-01-18 2008-04-24 Title assigning device for image and camera Pending JP2009267683A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008113709A JP2009267683A (en) 2008-04-24 2008-04-24 Title assigning device for image and camera
US12/811,760 US20100278396A1 (en) 2008-01-18 2008-12-02 Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
PCT/JP2008/071867 WO2009090804A1 (en) 2008-01-18 2008-12-02 Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera and image display program
US14/663,335 US20150193659A1 (en) 2008-01-18 2015-03-19 Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
US15/074,316 US10474931B2 (en) 2008-01-18 2016-03-18 Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008113709A JP2009267683A (en) 2008-04-24 2008-04-24 Title assigning device for image and camera

Publications (1)

Publication Number Publication Date
JP2009267683A true JP2009267683A (en) 2009-11-12

Family

ID=41392991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008113709A Pending JP2009267683A (en) 2008-01-18 2008-04-24 Title assigning device for image and camera

Country Status (1)

Country Link
JP (1) JP2009267683A (en)

Similar Documents

Publication Publication Date Title
US10474931B2 (en) Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
JP4973585B2 (en) Image grouping device and camera
US10289698B2 (en) System, apparatus, method, program and recording medium for processing image
US8786753B2 (en) Apparatus, method and program for selecting images for a slideshow from among a large number of captured images
US20160179846A1 (en) Method, system, and computer readable medium for grouping and providing collected image content
US8704913B2 (en) Image recording apparatus, image recording method, and storage medium storing program, for use in recording shot images
US20120301032A1 (en) Image classification apparatus, image classification method, program, recording medium, integrated circuit, and model creation apparatus
EP2297940B1 (en) Method to control image processing apparatus, image processing apparatus, and image file
US8068678B2 (en) Electronic apparatus and image processing method
WO2013005266A1 (en) Presentation content generation device, presentation content generation method, presentation content generation program and integrated circuit
JP2005269604A (en) Imaging device, imaging method, and imaging program
JP2006236218A (en) Electronic album display system, electronic album display method, and electronic album display program
JP2010283802A (en) Image processing apparatus, and method of managing images
JP2010259064A (en) Display and image pickup device
JP2014013574A (en) Image classification program, image classification device and electronic camera
JP2011044064A (en) Image processing device and image processing program
CN103403765B (en) Content processing unit (plant) and integrated circuit, method
JP2007266902A (en) Camera
JP5381498B2 (en) Image processing apparatus, image processing program, and image processing method
JP2005267607A (en) Digital picture book system, picture book search method, and picture book search program
JP2005267608A (en) Digital picture book system, picture book search method, and picture book search program
JP5157618B2 (en) Image group title assigning device and camera
JP2009267682A (en) Representative image determination device and camera
JP2009267683A (en) Title assigning device for image and camera
JP2009294902A (en) Image processor and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121030