JP2009232022A - Image searching apparatus and method, image reproducer and reproduction method, image searching program, and image reproduction program - Google Patents

Image searching apparatus and method, image reproducer and reproduction method, image searching program, and image reproduction program Download PDF

Info

Publication number
JP2009232022A
JP2009232022A JP2008073106A JP2008073106A JP2009232022A JP 2009232022 A JP2009232022 A JP 2009232022A JP 2008073106 A JP2008073106 A JP 2008073106A JP 2008073106 A JP2008073106 A JP 2008073106A JP 2009232022 A JP2009232022 A JP 2009232022A
Authority
JP
Japan
Prior art keywords
image
images
unit
event
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008073106A
Other languages
Japanese (ja)
Other versions
JP2009232022A5 (en
Inventor
Osamu Nonaka
修 野中
Shogo Shimamura
正吾 嶋村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008073106A priority Critical patent/JP2009232022A/en
Publication of JP2009232022A publication Critical patent/JP2009232022A/en
Publication of JP2009232022A5 publication Critical patent/JP2009232022A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide image searching device and method which can search an image including many figures efficiently from an image group, image reproducer and reproduction method for reproducing an image searched by the image searching device and method, and an image searching program and an image reproduction program being run on a computer. <P>SOLUTION: An image searching device includes a section 22 for specifying an individual by detecting the face image of a figure included in each of a plurality of images from the plurality of images, and a section 25 for searching an image from the plurality of images such that the number of images is minimized while including all figures included in the plurality of images based on the specification results of an individual from the section 22 for specifying an individual. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像検索装置、画像検索方法、画像再生装置および画像再生方法に関し、詳しくは、複数の撮影画像の中から一つまたは複数の代表的な画像を検索する画像検索装置、画像検索方法、これを再生するようにした画像再生装置、画像再生方法、およびコンピュータに実行させるための画像検索用プログラム、画像再生用プログラムに関する。   The present invention relates to an image search device, an image search method, an image playback device, and an image playback method, and more particularly, to an image search device and an image search method for searching for one or more representative images from a plurality of captured images. The present invention relates to an image playback apparatus, an image playback method, an image search program to be executed by a computer, and an image playback program.

近年、デジタルカメラの技術革新によって、記録メディアの大容量化が進んできている。また、フィルム時代のカメラと比較し、格段に連写機能も向上しており、カメラユーザーは、気楽に撮影を楽しむことができ、大量の画像を得るようになってきている。   In recent years, the capacity of recording media has been increasing due to technological innovation of digital cameras. Compared to cameras in the film era, the continuous shooting function is also greatly improved, so that camera users can enjoy taking pictures easily and obtain a large amount of images.

ところで、イベントや旅行などで撮影した画像を参加者が同時に鑑賞する機会があるが、このような場合にはなるべく多くの人物が写っている画像を鑑賞するほうが楽しいものである。しかし、なるべく多数の人物が写っている画像を、大量の画像の中から無秩序に探して鑑賞するのでは、時間がかかってしまい、楽しい雰囲気をしらけてしまうおそれがある。また、イベントや旅行のあとで、どのような人物が参加していたなど懐かしむことがある。そのような場合も、多数の画像を無秩序に探すのでは時間がかかってしまう。   By the way, there are opportunities for participants to view images taken at an event or a trip at the same time. In such a case, it is more enjoyable to view images containing as many people as possible. However, if an image containing as many people as possible is searched for and viewed in a random manner from a large number of images, it takes time, and there is a risk that a pleasant atmosphere will be created. Also, after an event or a trip, I sometimes miss a person who was participating. Even in such a case, it takes time to search a large number of images randomly.

複数の画像対象の検索として、特許文献1には、複数の画像の中から所望の対象物が写っている画像を表示させる画像表示方法が提案されている。すなわち、特許文献1に記載の画像表示方法は、画像毎にその画像に写っている人物などの対象物の種類と数をタグ情報として記録しておき、検索時には対象物の種類と数を入力することにより、所望の画像をすばやく検索できるようにしている。
特開2006−261914号公報
As a search for a plurality of image objects, Patent Document 1 proposes an image display method for displaying an image showing a desired object from among a plurality of images. That is, in the image display method described in Patent Document 1, the type and number of objects such as a person shown in the image are recorded as tag information for each image, and the type and number of objects are input at the time of search. By doing so, a desired image can be quickly searched.
JP 2006-261914 A

特許文献1に開示の画像表示方法では、検索の条件として対象物の数を入力する必要があり、なるべく多くの人物が写っている画像を探しだすことは困難である。すなわち、過去に撮影した画像においては、人物の数を正確に記憶していないことが多く、なるべく多くの人物が写っている画像を探しだそうとすると、試行錯誤で人物の数を入力するしかなく、検索に時間がかかってしまう。   In the image display method disclosed in Patent Document 1, it is necessary to input the number of objects as a search condition, and it is difficult to find an image in which as many people as possible are captured. In other words, in the images taken in the past, the number of people is often not stored accurately. It takes a long time to search.

本発明は、このような事情を鑑みてなされたものであり、複数の画像の中から、多くの人物を含む画像を効率よく検索できる画像検索装置、画像検索方法、この画像検索装置、画像検索方法によって検索された画像を再生する画像再生装置、画像再生方法、およびコンピュータに実行させるための画像検索用プログラム、画像再生用プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an image search apparatus, an image search method, an image search apparatus, and an image search capable of efficiently searching an image including a large number of persons from a plurality of images. It is an object of the present invention to provide an image reproduction apparatus that reproduces an image searched by a method, an image reproduction method, an image search program to be executed by a computer, and an image reproduction program.

上記目的を達成するため第1の発明に係わる画像検索装置は、複数の画像の中から、この複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定する個人特定部と、上記個人特定部による個人の特定結果に基づいて、上記複数の画像に含まれるすべての人物を含み、且つ画像数が最小となるように上記複数の画像の中から画像を検索する画像検索部と、を備える。   In order to achieve the above object, an image search apparatus according to a first aspect of the present invention is a personal identification unit that detects a face image of a person included in each of a plurality of images and identifies a person from the plurality of images. And an image search for searching for an image from the plurality of images so as to include all persons included in the plurality of images and to minimize the number of images based on a result of personal identification by the individual identification unit. A section.

第2の発明に係わる画像検索表示装置は、上記第1の発明において、上記画像検索装置は、画像の種類に応じて画像を分類する画像分類部をさらに備え、上記複数の画像は上記画像分類部で分類したいずれかの画像群に属する。   An image search and display device according to a second invention is the image search and display device according to the first invention, wherein the image search device further includes an image classification unit for classifying images according to the type of image, and the plurality of images are the image classification Belongs to one of the image groups classified by division.

第3の発明に係わる画像検索方法は、複数の画像の中から、上記複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定するステップと、上記個人の特定結果に基づいて、上記複数の画像に含まれるすべての人物を含み、且つ画像数が最小となるように上記複数の画像の中から画像を検索するステップと、を備える。   According to a third aspect of the present invention, there is provided an image search method for detecting a face image of a person included in each of the plurality of images from among a plurality of images, identifying the individual, And searching for images from the plurality of images so as to include all persons included in the plurality of images and to minimize the number of images.

第4の発明に係わる画像再生装置は、上記第2の発明における画像検索装置により検索した画像を再生する画像再生装置であって、上記画像の種類を表す情報を表示する表示部と、この表示部に表示した上記画像の種類を表す情報の中から所望の情報を選択する選択部と、この選択部を選択する操作に応答して上記画像検索部で検索した画像を表示する画像表示部と、を備える。   An image reproduction apparatus according to a fourth invention is an image reproduction apparatus for reproducing an image searched by the image search apparatus according to the second invention, a display unit for displaying information representing the type of the image, and the display A selection unit that selects desired information from information representing the type of image displayed on the unit, and an image display unit that displays the image searched by the image search unit in response to an operation of selecting the selection unit. .

第5の発明に係わる画像再生方法は、上記第2の発明における画像検索装置により検索した画像を再生する画像再生方法であって、上記画像の種類を表す情報を表示するステップと、上記画像の種類を表す情報の中から所望の情報を選択するステップと、この所望の情報を選択する操作に応答して上記検索した画像を表示するステップと、を備える。   An image reproduction method according to a fifth invention is an image reproduction method for reproducing an image searched for by the image search device according to the second invention, the step of displaying information representing the type of the image, A step of selecting desired information from the information indicating the type, and a step of displaying the searched image in response to an operation of selecting the desired information.

第6の発明に係わる画像検索用プログラムは、複数の画像の中から、この複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定するステップと、上記個人の特定結果に基づいて、上記複数の画像に含まれるすべての人物を含み、且つ画像数が最小となるように上記複数の画像の中から画像を検索するステップと、をコンピュータに実行させる。   An image search program according to a sixth aspect of the present invention includes a step of detecting a face image of a person included in each of a plurality of images and specifying an individual out of the plurality of images, and the result of specifying the individual Based on the above, the computer is caused to search for an image from the plurality of images so as to include all persons included in the plurality of images and to minimize the number of images.

第7の発明に係わる画像再生用プログラムは、複数の画像の中から、この複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定するステップと、上記個人の特定結果に基づいて、上記複数の画像に含まれるすべての人物を含み、且つ画像数が最小となるように上記複数の画像の中から画像を検索するステップと、上記検索した画像を表示するステップと、をコンピュータに実行させる。
第8の発明に係わる画像再生用プログラムは、上記第7の発明において、上記画像を検索するにあたって、上記複数の画像を分類し、この分類に属する画像についてのみ検索を行う。
According to a seventh aspect of the invention, there is provided a program for reproducing an image, the step of detecting a face image of a person included in each of the plurality of images from a plurality of images and specifying an individual, and the result of specifying the individual A step of searching for an image from the plurality of images so as to include all persons included in the plurality of images and minimizing the number of images, and a step of displaying the searched images; Is executed on the computer.
According to an eighth aspect of the invention, in the seventh aspect of the invention, when searching for the image, the image reproduction program classifies the plurality of images and searches only for images belonging to the classification.

第9の発明に係わる画像検索用プログラムは、複数の画像の中から、この複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定する個人特定ステップと、上記個人特定ステップによる個人の特定結果に基づいて、上記複数の画像に含まれる画像のうち、最も多くの人物が含まれる第1の画像を抽出するステップと、上記第1の画像に含まれない人物が最も多く含まれる第2の画像を抽出するステップと、をコンピュータに実行させる。   An image retrieval program according to a ninth aspect of the present invention is a personal identification step of identifying a person by detecting a face image of a person included in each of the plurality of images, and the personal identification Based on the individual identification result of the step, the step of extracting the first image including the most persons among the images included in the plurality of images and the person not included in the first image are the most. And causing the computer to execute a step of extracting a second image that is included in a large amount.

本発明によれば、複数の画像の中から、多くの人物を含む画像を効率よく検索できる画像検索装置、画像検索方法、この画像検索装置、画像検索方法によって検索された画像を再生する画像再生装置、画像再生方法、およびコンピュータに実行させるための画像検索用プログラム、画像再生用プログラムを提供することができる。   According to the present invention, an image search apparatus, an image search method, an image search apparatus, and an image playback that reproduces an image searched by the image search method can efficiently search for an image including a large number of people from a plurality of images. An apparatus, an image reproduction method, an image search program to be executed by a computer, and an image reproduction program can be provided.

以下、図面に従って本発明を適用したカメラを用いて好ましい実施形態について説明する。本実施形態におけるカメラは、撮影した画像について、登場人物の数、画像のシーンやイベントの種類を記録しておき、シーンやイベントの種類によって決まる画像群の中で、登場人物が最も多くなるような一つまたは複数の画像を検索し、再生を行う。   Hereinafter, a preferred embodiment will be described using a camera to which the present invention is applied according to the drawings. The camera according to the present embodiment records the number of characters, the scene of the image, and the type of event in the captured image so that the number of characters is the largest in the image group determined by the type of scene or event. Search for one or more images and play them.

図1は本発明の一実施形態に係わるカメラの構成を示すブロック図である。このカメラはデジタルカメラであり、このカメラは、撮像部11、光学系制御部12、時計部13、記録部14、出力部15、顔検出部16、制御部20を有し、これらの各部はデータバス10に接続されている。   FIG. 1 is a block diagram showing the configuration of a camera according to an embodiment of the present invention. This camera is a digital camera, and this camera has an imaging unit 11, an optical system control unit 12, a clock unit 13, a recording unit 14, an output unit 15, a face detection unit 16, and a control unit 20. It is connected to the data bus 10.

撮像部11は、被写体像を結像するための光学系、および被写体像を光電変換する撮像素子等を含み、画像データを出力する。光学系制御部12は、撮像部11内の光学系のピント合わせ等の制御を行う。時計部13は計時機能やカレンダ機能を有し、撮影時の日時情報の取得等に用いる。   The imaging unit 11 includes an optical system for forming a subject image, an imaging element that photoelectrically converts the subject image, and the like, and outputs image data. The optical system control unit 12 performs control such as focusing of the optical system in the imaging unit 11. The clock unit 13 has a timekeeping function and a calendar function, and is used to acquire date and time information at the time of shooting.

記録部14は、撮像部11から出力され圧縮処理された画像データを撮影画像として記録する。また、時計部13で得られた日時情報は、撮影画像を記録部14に記録する際に、撮影画像と一緒にファイル化して記録される。さらに、後述する顔検出部16、シーン分類部22、個人特定部24、およびイベント分類部25における判定結果は、画像に関する情報ファイルとして、記録部14に記録される。情報ファイルは、テーブル化されており、(1)各画像に誰が写っているか、また何人写っているか、(2)イベント毎のまとまりの画像群の情報、(3)イベントのシーン種類等の情報が記録されている。詳しくは図3を用いて後述する。   The recording unit 14 records the compressed image data output from the imaging unit 11 as a captured image. The date and time information obtained by the clock unit 13 is recorded as a file together with the photographed image when the photographed image is recorded in the recording unit 14. Furthermore, the determination results in the face detection unit 16, the scene classification unit 22, the individual identification unit 24, and the event classification unit 25, which will be described later, are recorded in the recording unit 14 as information files related to images. The information file is tabulated, and (1) who is reflected in each image and how many people are captured, (2) information on a group of images for each event, and (3) information such as the scene type of the event Is recorded. Details will be described later with reference to FIG.

出力部15は、プリンタ、テレビ、パソコン等の外部機器に画像データ等に出力を行う。後述する画像検索部23によって検索された画像もここから出力される。顔検出部5は、撮影待機状態において、撮像部11から出力されるスルー画(ライブビューともいう)用の画像データに、顔パターン判定を行って、顔の部分の検出を行う。また、撮影後には、撮影画像と共に、顔検出部16によって検出された顔検出情報(検出人数)を前述の情報ファイルに記録する。   The output unit 15 outputs image data or the like to an external device such as a printer, a television, or a personal computer. An image searched by an image search unit 23 described later is also output from here. In the shooting standby state, the face detection unit 5 performs face pattern determination on image data for a through image (also referred to as a live view) output from the imaging unit 11 to detect a face part. Further, after photographing, the face detection information (number of detected persons) detected by the face detection unit 16 is recorded together with the photographed image in the information file.

制御部20は、このカメラの全体制御を行い、画像処理部21、個人特定部22、シーン分類部23、イベント分類部24、および画像検索部25を有し、画像処理部21を除けば、ソフトウエアによって実行される。画像処理部21は、撮像部11から出力されるデジタル画像データの画像処理や圧縮処理を行う。ここで圧縮処理された画像データは記録部14において記録される。   The control unit 20 performs overall control of the camera, and includes an image processing unit 21, an individual identification unit 22, a scene classification unit 23, an event classification unit 24, and an image search unit 25, except for the image processing unit 21. Performed by software. The image processing unit 21 performs image processing and compression processing of digital image data output from the imaging unit 11. The image data compressed here is recorded in the recording unit 14.

個人特定部22は、顔検出部16によって検出された顔検出情報を基に、画像内の全員の顔の特徴量を計測し、個人を特定する。ここで、特定された情報を基に画像内の人数と誰であるかの情報は記録部14に情報ファイルの内の情報として記録される。なお、この個人特定部22による特定動作は、カメラのパワーオフ時に実行される。   Based on the face detection information detected by the face detection unit 16, the individual specifying unit 22 measures the feature amount of all the faces in the image and specifies the individual. Here, information about the number of people and who are in the image based on the specified information is recorded in the recording unit 14 as information in the information file. The specifying operation by the individual specifying unit 22 is executed when the camera is powered off.

イベント分類部24は、画像がどのイベントに属するかを決定する。このイベント分類動作は、パワーオフ時に、1回の起動中に撮影された画像群を既存イベントに追加するか、新規イベントに設定するかを判定する。記録部14には、このイベント単位で複数の画像の共通情報を情報ファイルに記録する。   The event classification unit 24 determines which event the image belongs to. This event classification operation determines whether an image group captured during one activation is added to an existing event or set as a new event at power-off. The recording unit 14 records common information of a plurality of images in the information file for each event.

シーン分類部23は、イベント分類部24によって分類されたイベント単位で、複数の画像について、顔検出の割合、撮影日時の偏り、光源を検出し、この結果に基づいて、スナップ、旅行、屋内イベント、屋外イベントの種類にシーンを分類し、この分類情報を記録部14の情報ファイルに記録する。   The scene classification unit 23 detects the ratio of face detection, the deviation of the shooting date and time, and the light source for a plurality of images in units of events classified by the event classification unit 24, and based on the result, snap, trip, indoor event The scenes are classified into outdoor event types, and the classification information is recorded in the information file of the recording unit 14.

画像検索部25は、記録部14に記録されている情報ファイルを基にし、イベント単位で複数の画像の中から、全員が登場し、しかも画像の枚数が最小となるように画像の検索を行う。   The image search unit 25 searches for an image based on the information file recorded in the recording unit 14 so that all members appear from a plurality of images in units of events and the number of images is minimized. .

操作部32は、レリーズ釦、撮影モードや再生モードの設定部材、表示部におけるカーソルの操作部材やその決定操作部材等、カメラの各種操作部材であり、ユーザーによって操作される。操作判定部31は、ユーザーによる操作部32の操作状態を判定し、この判定結果を制御部20に出力する。制御部20はこの操作状態に応じて、カメラの制御を行う。   The operation unit 32 is various operation members of the camera, such as a release button, a shooting mode or playback mode setting member, a cursor operation member or its determination operation member in the display unit, and is operated by a user. The operation determination unit 31 determines the operation state of the operation unit 32 by the user and outputs the determination result to the control unit 20. The control unit 20 controls the camera according to the operation state.

表示部34は、カメラの背面等に配置された液晶モニタ等の表示装置で構成され、制御部20からの指示を受け、記録部14に記録されている画像データの再生表示を行い、また光学式ファインダの代わりに、被写体像の観察用のスルー画(ライブビュー)表示も行う。また、記録部14に記録されている情報ファイルに記録された情報に基づいて、再生時には、イベント毎(イベント番号、撮影日時、シーン種類)に画像の表示を行う。表示部34の表示制御を行うのが、表示制御部33である。   The display unit 34 is composed of a display device such as a liquid crystal monitor disposed on the back surface of the camera, etc., receives an instruction from the control unit 20, performs reproduction display of the image data recorded in the recording unit 14, and optical Instead of the type finder, it also displays a through image (live view) for observing the subject image. In addition, based on the information recorded in the information file recorded in the recording unit 14, during playback, an image is displayed for each event (event number, shooting date and time, scene type). The display control unit 33 performs display control of the display unit 34.

このように構成されたカメラにおける動作を図2に示すフローチャートを用いて説明する。パワースイッチがオンとなり、このフローに入ると、まず、撮影者が撮影モードに設定したか、それとも再生モードに設定したかの判定を行う(S1)。判定の結果、撮影モードに設定していた場合には、顔検出部16によって顔検出を行う(S3)。顔検出は、撮像部11によって取得したスルー画用の被写体の画像データを用いて行う。   The operation of the thus configured camera will be described with reference to the flowchart shown in FIG. When the power switch is turned on and this flow is entered, it is first determined whether the photographer has set the shooting mode or the playback mode (S1). If the result of determination is that shooting mode has been set, face detection is performed by the face detector 16 (S3). Face detection is performed using image data of a subject for a through image acquired by the imaging unit 11.

次に、レリーズ釦が操作され、撮影を行うか否かの判定を行う(S5)。ステップS5における判定の結果、撮影動作を行わない場合には、ステップS1に戻り、前述の動作を行う。本実施形態においては、撮影モードが選択され、撮影動作を実行しない場合には、撮像部11によって取得した被写体像を用いて、顔検出を繰り返し、実行している。   Next, the release button is operated, and it is determined whether or not to shoot (S5). If the result of determination in step S5 is that no shooting operation is to be carried out, processing returns to step S1 and the aforementioned operation is performed. In the present embodiment, when the shooting mode is selected and the shooting operation is not performed, the face detection is repeatedly performed using the subject image acquired by the imaging unit 11.

ステップS5における判定の結果、レリーズ釦が操作された場合には、撮影動作を実行する(S7)。このステップにおいて、撮像部11によって撮像を行い、静止画の画像データを取得する。撮影画像の画像データを取得すると、次に、撮影の直前にステップS3において、顔検出部16によって検出された、画像に含まれる顔の数等の顔検出情報をテーブル化し(S9)、記録部14は、撮影した撮影画像と顔検出情報を含む情報ファイルを記録する(S11)。また、撮影画像と共に、時計部13から出力された撮影日時情報や、ホワイトバランスや補助光源の使用状態等、種々の撮影情報も記録部14に記録される。   If the result of determination in step S5 is that the release button has been operated, a shooting operation is executed (S7). In this step, imaging is performed by the imaging unit 11 and image data of a still image is acquired. When the image data of the captured image is acquired, the face detection information such as the number of faces included in the image detected by the face detection unit 16 in step S3 immediately before shooting is tabulated (S9), and the recording unit 14 records an information file including the captured image and face detection information (S11). In addition to the photographed image, various photographing information such as photographing date and time information output from the clock unit 13, white balance and use state of the auxiliary light source are also recorded in the recording unit 14.

記録が終わると、パワーオフか否かの判定を行う(S13)。ユーザーによってパワーオフ操作されると、カメラの主電源はオフとなり、パワースイッチ以外の操作部材の操作ではカメラは動作しなくなる。ただし、このパワーオフ時も制御部20内の個人特定部22等は動作可能である。ステップS13における判定の結果、パワーオフでなかった場合には、ステップS1に戻る。   When the recording is finished, it is determined whether or not the power is off (S13). When the user performs a power-off operation, the main power supply of the camera is turned off, and the camera does not operate when an operation member other than the power switch is operated. However, the personal identification unit 22 and the like in the control unit 20 can operate even when the power is turned off. If the result of determination in step S13 is not power off, processing returns to step S1.

一方、ステップS13における判定の結果、パワーオフの場合には、個人特定を行う(S15)。このステップでは、記録部14によって記録された撮影画像に撮像されている人物について、個人特定部22は個人特定を行う。   On the other hand, if the result of determination in step S13 is power off, individual identification is performed (S15). In this step, the individual identification unit 22 identifies the person captured in the captured image recorded by the recording unit 14.

個人特定が終わると、次に、イベント分類を行う(S17)。このステップでは、撮影画像と共に記録された撮影日時情報に基づいて、イベント分類部24が一群の画像群に分類する。イベント分類の詳細については、図4を用いて後述する。   When the individual identification is completed, event classification is performed (S17). In this step, the event classification unit 24 classifies into a group of images based on the shooting date / time information recorded together with the shot images. Details of the event classification will be described later with reference to FIG.

イベント分類が終わると、次に、シーン分類を行う(S19)。シーン分類は、イベント分類によって分類された画像群について、そのシーンの種類分けを行うものであり、本実施形態においては、スナップ、旅行、屋外イベント、屋内イベントの4種類に分ける。シーン分類の詳細については、図5を用いて後述する。   When the event classification is completed, next, scene classification is performed (S19). The scene classification is to classify the scenes of the image group classified by the event classification. In the present embodiment, the scene classification is classified into four types: snap, travel, outdoor event, and indoor event. Details of the scene classification will be described later with reference to FIG.

ステップS15における個人特定、ステップS17におけるイベント分類、ステップS19におけるシーン分類を行うと、それぞれのステップで実行結果を情報ファイルに書き込む。図3に撮影画像と情報ファイルの例を示す。図3の例では、イベント分類によって分類された一群の複数の画像であり、(a)〜(f)に示す6駒の画像とそれぞれの画像に対応する情報、および(g)に示すイベント情報とから構成される。   When individual identification in step S15, event classification in step S17, and scene classification in step S19 are performed, the execution result is written in the information file in each step. FIG. 3 shows examples of captured images and information files. In the example of FIG. 3, it is a group of a plurality of images classified by event classification, the images of six frames shown in (a) to (f), information corresponding to each image, and event information shown in (g) Consists of

図3(a)に示す例では、撮影画像(0001.JPG)の情報として、人物A、B、Cからなる3人の顔が検出され、シーンは屋外である。図3(b)に示す例では、撮影画像(0002.JPG)の情報として、人物B、Dからなる2人の顔が検出され、シーンは屋外である。図3(c)に示す例では、撮影画像(0003.JPG)の情報として、顔は検出されず、シーンは屋外である。   In the example shown in FIG. 3A, the faces of three persons consisting of persons A, B, and C are detected as information of the captured image (0001.JPG), and the scene is outdoors. In the example shown in FIG. 3B, the faces of two people consisting of persons B and D are detected as information of the captured image (0002.JPG), and the scene is outdoors. In the example shown in FIG. 3C, no face is detected as information of the captured image (0003.JPG), and the scene is outdoors.

図3(d)に示す例では、撮影画像(0004.JPG)の情報として、人物Aのみ、1人の顔が検出され、シーンは屋外である。図3(e)に示す例では、撮影画像(0005.JPG)の情報として、顔は検出されず、シーンは屋外である。図3(f)に示す例では、撮影画像(0006.JPG)の情報として、人物E、Fからなる2人の顔が検出され、シーンは屋外である。   In the example shown in FIG. 3D, only the person A is detected as the information of the captured image (0004.JPG), and the scene of the person is outdoors. In the example shown in FIG. 3E, the face is not detected as the information of the captured image (0005.JPG), and the scene is outdoors. In the example shown in FIG. 3F, the faces of two people consisting of persons E and F are detected as the information of the captured image (0006.JPG), and the scene is outdoors.

図3(g)は、図3(a)〜(f)からなる一群の複数の画像に関する情報を示している。すなわち、これらの一群の複数の画像は、イベント番号が0001であり、画像は0001〜0006で構成され、登場人物はA、B、C、D、E、Fの6人であり、シーン分類は屋外イベントである。これらの撮影画像とテーブル化された情報は、前述したように、パワーオフ時に、判定されて記録部14に記録される。   FIG. 3G shows information related to a group of a plurality of images consisting of FIGS. That is, these groups of multiple images have an event number of 0001, images are composed of 0001 to 0006, characters are A, B, C, D, E, and F, and the scene classification is It is an outdoor event. These captured images and tabulated information are determined and recorded in the recording unit 14 at the time of power-off as described above.

ステップS1における判定の結果、再生モードであった場合には、次に、通常再生か否かの判定を行う(S21)。本実施形態における撮影画像の再生表示には、通常再生とグループ再生の2種類を用意している。通常再生は、公知の再生表示であり、記録部14に記録されている撮影画像を選択して表示するモードである。   If the result of determination in step S <b> 1 is playback mode, it is next determined whether or not playback is normal (S <b> 21). In the present embodiment, two types of normal reproduction and group reproduction are prepared for reproduction display of the captured image. The normal reproduction is a known reproduction display, and is a mode in which a photographed image recorded in the recording unit 14 is selected and displayed.

ステップS21における判定の結果、通常再生であった場合には、公知の再生表示を行う(S25)。一方、ステップS21における判定の結果、通常再生ではなかった場合には、グループ再生を行う(S23)。このグループ再生の詳細については、図7を用いて後述する。   If the result of determination in step S21 is normal playback, a known playback display is performed (S25). On the other hand, if the result of determination in step S21 is not normal playback, group playback is performed (S23). Details of this group reproduction will be described later with reference to FIG.

次に、図4に示すフローチャートを用いてステップS17(図2)のイベント分類について説明する。イベント分類は、撮影画像と共に記録されている撮影日時情報に基づいて行う。同一のイベントであれば、前回の撮影と今回までの撮影の撮影日時は近接していると想定し、イベント分類を行っている。本実施形態においては、この間隔は24時間に設定してあるが、勿論、これ以外にも、例えば、12時間、18時間等、適宜設計値として設定しておけばよい。   Next, the event classification in step S17 (FIG. 2) will be described using the flowchart shown in FIG. Event classification is performed based on shooting date / time information recorded together with the shot image. For the same event, the event classification is performed on the assumption that the shooting date and time of the previous shooting and the previous shooting are close. In this embodiment, this interval is set to 24 hours, but of course, other than this, for example, 12 hours, 18 hours, etc. may be set as appropriate design values.

イベント分類のサブルーチンに入ると、まず、今回の撮影が前回の撮影から24時間以内か否かの判定を行う(S31)。この判定の結果、24時間以内であれば、前回のイベントとして扱い、この撮影画像は前回のイベントに追加する(S33)。ステップS31における判定の結果、24時間以内でなかった場合には、新規のイベントとして扱い、この撮影画像は新規イベントに設定する(S35)。ステップS33またはステップS35の処理が終わると、元のフローに戻る。   When the event classification subroutine is entered, it is first determined whether or not the current shooting is within 24 hours from the previous shooting (S31). If it is within 24 hours as a result of this determination, it is treated as the previous event, and this captured image is added to the previous event (S33). If the result of determination in step S31 is not within 24 hours, it is treated as a new event, and this captured image is set as a new event (S35). When the process of step S33 or step S35 ends, the process returns to the original flow.

次に、図5に示すフローチャートを用いてステップS19(図2)のシーン分類について説明する。シーン分類は、撮影画像に添付して記録されている撮影情報に基づいて行う。すなわち、顔検出画像の割合、撮影日時の偏り、光源に関する情報を用いて、スナップ、旅行、屋外イベント、屋内イベントの4種類に分類する。   Next, scene classification in step S19 (FIG. 2) will be described using the flowchart shown in FIG. The scene classification is performed based on shooting information recorded attached to the shot image. That is, the information is classified into four types, that is, snap, travel, outdoor event, and indoor event, using the ratio of the face detection image, the photographing date / time bias, and the information on the light source.

シーン分類のサブルーチンに入ると、まず、前回の撮影から24時間以内か否かの判定を行う(S41)。シーン分類はイベント分類が確定した後、この同一イベントの画像群に基づいて行うことから、前回の撮影から24時間経過していない場合には、シーン分類を行わない。   When the scene classification subroutine is entered, it is first determined whether or not it is within 24 hours from the previous shooting (S41). Since the scene classification is performed based on the image group of the same event after the event classification is determined, the scene classification is not performed when 24 hours have not elapsed since the previous shooting.

ステップS41における判定の結果、前回の撮影から24時間以内の場合には、イベント未定とし(S59)、このシーン未定を記録部14に記録する(S61)。すなわち、図3に示した例において、図3(a)〜(f)の情報ファイル中のシーンに未定を記録し、図3(g)の情報ファイル中のイベントについて未定を記録する。この記録が終わると、元のフローに戻る。   If the result of determination in step S41 is that it is within 24 hours from the previous shooting, the event is undecided (S59), and this scene undecided is recorded in the recording unit 14 (S61). That is, in the example shown in FIG. 3, undecided is recorded in the scenes in the information files in FIGS. 3A to 3F, and undecided is recorded for the events in the information file in FIG. When this recording ends, the original flow is restored.

ステップS41における判定の結果、前回の撮影から24時間を越えている場合には、イベントを確定する。すなわち、図3に示した例において、図3(a)〜(f)の撮影画像を同一イベントに属するとして確定し、また図3(g)の情報ファイル中のイベント番号を記録する。   If the result of determination in step S41 is that it has exceeded 24 hours since the previous shooting, the event is confirmed. That is, in the example shown in FIG. 3, the captured images in FIGS. 3A to 3F are determined to belong to the same event, and the event number in the information file in FIG. 3G is recorded.

続いて、ステップS43において確定された一群の複数の画像において、顔検出画像の割合が所定値より多いか少ないかの判定を行う(S45)。この判定の結果、顔検出が少ない場合には、スナップ撮影が多いとしてスナップを情報ファイルに記録し(S53)、元のフローに戻る。   Subsequently, it is determined whether the ratio of the face detection image is larger or smaller than a predetermined value in the group of images determined in step S43 (S45). If the result of this determination is that there are few face detections, it is assumed that there are many snap shots, and snaps are recorded in the information file (S53), and the flow returns to the original flow.

ステップS45における判定の結果、顔検出画像の割合が多かった場合には、次に、撮影日時の偏りも判定する(S47)。この判定の結果、撮影日時の偏りが分散していた場合には、旅行を情報ファイルに記録し(S55)、元のフローに戻る。   If the result of determination in step S45 is that the ratio of face detection images is high, then it is also determined whether the shooting date and time are biased (S47). As a result of the determination, if the photographing date and time bias is dispersed, the trip is recorded in the information file (S55), and the process returns to the original flow.

ステップS47における判定の結果、撮影日時の偏りが集中していた場合には、次に、光源が人工光であるか、太陽光であるかの判定を行う(S49)。この光源の判定は、撮影画像と共に記録されているホワイトバランスに関する情報や補助光源の使用に関する情報等に基づいて行う。 If the result of determination in step S47 is that the deviation in shooting date and time is concentrated, it is next determined whether the light source is artificial light or sunlight (S49). This determination of the light source is performed based on information on white balance recorded with the photographed image, information on use of the auxiliary light source, and the like.

ステップS49における判定の結果、光源が太陽光であった場合には、屋外イベントを情報ファイルに記録し(S51)、光源が人工光であった場合には、屋内イベントを情報ファイルに記録する(S57)。これらの記録が終わると、元のフローに戻る。   If the result of determination in step S49 is that the light source is sunlight, an outdoor event is recorded in the information file (S51), and if the light source is artificial light, an indoor event is recorded in the information file ( S57). When these records are completed, the original flow is restored.

図6にシーン分類の例を示す。イベントAは、飲み会のケースであるが、顔検出の割合が多く、撮影日時が集中しており、かつ人工光で撮影されていることから屋内イベントと判定されている。イベントBは2泊3日の旅行の例であるが、顔検出の割合が多く、撮影日時の偏りが分散していることから旅行と判定されている。   FIG. 6 shows an example of scene classification. Event A is a drinking party, but it is determined as an indoor event because the ratio of face detection is large, the shooting dates and times are concentrated, and shooting is performed with artificial light. Event B is an example of a trip for 3 days and 2 nights, but it is determined to be a trip because the ratio of face detection is large and the uneven shooting date and time is dispersed.

また、イベントCは運動会のケースであるが、顔検出の割合が多く、撮影日時の偏りが集中しており、太陽光で撮影されていることから屋外イベントと判定されている。イベントDは結婚式のケースであるが、顔検出の割合が多く、撮影日時が集中しており、かつ人工光で撮影されていることから屋内イベントと判定されている。イベントEは、顔検出の割合が少ないことから、スナップと判定されている。   In addition, event C is an athletic meet case, but the ratio of face detection is large, the bias of shooting date and time is concentrated, and it is determined as an outdoor event because it is shot with sunlight. Event D is a wedding case, but it is determined as an indoor event because the ratio of face detection is large, the shooting dates and times are concentrated, and shooting is performed with artificial light. Event E is determined to be a snap because the ratio of face detection is small.

次に、図7に示すフローチャートを用いてステップS23(図2)のグループ再生について説明する。グループ再生は、指定したイベントにおいて、最小の画像数で全員を鑑賞することのできる再生モードである。このグループ再生が選択されると、図10に示すように、グループ再生表示100が表示部34に表示される。   Next, the group reproduction in step S23 (FIG. 2) will be described using the flowchart shown in FIG. Group playback is a playback mode in which everyone can be viewed with a minimum number of images at a specified event. When this group reproduction is selected, a group reproduction display 100 is displayed on the display unit 34 as shown in FIG.

グループ再生のサブルーチンに入ると、まず、イベント名をリスト表示する(S71)。イベント名のリスト表示としては、例えば、図10に示すようにイベント表示101が表示され、後述するようにカーソル操作部材を操作することにより、順次、イベント表示102、103が表示される。ここで、各イベント表示101〜103においては、イベント番号、撮影月日、シーンがそれぞれ表示される。   When the group reproduction subroutine is entered, event names are first displayed in a list (S71). As a list display of event names, for example, an event display 101 is displayed as shown in FIG. 10, and event displays 102 and 103 are sequentially displayed by operating a cursor operation member as described later. Here, in each event display 101-103, an event number, a photographing date, and a scene are displayed, respectively.

次に、ユーザーがイベント名のリスト表示から閲覧したいイベントを選択したか否かの判定を行う(S73)。この判定の結果、イベントが選択されていない場合には、カーソル操作がなされたか、またはキャンセル操作がなされたか否かの判定を行う(S75)。判定の結果、カーソル操作がなされていた場合には、カーソル操作、すなわち、カーソル操作に応じてイベント表示101〜103の切り替えを行い(S77)、ステップS73に戻る。一方、ステップS75における判定の結果、キャンセル操作がなされていた場合には、元のフローに戻る。   Next, it is determined whether or not the user has selected an event that he / she wants to browse from a list of event names (S73). If no event is selected as a result of this determination, it is determined whether a cursor operation has been performed or a cancel operation has been performed (S75). As a result of the determination, if a cursor operation has been performed, the event display 101 to 103 is switched according to the cursor operation, that is, the cursor operation (S77), and the process returns to step S73. On the other hand, if the result of determination in step S75 is that a cancel operation has been made, processing returns to the original flow.

ステップS73における判定の結果、イベントの選択がなされた場合には、抽出処理を行う(S79)。この抽出処理は、最小の画像数で全員を抽出できる一つまたは複数の画像を抽出するステップである。この抽出処理のサブルーチンの詳細は図8を用いて後述する。   If the result of determination in step S73 is that an event has been selected, extraction processing is performed (S79). This extraction process is a step of extracting one or a plurality of images from which everyone can be extracted with the minimum number of images. Details of this extraction processing subroutine will be described later with reference to FIG.

抽出処理が終わると、この抽出処理において抽出された閲覧候補の画像を表示する(S81)。すなわち、図10に示すように、閲覧候補の画像111〜114を、操作部材が操作される毎に、順次、表示する。続いて、閲覧候補の画像のいずれかが選択されたか、またはキャンセルがなされたか否かの判定を行う(S83)。この判定の結果、キャンセルされた場合には、ステップS71に戻り、イベント名をリスト表示する。   When the extraction process is completed, the browsing candidate images extracted in the extraction process are displayed (S81). That is, as shown in FIG. 10, the browsing candidate images 111 to 114 are sequentially displayed every time the operation member is operated. Subsequently, it is determined whether any of the browsing candidate images has been selected or canceled (S83). If the result of this determination is cancellation, the process returns to step S71 and the event names are displayed in a list.

ステップS83における判定の結果、閲覧候補の画像の中から画像が選択された場合には、この画像を選択し(S85)、この画像を出力部15より、プリンタ等に出力する(S87)。画像出力が終わると、ステップS71に戻り、ステップS75においてキャンセル操作がなされると、元のフローに戻る。   If the result of determination in step S83 is that an image has been selected from among browse candidate images, this image is selected (S85), and this image is output from the output unit 15 to a printer or the like (S87). When the image output ends, the process returns to step S71, and when the cancel operation is performed in step S75, the process returns to the original flow.

次に、ステップ79の抽出処理のサブルーチンについて、図8に示すフローチャートを用いて説明する。このフローに入ると、まず、最も多くの人物を含む画像の抽出を行う(S91)。すなわち、今選択されているイベントに属する複数の画像の中から、情報ファイルに記録されている顔検出の検出数に基づいて、最も多くの人物を含む画像の抽出を行う。   Next, the extraction processing subroutine of step 79 will be described with reference to the flowchart shown in FIG. In this flow, first, an image including the most people is extracted (S91). That is, an image including the largest number of persons is extracted from a plurality of images belonging to the currently selected event based on the number of face detection detections recorded in the information file.

続いて、ステップS91で抽出された画像によって全員が抽出されたか否かの判定を行う(S93)。この判定の結果、全員を抽出していた場合には、元のフローに戻り、ステップS81において抽出した画像を表示する。   Subsequently, it is determined whether all the members have been extracted from the image extracted in step S91 (S93). As a result of the determination, if all the members have been extracted, the process returns to the original flow, and the image extracted in step S81 is displayed.

ステップS93における判定の結果、全員が抽出されていなかった場合には、抽出した画像以外の画像から、抽出した画像に含まれる人物を除く人物を最も多く含む画像を抽出する(S95)。この抽出が終わると、ステップS93に戻り、全員が抽出されるまで、ステップS93とステップS95を繰り返し実行する。ステップS93における判定の結果、全員が抽出されると、元のフローに戻る。   If all the members have not been extracted as a result of the determination in step S93, an image including the largest number of persons excluding the persons included in the extracted image is extracted from images other than the extracted image (S95). When this extraction is completed, the process returns to step S93, and steps S93 and S95 are repeatedly executed until all the members are extracted. If all the members are extracted as a result of the determination in step S93, the process returns to the original flow.

次に、図8に示した抽出処理のより具体的な例について、図9に示すフローチャートを用いて説明する。この抽出処理のサブルーチンに入ると、まず、同一イベントに属する複数の画像の中から抽出する画像数nとして、1を設定する(S101)。続いて、設定された抽出画像数nの画像において、登場人物のOR集合、すなわち、登場人物の和集合を求める(S103)。   Next, a more specific example of the extraction process shown in FIG. 8 will be described using the flowchart shown in FIG. When this extraction process subroutine is entered, first, 1 is set as the number n of images to be extracted from a plurality of images belonging to the same event (S101). Subsequently, in the set number n of extracted images, an OR set of characters, that is, a union of characters is obtained (S103).

続いて、登場人物の和集合の結果が全員をカバーしているか否かを判定する(S105)。情報ファイルには個人特定が記録されており(図3(g)参照)、このステップでは、特定されている個人が全員、抽出されているか否かを判定する。   Subsequently, it is determined whether or not the result of the union of the characters covers all members (S105). Individual identification is recorded in the information file (see FIG. 3G), and in this step, it is determined whether all identified individuals have been extracted.

ステップS105における判定の結果、全員がカバーされていなかった場合には、抽出画像数nでとりうる全組合せについて判定を行ったか否かの判定を行う(S111)。この判定の結果、全組合せについて判定を行っていなかった場合には、組合せを変え(S113)、ステップS103に戻り、再び登場人物の和集合を求める。   If all the members are not covered as a result of the determination in step S105, it is determined whether or not all combinations that can be taken with the number n of extracted images have been determined (S111). As a result of the determination, if the determination is not performed for all combinations, the combinations are changed (S113), the process returns to step S103, and the union of the characters is obtained again.

ステップS111における判定の結果、全組合せで判定を行っていた場合には、抽出画像数nに1を加算し(S113)、ステップS103に戻り、再び登場人物の和集合を求める。   If it is determined in step S111 that all combinations have been determined, 1 is added to the number n of extracted images (S113), the process returns to step S103, and the union of the characters is obtained again.

上述の一連の判定を繰り返す内に、ステップS105における判定の結果、全員をカバーすることができた場合には、全員をカバーすることのできた画像を選択する(S107)。選択が終わると、元のフローに戻り、ステップS81において、閲覧候補画像の表示を行う。このサブルーチンにおいては、抽出画像数nとして、1から検索を始めているので、最小の抽出画像数で全員をカバーすることのできる画像を選択することができる。   If all the members can be covered as a result of the determination in step S105 while repeating the above-described series of determinations, an image that can cover all the members is selected (S107). When the selection is completed, the process returns to the original flow, and browsing candidate images are displayed in step S81. In this subroutine, since the search is started from 1 as the number of extracted images n, it is possible to select an image that can cover everyone with the minimum number of extracted images.

以上説明したように、本実施形態においては、複数の画像の中から、顔検出部16によって人物の顔画像を検出し、さらに個人特定部22において顔画像に基づいて個人を特定している。そして、複数の画像から画像を検索するにあたって、個人特定部による個人の特定結果に基づいて、複数の画像に含まれる全ての人物を含み、且つ画像数が最小となるように、画像検索部25によって複数の画像の中から画像を選択している。   As described above, in the present embodiment, a face image of a person is detected from a plurality of images by the face detection unit 16, and an individual is specified based on the face image by the individual specification unit 22. Then, when searching for an image from a plurality of images, the image search unit 25 includes all the persons included in the plurality of images and minimizes the number of images based on the individual identification result by the individual identification unit. An image is selected from a plurality of images.

このため、本実施形態においては、画像群の中から、多くの人物を含む画像を効率よく検索することができる。また、画像を再生表示するにあたって、同じ人物ばかりが登場することを防ぐことができ、再生表示が単調となることがない。また、少ない画像数で、被写体の全員の顔が確認できるので、被写体の検索を効率よく行うことも可能である。例えば、Aさんの写った写真を早く見つけたい時には、全員の顔をすばやく一覧にし、それで得られた画像からAさんの顔を見つけ、画面上にカーソルを動かしたり、タッチパネルでAさんの顔を指示したりすれば、次の表示画像は、Aさんが写っている別画像になる、といった応用が可能になる。このように、本実施形態におけるカメラは、特定の画像検索にも効力を発揮することができる。   For this reason, in this embodiment, it is possible to efficiently search for an image including many persons from the image group. Further, when the image is reproduced and displayed, it is possible to prevent only the same person from appearing, and the reproduction display is not monotonous. In addition, since the faces of all the subjects can be confirmed with a small number of images, it is possible to efficiently search for the subjects. For example, when you want to quickly find a picture of Mr. A, you can quickly list everyone's faces, find Mr. A's face from the images, move the cursor on the screen, or touch Mr. A's face on the touch panel. If instructed, the next display image can be applied as another image in which Mr. A appears. As described above, the camera according to the present embodiment can also be effective for a specific image search.

また、本実施形態においては、複数の画像を分類し、同一分類内で、全登場人物をカバーする最小数の画像を求めている。このため、画像検索にかかる時間を短縮することができる、また、この画像検索の結果に基づいて再生表示した場合には、同一分類であることから、鑑賞者も理解しやすく楽しむことができる。   In the present embodiment, a plurality of images are classified, and the minimum number of images that cover all characters in the same classification are obtained. For this reason, the time required for image search can be shortened, and when reproduced and displayed based on the result of this image search, since they are of the same classification, the viewer can enjoy easily.

なお、本実施形態においては、撮影待機時に顔検出を行っていたが、この検出は撮影待機時に行わずに、パワーオフ時等、別のタイミングで行うようにしてもよい。   In the present embodiment, face detection is performed at the time of shooting standby, but this detection may be performed at a different timing, such as at power-off, without being performed at the time of shooting standby.

また、本実施形態においては、カメラで撮影した画像をカメラ内でグループ再生の処理を行って、カメラの表示装置や外部の表示装置で再生表示するようにしていたが、カメラで撮影した画像をパーソナルコンピュータに記憶させ、この記憶された画像に基づいてグループ再生を行い、再生表示等を行うようにしても良い。   Further, in the present embodiment, an image captured by the camera is subjected to group reproduction processing within the camera and is reproduced and displayed on the camera display device or an external display device. You may make it memorize | store in a personal computer, perform group reproduction | regeneration based on this memorize | stored image, and may be made to perform a reproduction | regeneration display.

さらに、本実施形態における、イベント分類やシーン分類は例示であって、複数の画像を適宜、画像群に分類付けできれば良く、他の分類を採用しても勿論かまわない。   Furthermore, the event classification and the scene classification in this embodiment are merely examples, and it is only necessary to classify a plurality of images into an image group as appropriate. Of course, other classifications may be adopted.

さらに、本実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、また、携帯電話や携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。   Furthermore, in the present embodiment, the digital camera is used as the photographing device. However, the camera may be a digital single-lens reflex camera or a compact digital camera, and may be a mobile phone or a personal digital assistant (PDA). Of course, a camera built in Personal Digital Assist) may be used.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明の一実施形態に係わるカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera concerning one Embodiment of this invention. 本発明の一実施形態において、撮影画像と情報ファイルの構成を示す図であり、(a)〜(f)は各撮影画像と情報ファイルの構成を示し、(g)はイベント内容を示す情報ファイルを示す図である。In one Embodiment of this invention, it is a figure which shows the structure of a picked-up image and an information file, (a)-(f) shows the structure of each picked-up image and an information file, (g) is the information file which shows event content FIG. 本発明の一実施形態に係わるカメラにおけるイベント分類の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the event classification | category in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおけるシーン分類の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the scene classification | category in the camera concerning one Embodiment of this invention. 本発明の一実施形態において、シーン分類の例を示す図である。In one Embodiment of this invention, it is a figure which shows the example of a scene classification | category. 本発明の一実施形態に係わるカメラにおけるグループ再生の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of group reproduction | regeneration in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおける抽出処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the extraction process in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおける抽出処理のより具体的な動作を示すフローチャートである。It is a flowchart which shows the more concrete operation | movement of the extraction process in the camera concerning one Embodiment of this invention. 本発明の一実施形態において、グループ再生時の表示を示す図である。FIG. 10 is a diagram showing a display during group reproduction in an embodiment of the present invention.

符号の説明Explanation of symbols

10・・・データバス、11・・・撮像部、12・・・光学系制御部、13・・・時計部、14・・・記録部、15・・・出力部、16・・・顔検出部、20・・・制御部、21・・・画像処理部、22・・・個人特定部、23・・・シーン分類部、24・・・イベント分類部、25・・・画像検索部、31・・・操作判定部、32・・・操作部、33・・・表示制御部、34・・・表示部、100・・・グループ再生表示、101・・・イベント表示、102・・・イベント表示、103・・・イベント表示、111・・・画像、112・・・画像、113・・・画像、114・・・画像 DESCRIPTION OF SYMBOLS 10 ... Data bus, 11 ... Imaging part, 12 ... Optical system control part, 13 ... Clock part, 14 ... Recording part, 15 ... Output part, 16 ... Face detection , 20 ... control unit, 21 ... image processing unit, 22 ... personal identification unit, 23 ... scene classification unit, 24 ... event classification unit, 25 ... image search unit, 31 ... Operation determination unit, 32 ... Operation unit, 33 ... Display control unit, 34 ... Display unit, 100 ... Group playback display, 101 ... Event display, 102 ... Event display 103 ... Event display 111 ... Image 112 ... Image 113 ... Image 114 ... Image

Claims (9)

複数の画像の中から、この複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定する個人特定部と、
上記個人特定部による個人の特定結果に基づいて、上記複数の画像に含まれるすべての人物を含み、且つ画像数が最小となるように上記複数の画像の中から画像を検索する画像検索部と、
を備えたことを特徴とする画像検索装置。
A person identifying unit for detecting a person's face image included in each of the plurality of images and identifying an individual from the plurality of images;
An image search unit for searching for an image from the plurality of images so as to include all persons included in the plurality of images and to minimize the number of images based on a result of personal identification by the individual identification unit; ,
An image search apparatus comprising:
上記画像検索装置は、画像の種類に応じて画像を分類する画像分類部をさらに備え、上記複数の画像は上記画像分類部で分類したいずれかの画像群に属することを特徴とする請求項1に記載の画像検索装置。   2. The image search apparatus according to claim 1, further comprising an image classification unit that classifies images according to image types, wherein the plurality of images belong to one of image groups classified by the image classification unit. The image search device described in 1. 複数の画像の中から、上記複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定するステップと、
上記個人の特定結果に基づいて、上記複数の画像に含まれるすべての人物を含み、且つ画像数が最小となるように上記複数の画像の中から画像を検索するステップと、
を備えたことを特徴とする画像検索方法。
Detecting a face image of a person included in each of the plurality of images from among a plurality of images and identifying an individual;
Searching for an image from the plurality of images so as to include all persons included in the plurality of images based on the individual identification result and to minimize the number of images;
An image search method characterized by comprising:
上記画像の種類を表す情報を表示する表示部と、この表示部に表示した上記画像の種類を表す情報の中から所望の情報を選択する選択部と、この選択部を選択する操作に応答して上記画像検索部で検索した画像を表示する画像表示部と、を備えたことを特徴とする上記請求項2に記載の画像検索装置により検索した画像を再生する画像再生装置。   Responding to a display unit for displaying information representing the type of image, a selection unit for selecting desired information from the information representing the type of image displayed on the display unit, and an operation for selecting the selection unit. An image display device for playing back an image searched for by the image search device according to claim 2, further comprising: an image display unit that displays an image searched by the image search unit. 上記画像の種類を表す情報を表示するステップと、上記画像の種類を表す情報の中から所望の情報を選択するステップと、この所望の情報を選択する操作に応答して上記検索した画像を表示するステップと、を備えたことを特徴とする上記請求項2に記載の画像検索装置により検索した画像を再生する画像再生方法。   A step of displaying information representing the type of image, a step of selecting desired information from the information representing the type of image, and displaying the searched image in response to an operation of selecting the desired information. An image reproducing method for reproducing an image retrieved by the image retrieval apparatus according to claim 2, further comprising: 複数の画像の中から、この複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定するステップと、
上記個人の特定結果に基づいて、上記複数の画像に含まれるすべての人物を含み、且つ画像数が最小となるように上記複数の画像の中から画像を検索するステップと、
をコンピュータに実行させるための画像検索用プログラム。
Detecting a face image of a person included in each of the plurality of images and identifying an individual from the plurality of images;
Searching for an image from the plurality of images so as to include all persons included in the plurality of images based on the individual identification result and to minimize the number of images;
Image search program for causing a computer to execute the program.
複数の画像の中から、この複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定するステップと、
上記個人の特定結果に基づいて、上記複数の画像に含まれるすべての人物を含み、且つ画像数が最小となるように上記複数の画像の中から画像を検索するステップと、
上記検索した画像を表示するステップと、
をコンピュータに実行させるための画像再生用プログラム。
Detecting a face image of a person included in each of the plurality of images and identifying an individual from the plurality of images;
Searching for an image from the plurality of images so as to include all persons included in the plurality of images based on the individual identification result and to minimize the number of images;
Displaying the searched image, and
Replay program for causing a computer to execute
上記画像を検索するにあたって、上記複数の画像を分類し、この分類に属する画像についてのみ検索を行うことを特徴とする請求項7に記載の画像再生用プログラム。   8. The image reproduction program according to claim 7, wherein when searching for the image, the plurality of images are classified, and only the images belonging to the classification are searched. 複数の画像の中から、この複数の画像のそれぞれの画像に含まれる人物の顔画像を検出し、個人を特定する個人特定ステップと、
上記個人特定ステップによる個人の特定結果に基づいて、上記複数の画像に含まれる画像のうち、最も多くの人物が含まれる第1の画像を抽出するステップと、
上記第1の画像に含まれない人物が最も多く含まれる第2の画像を抽出するステップと、
をコンピュータに実行させるための画像検索用プログラム。
A person identifying step of detecting a person's face image included in each of the plurality of images and identifying an individual from the plurality of images;
Extracting a first image including the largest number of persons from among the images included in the plurality of images based on the individual identification result in the individual identification step;
Extracting a second image containing the largest number of persons not included in the first image;
Image search program for causing a computer to execute the program.
JP2008073106A 2008-03-21 2008-03-21 Image searching apparatus and method, image reproducer and reproduction method, image searching program, and image reproduction program Pending JP2009232022A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008073106A JP2009232022A (en) 2008-03-21 2008-03-21 Image searching apparatus and method, image reproducer and reproduction method, image searching program, and image reproduction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008073106A JP2009232022A (en) 2008-03-21 2008-03-21 Image searching apparatus and method, image reproducer and reproduction method, image searching program, and image reproduction program

Publications (2)

Publication Number Publication Date
JP2009232022A true JP2009232022A (en) 2009-10-08
JP2009232022A5 JP2009232022A5 (en) 2011-04-21

Family

ID=41246959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008073106A Pending JP2009232022A (en) 2008-03-21 2008-03-21 Image searching apparatus and method, image reproducer and reproduction method, image searching program, and image reproduction program

Country Status (1)

Country Link
JP (1) JP2009232022A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002185908A (en) * 2000-12-12 2002-06-28 Minolta Co Ltd Computer-readable recording medium recording image extract program, image extract device and image extract method
JP2007058792A (en) * 2005-08-26 2007-03-08 Fujifilm Holdings Corp Image processor, image processing method, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002185908A (en) * 2000-12-12 2002-06-28 Minolta Co Ltd Computer-readable recording medium recording image extract program, image extract device and image extract method
JP2007058792A (en) * 2005-08-26 2007-03-08 Fujifilm Holdings Corp Image processor, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
US8212911B2 (en) Imaging apparatus, imaging system, and imaging method displaying recommendation information
US9013604B2 (en) Video summary including a particular person
US8665345B2 (en) Video summary including a feature of interest
JP5735330B2 (en) Image processing apparatus and image processing method
US20060039674A1 (en) Image editing apparatus, method, and program
JP2010259064A (en) Display and image pickup device
JP2008165700A (en) Image processing device, electronic equipment, image processing system, image processing method, and program
US20060050166A1 (en) Digital still camera
JP4769624B2 (en) Image reproducing apparatus, control method therefor, and control program therefor
JP5418565B2 (en) Image display system, image display apparatus, server, image display method and program
JP5550305B2 (en) Imaging device
JP2009049864A (en) Image display apparatus, image display control method and program
JP2009021992A (en) Imaging apparatus, and image searching method
JP2007159095A (en) Imaging apparatus
JP2011257980A (en) Image display device, image display method, and program
JP4716025B2 (en) Image display device, display control program, and photographing device
JP2012058952A (en) Similar image retrieval device, camera, similar image retrieval method and program
JP5312828B2 (en) Image search device, image search method, image playback device, image playback method, image search program, and image playback program
JP5032363B2 (en) Image display method
JP2007293555A (en) Image reproduction device, its control method, and its control program
JP2009232022A (en) Image searching apparatus and method, image reproducer and reproduction method, image searching program, and image reproduction program
JP5675922B2 (en) Shooting display device
JP2010199771A (en) Image display apparatus, image display method, and program
US8803895B2 (en) Display device and image display method
JP5368165B2 (en) Imaging display device and imaging display method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120611

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130107