JP5032363B2 - Image display method - Google Patents

Image display method Download PDF

Info

Publication number
JP5032363B2
JP5032363B2 JP2008045545A JP2008045545A JP5032363B2 JP 5032363 B2 JP5032363 B2 JP 5032363B2 JP 2008045545 A JP2008045545 A JP 2008045545A JP 2008045545 A JP2008045545 A JP 2008045545A JP 5032363 B2 JP5032363 B2 JP 5032363B2
Authority
JP
Japan
Prior art keywords
image
face
smile
center
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008045545A
Other languages
Japanese (ja)
Other versions
JP2009205322A (en
JP2009205322A5 (en
Inventor
修 野中
和彦 志村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008045545A priority Critical patent/JP5032363B2/en
Publication of JP2009205322A publication Critical patent/JP2009205322A/en
Publication of JP2009205322A5 publication Critical patent/JP2009205322A5/ja
Application granted granted Critical
Publication of JP5032363B2 publication Critical patent/JP5032363B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像表示方法に関し、詳しくは、複数の撮影画像の中から代表的な画像を検索し、これを表示するようにした画像表示方法に関する。 The present invention relates to images displayed how, details, searches the representative images from a plurality of captured images, regarding the images display how you to display it.

近年、デジタルカメラの技術革新によって、高感度化、露出制御範囲の拡大など進展し、また、記録メディアの大容量化が進んできている。さらに、フィルム時代のカメラと比較し、格段に連写機能も向上しており、カメラユーザーは、気楽に撮影を楽しむことができ、大量の画像を得るようになってきている。また、近年では、被写体である人物の表情を判定する機能を備えたカメラが登場し、笑顔の写真を撮影することが容易になってきている。さらに、個々の顔を識別し誰の顔であるかを判定する技術の開発も進んでいる。   In recent years, due to technological innovations in digital cameras, high sensitivity and expansion of the exposure control range have been progressed, and the capacity of recording media has been increasing. Furthermore, compared to cameras in the film era, the continuous shooting function is also greatly improved, so that camera users can enjoy taking pictures easily and obtain a large amount of images. In recent years, a camera equipped with a function for determining the facial expression of a person as a subject has appeared, and it has become easier to take a picture of a smile. Furthermore, the development of technology for identifying individual faces and determining who the face is is also progressing.

上述したように、大量の画像を得ることができるようになったが、鑑賞する際に、見たい画像をなかなか探しだすことができなくなっている。そこで、画像データを用いて人物の表情を判定する等、画像の内容に基づいて検索することが考えられる。例えば、特許文献1には、人物の顔の特徴点に基づく顔認識データと、予め登録しておいた顔認識データを比較することにより登録されている人物であるかどうかを判定する電子カメラが開示されている。また、特許文献2には、顔画像毎に笑顔評価や端正評価を行い、被撮影者が良い表情である画像を手軽に楽しむことのできる画像評価装置が開示されている。
特開2007−150604号公報 特開2004−46591号公報
As described above, a large amount of images can be obtained. However, when viewing, it is difficult to find an image to be viewed. Therefore, it is conceivable to search based on the content of the image, such as determining the facial expression of the person using the image data. For example, Patent Document 1 discloses an electronic camera that determines whether a person is a registered person by comparing face recognition data based on the feature points of the person's face and face recognition data registered in advance. It is disclosed. Patent Document 2 discloses an image evaluation apparatus that performs smile evaluation and neatness evaluation for each face image, and allows a subject to easily enjoy an image with a good facial expression.
JP 2007-150604 A JP 2004-46591 A

特許文献1に開示の電子カメラは、予め登録された人物のみしか認識できず、また登録手続など簡便性、高速性に問題がある。また、特許文献2に開示の画像評価装置は、カジュアルやフォーマル等の場面解析を必要とし、このための画像解析に時間がかかってしまう。全画像の全ての顔を探し、比較するのでは検索・判定に時間がかかり、直ぐに鑑賞を始めることができない。   The electronic camera disclosed in Patent Document 1 can recognize only a person registered in advance, and has a problem in simplicity and high speed such as a registration procedure. In addition, the image evaluation apparatus disclosed in Patent Document 2 requires scene analysis such as casual and formal, and it takes time to perform image analysis for this. Searching and comparing all faces of all images takes time to search and judge, and cannot immediately start viewing.

本発明は、このような事情を鑑みてなされたものであり、複数の画像の中から画像を検索して表示するにあたって、迅速に検索を行うことのでき、また同じ人が何度も繰り返し表示されることを防止することのできる画像表示方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and when searching for and displaying an image from a plurality of images, the search can be quickly performed , and the same person repeatedly displays the image. and to provide an image display method that can that be prevented from being.

上記目的を達成するため第1の発明に係わる画像表示方法は、複数の画像の中から代表画像を検索して表示する画像表示方法であって、顔画像を含む複数の画像のそれぞれの画像に対応する画像データを記憶するステップと、上記複数の画像のそれぞれの画面中央に位置する顔の特徴を判定するステップと、判定された上記特徴に基づいて、上記複数の画像の中から代表画像を検索し、さらに次の画像の検索を行う場合には、上記画面中央に位置した人が中央となる画像を除いて検索するステップと、検索された上記代表画像を表示するステップと、を備える。 In order to achieve the above object, an image display method according to a first invention is an image display method for searching and displaying a representative image from among a plurality of images, wherein each image of a plurality of images including a face image is displayed. Storing corresponding image data; determining a feature of a face located at the center of each of the plurality of images; and representing a representative image from the plurality of images based on the determined feature. When searching and further searching for the next image, the method includes a step of searching except for an image in which the person located at the center of the screen is in the center, and a step of displaying the searched representative image.

第2の発明に係わる画像表示方法は、上記第1の発明において、上記検索するステップにおいて、上記代表画像の検索は、特定イベントに分類された画像の中から検索する
第3の発明に係わる画像表示方法は、上記第の発明において、上記検索するステップにおいて、上記顔の笑顔度、構図、または人の数に基づいて上記代表画像を検索する
In the image display method according to the second invention, in the first invention, in the searching step, the representative image is searched from images classified as specific events .
In the image display method according to the third invention, in the first invention, the representative image is searched based on the smile degree, composition, or number of people of the face in the searching step .

本発明によれば、複数の画像の中から画像を検索して表示するにあたって、迅速に検索を行うことでき、また同じ人が何度も繰り返し表示されることを防止することのできる画像表示方法を提供することができる。 According to the present invention, in order to retrieve and display image from a plurality of images quickly search can be performed, also image the same person to enable you to be prevented from being repeatedly displayed many times A display method can be provided.

以下、図面に従って本発明を適用したカメラを用いて好ましい実施形態について説明する。本実施形態におけるカメラは、撮影時に顔の位置と数と笑顔の度合いを記録しておき、画像の表示再生時には、撮影された複数の写真の中から、画面中央に位置する顔の笑顔の度合いの高いもので、なおかつ多くの人が一緒に写っている画像を代表画像として表示するようにしている。   Hereinafter, a preferred embodiment will be described using a camera to which the present invention is applied according to the drawings. The camera in the present embodiment records the position and number of faces and the degree of smile at the time of shooting, and the degree of smile of the face located at the center of the screen from a plurality of taken pictures at the time of image display reproduction. In addition, an image in which many people are photographed together is displayed as a representative image.

図1は本発明の第1実施形態に係わるカメラ10とテレビ20となるシステムの構成を示すブロック図である。カメラ10はデジタルカメラであり、制御部1、撮像部2、光学系制御部3、記録部4、顔検出部5、切出部6、合成処理部7、表示部8、表示制御部8a、時計部9、操作判定部11、笑顔度判定部12、通信部14を有し、有線通信又は無線通信を介して外部のテレビ20と接続可能である。   FIG. 1 is a block diagram showing a configuration of a system including a camera 10 and a television 20 according to the first embodiment of the present invention. The camera 10 is a digital camera, and includes a control unit 1, an imaging unit 2, an optical system control unit 3, a recording unit 4, a face detection unit 5, a cutting unit 6, a composition processing unit 7, a display unit 8, a display control unit 8a, It has a clock unit 9, an operation determination unit 11, a smile level determination unit 12, and a communication unit 14, and can be connected to an external television 20 via wired communication or wireless communication.

制御部1は、カメラ10内の各部と接続され、カメラ10の全体制御を行う。制御部1内には、画像処理部1a、イベント分類部1b、顔分類部1c、表示順決定部1dを有する。画像処理部1aは撮像部2等から入力する画像の圧縮・伸張処理等の各種画像処理を行う。   The control unit 1 is connected to each unit in the camera 10 and performs overall control of the camera 10. The control unit 1 includes an image processing unit 1a, an event classification unit 1b, a face classification unit 1c, and a display order determination unit 1d. The image processing unit 1a performs various types of image processing such as compression / decompression processing of images input from the imaging unit 2 or the like.

また、イベント分類部1bは、画像の撮影日時情報に基づく撮影頻度等に従って、画像がどのイベントに属するかを決定する。イベント分類については、図3及び図4を用いて後述する。顔分類部1cは、顔検出部5によって検出された人物の顔に相当する部分を検出し、これに基づいて顔の特徴によって分類を行う。表示順決定部1dは、顔分類部1cによる顔の分類や、笑顔度判定部12による笑顔度に基づいて、表示順を決定する。   In addition, the event classification unit 1b determines which event the image belongs to according to the shooting frequency based on the shooting date / time information of the image. The event classification will be described later with reference to FIGS. The face classification unit 1c detects a portion corresponding to the face of the person detected by the face detection unit 5, and performs classification based on the feature of the face based on the detected portion. The display order determination unit 1d determines the display order based on the face classification by the face classification unit 1c and the smile level by the smile level determination unit 12.

撮像部2は、被写体像を結像するための光学系、および被写体像を光電変換する撮像素子等を含み、画像データを出力する。光学系制御部3は、撮像部2内の光学系のピント合わせ等の制御を行う。記録部4は、撮像部2から出力された画像データを、制御部1内の画像処理部1aによって圧縮処理等し、この画像データを撮影画像として記録する。記録部4内には、画像vs顔記憶部4aが設けられており、この画像vs顔記憶部は、画像データと、この画像にどのような特徴の顔が含まれているかの情報を対にして記録する。   The imaging unit 2 includes an optical system for forming a subject image, an imaging element that photoelectrically converts the subject image, and the like, and outputs image data. The optical system control unit 3 performs control such as focusing of the optical system in the imaging unit 2. The recording unit 4 compresses the image data output from the imaging unit 2 by the image processing unit 1a in the control unit 1, and records this image data as a captured image. In the recording unit 4, an image vs face storage unit 4a is provided. The image vs face storage unit pairs image data with information on what kind of face is included in the image. Record.

顔検出部5は、撮影画像中に人物像が含まれる場合に、顔パターンを判定して、顔の部分を検出する。この検出結果に基づいて、光学系制御部3は露出制御や自動焦点調節(AF)等を行う。また、顔検出部5は、位置検出部5a、大きさ判定部5b、特徴部5cを有する。位置検出部5aは、顔検出部5によって検出された人物の顔について、画面の中での位置を検出する。大きさ判定部5bは、検出された顔の部分の大きさを判定する。特徴部5cは、個人を識別可能にするために、顔の特徴量を検出する。   The face detection unit 5 determines a face pattern and detects a face portion when a captured image includes a human image. Based on the detection result, the optical system control unit 3 performs exposure control, automatic focus adjustment (AF), and the like. The face detection unit 5 includes a position detection unit 5a, a size determination unit 5b, and a feature unit 5c. The position detection unit 5a detects the position of the person's face detected by the face detection unit 5 on the screen. The size determination unit 5b determines the size of the detected face portion. The feature unit 5c detects the feature amount of the face in order to identify the individual.

切出部6は、顔検出部5によって検出された人物像の顔の部分に対応する画像データを切り出す。ここで切り出された顔画像のデータは、合成処理部7において画像の合成処理の際に使用される。合成処理部7は、切出部6で切出された顔画像データを合成し、後述する画像C(図1)のような画像合成を行う。   The cutout unit 6 cuts out image data corresponding to the face portion of the human image detected by the face detection unit 5. The face image data cut out here is used in the image synthesizing process in the synthesizing processing unit 7. The composition processing unit 7 synthesizes the face image data cut out by the cut-out unit 6 and performs image composition like an image C (FIG. 1) described later.

表示部8は、カメラ10の背面等に配置された液晶モニタ等の表示装置で構成され、記録部4に記録されている画像データの再生表示を行い、また光学式ファインダの代わりに、被写体像の観察用のライブビュー表示も行う。また、記録部4に記録されている撮影画像の通常再生やスライドショー形式での再生表示を行う。表示部8の表示制御を行うのが、表示制御部8aである。   The display unit 8 is configured by a display device such as a liquid crystal monitor disposed on the back surface of the camera 10, and displays and reproduces image data recorded in the recording unit 4. In addition, the subject image is displayed instead of the optical viewfinder. Live view display for observation. In addition, normal reproduction of the captured image recorded in the recording unit 4 and reproduction display in a slide show format are performed. The display control unit 8a performs display control of the display unit 8.

時計部9は計時機能やカレンダ機能を有し、撮影時の日時情報の取得等に用いる。ここで得られた日時情報は、撮影画像を記録部4に記録する際に、撮影画像と一緒にファイル化して記録される。操作判定部11は、ユーザーによるカメラ10の操作部材等の操作状態を判定する。この操作状態に応じて、前述したように、制御部1はカメラ10の制御を行う。   The clock unit 9 has a timekeeping function and a calendar function, and is used for acquiring date and time information at the time of shooting. The date and time information obtained here is recorded as a file together with the photographed image when the photographed image is recorded in the recording unit 4. The operation determination unit 11 determines an operation state of an operation member or the like of the camera 10 by the user. In accordance with this operation state, the control unit 1 controls the camera 10 as described above.

笑顔度判定部12は、顔検出部5によって検出された人物の顔の笑顔の程度を数値化する。笑顔度の判定は、図6乃至図9を用いて後述する。通信部14は、有線通信や無線通信によって外部のテレビ20と送受信を行う。この通信部14を介して、記録部4に記録されている撮影画像を外部に送信することができる。   The smile degree determination unit 12 quantifies the degree of smile of the person's face detected by the face detection unit 5. The determination of the smile level will be described later with reference to FIGS. The communication unit 14 performs transmission / reception with the external television 20 by wired communication or wireless communication. The photographed image recorded in the recording unit 4 can be transmitted to the outside via the communication unit 14.

次に、このように構成された本実施形態に係わるカメラ10の詳しい動作を説明する前に、撮影画像の再生表示の基本的なやり方について説明する。本実施形態の特徴として、ユーザーが、一番、見たいと思われる画像を即座に表示するようにしている。撮影者は大量の画像を撮影しており、この中には、笑顔等により見栄えの良い画像があり、また、同じ人物が何回も写っていることもある。   Next, before describing the detailed operation of the camera 10 according to the present embodiment configured as described above, a basic method for reproducing and displaying a captured image will be described. As a feature of this embodiment, an image that the user most wants to see is displayed immediately. The photographer shoots a large number of images. Among them, there are images that look good with a smile or the like, and the same person may be captured many times.

そこで、表示部8やテレビ20に再生表示するにあたって、写真群Aに示すような同じような写真ばかりを表示しないようにし、同じような写真の場合には、その中で一番良い写真B1を選択して表示する。スライドショー等により、次の画像に切り替えて鑑賞する場合には、同じ人物が写っている写真は避け、別の人物が写っている写真B2を再生表示する。   Therefore, when reproducing and displaying on the display unit 8 and the television 20, only the similar photos as shown in the photo group A are not displayed. In the case of similar photos, the best photo B1 is selected. Select to display. When switching to the next image for viewing by a slide show or the like, a photo B2 showing a different person is reproduced and displayed, avoiding a photo showing the same person.

また、画像Cのように、この画像の中の中央の人物の顔のみを切出部6によって切り出し、この切出された複数の顔を合成処理部7によって合成して表示するような応用も可能である。   In addition, as in the image C, only the face of the center person in the image is cut out by the cutout unit 6, and the plurality of cut out faces are combined and displayed by the combination processing unit 7. Is possible.

以上のような基本的にやり方に沿った本実施形態に係わるカメラ10の詳しい動作を、図2に示すフローチャートを用いて説明する。図2は、カメラ10のカメラ制御の動作を示すフローチャートであり、このフローに入ると、まず、撮影者が撮影モードに設定したか否かの判定を行う(S1)。判定の結果、撮影モードに設定していた場合には、撮像し、スルー画(ライブビュー表示とも言う)の表示を行う(S2)。このステップにおいて、撮像は撮像部2によって行い、ここで取得した被写体の画像データを表示部8にスルー画表示させる。   The detailed operation of the camera 10 according to the present embodiment along the basic manner as described above will be described with reference to the flowchart shown in FIG. FIG. 2 is a flowchart showing the camera control operation of the camera 10. When this flow is entered, it is first determined whether or not the photographer has set the photographing mode (S1). As a result of the determination, if the shooting mode is set, an image is taken and a through image (also referred to as a live view display) is displayed (S2). In this step, imaging is performed by the imaging unit 2, and the acquired image data of the subject is displayed on the display unit 8 as a through image.

続いて、顔位置、大きさ、数の検出を行う(S3)。このステップでは、撮像部2によって取得した画像データを用いて顔検出部5によって、被写体像の中から顔の位置を検出し、この被写体像の中の顔の数を検出し、それぞれの顔について大きさを判定する。次に、笑顔度判定と画面中央に位置する顔の特徴の判定を行う(S4)。   Subsequently, the face position, size, and number are detected (S3). In this step, the face detection unit 5 detects the position of the face from the subject image using the image data acquired by the imaging unit 2, detects the number of faces in the subject image, and determines each face. Determine the size. Next, smile level determination and determination of the feature of the face located at the center of the screen are performed (S4).

ステップS4における笑顔度の判定は図6乃至図9を用いて後述する。また、画面中央に位置する顔の特徴は、例えば、顔の陰影を直線近似し、交点の座標によって把握する。図10に示す例では、目を囲む3つの直線の交点、81、82、83、84によって特徴付けている。この特徴点の座標を顔ごとに検出し、それを画像ごとに記録しておくことにより、各画像の顔部の特徴点の分布の類似度に基づいて、同じ人物の顔か否かを判定することができる。   The determination of the smile level in step S4 will be described later with reference to FIGS. The feature of the face located at the center of the screen is grasped by, for example, linearly approximating the shadow of the face and using the coordinates of the intersection. The example shown in FIG. 10 is characterized by the intersections of three straight lines 81, 82, 83, and 84 surrounding the eyes. By detecting the coordinates of this feature point for each face and recording it for each image, it is determined whether or not the faces of the same person are based on the similarity of the distribution of the feature points of the facial parts of each image can do.

ステップS4における笑顔度の判定等が終わると、次に、レリーズ釦が操作され、撮影を行うか否かの判定を行う(S5)。ステップS5における判定の結果、撮影動作を行わない場合には、ステップS1に戻り、前述の動作を行う。本実施形態においては、撮影モードが選択され、撮影動作に実行しない場合には、撮像部2によって取得した被写体像について、顔の位置、大きさ、数を検出すると共に、笑顔度の判定と顔の特徴点の検出を繰り返し、実行している。   When the determination of the smile level in step S4 is completed, the release button is then operated to determine whether or not to shoot (S5). If the result of determination in step S5 is that no shooting operation is to be carried out, processing returns to step S1 and the aforementioned operation is performed. In the present embodiment, when the shooting mode is selected and the shooting operation is not performed, the position, size, and number of faces of the subject image acquired by the imaging unit 2 are detected, and the determination of the smile level and the face The feature points are repeatedly detected and executed.

ステップS5における判定の結果、レリーズ釦が操作された場合には、撮影動作を実行する(S6)。このステップにおいて、撮像部2によって撮影を行い、静止画の画像データを取得する。撮影画像の画像データを取得すると、次に、撮影の直前にステップS3において、顔検出部5によって検出された、画像に含まれる顔の数をテーブル化し(S7)、ステップS3、S4において顔検出部5によって検出された顔の位置、大きさ、笑顔度、特徴をテーブル化する(S8)。   If the result of determination in step S5 is that the release button has been operated, a shooting operation is executed (S6). In this step, shooting is performed by the imaging unit 2, and image data of a still image is acquired. When the image data of the photographed image is acquired, the number of faces included in the image detected by the face detection unit 5 in step S3 immediately before photographing is tabulated (S7), and face detection is performed in steps S3 and S4. The face position, size, smile level, and features detected by the unit 5 are tabulated (S8).

ステップS7、S8において作成されるテーブルは、図11(a)に示すように、各画像ごとに(図11に示す例では、画像1〜画像4)、まず顔の数が記録され、その右隣には後述するイベント名が記録される。そして、中央近くの人物の顔について、顔の特徴、位置、大きさ、笑顔度がそれぞれ記録されている。また、中央近くの右の顔については位置、大きさ、笑顔度が記録され、順次、中央近くの左の顔、中央近くのその他の顔、・・・と画像に含まれる顔について位置、大きさ、笑顔度が記録される。   In the table created in steps S7 and S8, as shown in FIG. 11A, the number of faces is first recorded for each image (image 1 to image 4 in the example shown in FIG. 11). The event name described later is recorded next to it. Then, for the face of a person near the center, the facial feature, position, size, and smile level are recorded. The position, size, and smile level are recorded for the right face near the center, and the position, size, and size for the left face near the center, other faces near the center, and so on, are sequentially displayed. The smile level is recorded.

本実施形態においては、画面中央の人物の顔については、情報量を多くし、周辺の人物の顔については情報量を少なくしている。周辺の人物の顔についても中央と同程度の情報量としても良いが、情報量を多くすることにより、処理時間がかかるので、本実施形態においては、周辺の情報量を少なくしている。なお、中央以外の顔については、笑顔度も省略しても良い。省略することにより、情報量は減るが、処理時間を短縮することができる。   In the present embodiment, the amount of information is increased for the face of the person at the center of the screen, and the amount of information is reduced for the faces of surrounding persons. Although the amount of information on the faces of the surrounding people may be the same as that in the center, the processing time is increased by increasing the amount of information. Therefore, in this embodiment, the amount of information on the periphery is reduced. The smile level may be omitted for faces other than the center. By omitting, the amount of information is reduced, but the processing time can be shortened.

次に、撮影結果とテーブルを記録する(S9)。このステップでは、ステップS7、S8において作成したテーブルを撮影結果と図11(b)に示すようにペアにし(図11(b)の例では、画像1及び画像2についてのみ示す)、すなわち、画像データのヘッダ部にテーブルの記録されているアドレスを、画像vs顔記録部4aに記録する。撮影結果とテーブル記録が終わると、リターンし、ステップS1から実行する。なお、以下「リターン」とは、ステップS1に戻る処理を意味するものとする。   Next, the photographing result and the table are recorded (S9). In this step, the table created in steps S7 and S8 is paired with the photographing result as shown in FIG. 11B (only the image 1 and the image 2 are shown in the example of FIG. 11B). The address recorded in the table in the header part of the data is recorded in the image vs face recording unit 4a. When the photographing result and the table recording are finished, the process returns and the process is executed from step S1. Hereinafter, “return” means processing to return to step S1.

このように、本実施形態においては、撮影モードに入ると、スルー画表示用の画像データを用いて、リアルタイムで顔の数や位置等を検出し、レリーズ釦の操作による撮影動作時に、レリーズ操作の直前に検出された顔の数や位置等を撮影画像と共に記録を行う。   As described above, in this embodiment, when the shooting mode is entered, the number and positions of faces are detected in real time using image data for live view display, and the release operation is performed during the shooting operation by operating the release button. The number, position, etc. of the faces detected immediately before are recorded together with the captured image.

ステップS1における判定の結果、撮影モードでなかった場合には、次に、通常再生か否かの判定を行う(S11)。本実施形態における撮影画像の再生表示には、通常再生とスマイルサーチの2種類を用意している。通常再生は、公知の再生表示であり、記録部4に記録されている撮影画像を選択して表示するモードである。   If the result of determination in step S1 is not shooting mode, it is next determined whether or not normal playback is to be carried out (S11). In the present embodiment, two types of reproduction, that is, normal reproduction and smile search are prepared for reproduction display of the captured image. Normal reproduction is a known reproduction display, and is a mode in which a photographed image recorded in the recording unit 4 is selected and displayed.

スマイルサーチは、本実施形態における特徴的な再生表示であり、撮影画像の中から笑顔度の高い画像を検索し、この画像を図1の写真B1のように表示し、さらに次の画像を表示する場合には、写真B1に写っていた人物以外の人物が写っている写真B2を表示する。これらの再生表示は、操作判定部11が操作部材の操作状態を判定することにより行う。   Smile search is a characteristic reproduction display in the present embodiment. An image with a high degree of smile is searched from captured images, this image is displayed as shown in photo B1 in FIG. 1, and the next image is displayed. When doing so, the photograph B2 in which a person other than the person in the photograph B1 is shown is displayed. These reproduction displays are performed by the operation determination unit 11 determining the operation state of the operation member.

ステップS11における判定の結果、通常再生であった場合には、公知の再生表示を行う(S12)。一方、ステップS11における判定の結果、通常再生ではなかった場合には、サーチ再生か、即ちスマイルサーチによる再生表示を行うか否かの判定を行う(S13)。ステップS13における判定の結果、サーチ再生でなかった場合には、イベント分類を行う(S15)。   If the result of determination in step S11 is normal playback, a known playback display is performed (S12). On the other hand, if the result of determination in step S11 is not normal playback, it is determined whether or not search playback is to be performed, that is, whether or not playback display is performed by a smile search (S13). If the result of determination in step S13 is not search playback, event classification is performed (S15).

ステップS15におけるイベント分類は、図3及び図4を用いて後述するが、このステップでは、撮影画像が運動会等の学校表示や結婚式等のパーティ等のいずれに属するかの判定を行う。イベント分類が終わると、ステップS1に戻り、前述のステップを繰り返す。このように本実施形態においては、撮影モード、通常再生、サーチ再生のいずれのモードも選択されていない場合には、撮影画像についてイベント分類を行う。   The event classification in step S15 will be described later with reference to FIGS. 3 and 4. In this step, it is determined whether the photographed image belongs to a school display such as an athletic meet or a party such as a wedding. When the event classification is completed, the process returns to step S1 and the above steps are repeated. As described above, in this embodiment, when any of the shooting mode, normal playback mode, and search playback mode is not selected, event classification is performed on the shot image.

ステップS13における判定の結果、サーチ再生であった場合には、スマイルサーチを行う(S14)。スマイルサーチについては、図5を用いて後述する。スマイルサーチを行うと、またはステップS12における再生を行うと、次に、通信を行うか否かの判定を行う(S21)。このステップでは、カメラ10の通信部14を介して、有線通信または無線通信で接続されているテレビ20等の外部表示装置と通信を行うか否かの判定を行う。通信はユーザーにより通信の指示がなされた場合に行う。   If the result of determination in step S13 is search playback, a smile search is performed (S14). The smile search will be described later with reference to FIG. If the smile search is performed or the reproduction in step S12 is performed, it is next determined whether or not communication is performed (S21). In this step, it is determined whether or not to communicate with an external display device such as the television 20 connected by wired communication or wireless communication via the communication unit 14 of the camera 10. Communication is performed when a communication instruction is given by the user.

ステップS21における判定の結果、通信を行わない場合には、リターンし、ステップS1から実行する。一方、ステップS21における判定の結果、通信を行う場合には、表示場所の指定を行う(S23)。ここでは、カメラ10に対して有線通信または無線通信で接続されている外部の表示装置を決定する。図1に示した例では、テレビ20である。続いて、選択された画像の送信を行う(S24)。サーチ再生の場合には、ステップS14におけるスマイルサーチによって検索された画像を送信する。   If communication is not performed as a result of the determination in step S21, the process returns and executes from step S1. On the other hand, if communication is performed as a result of the determination in step S21, a display location is designated (S23). Here, an external display device connected to the camera 10 by wired communication or wireless communication is determined. In the example shown in FIG. Subsequently, the selected image is transmitted (S24). In the case of search reproduction, the image searched by the smile search in step S14 is transmitted.

次に、図3及び図4を用いてイベント分類について説明する。まず、イベント分類の考え方について説明する。図3は、時間情報によって、画像が分類される様子を例示するグラフである。また、顔検出部5によって、顔が検出されたものは、網がけで表示する。   Next, event classification will be described with reference to FIGS. First, the concept of event classification will be described. FIG. 3 is a graph illustrating how images are classified according to time information. In addition, if a face is detected by the face detection unit 5, it is displayed in halftone.

図3から明らかなように、まとまった画像がある場合は、何かイベントがあったということが想定できる。例えば、9月21日は午前から午後にかけて集中的に撮影がなされ、人物の写真は9月24日の場合より少ない。また、9月24日は午後から夕方にかけて集中的に撮影がなされており、しかも人物の写真が多い撮影となっている。   As is clear from FIG. 3, when there is a grouped image, it can be assumed that there was an event. For example, on September 21st, shooting is performed intensively from morning to afternoon, and there are fewer photographs of people than on September 24th. On September 24, shooting was performed intensively from the afternoon to the evening, and many people were photographed.

これらの情報から、9月21日は運動会における撮影であり、9月24日は結婚式における撮影と想定される。また、9月24日が結婚式だとすれば、9月25日に撮影した画像を再生させる場合、前日の画像と分類して表示する。9月24日と9月25日の画像が混ざると、再生時に、例えば、仕事の画像に突然、プライベート画像が紛れ込むような問題が生じてしまうので、撮影の内容(イベント)の分類分けを行っておく。   From these pieces of information, it is assumed that September 21 is shooting at an athletic meet and September 24 is shooting at a wedding. Further, if September 24 is a wedding, when an image taken on September 25 is reproduced, the image is classified and displayed as the previous day image. If the images of September 24 and September 25 are mixed, there will be a problem that, for example, a private image is suddenly mixed in with a work image at the time of playback. Keep it.

このように、本実施形態においては、撮影画像と共に記録されている日時情報を用い、また撮影画像に顔が存在するか等の人物在否情報等を用いて、撮影の内容(イベント)の分析を行う。スマイルサーチの場合には、ここで分類された同一のイベント内において実行する。   As described above, in the present embodiment, the contents of the shooting (event) are analyzed using the date / time information recorded together with the shot image, and using the presence / absence information of the person such as the presence of a face in the shot image. I do. In the case of a smile search, it is executed within the same event classified here.

次に、イベント分類のサブルーチンについて図4に示すフローチャートを用いて説明する。このフローに入ると、まず、一日(24時間)を6分割し、撮影画像の整理を行う(S101)。この画像整理は、撮影画像と一緒に記録される日時情報を用い、撮影時間帯によって行う。なお、本実施形態においては、24時間を6分割して分類を行っているが、これに限らず、4分割でも8分割でも分割値は適宜変更して良い。   Next, the event classification subroutine will be described with reference to the flowchart shown in FIG. In this flow, first, one day (24 hours) is divided into six, and the captured images are arranged (S101). This image arrangement is performed according to the shooting time zone using date and time information recorded together with the shot image. In the present embodiment, classification is performed by dividing 24 hours into 6 parts. However, the present invention is not limited to this, and the division value may be appropriately changed in 4 divisions or 8 divisions.

次に、ステップS103からステップS105において、撮影画像のイベントの分類を行う。まず、撮影画像の集中の度合いを判定する(S103)。このステップでは、6分割された時間帯に対して、短時間に集中的に撮影がなされているか否かの判定を行う。判定の結果、集中していた場合には、次に、顔検出部5の検出に基づいて、顔アップが少ないか否かの判定を行う(S104)。   Next, in step S103 to step S105, events of the captured image are classified. First, the degree of concentration of captured images is determined (S103). In this step, it is determined whether or not photographing is performed intensively in a short time with respect to the time zone divided into six. If the result of the determination is that it is concentrated, it is next determined whether or not there is little face-up based on detection by the face detection unit 5 (S104).

判定の結果、顔アップが少ない場合には、運動会等の学校行事と判定し(S111)、一方、顔アップが多い場合にはパーティと判定する(S112)。運動会等の学校行事は短時間に集中的に行われるものが多く、父兄等は子供を遠くから撮影するため顔のアップが少ない傾向にある。パーティは短時間で行われることが多い点は学校行事と同じであるが、顔のアップ写真が多いことから学校行事と区別することが可能である。   As a result of the determination, if the face-up is small, it is determined that it is a school event such as an athletic meet (S111). On the other hand, if the face-up is large, it is determined that the party is a party (S112). Many school events such as athletic events are concentrated in a short period of time, and parents and the like tend to photograph their children from a distance, so that their faces are less likely to be raised. The party is often held in a short time, which is the same as the school event, but it can be distinguished from the school event because there are many face-up photos.

ステップS103における判定の結果、所定時間に集中していなかった場合には、風景画像が多いか否かについて判定する(S105)。判定の結果、風景画像が多い場合には旅行と判定し(S113)、一方、風景画像が多い場合には、その他と判定する(S114)。旅行の場合には、一日に撮影が分散し短時間の集中的撮影となることは少なく、また風景画像が多くなることから、このような判定を行っている。風景画像が少ない場合には、旅行でもなく、また前述の学校行事やパーティでもないことから、その他と判定している。   If the result of determination in step S103 is that there is no concentration in a predetermined time, it is determined whether there are many landscape images (S105). If the result of determination is that there are many landscape images, it is determined that the trip is a trip (S113). In the case of travel, such a determination is made because shooting is dispersed in a single day and there is little intensive shooting for a short time, and there are many landscape images. If there are few landscape images, it is not a trip, and it is not a school event or party as described above.

イベントの選択が終わると、次に、分類されたイベント情報をテーブル化する(S115)。すなわち、ステップS111からステップS114において分類されたイベントを、図11(a)において説明したテーブル中のイベントの欄に記録し、また図11(b)に示したように撮影画像と対にして記録する。   When the event selection is completed, the classified event information is tabulated (S115). That is, the events classified in steps S111 to S114 are recorded in the event column in the table described in FIG. 11A, and are recorded in pairs with the photographed image as shown in FIG. 11B. To do.

次に、ステップS14のスマイルサーチの詳細について、図5に示すフローチャートを用いて説明する。カメラ10の記録部4に記録されている撮影画像に写っている人物の顔を全てサーチすると、時間もかかり、また誤動作を起こし易くなる。そこで、本実施形態においては、画面中央に存在する顔が、多くの場合、主被写体であることが多いことから、この画面中央部の画像を主に利用して判定を行っている。   Next, details of the smile search in step S14 will be described using the flowchart shown in FIG. Searching for all the faces of a person in the captured image recorded in the recording unit 4 of the camera 10 takes time and is liable to cause a malfunction. Therefore, in this embodiment, since the face existing at the center of the screen is often the main subject in many cases, the determination is performed mainly using the image at the center of the screen.

スマイルサーチのサブルーチンに入ると、まず、画面中央部に顔のある写真を選択する(S31)。すなわち、ある特定のイベントの写真の集合体の中から、画面中央部に顔のある写真を検索する。前述したように、図11(a)に示したテーブルには、顔の位置に関する情報が記録されているので、このテーブルの中から、略画面中央に顔のある写真を探し出す。   When entering the smile search subroutine, first, a photograph with a face in the center of the screen is selected (S31). That is, a photograph with a face in the center of the screen is searched from a collection of photographs of a specific event. As described above, in the table shown in FIG. 11A, information on the position of the face is recorded. From this table, a photograph with a face in the approximate center of the screen is searched.

画面中央部に顔のある写真の選択が終わると、続いて、笑顔度の判定を行う(S32)。選択された写真の中央に写っている顔の笑顔度を数値Rとして求める。笑顔度の判定は、撮影時に笑顔度が求められていれば、そのとき記録したテーブルから読み出せばよい。撮影時に笑顔度が求められていなかった場合には、図6乃至図9を用いて後述するようにして笑顔度を求める。   When the selection of a photo with a face in the center of the screen is finished, the smile level is determined (S32). The degree of smile of the face in the center of the selected photo is obtained as a numerical value R. The determination of the smile level may be read from the table recorded at that time if the smile level is required at the time of shooting. If the smile level is not calculated at the time of shooting, the smile level is determined as described later with reference to FIGS.

笑顔度の判定が終わると、各画像に写っている人物の数と、中央の人物の笑顔度の掛け算を行い、この値をRNとして求める(S33)。数値RNが大きいほど、中央の人物の笑顔度が高く、かつ、多くの人物が写っている写真であり、見栄えの良い写真といえる。なお、人物の数は、図11(a)に示したテーブルに記憶されている顔の数を用いればよい。   When the smile level is determined, the number of persons in each image is multiplied by the smile level of the central person, and this value is obtained as RN (S33). The larger the numerical value RN, the higher the smile level of the central person, and the more the person is in the picture, the better the picture. Note that the number of faces may be the number of faces stored in the table shown in FIG.

数値RNを求めると、次に、全画像が終了したか否かの判定を行う(S34)。このステップでは、あるイベントの中で、画面中央部に顔のある写真の全てについてステップS31からS33を実行したか否かの判定を行う。ステップS34における判定の結果、全ての画像について終わっていなかった場合には、次の候補を選択し(S35)、ステップS31に戻り、全ての画像について終了するまで、ステップS31〜S33を繰り返す。   Once the numerical value RN has been obtained, it is next determined whether or not all images have been completed (S34). In this step, it is determined whether or not steps S31 to S33 have been executed for all photographs having a face in the center of the screen in a certain event. If the result of determination in step S34 is that the processing has not been completed for all images, the next candidate is selected (S35), the process returns to step S31, and steps S31 to S33 are repeated until the processing is completed for all images.

ステップS34における判定の結果、全ての画像について終了した場合には、ステップS33において求めた数値RNの最も高い画像を表示の候補とし(S36)、この画像を表示部8、またはテレビ20等の外部の表示装置に表示する(S37)。続いて、画面中央の人物の特徴量を記憶する(S38)。ここで、中央の人物の顔の特徴量を記憶するのは、同じ人ばかりが表示されるのを防止するためである。なお、特徴量は図11(a)に示したテーブルに記憶されている特徴量を用いる。 As a result of the determination in step S34, if all the images are completed, the image having the highest numerical value RN obtained in step S33 is set as a display candidate (S36), and this image is displayed on the display unit 8 or the television 20 or the like. Is displayed on the display device (S37) . Subsequently, the feature amount of the person at the center of the screen is stored (S38). Here, the feature amount of the face of the central person is stored in order to prevent only the same person from being displayed. Note that the feature quantity stored in the table shown in FIG.

中央の人物の特徴量を記憶すると、次の画像の表示を希望するか否かの判定を行う(S39)。このステップでは、ユーザーが次の画像を見たい時には、その旨の操作を行うので、この操作がなされたか否かの判定を行う。ステップS39における判定の結果、次の画像を希望する場合には、表示済み画像中央の人物が中央に位置している画像を除外する(S40)。すでに表示された中央の人の特徴量は、ステップS38において記憶されているので、その人が中央に位置している画像を選択しないようにして除外し、次の表示候補をステップS36に戻り、検索する。   When the feature amount of the central person is stored, it is determined whether or not display of the next image is desired (S39). In this step, when the user wants to see the next image, an operation to that effect is performed, so it is determined whether or not this operation has been performed. If the result of determination in step S39 is that the next image is desired, the image in which the person at the center of the displayed image is located in the center is excluded (S40). Since the feature amount of the center person already displayed is stored in step S38, the feature is excluded by not selecting the image in which the person is located in the center, and the next display candidate is returned to step S36. Search for.

ステップS39における判定の結果、ユーザーが次の画像の表示を望まない場合には、元のルーチンに戻る。このように、スマイルサーチのサブルーチンにおいては、中央に位置する人物の笑顔度が高いものを表示するようにしている。画面の中央には、撮影者の興味の中心がいる場合が多く、一番、見たい画像が選ばれる可能性を高めることができる。また、笑顔度のみならず、写っている人数も考慮しているので、スライドショー等の撮影画像の再生にあたって、多くの人が楽しむことができる。   If the result of determination in step S39 is that the user does not want to display the next image, processing returns to the original routine. In this manner, in the smile search subroutine, the one with a high smile level of the person located at the center is displayed. In the center of the screen, there is often a photographer's center of interest, and the possibility that the image that the user wants to view will be selected is increased. Moreover, since not only the degree of smile but also the number of people in the image is taken into consideration, many people can enjoy the reproduction of captured images such as a slide show.

次に、図6乃至図9を用いて、笑顔度の判定について説明する。図6(a)は笑顔の人の顔を示し、図6(b)は困った人の顔を示す。図から分かるように、笑顔と困った顔では、目や唇に違いが見られる。図7に示すフローチャートでは、この違いから笑顔度を求めている。   Next, determination of the smile level will be described with reference to FIGS. 6A shows the face of a smiling person, and FIG. 6B shows the face of a troubled person. As you can see, there are differences in eyes and lips between smiling faces and troubled faces. In the flowchart shown in FIG. 7, the smile level is obtained from this difference.

笑顔判定のサブルーチンに入ると、まず、目部と口部の検出を行なう(S151)。これは、撮像部2の出力に基づいて、顔検出部5によって顔を検出し、その検出された顔の中から目と、口の部分をパターン認識により抽出する。   When the smile determination subroutine is entered, first the eyes and mouth are detected (S151). This is based on the output of the imaging unit 2 and the face detection unit 5 detects a face, and the eyes and mouth are extracted from the detected face by pattern recognition.

続いて、ステップS152からS154において、眼の白目の面積から笑顔度を検出する。まず、両目の瞳を結ぶ線61より上側の白目の面積を測定し、この値をEAとする(S152)。同様に、線61より下側の白目の面積を測定し、この値をEBとする(S153)。次に、こうして得たEA、EBの差を、これらの和で正規化して、すなわち、(EA−EB)/(EA+EB)を求め、数値REを得る(S154)。数値REは大きいほうが、笑顔度が高いと判定される。   Subsequently, in steps S152 to S154, the smile level is detected from the area of the white of the eye. First, the area of the white eye above the line 61 connecting the eyes of both eyes is measured, and this value is set as EA (S152). Similarly, the area of the white eye below the line 61 is measured, and this value is set to EB (S153). Next, the difference between EA and EB obtained in this way is normalized by the sum of these, that is, (EA−EB) / (EA + EB) is obtained to obtain a numerical value RE (S154). It is determined that the larger the numerical value RE, the higher the smile degree.

次に、ステップS155からS157において、唇の面積から笑顔度を検出する。まず、口の両端を結ぶ線62より上側の唇の面積を測定し、この値をLAとする(S155)。同様に、線62より下側の唇の面積を測定し、この値をLBとする(S156)。こうして得たLA、LBの差を、これらの和で正規化して、すなわち、(LB−LA)/(LA+LB)を求め、数値RLを得る(S157)。数値RLは大きいほうが、笑顔度が高いと判定される。   Next, in steps S155 to S157, the smile level is detected from the area of the lips. First, the area of the lips above the line 62 connecting both ends of the mouth is measured, and this value is set as LA (S155). Similarly, the area of the lips below the line 62 is measured, and this value is set as LB (S156). The difference between LA and LB thus obtained is normalized by the sum of these, that is, (LB−LA) / (LA + LB) is obtained to obtain a numerical value RL (S157). It is determined that the larger the numerical value RL, the higher the smile degree.

続いて、ステップS154とS157で得た値REとRLを加算して笑顔度Rを求める(S158)。値Rが大きいほど笑顔に近いことになる。さらに、笑顔度の判定の精度を高めるために、図6(a)の矢印64付近の状態を判定する(S159)。すなわち、口の端部に影があり、歯が見えていれば、笑顔の確率が高いので、それを判定する。ステップS159における判定の結果、歯が見えており、かつ口端部に影があれば、笑顔度Rに1点、加算する(S160)。   Subsequently, the smile level R is obtained by adding the values RE and RL obtained in steps S154 and S157 (S158). The larger the value R, the closer to smile. Furthermore, in order to improve the accuracy of determination of the smile level, the state near the arrow 64 in FIG. 6A is determined (S159). That is, if there is a shadow at the edge of the mouth and teeth are visible, the probability of smile is high, and this is determined. If the result of determination in step S159 is that teeth are visible and there is a shadow at the mouth edge, one point is added to smile level R (S160).

ただし、眉間にしわがあると笑顔とは言えないので、ステップS161で判定する。すなわち、図6(b)の矢印65付近において眼の間の皺があるか否かの判定を行なう(S161)。判定の結果、眉間の間に皺を検出した場合は、笑顔度Rから1点、減点する(S162)。このように笑顔に近いほど高得点になる数値化(R)が可能となる。   However, if there is a wrinkle between the eyebrows, it cannot be said that it is a smile. That is, it is determined whether or not there is a wrinkle between the eyes near the arrow 65 in FIG. 6B (S161). If the eyelid is detected between the eyebrows as a result of the determination, one point is deducted from the smile level R (S162). In this way, the numerical value (R) can be obtained such that the closer to a smile, the higher the score.

なお、本実施形態においては、両目の瞳の中心を結んだ線より上側に白目が多いか否かで笑顔度を求めたが、これに限らず、上瞼の傾き等によって求めるようにしてもよい。すなわち、図6(a)において、瞼の幅EHに対し、瞼の一番高いところの位置ETを求め、これの比、ET/EHによっても笑顔度を求めることができる。ET/EHが大きくなると笑顔に近くなり、また、この比が小さくなり、上瞼の傾きが大きくなると笑顔から遠ざかる傾向にある。   In the present embodiment, the degree of smile is determined based on whether there are many white eyes above the line connecting the centers of the eyes of both eyes. However, the present invention is not limited to this. Good. That is, in FIG. 6A, the position ET at the highest point of the heel with respect to the width EH of the heel is obtained, and the smile degree can also be obtained by the ratio ET / EH. When ET / EH increases, it becomes close to a smile, and when this ratio decreases and the inclination of the upper eye increases, it tends to move away from the smile.

上述した笑顔度の判定は、図8(a)に示すように、人物が正面を向いているときには、その人物の感情を推し量って正確に判定することができる。しかし、図8(b)(c)に示すような上目遣い、見下しの角度では、正確な判定を行うことができない。そこで、ステップS161における判定結果が眉間に皺がなかった場合、またはステップS162の処理が終わると、次に、R補正を行っている(S163)。R補正が終わると、元のルーチンに戻る。   As shown in FIG. 8A, the determination of the smile level described above can be made accurately by estimating the emotion of the person when the person is facing the front. However, an accurate determination cannot be made with the upper eye and the looking-down angle as shown in FIGS. Therefore, when the determination result in step S161 is that there is no wrinkle between the eyebrows, or when the processing in step S162 is completed, next, R correction is performed (S163). When the R correction is completed, the process returns to the original routine.

次に、ステップS163におけるR補正のサブルーチンについて、図9に示すフローチャートを用いて説明する。R補正のサブルーチンに入ると、まず、顔の中心座標を判定し(S251)、目部の中心座標を判定する(S252)。この顔の中心と目部の中心の座標は顔検出部5によって判定する。次に、顔の中心と目部の中心の中心間距離ΔYを求める(S253)。   Next, the R correction subroutine in step S163 will be described with reference to the flowchart shown in FIG. When entering the R correction subroutine, first, the center coordinates of the face are determined (S251), and the center coordinates of the eyes are determined (S252). The face detection unit 5 determines the coordinates of the face center and the eye center. Next, a center-to-center distance ΔY between the center of the face and the center of the eye is obtained (S253).

続いて、中心間距離ΔYが−ΔY1より小さいか否かを判定する(S256)。この判定の結果、顔の中心と目部の中心の中心間距離ΔYが−ΔY1より小さい場合には、図8(b)に示すような上目遣いの場合と想定され、笑顔から程遠いと思われることから、R値から1を減算する(S257)。   Subsequently, it is determined whether or not the center-to-center distance ΔY is smaller than −ΔY1 (S256). As a result of this determination, if the center-to-center distance ΔY between the center of the face and the center of the eye is smaller than −ΔY1, it is assumed that the upper eye is used as shown in FIG. 1 is subtracted from the R value (S257).

次に、中心間距離ΔYが+ΔY2より大きいか否かを判定する(S258)。この判定の結果、顔の中心と目部の中心の中心間距離ΔYが+ΔY2より大きい場合には、図8(c)に示すような見下しの場合と想定され、この状態も笑顔から程遠いと思われることから、R値から1を減算する(S259)。   Next, it is determined whether or not the center-to-center distance ΔY is greater than + ΔY2 (S258). As a result of this determination, when the center distance ΔY between the center of the face and the center of the eye is larger than + ΔY2, it is assumed that the person looks down as shown in FIG. 8C, and this state is also far from the smile. Therefore, 1 is subtracted from the R value (S259).

このように、顔中心の位置と、目の中心位置を判定し、この中心間距離が−ΔY1と+ΔY2の間(図8(a)ではΔY0)の範囲に入っている場合には、正面を向いており、所定値−ΔY1や+ΔY2を越えた場合は、顔をそむけた状態であり、笑顔から程遠いとして、笑顔度をあらわすR値を減算している(S257、259)。R補正のサブルーチンが終わると元のルーチンに戻る。   In this way, the face center position and the eye center position are determined, and when the distance between the centers is between −ΔY1 and + ΔY2 (ΔY0 in FIG. 8A), the front face is determined. If the predetermined value −ΔY1 or + ΔY2 is exceeded, the face is turned away and the R value representing the degree of smile is subtracted because it is far from the smile (S257, 259). When the R correction subroutine ends, the process returns to the original routine.

以上、説明したように、本発明の第1実施形態においては、画面の中心付近の人物の笑顔度が高い画像を検索し、これを表示するようにしている。みんなで画像を鑑賞するにあたって、笑顔の写真は鑑賞者を和ませることから相応しい写真といえるが、撮影画像に登場する全ての人物について笑顔度を判定すると時間がかかってしまう。この点、本実施形態においては、画面中心付近の顔についてのみ判定するようにしているので、複数の画像の中から迅速に検索を行うことができる。   As described above, in the first embodiment of the present invention, an image having a high smile level of a person near the center of the screen is searched and displayed. When everyone views the image, it can be said that a smiling photo is a suitable photo because it softens the viewer, but it takes time to determine the smile level of all persons appearing in the captured image. In this regard, in the present embodiment, since only the face near the center of the screen is determined, it is possible to quickly search from a plurality of images.

また、本実施形態においては、画面中心付近の顔の笑顔度が高いことに加えて、1つの撮影画像の中に登場する顔の数の多い画像を選択している。登場している顔の数が多いほど、鑑賞者も楽しむことができる。   In this embodiment, in addition to the high smile level of the face near the center of the screen, an image having a large number of faces appearing in one captured image is selected. The more faces that appear, the more enjoyable the viewers will be.

さらに、本実施形態においては、続けて画像を再生する場合には、顔の特徴量に基づいて、前の画像で中心にいた顔以外の人の顔となるようにしている。このため、続けて複数の画像を再生表示する場合に、同じ人物が続けて画面中心付近となる画像を避けることができ、面白みのある再生表示となる。   Further, in the present embodiment, when the image is continuously reproduced, the face of the person other than the face centered in the previous image is set based on the feature amount of the face. For this reason, when a plurality of images are continuously reproduced and displayed, it is possible to avoid an image in which the same person continues to be near the center of the screen, and an interesting reproduction display is obtained.

次に、本発明の第2実施形態を図12に基づいて説明する。本発明の第1実施形態では、スマイルサーチは、笑顔度が高く、かつ画面内の顔の数が多いものを優先的に選択し、再生表示していた。第2実施形態においては、笑顔度の高い画像を優先的に再生表示し、画面内の顔の数については考慮していない。ただし、同じ人ばかり登場すると面白みに欠けるので、同じ人の顔は表示されないようにしている。   Next, a second embodiment of the present invention will be described with reference to FIG. In the first embodiment of the present invention, the smile search preferentially selects and reproduces and displays a smile having a high degree of smile and a large number of faces on the screen. In the second embodiment, an image with a high smile level is preferentially reproduced and displayed, and the number of faces in the screen is not considered. However, if only the same person appears, it is not interesting, so the face of the same person is not displayed.

第2実施形態の構成は、第1実施形態において図5に示したスマイルサーチのサブルーチンを図12に示すスマイルサーチのサブルーチンに変更する以外は同様である。相違点であるこのサブルーチンを中心に説明する。   The configuration of the second embodiment is the same as that of the first embodiment except that the smile search subroutine shown in FIG. 5 is changed to the smile search subroutine shown in FIG. This subroutine, which is the difference, will be mainly described.

本実施形態におけるスマイルサーチのフローに入ると、まず、所定部として画面中央を設定する(S60)。第1実施形態においては、画面中央のみについて笑顔度の比較を行っていたが、第2実施形態においては、周辺部も笑顔度の比較を行う場合がある。続いて、仮記憶画像をクリアする(S61)。この仮記憶画像は、後述するステップS71において類似しているかどうか比較するために表示画像を仮記憶しているが、初期状態においては、この仮記憶画像はクリアしておく。なお、本実施形態においては、画像データそのものを記憶する代わりに、所定部の顔の特徴量を記憶している。   If the smile search flow in this embodiment is entered, first, the center of the screen is set as a predetermined part (S60). In the first embodiment, the smile level is compared only for the center of the screen. In the second embodiment, the smile level may also be compared for the peripheral portion. Subsequently, the temporary storage image is cleared (S61). The temporary storage image temporarily stores the display image for comparison in step S71 to be described later. In the initial state, the temporary storage image is cleared. In the present embodiment, instead of storing the image data itself, the feature amount of the face of the predetermined part is stored.

次に、画面所定部に顔のある写真の選択を行う(S62)。このステップでは、選択されているイベントに関する写真群の中から、ステップS60で設定された所定部(最初は中央)に顔のある画像を1駒、選択する。続いて、選択された画像の所定部にある顔の笑顔度の判定を行う(S63)。笑顔度の判定は、撮影時に記録されている場合にはテーブルから読み出し、記録されていない場合には、図7で説明したフローを用いて行う。   Next, a photograph having a face in a predetermined part of the screen is selected (S62). In this step, one image having a face in the predetermined portion (initially the center) set in step S60 is selected from the group of photos related to the selected event. Subsequently, the smile level of the face in the predetermined part of the selected image is determined (S63). The determination of the smile level is read from the table when it is recorded at the time of shooting, and is performed using the flow described with reference to FIG. 7 if it is not recorded.

笑顔度の判定が終わると、次に、全画像について終了したか否かの判定を行おう(S64)。このステップでは、あるイベントの中で、画面の所定部に顔のある写真の全てについてステップS62とS63を実行したか否かの判定を行う。ステップS64における判定の結果、全ての画像について終わっていなかった場合には、次の候補を選択し(S65)、ステップS62に戻り、全ての画像について終了するまで、ステップS62〜S65を繰り返す。   When the smile level determination is completed, it is next determined whether or not all the images have been completed (S64). In this step, it is determined whether or not steps S62 and S63 have been executed for all photographs having a face in a predetermined part of the screen in a certain event. As a result of the determination in step S64, if all the images have not been completed, the next candidate is selected (S65), the process returns to step S62, and steps S62 to S65 are repeated until the completion for all the images.

ステップS64における判定の結果、全ての画像について終了していた場合には、笑顔度が一番高い画像を選択する(S66)。次に、選択された画像の所定部の顔の特徴量の判定を行う(S67)。顔が中央部に位置している場合には、図11に示したテーブルに記憶されているので、この値をそのまま記憶すれば良い。   If the result of determination in step S64 is that all the images have been completed, the image with the highest smile level is selected (S66). Next, the face feature amount of the predetermined part of the selected image is determined (S67). If the face is located at the center, it is stored in the table shown in FIG. 11, so this value may be stored as it is.

次に、ステップS66で選択された画像(なお、次の表示の場合には、ステップS72において選択された画像)と、仮記憶画像が類似しているか否かの判定を行う(S71)。この比較は、後述するステップS74において、表示するたびに所定部の顔の特徴量を記憶しているので、この顔の特徴量に基づいて行う。ここで、画像が類似されているか否かを判定しているのは、同じ人の顔が続けて表示されないようにするためである。   Next, it is determined whether the image selected in step S66 (in the case of the next display, the image selected in step S72) and the temporary storage image are similar (S71). This comparison is performed on the basis of the facial feature amount because the facial feature amount of a predetermined portion is stored every time it is displayed in step S74 described later. Here, the reason why it is determined whether or not the images are similar is to prevent the same person's face from being continuously displayed.

ステップS71における判定の結果、類似していなかった場合には、ステップS66において選択された画像(なお、次の表示の場合には、ステップS72において選択された画像)を表示する(S73)。この表示は、表示部8またはテレビ20等の外部の表示装置に行う。   If the result of determination in step S71 is not similar, the image selected in step S66 (in the case of the next display, the image selected in step S72) is displayed (S73). This display is performed on an external display device such as the display unit 8 or the television 20.

続いて、ステップS73において表示した画像の所定部の顔の特徴量を仮記憶する(S74)。仮記憶が終わると、次の表示を行うか否かの判定を行う(S75)。ユーザーが次の表示を望む場合には、操作部材による行うので、操作判定部11によりこれを判定する。ステップS75における判定の結果、次の表示がない場合には、元のルーチンに戻る。   Subsequently, the facial feature amount of a predetermined portion of the image displayed in step S73 is temporarily stored (S74). When temporary storage ends, it is determined whether or not to perform the next display (S75). When the user desires the next display, the operation determination unit 11 determines this because it is performed by the operation member. If the result of determination in step S75 is that there is no next display, processing returns to the original routine.

ステップS75における判定の結果、次の表示を行う場合には、所定部における笑顔度で次に大きな値の画像を選択する(S72)。このステップでは、ステップS62〜S65を繰り返し実行して求めた笑顔度の順に画像の選択を行う。次に、ステップS72において選択された画像があったか否かの判定を行う(S81)。所定部に顔のある全ての画像について選択されてしまうと、なしとなる。   As a result of the determination in step S75, when the next display is performed, an image having the next highest value is selected for the smile degree in the predetermined portion (S72). In this step, images are selected in the order of smile levels obtained by repeatedly executing steps S62 to S65. Next, it is determined whether or not there is an image selected in step S72 (S81). If all the images having a face in the predetermined part are selected, it becomes none.

ステップS81における判定の結果、画像が選択されていた場合には、ステップS71に戻り、顔の特徴量を用いて画像が類似しているか否かの判定を行う、類似していた場合には、ステップS72にジャンプし、次の画像を選択し、一方、画像が類似していなければ前述したように表示と顔の特徴量の仮記憶を行う。   If the result of determination in step S81 is that an image has been selected, the process returns to step S71 to determine whether or not the images are similar using facial feature amounts. Jumping to step S72, the next image is selected. On the other hand, if the images are not similar, the display and the facial feature amount are temporarily stored as described above.

ステップS81における判定の結果、画像が選択されなかった場合には、所定部の変更を行う(S82)。すなわち、最初は、画面中央部の顔の笑顔度や特徴量を判定していたが、画面中央部に顔がある画像がなくなると、次に、画面右側、画面左側と、ステップS82において所定部を変更する。なお、所定部は予めフローチャートでその順番を決めておくが、ユーザーが任意に設定できるようにしても良い。ステップS82において、所定部が変更されると、ステップS61に戻り、所定部を代えて笑顔度の高い画像を検索し、これを表示する。   If the result of determination in step S81 is that no image has been selected, the predetermined part is changed (S82). That is, at first, the smile level and the feature amount of the face in the center of the screen are determined. If there is no image having a face in the center of the screen, then the right side of the screen, the left side of the screen, and the predetermined part in step S82. To change. Note that the order of the predetermined units is determined in advance in the flowchart, but may be arbitrarily set by the user. In step S82, when the predetermined part is changed, the process returns to step S61, and an image with a high smile degree is searched for by replacing the predetermined part and displayed.

このように本発明の第2実施形態においては、画面の所定部にある顔の笑顔度の高い画像を順次再生表示し、また、同じ顔が表示されないようにしている。このため、迅速に検索することができ、色々な人の顔が順次、再生表示される。   As described above, in the second embodiment of the present invention, images with a high degree of smile on the face in a predetermined part of the screen are sequentially reproduced and displayed, and the same face is not displayed. Therefore, it is possible to search quickly, and various human faces are sequentially reproduced and displayed.

また、本実施形態においては、ステップS82において所定部を変更することができるので、画面中央付近以外にいる人の顔についても、笑顔度を判定し、笑顔度の高い画像を再生表示することができる。   In the present embodiment, since the predetermined part can be changed in step S82, the smile level can be determined for a face of a person who is not near the center of the screen, and an image with a high smile level can be reproduced and displayed. it can.

次に、本発明の第3実施形態を図13および図14に基づいて説明する。本発明の第1実施形態では、スマイルサーチは、笑顔度が高く、かつ画面内の顔の数が多いものを優先的に選択し、第2実施形態においては、笑顔度の高い画像を優先的に再生表示し、画面内の顔の数については考慮していなかった。第3実施形態においては、笑顔度は考慮するが、これと撮影画像の構図にも考慮して表示画像の選択を行うようにしている。   Next, a third embodiment of the present invention will be described with reference to FIGS. In the first embodiment of the present invention, the smile search preferentially selects an image with a high smile level and a large number of faces in the screen, and in the second embodiment, an image with a high smile level is given priority. The number of faces on the screen was not taken into consideration. In the third embodiment, the degree of smile is taken into consideration, but the display image is selected in consideration of this and the composition of the captured image.

第3実施形態の構成は、第1実施形態において図5に示したスマイルサーチのサブルーチンを図13に示すスマイルサーチのサブルーチンに変更する以外は同様である。また、図13に示すフローは、図5のフローと類似していることから、図5と同様の処理については同一のステップ番号を付し、相違するステップを中心に説明する。   The configuration of the third embodiment is the same as that of the first embodiment except that the smile search subroutine shown in FIG. 5 is changed to the smile search subroutine shown in FIG. Since the flow shown in FIG. 13 is similar to the flow of FIG. 5, the same steps as those in FIG. 5 are denoted by the same step numbers, and different steps will be mainly described.

スマイルサーチのフローに入ると、画面中央部に顔が位置する写真を選択する(S31)。続いて、笑顔度の判定を行う(S32)。この笑顔度の判定は、撮影時に記録されている場合には、テーブルから読み出し、撮影時に記録されていない場合には、前述の図7に示したサブルーチンによって実行する。   If the smile search flow is entered, a photograph whose face is located at the center of the screen is selected (S31). Subsequently, the smile level is determined (S32). This smile level determination is read from the table if it is recorded at the time of shooting, and is executed by the subroutine shown in FIG. 7 if it is not recorded at the time of shooting.

続いて、ステップS32に求めた笑顔度に構図係数Kを乗算した値RKを求める(S33b)。構図係数は、写真の構図を分析し、この分析された構図に応じた係数である。本実施形態においては、笑顔度を重視していることから、顔検出部5の大きさ判定部5bによって判定された顔の大きさに基づいて構図分析を行い、例えば、図14(b)に示すような、人物の胸から上半身を撮影した、所謂、バストショットを良い構図(図の例では、構図係数10)としている。また、笑顔の良く見えない、図14(c)に示すような構図の場合には、構図係数を低くしている(図の例では、構図係数2)。あまり大きな顔では、図14(a)周囲の状況が分からないので、構図係数を少し低くしている(図の例では、構図係数5)。   Subsequently, a value RK obtained by multiplying the degree of smile obtained in step S32 by the composition coefficient K is obtained (S33b). The composition coefficient is a coefficient corresponding to the analyzed composition after analyzing the composition of the photograph. In this embodiment, since emphasis is placed on the degree of smile, composition analysis is performed based on the face size determined by the size determination unit 5b of the face detection unit 5, for example, as shown in FIG. As shown, a so-called bust shot in which the upper body is photographed from the chest of a person has a good composition (composition coefficient 10 in the example in the figure). Further, in the case of the composition as shown in FIG. 14C where the smile does not look good, the composition coefficient is set low (composition coefficient 2 in the example in the figure). For a very large face, the situation around FIG. 14 (a) is unknown, so the composition coefficient is slightly lowered (composition coefficient 5 in the example in the figure).

選択された写真の値RKが求まると、次に、全画像についてステップS31〜S33bの処理が終了したか否かを判定する(S34)。この判定の結果、全ての画像について終了していなかった場合には、次の候補を選択し(S35)、ステップS31に戻り、全ての画像について終了するまで、ステップS31〜S33bを繰り返す。   When the value RK of the selected photo is obtained, it is next determined whether or not the processing of steps S31 to S33b has been completed for all images (S34). As a result of the determination, if all the images have not been completed, the next candidate is selected (S35), the process returns to step S31, and steps S31 to S33b are repeated until all the images are completed.

ステップS34における判定の結果、全ての写真について処理が終了すると、ステップS33bにおいて求められた値RKの中で最も高い数値であった写真を表示の候補として選択する(S36b)。以下、第1実施形態と同様に、選択された写真を表示部8やテレビ20等の外部の表示装置に表示し、次の写真の表示の希望あれば、同じ人が中央に位置する写真以外の中から写真を選択して表示を行う(S36b〜S40)。第1実施形態においては、笑顔度×写っている人数を示すRNであったが、第3実施形態においては、笑顔度×構図係数のRKの高い順に表示を行う。ステップS40において、次の画像の希望がなければ、元のルーチンに戻る。   As a result of the determination in step S34, when processing is completed for all the photos, the photo having the highest value among the values RK obtained in step S33b is selected as a display candidate (S36b). Hereinafter, as in the first embodiment, the selected photograph is displayed on an external display device such as the display unit 8 or the television 20, and if the next photograph is desired to be displayed, the same person other than the photograph located in the center is displayed. A photograph is selected from the images and displayed (S36b to S40). In the first embodiment, the degree of smile is represented by RN indicating the number of people in the image, but in the third embodiment, the display is performed in the order of the degree of smile: the ratio RK of the composition coefficient. In step S40, if the next image is not desired, the process returns to the original routine.

このように、第3実施形態においては、笑顔度に加えて構図が良い画像を優先して表示するという考え方で再生表示の順番を決めている。この実施形態においてはバストショットの構図係数を高め、あまり大きな顔の場合には構図係数を少し低くし、笑顔の見えないような顔の小さな構図係数は更に低くしている。   As described above, in the third embodiment, the order of reproduction and display is determined based on the idea that images with good composition are preferentially displayed in addition to the degree of smile. In this embodiment, the composition coefficient of the bust shot is increased, the composition coefficient is slightly lowered for a very large face, and the small composition coefficient of the face where the smile cannot be seen is further decreased.

以上、説明したように本発明の各実施形態においては、複数の画像のそれぞれの画面中央に位置する顔の笑顔度を判定し、この判定した笑顔度に基づいて、複数の画像の中から代表画像を検索し、表示を行うようにしている。画面中央に位置する顔について笑顔度を判定するようにしていることから、検索を迅速に行うことができる。なお、第1及び第3実施形態において検索する顔の位置は、画面中央部に限らず、第2実施形態のように、画面の右側、左側、上側、下側等、任意の位置でも良い。   As described above, in each embodiment of the present invention, the smile level of a face located at the center of the screen of each of a plurality of images is determined, and based on the determined smile level, a representative is selected from the plurality of images. It searches for images and displays them. Since the smile level is determined for the face located at the center of the screen, the search can be performed quickly. Note that the position of the face to be searched in the first and third embodiments is not limited to the center of the screen, but may be any position such as the right side, left side, upper side, and lower side of the screen as in the second embodiment.

また、本発明の各実施形態においては、次の画像の検索にあたって、表示済みの画像のうち、笑顔度の判定を行った人が中央となる画像を除いて検索するようにしている。このため、同じ人が何度も特定範囲に繰り返し、再生表示されることを防止することができ、変化に富み、楽しむことができる。   Further, in each embodiment of the present invention, when searching for the next image, a search is performed except for an image in which the person who performed smile level determination is in the center among the displayed images. For this reason, it is possible to prevent the same person from being repeatedly reproduced and displayed in a specific range, and it is possible to enjoy a variety of changes.

なお、本発明の実施形態においては、撮影時に顔の数、顔の位置、大きさ、笑顔度、特徴をテーブル化していたが、この作業は撮影時に行わずに、再生表示の前等、別のタイミングで行うようにしてもよい。   In the embodiment of the present invention, the number of faces, the position of the face, the size, the smile level, and the features are tabulated at the time of shooting. You may make it carry out at the timing of.

また、本発明の実施形態においては、カメラで撮影した画像をカメラ内でスマイルサーチ等の処理を行って、カメラの表示装置や外部の表示装置で再生表示するようにしていたが、カメラで撮影した画像をパーソナルコンピュータに記憶させ、この記憶された画像に基づいてスマイルサーチを行い、再生表示するようにしても良い。   In the embodiment of the present invention, an image photographed by the camera is subjected to processing such as a smile search in the camera and reproduced and displayed on the camera display device or an external display device. The image may be stored in a personal computer, a smile search may be performed based on the stored image, and the image may be reproduced and displayed.

さらに、本発明の実施形態においては、代表画像の選択にあたっては、笑顔度単独、または笑顔度のほか、人の数や構図を考慮していたが、これに限らず、正面を向いているか、背景がシンプルかといったことを考慮して代表画像を選択しても良い。   Furthermore, in the embodiment of the present invention, in selecting the representative image, in addition to the smile degree alone or the smile degree, the number of people and the composition are taken into consideration. The representative image may be selected in consideration of whether the background is simple.

また、本実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、また、携帯電話や携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。   In the present embodiment, the digital camera is used as the photographing device. However, the camera may be a digital single-lens reflex camera or a compact digital camera, and may be a mobile phone or a personal digital assistant (PDA). Of course, a camera built in Personal Digital Assist) may be used.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明の第1実施形態に係わるカメラとその周辺の構成を示すブロック図である。It is a block diagram which shows the structure concerning the camera concerning 1st Embodiment of this invention, and its periphery. 本発明の第1実施形態に係わるカメラにおけるカメラ制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera control in the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態において、イベント判定の考え方を説明する図である。In 1st Embodiment of this invention, it is a figure explaining the view of event determination. 本発明の第1実施形態に係わるカメラにおけるイベント判定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the event determination in the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態に係わるカメラにおけるスマイルサーチの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the smile search in the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態において、被写体の笑顔と困った顔を比較する図であり、(a)は笑顔を示し、(b)は困った顔を示す。In a 1st embodiment of the present invention, it is a figure which compares a smile of a subject and a troubled face, (a) shows a smile and (b) shows a troubled face. 本発明の第1実施形態に係わるカメラにおける笑顔度判定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of smile degree determination in the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態において、被写体のカメラを向いている様子を示す図であり、(a)は正面向きの顔を示し、(b)は上目の顔を示し、(c)は見下しの顔を示す。In the first embodiment of the present invention, it is a diagram showing a state of facing the camera of the subject, (a) shows the face facing front, (b) shows the face of the upper eye, (c) looks down. Showing the face. 本発明の第1実施形態に係わるカメラにおけるR補正の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of R correction | amendment in the camera concerning 1st Embodiment of this invention. 本発明の第1実施形態において、人の顔の特徴量の測定を示す図である。It is a figure which shows the measurement of the feature-value of a person's face in 1st Embodiment of this invention. 本発明の第1実施形態において、画像と共に記録されるデータを示し、(a)は記録される情報のテーブルを示し、(b)は画像とテーブルの場所の関係を示す図である。In the first embodiment of the present invention, data recorded with an image is shown, (a) shows a table of information to be recorded, and (b) shows a relationship between the image and the location of the table. 本発明の第2実施形態に係わるカメラにおけるスマイルサーチの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the smile search in the camera concerning 2nd Embodiment of this invention. 本発明の第3実施形態に係わるカメラにおけるスマイルサーチの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the smile search in the camera concerning 3rd Embodiment of this invention. 本発明の第3実施形態において、構図係数の例を示す図であり、(a)は構図係数5の例、(b)は構図係数10の例、(c)は構図係数2の例である。In a 3rd embodiment of the present invention, it is a figure showing an example of composition coefficient, (a) is an example of composition coefficient 5, (b) is an example of composition coefficient 10, (c) is an example of composition coefficient 2. .

符号の説明Explanation of symbols

1・・・制御部、1a・・・画像処理部、1b・・・イベント分類部、1c・・・顔分類部、1d・・・表示順判定部、2・・・撮像部、3・・・光学系制御部、4・・・記録部、4a・・・画像vs顔記憶部、5・・・顔検出部、5a・・・位置検出部、5b・・・大きさ判定部、5c・・・特徴部、6・・・切出部、7・・・合成処理部、8・・・表示部、8a・・・表示制御部、9・・・時計部、11・・・操作判定部、12・・・笑顔度判定部、14・・・通信部、20・・・テレビ、61・・・線、62・・・線、64・・・矢印、65・・・矢印、81・・・交点、82・・・交点、83・・・交点、84・・・交点 DESCRIPTION OF SYMBOLS 1 ... Control part, 1a ... Image processing part, 1b ... Event classification part, 1c ... Face classification part, 1d ... Display order determination part, 2 ... Imaging part, 3 ... Optical system control unit, 4 ... recording unit, 4a ... image vs face storage unit, 5 ... face detection unit, 5a ... position detection unit, 5b ... size determination unit, 5c ..Characteristic part, 6 ... Cut-out part, 7 ... Composition processing part, 8 ... Display part, 8a ... Display control part, 9 ... Clock part, 11 ... Operation determination part , 12 ... Smile level determination unit, 14 ... communication unit, 20 ... TV, 61 ... line, 62 ... line, 64 ... arrow, 65 ... arrow, 81 ...・ Intersection, 82 ... Intersection, 83 ... Intersection, 84 ... Intersection

Claims (3)

複数の画像の中から代表画像を検索して表示する画像表示方法であって、
顔画像を含む複数の画像のそれぞれの画像に対応する画像データを記憶するステップと、
上記複数の画像のそれぞれの画面中央に位置する顔の特徴を判定するステップと、
判定された上記特徴に基づいて、上記複数の画像の中から代表画像を検索し、さらに次の画像の検索を行う場合には、上記画面中央に位置した人が中央となる画像を除いて検索するステップと、
検索された上記代表画像を表示するステップと、
を備えたことを特徴とする画像表示方法。
An image display method for searching and displaying a representative image from a plurality of images,
Storing image data corresponding to each of a plurality of images including a face image;
Determining a feature of a face located in the center of each of the plurality of images;
Based on the determined characteristics , a representative image is searched from the plurality of images, and when searching for the next image, a search is performed except for an image in which the person located at the center of the screen is the center. And steps to
Displaying the retrieved representative image;
An image display method comprising:
上記検索するステップにおいて、上記代表画像の検索は、特定イベントに分類された画像の中から検索することを特徴とする請求項1に記載の画像表示方法。 2. The image display method according to claim 1, wherein, in the searching step, the representative image is searched from images classified as specific events . 上記検索するステップにおいて、上記顔の笑顔度、構図、または人の数に基づいて上記代表画像を検索することを特徴とする請求項1に記載の画像表示方法。 The image display method according to claim 1, wherein in the searching step, the representative image is searched based on a smile level, a composition, or the number of people of the face .
JP2008045545A 2008-02-27 2008-02-27 Image display method Expired - Fee Related JP5032363B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008045545A JP5032363B2 (en) 2008-02-27 2008-02-27 Image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008045545A JP5032363B2 (en) 2008-02-27 2008-02-27 Image display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012144081A Division JP2012256327A (en) 2012-06-27 2012-06-27 Image display apparatus, image display method, and image display program

Publications (3)

Publication Number Publication Date
JP2009205322A JP2009205322A (en) 2009-09-10
JP2009205322A5 JP2009205322A5 (en) 2011-03-03
JP5032363B2 true JP5032363B2 (en) 2012-09-26

Family

ID=41147531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008045545A Expired - Fee Related JP5032363B2 (en) 2008-02-27 2008-02-27 Image display method

Country Status (1)

Country Link
JP (1) JP5032363B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5640388B2 (en) * 2010-01-28 2014-12-17 株式会社ニコン Image processing apparatus, imaging apparatus, and image processing program
JP2011234002A (en) 2010-04-26 2011-11-17 Kyocera Corp Imaging device and terminal device
US9058342B2 (en) * 2010-08-04 2015-06-16 Panasonic Intellectual Property Corporation Of America Image classification device, method, program, recording media with program thereon, and integrated circuit
JP6586810B2 (en) 2015-07-30 2019-10-09 富士通株式会社 toy

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330830B2 (en) * 2006-04-13 2012-12-11 Eastman Kodak Company Camera user input based image value index

Also Published As

Publication number Publication date
JP2009205322A (en) 2009-09-10

Similar Documents

Publication Publication Date Title
US8212911B2 (en) Imaging apparatus, imaging system, and imaging method displaying recommendation information
US9389768B2 (en) Reproducer, digital camera, slide show reproduction method, program, image display apparatus, image display method, image reproduction method, and image display program
JP4593314B2 (en) Image reproduction apparatus, program and method, and photo movie creation apparatus, program and method
JP5128880B2 (en) Image handling device
US8599251B2 (en) Camera
KR100637741B1 (en) Image display method, program, and image display apparatus
JP5735330B2 (en) Image processing apparatus and image processing method
KR101475939B1 (en) Method of controlling image processing apparatus, image processing apparatus and image file
US20060039674A1 (en) Image editing apparatus, method, and program
JP2010183317A (en) Imaging device, image composition and display device, image composition and display method, and program
JP5032363B2 (en) Image display method
JP2009169209A (en) Image display apparatus, image display method, and image display program
JP2014050022A (en) Image processing device, imaging device, and program
US9767587B2 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
JP2008242694A (en) Image processing apparatus and its program
CN101909153A (en) Photographic device, photographic method and reproducing method
JP2011257979A (en) Image retrieval device, image retrieval method, and camera
JP2008078836A (en) Camera, blog search system, and program
JP2012256327A (en) Image display apparatus, image display method, and image display program
KR20160022253A (en) Image generating apparatus, image generating method and computer program stored in recording medium
JP5675922B2 (en) Shooting display device
JP2009118040A (en) Image retrieving device, and image retrieving method
JP2010199771A (en) Image display apparatus, image display method, and program
JP5368165B2 (en) Imaging display device and imaging display method
JP5312828B2 (en) Image search device, image search method, image playback device, image playback method, image search program, and image playback program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120628

R151 Written notification of patent or utility model registration

Ref document number: 5032363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees