JP5640388B2 - Image processing apparatus, imaging apparatus, and image processing program - Google Patents

Image processing apparatus, imaging apparatus, and image processing program Download PDF

Info

Publication number
JP5640388B2
JP5640388B2 JP2010017191A JP2010017191A JP5640388B2 JP 5640388 B2 JP5640388 B2 JP 5640388B2 JP 2010017191 A JP2010017191 A JP 2010017191A JP 2010017191 A JP2010017191 A JP 2010017191A JP 5640388 B2 JP5640388 B2 JP 5640388B2
Authority
JP
Japan
Prior art keywords
image
images
evaluation value
person
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010017191A
Other languages
Japanese (ja)
Other versions
JP2011155605A (en
Inventor
ひとみ 長沼
ひとみ 長沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010017191A priority Critical patent/JP5640388B2/en
Publication of JP2011155605A publication Critical patent/JP2011155605A/en
Application granted granted Critical
Publication of JP5640388B2 publication Critical patent/JP5640388B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、撮像装置、および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, and an image processing program.

従来より、手ブレが少ないなどの撮影状態の良好な画像を得るために、様々な技術が考えられている。例えば、下記の特許文献1の電子カメラには、被写体を連続的に撮像して複数の画像を生成し、生成した複数の画像の良否を評価して一枚の画像のみを保存する技術が開示されている。   Conventionally, various techniques have been considered in order to obtain an image with a good shooting state such as a low camera shake. For example, the following electronic camera disclosed in Patent Document 1 discloses a technique for continuously capturing a subject to generate a plurality of images, evaluating the quality of the generated images, and storing only one image. Has been.

特開平11−136557号公報JP 11-136557 A

ところで、近年、被写体に含まれる人物を認識する人物認識技術や、人物の顔などを認識する顔認識技術などが進んでおり、上述した撮影状態の良好な画像を得るために、このような技術を活用することが求められている。   By the way, in recent years, a person recognition technique for recognizing a person included in a subject, a face recognition technique for recognizing a person's face, and the like have been advanced. Is required to utilize.

本発明は、上記問題に鑑みてなされたものであり、被写体認識技術を用いて、撮影状態の良好な画像を得ることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to obtain an image in a good shooting state using subject recognition technology.

本発明の画像処理装置は、類似した被写体を含む複数の画像を取得する取得部と、前記複数の画像のそれぞれについて、人物の顔検出を行う顔検出部と、前記複数の画像のそれぞれについて、前記人物の顔の表情に関する複数の評価値を算出する算出部と、前記評価値に基づいて前記複数の画像を比較し、比較結果に基づいて、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択する選択部とを備え、前記算出部は、前記評価値として、前記人物の笑顔の度合いを評価した第1の評価値と、前記複数の画像のそれぞれについて、前記検出部により検出された前記人物の数と、前記人物の視線の向きと、前記人物の顔の向きと、画像全体に占める前記人物の顔の面積比と、前記人物の推定年齢と、撮影時刻との少なくとも1つに基づいて評価した、少なくとも1種類の第2の評価値と、前記人物の目つぶりの度合いを評価した第3の評価値とを算出し、前記選択部は、前記第1の評価値と所定の閾値とを比較し、前記第1の評価値が所定の閾値以上である場合には、まず、前記第1の評価値に基づいて、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択し、選択ができない場合には、前記第3の評価値よりも前記第2の評価値の優先順位を高くして、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択するとともに、前記第1の評価値が所定の閾値未満である場合には、前記第2の評価値よりも前記第3の評価値の優先順位を高くして、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択する。 An image processing apparatus according to the present invention includes an acquisition unit that acquires a plurality of images including similar subjects, a face detection unit that detects a human face for each of the plurality of images, and each of the plurality of images. The calculation unit that calculates a plurality of evaluation values related to the facial expression of the person, the plurality of images are compared based on the evaluation value, and the person is preferably captured from the plurality of images based on the comparison result. A selection unit that selects an image that can be estimated to be present, and the calculation unit detects, for each of the plurality of images, a first evaluation value that evaluates a degree of smile of the person as the evaluation value. The number of persons detected by the unit, the direction of the line of sight of the person, the direction of the face of the person, the area ratio of the face of the person in the entire image, the estimated age of the person, and the shooting time Less Calculating at least one second evaluation value evaluated based on one and a third evaluation value evaluating the degree of blinking of the person, and the selection unit is configured to calculate the first evaluation value. When the first evaluation value is equal to or greater than the predetermined threshold value, the person is preferably captured from the plurality of images based on the first evaluation value. If an image that can be presumed to be selected is selected and cannot be selected, the priority of the second evaluation value is set higher than the third evaluation value, and the person is preferably captured from the plurality of images. And when the first evaluation value is less than a predetermined threshold, the priority of the third evaluation value is made higher than the second evaluation value, From the plurality of images, it can be estimated that the person is preferably captured. You select the image.

また、前記複数の画像のうち、前記選択部により選択された画像のみを記録する記録部を備えても良い。   Moreover, you may provide the recording part which records only the image selected by the said selection part among the said some images.

本発明の撮像装置は、被写体像を撮像して画像を生成する撮像部と、上述したいずれかの画像処理装置とを備え、前記取得部は、前記撮像部から前記複数の画像を取得する。   The imaging device of the present invention includes an imaging unit that captures a subject image and generates an image, and any one of the image processing devices described above, and the acquisition unit acquires the plurality of images from the imaging unit.

なお、前記撮像部は、撮影開始指示が行われると、前記被写体像を連続的に撮像して前記複数の画像を生成し、前記取得部は、前記撮像部による連続的な撮像により生成された複数の画像を取得しても良い。   When the imaging start instruction is given, the imaging unit continuously captures the subject image to generate the plurality of images, and the acquisition unit is generated by continuous imaging by the imaging unit. A plurality of images may be acquired.

また、前記撮像部によって前記被写体像を連続的に撮像する連写モードを設定する設定部と、前記連写モードによる撮影で生成された複数の画像をグループ化して記録する記録部とを備え、前記撮像部は、前記設定部により前記連写モードが設定された状態で撮影開始指示が行われると、前記被写体像を連続的に撮像して前記複数の画像を生成し、前記取得部は、前記撮像部による連続的な撮像により生成された前記複数の画像を取得し、前記記録部は、前記複数の画像をグループ化して記録する際に、前記選択部により選択した画像を代表画像として記録しても良い。   A setting unit configured to set a continuous shooting mode for continuously capturing the subject image by the imaging unit; and a recording unit configured to record a plurality of images generated by shooting in the continuous shooting mode. When an imaging start instruction is performed in a state where the continuous shooting mode is set by the setting unit, the imaging unit continuously captures the subject image and generates the plurality of images. The plurality of images generated by continuous imaging by the imaging unit are acquired, and the recording unit records the image selected by the selection unit as a representative image when grouping and recording the plurality of images. You may do it.

また、上記発明に関する構成を、処理対象の画像データに対する画像処理を実現するための画像処理プログラムに変換して表現したものも本発明の具体的態様として有効である。   In addition, a configuration obtained by converting the configuration related to the above invention into an image processing program for realizing image processing for image data to be processed is also effective as a specific aspect of the present invention.

本発明によれば、被写体認識技術を用いて、撮影状態の良好な画像を得ることができる。   According to the present invention, an image in a good shooting state can be obtained using subject recognition technology.

本実施形態のデジタルカメラの機能ブロック図である。It is a functional block diagram of the digital camera of this embodiment. 撮像指示が行われた際の制御部7の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control part 7 when an imaging instruction | indication is performed. 顔検出について説明する図である。It is a figure explaining face detection. 各評価値および顔データベースについて説明する図である。It is a figure explaining each evaluation value and a face database. 笑顔度合いに関するテーブルの一例である。It is an example of the table regarding a smile degree. 撮像指示が行われた際の制御部7の動作を示す別のフローチャートである。It is another flowchart which shows operation | movement of the control part 7 when an imaging instruction | indication is performed.

以下、図面を用いて本発明の実施形態について説明する。以下では、一例として、デジタルカメラを例に挙げて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Hereinafter, as an example, a digital camera will be described as an example.

図1は、本実施形態におけるデジタルカメラ1の構成を示すブロック図である。図1に示すように、デジタルカメラ1は、撮像レンズ2、撮像素子3、A/D変換部4、バッファメモリ5、画像処理部6、制御部7、表示部8、操作部9、メモリ10、記録I/F部11、記録媒体12、接続部13、バス14を備える。   FIG. 1 is a block diagram showing a configuration of a digital camera 1 in the present embodiment. As shown in FIG. 1, the digital camera 1 includes an imaging lens 2, an imaging device 3, an A / D conversion unit 4, a buffer memory 5, an image processing unit 6, a control unit 7, a display unit 8, an operation unit 9, and a memory 10. A recording I / F unit 11, a recording medium 12, a connection unit 13, and a bus 14.

撮像レンズ2は、撮像素子3の撮像面に被写体像を結像する。なお、撮像レンズ2は、ズームレンズやフォーカスレンズ等の複数のレンズからなる撮像光学系であっても良い。撮像素子3は、撮像レンズ2を通過した被写体光を光電変換し、R、G、Bの各色に対応するアナログ画像信号を出力する。撮像素子3は、非撮像時、所定間隔毎に間引き読み出しを行い、スルー画像(構図確認用の画像)を取得する。その後、撮像素子3は、撮像指示が行われると本画像を取得する。   The imaging lens 2 forms a subject image on the imaging surface of the imaging element 3. The imaging lens 2 may be an imaging optical system including a plurality of lenses such as a zoom lens and a focus lens. The imaging element 3 photoelectrically converts the subject light that has passed through the imaging lens 2 and outputs analog image signals corresponding to R, G, and B colors. The imaging device 3 performs thinning-out reading at predetermined intervals during non-imaging, and acquires a through image (image for composition confirmation). Thereafter, the imaging device 3 acquires the main image when an imaging instruction is given.

撮像素子3から出力される画像信号は、A/D変換部4に入力される。A/D変換部4は、撮像素子3から出力されるアナログの画像信号をA/D変換し、デジタルの画像信号に変更する。なお、このデジタルの画像信号は、1コマにまとめられ、画像データとしてバッファメモリ5に記録される。バッファメモリ5は、画像処理部6による画像処理の前工程や後工程で画像データを一時的に記録する。   An image signal output from the image sensor 3 is input to the A / D converter 4. The A / D conversion unit 4 performs A / D conversion on the analog image signal output from the image sensor 3 and changes it to a digital image signal. The digital image signals are collected into one frame and recorded in the buffer memory 5 as image data. The buffer memory 5 temporarily records image data in the pre-process and post-process of image processing by the image processing unit 6.

画像処理部6は、バッファメモリ5に記録された画像データに対して画像処理を施す。なお、この画像処理としては、周知のホワイトバランス調整、色補間、階調変換処理、輪郭強調処理等が挙げられる。また、画像処理部6は、記録媒体12に画像ファイルを記録する前にJPEG(Joint Photographic Experts Group)形式等で圧縮する処理や、圧縮された上記のデータを伸長復元する処理をも実行する。   The image processing unit 6 performs image processing on the image data recorded in the buffer memory 5. Examples of the image processing include well-known white balance adjustment, color interpolation, gradation conversion processing, and contour enhancement processing. The image processing unit 6 also executes a process of compressing in JPEG (Joint Photographic Experts Group) format or the like before recording an image file on the recording medium 12, and a process of decompressing and restoring the compressed data.

また、画像処理部6は、後述する顔データベース作成時に、画像の一部を切り出して新たな画像を生成するトリミング処理を行う。   The image processing unit 6 performs a trimming process for cutting out a part of the image and generating a new image when creating a face database, which will be described later.

制御部7は、所定のシーケンスプログラムにしたがって、デジタルカメラ1の統括的な制御を行うとともに、撮像時に必要となる各種演算(AF、AE等)を実行する。また、制御部7は、顔検出部15、評価値算出部16の機能を有している。   The control unit 7 performs overall control of the digital camera 1 according to a predetermined sequence program, and executes various calculations (AF, AE, etc.) necessary for imaging. The control unit 7 has functions of a face detection unit 15 and an evaluation value calculation unit 16.

顔検出部15は、スルー画像、本画像、記録媒体12に記録された画像から特徴点を抽出して顔領域、顔領域の大きさ(顔面積)等を検出する。特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等が挙げられる。そして、顔検出部15は、顔領域の位置情報を特定する。例えば、顔検出部15は、画像の横方向をX軸、縦方向をY軸とし、顔領域に含まれる画素のX座標及びY座標を算出する。さらに、顔検出部15は、上述した特徴点を用いた演算処理によって、検出した人物の表情や年齢などを判別する。評価値算出部16の詳細は、後述する。   The face detection unit 15 extracts feature points from the through image, the main image, and the image recorded on the recording medium 12, and detects the face area, the size of the face area (face area), and the like. Examples of the feature points include eyebrow, eye, nose, lip end points, face contour points, head apexes, chin lower end points, and the like. Then, the face detection unit 15 specifies the position information of the face area. For example, the face detection unit 15 calculates the X coordinate and Y coordinate of the pixels included in the face area, with the horizontal direction of the image as the X axis and the vertical direction as the Y axis. Furthermore, the face detection unit 15 determines the detected facial expression, age, and the like of the person by the arithmetic processing using the feature points described above. Details of the evaluation value calculation unit 16 will be described later.

表示部8は、制御部7の制御により各種の画像を表示する。表示部8に表示される各種の画像は、撮影時の構図確認用のスルー画像、本画像、記録媒体12に記録された画像、メニュー画像等を含む。また、表示部8は、タッチパネル17を備える。タッチパネル17は、パネル上で指又はスタイラス等がタッチされた位置、ドラッグされた方向、ドラッグされた回数を検出する。タッチパネル17の状態は制御部7により検知される。なお、タッチパネル17は、表示部8の表面全体に積層して配置するため、表示部8と同等の大きさを有する透明なパネルで構成されている。また、本実施形態の例では、タッチパネル17は、静電気による電気信号を感知する静電容量式のパネルで構成されている。なお、静電容量式に限らず、圧力による電圧の変化を検知する抵抗膜式のパネルなどを用いても良い。   The display unit 8 displays various images under the control of the control unit 7. Various images displayed on the display unit 8 include a through image for composition confirmation at the time of shooting, a main image, an image recorded on the recording medium 12, a menu image, and the like. The display unit 8 includes a touch panel 17. The touch panel 17 detects a position where a finger or a stylus is touched on the panel, a dragged direction, and the number of times the drag is performed. The state of the touch panel 17 is detected by the control unit 7. Note that the touch panel 17 is configured by a transparent panel having a size equivalent to that of the display unit 8 because the touch panel 17 is stacked on the entire surface of the display unit 8. Moreover, in the example of this embodiment, the touch panel 17 is comprised with the electrostatic capacitance type panel which senses the electrical signal by static electricity. Not only the capacitance type, but also a resistive film type panel that detects a change in voltage due to pressure may be used.

操作部9は、不図示のレリーズ釦、十字キー等を有する。なお、操作部9の操作状態は制御部7により検知され、検知された操作部9の状態に基づいたシーケンスが実行される。   The operation unit 9 includes a release button (not shown), a cross key, and the like. The operation state of the operation unit 9 is detected by the control unit 7 and a sequence based on the detected state of the operation unit 9 is executed.

記録I/F部11は、記録媒体12を接続するためのコネクタを備えている。この記録I/F部11と記録媒体12とが接続されることにより、記録媒体12に対してデータの書き込み/読み出しを実行する。   The recording I / F unit 11 includes a connector for connecting the recording medium 12. When the recording I / F unit 11 and the recording medium 12 are connected, data writing / reading is executed on the recording medium 12.

接続部13は、入出力端子などを備え、デジタルカメラ1の外部の機器と相互に接続し、画像データなど入出力する。バス14は、バッファメモリ5、画像処理部6、制御部7、表示部8、メモリ10、記録I/F部11を相互に接続することにより、データや信号の出入力を実行する。   The connection unit 13 includes input / output terminals and the like, and is connected to an external device of the digital camera 1 to input / output image data and the like. The bus 14 connects the buffer memory 5, the image processing unit 6, the control unit 7, the display unit 8, the memory 10, and the recording I / F unit 11, thereby executing input / output of data and signals.

以上説明した構成のデジタルカメラ1は、撮影指示にしたがって自動で連続撮像(いわゆる連写)を行い、被写体に含まれる人物が好ましい表情で撮影された画像を取得するための自動笑顔モードを有する。自動笑顔モードは、ポートレートモードや風景モードなどの既存のシーンモードと並列に備えられても良いし、既存のシーンモードに追加して設定可能なモードとして備えられても良い。自動笑顔モードは、操作部9やタッチパネル17を介したユーザ操作により手動で設定されても良いし、制御部7により自動で設定されても良い。ユーザ操作による手動設定の場合には、操作部9に専用のボタンなどを設けても良いし、表示部8にメニュー画面などを表示しても良い。   The digital camera 1 having the above-described configuration has an automatic smile mode for automatically performing continuous imaging (so-called continuous shooting) in accordance with a shooting instruction and acquiring an image in which a person included in a subject is captured with a preferable facial expression. The automatic smile mode may be provided in parallel with an existing scene mode such as a portrait mode or a landscape mode, or may be provided as a mode that can be set in addition to the existing scene mode. The automatic smile mode may be set manually by a user operation via the operation unit 9 or the touch panel 17, or may be automatically set by the control unit 7. In the case of manual setting by user operation, a dedicated button or the like may be provided on the operation unit 9 or a menu screen or the like may be displayed on the display unit 8.

上述した自動笑顔モードがONに設定された状態で、撮影指示が行われる際の制御部7の動作について、図2に示すフローチャートを参照して説明する。   With reference to the flowchart shown in FIG. 2, the operation of the control unit 7 when a shooting instruction is performed in the state where the automatic smile mode is set to ON will be described.

ステップS1において、制御部7は、撮影指示が行われたか否かを判定する。制御部7は、撮影指示が行われるまで待機し、撮影指示が行われたと判定するとステップS2に進む。   In step S1, the control unit 7 determines whether or not a shooting instruction has been issued. The control unit 7 stands by until a shooting instruction is given, and proceeds to step S2 when determining that the shooting instruction has been given.

なお、撮影指示はレリーズ釦18やタッチパネル17を介したユーザ操作に基づいて行われても良いし、制御部7により自動で行われても良い。制御部7により自動で撮影指示が行われる場合とは、例えば、セルフタイマー撮影や、予め行われる被写体認識により被写体が所定の状態(顔の向きが正面、笑顔が認識されるなど)になったときに行われる自動撮影などが含まれる。   Note that the shooting instruction may be performed based on a user operation via the release button 18 or the touch panel 17 or may be automatically performed by the control unit 7. The case where the shooting instruction is automatically issued by the control unit 7 means that the subject is in a predetermined state (face orientation is front, smile is recognized, etc.) by self-timer shooting or subject recognition performed in advance. This includes automatic shooting that is sometimes performed.

ステップS2において、制御部7は、撮像レンズ2、撮像素子3、A/D変換部4等を制御し、被写体像を連続撮像して複数の画像を生成する。制御部7は、生成した複数の画像を、バッファメモリ5に一時記録する。   In step S <b> 2, the control unit 7 controls the imaging lens 2, the imaging device 3, the A / D conversion unit 4, and the like to continuously capture a subject image and generate a plurality of images. The control unit 7 temporarily records the generated plurality of images in the buffer memory 5.

制御部7は、電子カメラ1における設定にかかわらず、自動で連続撮影を行う。連続撮影時の撮影条件については、公知技術と同様に設定する。ただし、従来、ピントや手ブレに関して撮影状態の良好な画像を得るために行われていた連続撮影とは異なり、本実施形態における連続撮影では、被写体の表情などが良好な画像を得ることを目的とする。そのため、連続撮影における撮影間隔が短すぎると好ましくない。そこで、例えば、毎秒3〜5フレーム程度の撮影間隔で連続撮影を行うと良い。また、撮影枚数は予め定められる(例えば5フレーム)ものとする。   The control unit 7 automatically performs continuous shooting regardless of the setting in the electronic camera 1. The shooting conditions at the time of continuous shooting are set in the same manner as in the known technique. However, unlike continuous shooting, which is conventionally performed to obtain an image with a good shooting state with respect to focus and camera shake, the purpose of the continuous shooting in this embodiment is to obtain an image with a good expression of the subject. And Therefore, it is not preferable that the shooting interval in continuous shooting is too short. Therefore, for example, continuous shooting may be performed at a shooting interval of about 3 to 5 frames per second. Further, the number of shots is predetermined (for example, 5 frames).

ステップS3において、制御部7は、ステップS2で生成した複数の画像のそれぞれについて、顔検出を行う。顔検出部15は、ステップS2で生成した画像のそれぞれに対して、顔検出を行う。顔検出の具体的な方法については、公知技術を同様であるため説明を省略する。   In step S3, the control unit 7 performs face detection for each of the plurality of images generated in step S2. The face detection unit 15 performs face detection for each of the images generated in step S2. The specific method of face detection is the same as that of the known technique, and thus the description thereof is omitted.

なお、制御部7は、ステップS2で生成した複数の画像のうち、任意の画像について行った顔検出の結果を利用して、それ以外の画像における顔検出を行っても良い。また、ステップS1で説明した撮影指示に先だって顔検出が行われている場合には、その顔検出の結果を利用して、ステップS2で生成した複数の画像のそれぞれにおける顔検出を行っても良い。すなわち、スルー画像について、顔検出が行われている場合、制御部7は、スルー画像における顔検出の結果に基づいて、ステップS2で生成した複数の画像のそれぞれにおける顔検出を行っても良い。なお、スルー画像について、顔検出が行われている場合、表示部8上に表示されるスルー画像において、例えば、図3に示すように、検出した顔部分に枠表示などを行うと良い。   Note that the control unit 7 may perform face detection on other images using the result of face detection performed on an arbitrary image among the plurality of images generated in step S2. If face detection is performed prior to the shooting instruction described in step S1, face detection may be performed on each of the plurality of images generated in step S2 using the face detection result. . That is, when face detection is performed for a through image, the control unit 7 may perform face detection in each of the plurality of images generated in step S2 based on the result of face detection in the through image. When face detection is performed on a through image, it is preferable to display a frame on the detected face portion in the through image displayed on the display unit 8, for example, as shown in FIG.

ステップS4において、制御部7は、ステップS3で検出した顔のそれぞれについて、表情に関する各評価値を算出する。評価値算出部16において算出される各評価値は、以下の各評価値が含まれる。
(1)笑顔レベル
評価値算出部16は、ステップS3で検出した顔のそれぞれについて、公知の技術(例えば表情認識、パターンマッチングなど)を用いて笑顔レベルを検出する。本実施形態では、一例として、0(笑顔なし)から3(大笑い)までの4段階で笑顔レベルを示す。
(2)視線の向き
評価値算出部16は、ステップS3で検出した顔のそれぞれについて、公知の技術を用いて視線の向き(正面、斜め、横向きなど)を検出し、検出結果を示す評価値を算出する。本実施形態では、0(視線正面)、1(視線左方向)、2(視線右方向)、3(視線検出不可)の4種類で視線の向きを示す。
(3)顔の向き
評価値算出部16は、ステップS3で検出した顔のそれぞれについて、公知の技術を用いて顔の向き(正面、斜め、横向きなど)を検出し、検出結果を示す評価値を算出する。本実施形態では、0(顔向き正面)、1(顔向き左方向)、2(顔向き右方向)、3(検出不可)の4種類で顔の向きを示す。
(4)顔面積
評価値算出部16は、ステップS3で検出した顔のそれぞれについて、顔部分の面積を求める。
(5)年齢
評価値算出部16は、ステップS3で検出した顔のそれぞれについて、公知の技術を用いてその人物の年齢を推測し、推測結果を示す評価値を算出する。
(6)目つぶり度合い
評価値算出部16は、ステップS3で検出した顔のそれぞれについて、公知の技術(例えば表情認識など)を用いて目つぶり度合いを検出し、検出結果を示す評価値を算出する。本実施形態では、0(目つぶりなし)、1(一部目つぶりあり)、2(両目目つぶり)、3(目つぶり検出不可)の4種類で目つぶり度合いを示す。
In step S4, the control unit 7 calculates each evaluation value related to the facial expression for each of the faces detected in step S3. Each evaluation value calculated by the evaluation value calculation unit 16 includes the following evaluation values.
(1) Smile level The evaluation value calculation unit 16 detects a smile level for each of the faces detected in step S3 using a known technique (for example, facial expression recognition, pattern matching, etc.). In this embodiment, as an example, smile levels are shown in four stages from 0 (no smile) to 3 (big laugh).
(2) Gaze direction The evaluation value calculation unit 16 detects the gaze direction (front, diagonal, sideways, etc.) for each of the faces detected in step S3 using a known technique, and an evaluation value indicating the detection result. Is calculated. In the present embodiment, the direction of the line of sight is indicated by four types: 0 (front of line of sight), 1 (left direction of line of sight), 2 (right direction of line of sight), and 3 (line of sight line cannot be detected).
(3) Face direction The evaluation value calculation unit 16 detects the face direction (front, diagonal, sideways, etc.) using a known technique for each of the faces detected in step S3, and an evaluation value indicating the detection result. Is calculated. In this embodiment, the face direction is indicated by four types: 0 (front direction facing the face), 1 (left direction facing the face), 2 (right direction facing the face), and 3 (undetectable).
(4) Face Area The evaluation value calculation unit 16 obtains the area of the face part for each of the faces detected in step S3.
(5) Age Evaluation value calculation unit 16 estimates the age of the person using a known technique for each of the faces detected in step S3, and calculates an evaluation value indicating the estimation result.
(6) The degree of blinking The evaluation value calculation unit 16 detects the degree of blinking using a known technique (for example, facial expression recognition) for each of the faces detected in step S3, and calculates an evaluation value indicating the detection result. To do. In the present embodiment, the degree of blinking is indicated by four types: 0 (no blinking), 1 (some blinking), 2 (both eyes blinking), and 3 (no blinking detection).

ステップS5において、制御部7は、ステップS3で行った顔検出およびステップS4で算出した各評価値に基づいて、顔データベースを作成する。制御部7は、まず、ステップS2で生成した複数の画像のそれぞれについて、ステップS3で行った顔検出の結果に基づいて、顔部分の画像を切り出す。例えば、図3に例示したように、5人の人物が含まれる場合には、ステップS2で生成した複数の画像のそれぞれについて、顔部分の画像を切り出してサムネイル画像を生成する。そして、各サムネイル画像と、ステップS4で算出した各評価値とを対応づけてデータベースを作成する。図4にある人物のデータベースを例示する。   In step S5, the control unit 7 creates a face database based on the face detection performed in step S3 and each evaluation value calculated in step S4. First, the control unit 7 cuts out a face part image for each of the plurality of images generated in step S2 based on the result of the face detection performed in step S3. For example, as illustrated in FIG. 3, when five persons are included, for each of the plurality of images generated in step S <b> 2, a face part image is cut out to generate a thumbnail image. Then, a database is created by associating each thumbnail image with each evaluation value calculated in step S4. FIG. 4 illustrates a database of persons shown in FIG.

なお、上述したサムネイル画像は、ステップS4で説明した各評価値の算出の前に行っても良い。すなわち、ステップS3で行った顔検出の結果に基づいて、ステップS2で生成した複数の画像のそれぞれからサムネイル画像を生成し、生成したサムネイル画像に基づいて、ステップS4で説明した各評価値の算出を行っても良い。このような構成にすることによって、処理時間を短縮することが期待できる。   Note that the thumbnail image described above may be performed before the calculation of each evaluation value described in step S4. That is, a thumbnail image is generated from each of the plurality of images generated in step S2 based on the result of the face detection performed in step S3, and the evaluation values described in step S4 are calculated based on the generated thumbnail image. May be performed. By adopting such a configuration, it can be expected to shorten the processing time.

ステップS6において、制御部7は、顔指定が行われているか否かを判定する。制御部7は、顔指定が行われていると判定するとステップS7に進む。一方、顔指定が行われていないと判定すると、制御部7は、後述するステップS8に進む。   In step S6, the control unit 7 determines whether or not face designation is performed. If the control unit 7 determines that face designation is performed, the process proceeds to step S7. On the other hand, if it is determined that no face is designated, the control unit 7 proceeds to step S8 described later.

顔指定とは、特定人物を予め指定する機能である。例えば、その特定人物の顔画像を予め登録しておくことにより、その人物の画像を確実に取得することができる。顔指定は、操作部9やタッチパネル17を介したユーザ操作により、予め行われるものとする。例えば、図3を用いて説明したように、表示部8上に表示されるスルー画像において、検出した顔部分に枠表示などが行われている状態で、ユーザが、タッチパネル17によって、任意の人物を指定できる構成としても良い。また、複数の人物について顔指定が行われても良いし、優先順位をつけて複数の人物について顔指定が行われても良い。   The face designation is a function for designating a specific person in advance. For example, by registering the face image of the specific person in advance, the image of the person can be reliably acquired. The face designation is performed in advance by a user operation via the operation unit 9 or the touch panel 17. For example, as described with reference to FIG. 3, in the through image displayed on the display unit 8, in the state where a frame is displayed on the detected face portion, the user can select any person with the touch panel 17. It is good also as a structure which can designate. Also, face designation may be performed for a plurality of persons, or face designation may be performed for a plurality of persons with priorities.

ステップS7において、制御部7は、ステップS5で作成したデータベースに基づいて、複数の画像から、顔指定された顔が笑顔である画像を選別する。顔指定された特定の人物がある画像に含まれているか否かは、顔の特徴点の位置、各顔パーツの大きさ、各特徴点の相対距離などを演算し、演算結果と、予め指定された特定の人物の画像に基づく情報とを比較して、相似度を求めることにより判定することができる。   In step S7, the control unit 7 selects an image in which the face designated as a face is a smile from a plurality of images based on the database created in step S5. Whether a specific person with a face specified is included in an image is calculated by calculating the position of the facial feature point, the size of each facial part, the relative distance of each feature point, etc. It can be determined by comparing the information based on the image of the specified person and calculating the similarity.

制御部7は、ステップS4で算出した笑顔レベルなどに基づいて、ステップS2で生成した複数の画像から、顔指定された顔が笑顔である画像を選別し、選別した複数の画像(1枚のみの場合もある)のみを以降の処理の対象とする。   Based on the smile level calculated in step S4 and the like, the control unit 7 selects an image in which the face designated as a smile is selected from the plurality of images generated in step S2, and selects a plurality of selected images (only one image). Only in some cases).

ステップS8において、制御部7は、笑顔度合いを算出する。制御部7は、ステップS4で算出した笑顔レベルに基づいて、ステップS2で生成した複数の画像(ただし、ステップS7において選別が行われた場合には、選別後の画像)のそれぞれについて、その画像を代表する評価値である笑顔度合いを算出する。評価値算出部16は、次式を用いて笑顔度合いを求める。   In step S8, the control unit 7 calculates the smile level. Based on the smile level calculated in step S4, the control unit 7 sets the image for each of the plurality of images generated in step S2 (however, in the case where selection is performed in step S7). The degree of smile, which is an evaluation value representative of, is calculated. The evaluation value calculation unit 16 calculates the smile level using the following equation.

(笑顔度合い)=(笑顔係数の和)÷(検出された顔の数)・・・(式1)
式1において、笑顔係数とは、ステップS4で算出した笑顔レベルについて、レベルごとに定められた係数である。
(Smiling degree) = (Sum of smiling coefficients) ÷ (Number of detected faces) (Equation 1)
In Equation 1, the smile coefficient is a coefficient determined for each level with respect to the smile level calculated in step S4.

図5に笑顔レベルと笑顔係数との関係を示すテーブルを例示する。図5に示すように、ステップS4で説明した笑顔レベルが高くなるほど、笑顔係数も大きくなる。   FIG. 5 illustrates a table indicating the relationship between the smile level and the smile coefficient. As shown in FIG. 5, the smile coefficient increases as the smile level described in step S4 increases.

ステップS9において、制御部7は、笑顔度合いが閾値以上であるか否かを判定する。制御部7は、笑顔度合いが閾値以上であると判定するとステップS10に進む。一方、笑顔度合いが閾値以上でないと判定すると、制御部7は、後述するステップS10に進む。   In step S9, the control unit 7 determines whether or not the smile level is equal to or greater than a threshold value. If the controller 7 determines that the smile level is equal to or greater than the threshold, the process proceeds to step S10. On the other hand, if it determines with the smile degree not being more than a threshold value, the control part 7 will progress to step S10 mentioned later.

制御部7は、ステップS8で求めた各笑顔度合いの代表値(平均値、最大値、最小値など)と、所定の閾値とを比較し、代表値≧閾値である場合にはステップS10に進み、代表値<閾値である場合にはステップS11に進む。   The control unit 7 compares the representative value (average value, maximum value, minimum value, etc.) of each smile degree obtained in step S8 with a predetermined threshold value, and if representative value ≧ threshold value, the process proceeds to step S10. If representative value <threshold, the process proceeds to step S11.

ステップS10において、制御部7は、ステップS2で生成した複数の画像(ただし、ステップS7において選別が行われた場合には、選別後の画像)を比較して、笑顔に関する評価値が最も高い画像を記録画像として選択する。   In step S10, the control unit 7 compares the plurality of images generated in step S2 (however, in the case where selection is performed in step S7), the image having the highest evaluation value regarding smiles. Is selected as the recorded image.

制御部7は、まず、ステップS2で生成した複数の画像(ただし、ステップS7において選別が行われた場合には、選別後の画像)について、ステップS8で算出した笑顔度合いを比較する。そして、笑顔度合いが最大の画像を記録画像として選択する。笑顔度合いの比較により記録画像を選択できない場合、制御部7は、ステップS4で算出した各評価値に基づいて、以下の優先順位にしたがって、比較を繰り返す。
(1)顔検出数
(2)視線の向き
(3)顔の向き
(4)顔面積
(5)年齢
(6)目つぶり度合い
なお、上述した(1)〜(6)の評価値のうち、(1)顔検出数以外の各評価値は、画像に含まれる人物(ステップS6において顔指定が行われている場合には、一部の人物)ごとに評価値を有する。そのため、複数の人物に関する評価値の代表値(平均値、最大値、最小値など)を求めて、比較を行っても良い。また、複数の人物に優先順位がついている場合には、重み付けなどを行っても良い。
First, the control unit 7 compares the smile degree calculated in step S8 with respect to a plurality of images generated in step S2 (however, in the case where selection is performed in step S7, the image after selection). Then, an image having the maximum smile degree is selected as a recorded image. When the recorded image cannot be selected by comparing the smile levels, the control unit 7 repeats the comparison according to the following priority order based on each evaluation value calculated in step S4.
(1) Number of face detections (2) Gaze direction (3) Face direction (4) Face area (5) Age (6) Blink degree Among the evaluation values of (1) to (6) described above, (1) Each evaluation value other than the number of detected faces has an evaluation value for each person included in the image (a part of persons when face designation is performed in step S6). For this reason, representative values (average value, maximum value, minimum value, etc.) of evaluation values regarding a plurality of persons may be obtained and compared. Further, when a plurality of persons have priorities, weighting or the like may be performed.

ステップS11において、制御部7は、ステップS2で生成した複数の画像(ただし、ステップS7において選別が行われた場合には、選別後の画像)を比較して、目つぶりに関する評価値が最も高い画像を記録画像として選択する。
制御部7は、まず、ステップS2で生成した複数の画像(ただし、ステップS7において選別が行われた場合には、選別後の画像)について、ステップS4で算出した目つぶり度合いを比較する。そして、目つぶり度合いが最小の画像を記録画像として選択する。
In step S11, the control unit 7 compares the plurality of images generated in step S2 (however, in the case where sorting is performed in step S7), the evaluation value regarding blinking is the highest. Select an image as the recorded image.
First, the control unit 7 compares the degree of blinking calculated in step S4 with respect to the plurality of images generated in step S2 (however, in the case where selection is performed in step S7, the image after selection). Then, an image with the smallest blink degree is selected as a recorded image.

なお、目つぶり度合いは、画像に含まれる人物(ステップS6において顔指定が行われている場合には、一部の人物)ごとに評価値を有する。そのため、複数の人物に関する評価値の代表値(平均値、最大値、最小値など)を求めて、比較を行っても良い。また、複数の人物に優先順位がついている場合には、重み付けなどを行っても良い。   Note that the degree of blinking has an evaluation value for each person included in the image (a part of persons when face designation is performed in step S6). For this reason, representative values (average value, maximum value, minimum value, etc.) of evaluation values regarding a plurality of persons may be obtained and compared. Further, when a plurality of persons have priorities, weighting or the like may be performed.

ステップS12において、制御部7は、ステップS10またはステップS11で選択した記録画像を記録I/F部11を介して記録媒体12に記録して一連の処理を終了する。   In step S12, the control unit 7 records the recording image selected in step S10 or step S11 on the recording medium 12 via the recording I / F unit 11, and ends the series of processes.

なお、ステップS12において記録画像を記録する際に、ステップS10またはステップS11で選択した記録画像から、撮影確認用のプレビュー画像を生成し、表示部8に表示する構成としても良い。   Note that when recording a recorded image in step S12, a preview image for confirming shooting may be generated from the recorded image selected in step S10 or step S11 and displayed on the display unit 8.

上述したフローチャートで行った処理は、連続撮影を行ういわゆる連写モード実行時にも利用することができる。以下、連写モードが設定された状態で、撮影指示が行われる際の制御部7の動作について、図6に示すフローチャートを参照して説明する。   The processing performed in the above-described flowchart can also be used when executing a so-called continuous shooting mode in which continuous shooting is performed. Hereinafter, an operation of the control unit 7 when a shooting instruction is performed in a state where the continuous shooting mode is set will be described with reference to a flowchart shown in FIG.

ステップS21において、制御部7は、図2のフローチャートのステップS1と同様に、撮影指示が行われたか否かを判定する。制御部7は、撮影指示が行われるまで待機し、撮影指示が行われたと判定するとステップS22に進む。 In step S21, the control unit 7 determines whether or not a shooting instruction has been issued , as in step S1 of the flowchart of FIG. The control unit 7 waits until a shooting instruction is given, and proceeds to step S22 when determining that the shooting instruction has been given.

ステップS22において、制御部7は、撮像レンズ2、撮像素子3、A/D変換部4等を制御し、被写体像を連続撮像して複数の画像を生成する。制御部7は、生成した複数の画像を、バッファメモリ5に一時記録する。なお、連続撮影時の撮影条件については、公知技術と同様に設定する。ただし、図2のフローチャートのステップS2とは異なり、設定にしたがった撮影間隔で連続撮影を行う。   In step S <b> 22, the control unit 7 controls the imaging lens 2, the imaging device 3, the A / D conversion unit 4, and the like to continuously capture a subject image and generate a plurality of images. The control unit 7 temporarily records the generated plurality of images in the buffer memory 5. Note that the shooting conditions during continuous shooting are set in the same manner as in the known art. However, unlike step S2 in the flowchart of FIG. 2, continuous shooting is performed at a shooting interval according to the setting.

ステップS23からステップS29において、制御部7は、図2のフローチャートのステップS3からステップS19と同様の処理を行う。   In step S23 to step S29, the control unit 7 performs the same processing as in step S3 to step S19 in the flowchart of FIG.

ステップS30において、制御部7は、図2のフローチャートのステップS10と同様の処理を行い、記録画像の代わりに代表画像を選択する。   In step S30, the control unit 7 performs the same process as in step S10 in the flowchart of FIG. 2, and selects a representative image instead of the recorded image.

ステップS31において、制御部7は、図2のフローチャートのステップS11と同様の処理を行い、記録画像の代わりに代表画像を選択する。   In step S31, the control unit 7 performs processing similar to that in step S11 in the flowchart of FIG. 2, and selects a representative image instead of the recorded image.

ステップS32において、制御部7は、ステップS22で生成した複数の画像をグループ化して、記録I/F部11を介して記録媒体12に記録して一連の処理を終了する。このとき、制御部7は、ステップS30またはステップS31で選択した画像をそのグループの代表画像として記録する。   In step S32, the control unit 7 groups the plurality of images generated in step S22, records them on the recording medium 12 via the recording I / F unit 11, and ends the series of processes. At this time, the control unit 7 records the image selected in step S30 or step S31 as a representative image of the group.

なお、ステップS12において記録画像を記録する際に、ステップS10またはステップS11で選択した記録画像から、撮影確認用のプレビュー画像を生成し、表示部8に表示する構成としても良い。   Note that when recording a recorded image in step S12, a preview image for confirming shooting may be generated from the recorded image selected in step S10 or step S11 and displayed on the display unit 8.

以上説明したように、本実施形態によれば、複数の画像を取得し、それらの画像のそれぞれについて、人物の顔検出を行う。そして、複数の画像のそれぞれについて、人物の顔の表情に関する少なくとも1種類の評価値を算出し、算出した評価値に基づいて複数の画像を比較し、比較結果に基づいて、複数の画像から、人物が好ましく写っていると推定できる画像を選択する。   As described above, according to the present embodiment, a plurality of images are acquired, and human face detection is performed for each of these images. Then, for each of the plurality of images, calculate at least one kind of evaluation value related to the facial expression of the person, compare the plurality of images based on the calculated evaluation value, and based on the comparison result, from the plurality of images, Select an image that can be presumed that a person is preferably captured.

したがって、被写体認識技術を用いて、撮影状態の良好な画像を得ることができる。また、近年、記録メディアの大容量化、カメラの高性能化、高速化によって、同じような画像が大量に撮影され、さらに、全ての画像が記録されることで、記録時間の増大、データ量の増大が発生していた。この結果、ユーザの選別作業の負荷も大きくなっていた。これに対して、本実施形態によれば、撮影状態の良好な画像を効率良く得ることができる。   Therefore, it is possible to obtain an image in a good shooting state using the subject recognition technique. In recent years, with the increase in recording media capacity, camera performance, and speed, a large number of similar images are taken, and all images are recorded, which increases recording time and data volume. An increase was occurring. As a result, the load of the user's sorting work has been increased. On the other hand, according to the present embodiment, it is possible to efficiently obtain an image in a good shooting state.

また、本実施形態によれば、評価値として、複数の画像のそれぞれについて、人物の笑顔の度合いを評価した評価値を算出する。したがって、人物が笑顔である画像を得ることができる。   Further, according to the present embodiment, an evaluation value obtained by evaluating the degree of smile of a person for each of a plurality of images is calculated as the evaluation value. Therefore, an image in which a person is smiling can be obtained.

また、本実施形態によれば、評価値として、複数の画像のそれぞれについて、検出部により検出された人物の数と、人物の視線の向きと、人物の顔の向きと、画像全体に占める人物の顔の面積比と、人物の推定年齢と、人物の目つぶりの度合いと、撮影時刻との少なくとも1つに基づいて、少なくとも1種類の評価値を算出する。したがって、人物の状態に応じて、撮影状態の良好な画像を得ることができる。   Further, according to the present embodiment, as the evaluation value, the number of persons detected by the detection unit, the direction of the line of sight of the person, the direction of the face of the person, and the person who occupies the entire image as the evaluation values At least one type of evaluation value is calculated based on at least one of the area ratio of the face, the estimated age of the person, the degree of blinking of the person, and the shooting time. Therefore, it is possible to obtain an image in a good shooting state according to the state of the person.

また、本実施形態によれば、評価値として、人物の笑顔の度合いを評価した第1の評価値と、複数の画像のそれぞれについて、検出部により検出された人物の数と、人物の視線の向きと、人物の顔の向きと、画像全体に占める人物の顔の面積比と、人物の推定年齢と、人物の目つぶりの度合いと、撮影時刻との少なくとも1つに基づいて、少なくとも1種類の第2の評価値とを算出する。そして、まず、第1の評価値に基づいて、複数の画像から、人物が好ましく写っていると推定できる画像を選択し、選択ができない場合には、第2の評価値に基づいて、複数の画像から、人物が好ましく写っていると推定できる画像を選択する。したがって、人物の表情が笑顔でない場合であっても、撮影状態の良好な画像を得ることができる。   Further, according to the present embodiment, as the evaluation value, the first evaluation value obtained by evaluating the degree of smile of the person, the number of persons detected by the detection unit for each of the plurality of images, and the line of sight of the person At least one type based on at least one of the orientation, the orientation of the person's face, the area ratio of the person's face in the entire image, the estimated age of the person, the degree of blinking of the person, and the shooting time The second evaluation value is calculated. First, based on the first evaluation value, an image that can be estimated that a person is preferably reflected is selected from a plurality of images, and when selection is not possible, a plurality of images are calculated based on the second evaluation value. From the image, an image that can be estimated that a person is preferably captured is selected. Therefore, even if the facial expression of the person is not a smile, an image with a good shooting state can be obtained.

また、本実施形態によれば、複数の画像のうち、選択部により選択された画像のみを記録する。したがって、記録部の記録容量を無駄に使うことを防ぐことができる。   Moreover, according to this embodiment, only the image selected by the selection part among several images is recorded. Therefore, it is possible to prevent wasteful use of the recording capacity of the recording unit.

また、本実施形態によれば、撮像部によって被写体像を連続的に撮像する連写モードを設定する設定部と、連写モードによる撮影で生成された複数の画像をグループ化して記録する記録部とを備え、撮像部は、設定部により連写モードが設定された状態で撮影開始指示が行われると、被写体像を連続的に撮像して複数の画像を生成し、記録部は、複数の画像をグループ化して記録する際に、選択部により選択した画像を代表画像として記録する。したがって、連写モードによる撮影で生成された複数の画像をグループ化して記録する際に、好適な画像を代表画像として記録することができる。   In addition, according to the present embodiment, a setting unit that sets a continuous shooting mode in which a subject image is continuously captured by the imaging unit, and a recording unit that groups and records a plurality of images generated by shooting in the continuous shooting mode When the shooting start instruction is performed in a state where the continuous shooting mode is set by the setting unit, the imaging unit continuously captures the subject image to generate a plurality of images, and the recording unit When grouping and recording images, the image selected by the selection unit is recorded as a representative image. Therefore, when a plurality of images generated by shooting in the continuous shooting mode are grouped and recorded, a suitable image can be recorded as a representative image.

なお、本実施形態では、図2のフローチャートのステップS2において複数の画像を生成し、それらの画像に対してステップS3以降の処理を行う例を示したが、本発明はこの例に限定されない。例えば、ステップS2において2枚の画像を生成し、2枚の画像に対してステップS3からステップS10の処理を行い、一方の画像を選択する。そして、再び1枚の画像を生成して、選択した画像と新たに生成した画像から、いずれかの画像を選択する、という処理を所定回数繰り返しても、本実施形態と同様の効果を得ることができる。この場合、バッファメモリ5には最大でも2枚の画像のみが一時記録されることになるので、バッファメモリ5の容量を抑えることができる。   In the present embodiment, an example is shown in which a plurality of images are generated in step S2 of the flowchart of FIG. 2 and the processes after step S3 are performed on these images. However, the present invention is not limited to this example. For example, two images are generated in step S2, the processing from step S3 to step S10 is performed on the two images, and one image is selected. Even if the process of generating one image again and selecting one of the selected image and the newly generated image is repeated a predetermined number of times, the same effect as in the present embodiment can be obtained. Can do. In this case, since only two images are temporarily recorded in the buffer memory 5 at the maximum, the capacity of the buffer memory 5 can be suppressed.

また、本実施形態において、図2のフローチャートのステップS4における各評価値は、一例であり本発明はこの例に限定されない。また、各評価値の算出タイミングもこの例に限定されない。例えば、ステップS8において笑顔度合いを算出するために必要な評価値のみをステップS4で算出し、ステップS10において記録画像を選択する際に、笑顔度合いに基づいて記録画像を選択できない場合に、新たな評価値を算出する構成としても良い。   Moreover, in this embodiment, each evaluation value in step S4 of the flowchart of FIG. 2 is an example, and the present invention is not limited to this example. Further, the calculation timing of each evaluation value is not limited to this example. For example, in step S8, only the evaluation value necessary for calculating the smile level is calculated in step S4, and when a recorded image cannot be selected based on the smile level when selecting a recorded image in step S10, a new It is good also as a structure which calculates an evaluation value.

また、本実施形態では、人物の表情に関して、笑顔を中心として説明を行ったが、本発明はこの例に限定されない。例えば、泣き顔や怒り顔に関して各種処理を行う構成としても良い。   In the present embodiment, the facial expression of a person has been described mainly with a smile, but the present invention is not limited to this example. For example, it is good also as a structure which performs various processes regarding a crying face and an angry face.

また、本実施形態では、図2のフローチャートのステップS10において記録画像を選択する際に、各評価値を独立に比較する例を示したが、本発明はこの例に限定されない。例えば、各評価値を所定の重み付けで加算して代表評価値を算出し、代表評価値同士を比較することにより記録画像を選択する構成としても良い。   In the present embodiment, an example is shown in which each evaluation value is independently compared when selecting a recorded image in step S10 of the flowchart of FIG. 2, but the present invention is not limited to this example. For example, a configuration may be adopted in which each evaluation value is added with a predetermined weight to calculate a representative evaluation value, and the recorded image is selected by comparing the representative evaluation values.

また、本実施形態では、図2のフローチャートのステップS10において記録画像を選択する例を示したが、本発明はこの例に限定されない。例えば、ステップS10において、複数の画像に評価のランク付けを行っても良い。このような情報は、各画像のタグ情報として記録すると良い。   In the present embodiment, an example in which a recorded image is selected in step S10 of the flowchart of FIG. 2 is shown, but the present invention is not limited to this example. For example, in step S10, a plurality of images may be ranked for evaluation. Such information may be recorded as tag information for each image.

また、本実施形態では、撮像時に一連の処理を行う場合を例に挙げて説明したが、記録媒体12に記録された画像などを対象として本実施形態で説明した処理と同様の処理を行っても良い。すなわち、再生対象の画像が選択された時点で、図2のフローチャートのステップS3以降の処理を行い、記録画像を選択しても良い。また、再生対象の画像が選択された時点で、図6のフローチャートのステップS23以降の処理を行い、代表画像を選択しても良い。   In this embodiment, the case where a series of processing is performed at the time of imaging is described as an example. However, the same processing as that described in this embodiment is performed on an image recorded on the recording medium 12. Also good. That is, when a reproduction target image is selected, the processing after step S3 in the flowchart of FIG. 2 may be performed to select a recorded image. In addition, when a reproduction target image is selected, the processing after step S23 in the flowchart of FIG. 6 may be performed to select a representative image.

また、本実施形態では、デジタルカメラ1を例に挙げて説明したが、本発明はこの例に限定されない。例えば、タッチパネルを備えないデジタルカメラなど、図1に示した以外の構成を有するデジタルカメラにも本発明を同様に適用することができる。また、動画像を撮像可能なデジタルカメラにも本発明を同様に適用することができる。さらに、携帯電話などに積載されるデジタルカメラにも本発明を同様に適用することができる。   In the present embodiment, the digital camera 1 has been described as an example, but the present invention is not limited to this example. For example, the present invention can be similarly applied to a digital camera having a configuration other than that illustrated in FIG. 1, such as a digital camera without a touch panel. Further, the present invention can be similarly applied to a digital camera capable of capturing a moving image. Furthermore, the present invention can be similarly applied to a digital camera mounted on a mobile phone or the like.

また、本実施形態の制御部7が行った処理の一部または全部を、コンピュータで実現する構成としても良い。この場合、コンピュータ読み取り可能な記録媒体に、本実施形態の制御部7が行った処理(図2および図6)の一部または全部を実行するための画像処理プログラムを記憶しておき、この画像処理プログラムを記録媒体から読み出してコンピュータ上で実行することにより、同様の処理を行うことで、本実施形態と同等の効果を得ることができる。   Moreover, it is good also as a structure which implement | achieves a part or all of the process which the control part 7 of this embodiment performed with a computer. In this case, an image processing program for executing part or all of the processing (FIGS. 2 and 6) performed by the control unit 7 of the present embodiment is stored in a computer-readable recording medium. By reading the processing program from the recording medium and executing it on a computer, the same processing can be performed to obtain the same effect as the present embodiment.

1…デジタルカメラ、3…撮像素子、6…画像処理部、7…制御部、8…表示部、15…顔検出部15…評価値算出部 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 3 ... Image sensor, 6 ... Image processing part, 7 ... Control part, 8 ... Display part, 15 ... Face detection part 15 ... Evaluation value calculation part

Claims (6)

類似した被写体を含む複数の画像を取得する取得部と、
前記複数の画像のそれぞれについて、人物の顔検出を行う顔検出部と、
前記複数の画像のそれぞれについて、前記人物の顔の表情に関する複数の評価値を算出する算出部と、
前記評価値に基づいて前記複数の画像を比較し、比較結果に基づいて、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択する選択部とを備え、
前記算出部は、前記評価値として、前記人物の笑顔の度合いを評価した第1の評価値と、前記複数の画像のそれぞれについて、前記検出部により検出された前記人物の数と、前記人物の視線の向きと、前記人物の顔の向きと、画像全体に占める前記人物の顔の面積比と、前記人物の推定年齢と、撮影時刻との少なくとも1つに基づいて評価した、少なくとも1種類の第2の評価値と、前記人物の目つぶりの度合いを評価した第3の評価値とを算出し、
前記選択部は、前記第1の評価値と所定の閾値とを比較し、
前記第1の評価値が所定の閾値以上である場合には、まず、前記第1の評価値に基づいて、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択し、選択ができない場合には、前記第3の評価値よりも前記第2の評価値の優先順位を高くして、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択するとともに、
前記第1の評価値が所定の閾値未満である場合には、前記第2の評価値よりも前記第3の評価値の優先順位を高くして、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択する
ことを特徴とする画像処理装置。
An acquisition unit for acquiring a plurality of images including similar subjects;
A face detection unit for detecting a person's face for each of the plurality of images;
For each of the plurality of images, a calculation unit that calculates a plurality of evaluation values related to the facial expression of the person,
A selection unit that compares the plurality of images based on the evaluation value, and selects an image that can be estimated that the person is preferably reflected from the plurality of images based on a comparison result ;
The calculation unit, as the evaluation value, a first evaluation value that evaluates the degree of smile of the person, the number of persons detected by the detection unit for each of the plurality of images, At least one kind of evaluation evaluated based on at least one of the direction of the line of sight, the direction of the face of the person, the area ratio of the face of the person in the entire image, the estimated age of the person, and the shooting time Calculating a second evaluation value and a third evaluation value for evaluating the degree of blinking of the person;
The selection unit compares the first evaluation value with a predetermined threshold value,
If the first evaluation value is greater than or equal to a predetermined threshold, first, based on the first evaluation value, select an image that can be estimated that the person is preferably reflected from the plurality of images, If the selection is not possible, the priority of the second evaluation value is set higher than the third evaluation value, and an image that can be presumed that the person is preferably reflected is selected from the plurality of images. ,
When the first evaluation value is less than a predetermined threshold, the priority of the third evaluation value is set higher than the second evaluation value, and the person is preferably captured from the plurality of images. Images that can be estimated to be
An image processing apparatus.
請求項1に記載の画像処理装置において、
前記複数の画像のうち、前記選択部により選択された画像のみを記録する記録部を備える
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 .
An image processing apparatus comprising: a recording unit that records only the image selected by the selection unit among the plurality of images.
被写体像を撮像して画像を生成する撮像部と、
請求項1または請求項2に記載の画像処理装置とを備え、
前記取得部は、前記撮像部から前記複数の画像を取得する
ことを特徴とする撮像装置。
An imaging unit that captures a subject image and generates an image;
The image processing apparatus according to claim 1 or 2 ,
The acquisition unit is configured to acquire the plurality of images from the imaging unit.
請求項3に記載の撮像装置において、
前記撮像部は、撮影開始指示が行われると、前記被写体像を連続的に撮像して前記複数の画像を生成し、
前記取得部は、前記撮像部による連続的な撮像により生成された複数の画像を取得する
ことを特徴とする撮像装置。
The imaging device according to claim 3 .
When the imaging start instruction is given, the imaging unit continuously captures the subject image to generate the plurality of images,
The acquisition unit acquires a plurality of images generated by continuous imaging by the imaging unit.
請求項3に記載の撮像装置において、
前記撮像部によって前記被写体像を連続的に撮像する連写モードを設定する設定部と、
前記連写モードによる撮影で生成された複数の画像をグループ化して記録する記録部とを備え、
前記撮像部は、前記設定部により前記連写モードが設定された状態で撮影開始指示が行われると、前記被写体像を連続的に撮像して前記複数の画像を生成し、
前記取得部は、前記撮像部による連続的な撮像により生成された前記複数の画像を取得し、
前記記録部は、前記複数の画像をグループ化して記録する際に、前記選択部により選択した画像を代表画像として記録する
ことを特徴とする撮像装置。
The imaging device according to claim 3 .
A setting unit for setting a continuous shooting mode in which the subject image is continuously captured by the imaging unit;
A recording unit that groups and records a plurality of images generated by shooting in the continuous shooting mode;
When the imaging unit is instructed to start shooting while the continuous shooting mode is set by the setting unit, the imaging unit continuously captures the subject image and generates the plurality of images,
The acquisition unit acquires the plurality of images generated by continuous imaging by the imaging unit,
The recording unit records an image selected by the selection unit as a representative image when the plurality of images are grouped and recorded.
処理対象の画像に対する画像処理をコンピュータで行うための画像処理プログラムであって、
前記処理対象の画像として、類似した被写体を含む複数の画像を取得する取得ステップと、
前記複数の画像のそれぞれについて、人物の顔検出を行う顔検出ステップと、
前記複数の画像のそれぞれについて、前記人物の顔の表情に関する複数の評価値を算出する算出ステップと、
前記評価値に基づいて前記複数の画像を比較し、比較結果に基づいて、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択する選択ステップとを備え、
前記算出ステップでは、前記評価値として、前記人物の笑顔の度合いを評価した第1の評価値と、前記複数の画像のそれぞれについて、前記検出ステップにおいて検出された前記人物の数と、前記人物の視線の向きと、前記人物の顔の向きと、画像全体に占める前記人物の顔の面積比と、前記人物の推定年齢と、撮影時刻との少なくとも1つに基づいて評価した、少なくとも1種類の第2の評価値と、前記人物の目つぶりの度合いを評価した第3の評価値とを算出し、
前記選択ステップでは、前記第1の評価値と所定の閾値とを比較し、
前記第1の評価値が所定の閾値以上である場合には、まず、前記第1の評価値に基づいて、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択し、選択ができない場合には、前記第3の評価値よりも前記第2の評価値の優先順位を高くして、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択するとともに、
前記第1の評価値が所定の閾値未満である場合には、前記第2の評価値よりも前記第3の評価値の優先順位を高くして、前記複数の画像から、前記人物が好ましく写っていると推定できる画像を選択する
ことを特徴とする画像処理プログラム。
An image processing program for performing image processing on an image to be processed by a computer,
An acquisition step of acquiring a plurality of images including similar subjects as the image to be processed;
For each of the plurality of images, a face detection step for detecting a human face;
For each of the plurality of images, a calculation step of calculating a plurality of evaluation values related to the facial expression of the person;
A selection step of comparing the plurality of images based on the evaluation value, and selecting an image that can be estimated that the person is preferably reflected from the plurality of images based on a comparison result ;
In the calculation step, as the evaluation value, a first evaluation value that evaluates the degree of smile of the person, the number of persons detected in the detection step for each of the plurality of images, At least one kind of evaluation evaluated based on at least one of the direction of the line of sight, the direction of the face of the person, the area ratio of the face of the person in the entire image, the estimated age of the person, and the shooting time Calculating a second evaluation value and a third evaluation value for evaluating the degree of blinking of the person;
In the selection step, the first evaluation value is compared with a predetermined threshold value,
If the first evaluation value is greater than or equal to a predetermined threshold, first, based on the first evaluation value, select an image that can be estimated that the person is preferably reflected from the plurality of images, If the selection is not possible, the priority of the second evaluation value is set higher than the third evaluation value, and an image that can be presumed that the person is preferably reflected is selected from the plurality of images. ,
When the first evaluation value is less than a predetermined threshold, the priority of the third evaluation value is set higher than the second evaluation value, and the person is preferably captured from the plurality of images. Images that can be estimated to be
An image processing program characterized by that.
JP2010017191A 2010-01-28 2010-01-28 Image processing apparatus, imaging apparatus, and image processing program Expired - Fee Related JP5640388B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010017191A JP5640388B2 (en) 2010-01-28 2010-01-28 Image processing apparatus, imaging apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010017191A JP5640388B2 (en) 2010-01-28 2010-01-28 Image processing apparatus, imaging apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2011155605A JP2011155605A (en) 2011-08-11
JP5640388B2 true JP5640388B2 (en) 2014-12-17

Family

ID=44541213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010017191A Expired - Fee Related JP5640388B2 (en) 2010-01-28 2010-01-28 Image processing apparatus, imaging apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP5640388B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9025836B2 (en) * 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
JP2013196417A (en) * 2012-03-21 2013-09-30 Dainippon Printing Co Ltd Image display device, image display method and program
JP6469779B2 (en) * 2017-08-11 2019-02-13 国立大学法人千葉大学 Laughter promotion program and laughter promotion device
JP7102700B2 (en) * 2017-09-29 2022-07-20 大日本印刷株式会社 Image output device
CN110139021B (en) * 2018-02-09 2023-01-13 北京三星通信技术研究有限公司 Auxiliary shooting method and terminal equipment
JP6643441B1 (en) * 2018-10-05 2020-02-12 東日本電信電話株式会社 Photographic inspection support apparatus and its program
CN111008971B (en) * 2019-12-24 2023-06-13 天津工业大学 Aesthetic quality evaluation method of group photo image and real-time shooting guidance system
CN113259581B (en) * 2020-02-13 2022-11-04 深圳市万普拉斯科技有限公司 Photographing prompting method and device, computer equipment and storage medium
WO2022113380A1 (en) * 2020-11-26 2022-06-02 パナソニックIpマネジメント株式会社 Emotion assessment system, emotion assessment method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350123A (en) * 1999-06-04 2000-12-15 Fuji Photo Film Co Ltd Picture selection device, camera, picture selection method and recording medium
JP2004046591A (en) * 2002-07-12 2004-02-12 Konica Minolta Holdings Inc Picture evaluation device
JP2004247807A (en) * 2003-02-12 2004-09-02 Fuji Photo Film Co Ltd Recording method and image reproducing method for group image
JP4655212B2 (en) * 2005-08-26 2011-03-23 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
JP4944602B2 (en) * 2006-01-23 2012-06-06 キヤノン株式会社 Display control apparatus and control method thereof
JP5019939B2 (en) * 2007-04-19 2012-09-05 パナソニック株式会社 Imaging apparatus and imaging method
JP2009124492A (en) * 2007-11-15 2009-06-04 Olympus Corp Camera
JP2009157242A (en) * 2007-12-27 2009-07-16 Fujifilm Corp Imaging apparatus
JP5032363B2 (en) * 2008-02-27 2012-09-26 オリンパスイメージング株式会社 Image display method

Also Published As

Publication number Publication date
JP2011155605A (en) 2011-08-11

Similar Documents

Publication Publication Date Title
JP5640388B2 (en) Image processing apparatus, imaging apparatus, and image processing program
US8314854B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
JP4840426B2 (en) Electronic device, blurred image selection method and program
CN101325658B (en) Imaging device, imaging method and computer program
JP5246363B2 (en) Image processing apparatus and image evaluation program
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
JP6049448B2 (en) Subject area tracking device, control method thereof, and program
CN103685940A (en) Method for recognizing shot photos by facial expressions
KR20100055946A (en) Method and apparatus for generating thumbnail of moving picture
JP2005086516A (en) Imaging device, printer, image processor and program
JP6157165B2 (en) Gaze detection device and imaging device
US20110199502A1 (en) Image pickup apparatus
JP5353293B2 (en) Image processing apparatus and electronic still camera
JP6098133B2 (en) Face component extraction device, face component extraction method and program
US12002279B2 (en) Image processing apparatus and method, and image capturing apparatus
JP6087615B2 (en) Image processing apparatus and control method therefor, imaging apparatus, and display apparatus
JP2010199968A (en) Digital camera
CN115205921A (en) Electronic device and control method
JP2013171433A (en) Digital camera, and image processing program
JP2008167028A (en) Imaging apparatus
US20150319361A1 (en) Image processing device, image processing method, and recording medium
JP2010251909A (en) Digital camera and image processing program
JP2010251908A (en) Digital camera and image processing program
JP6318535B2 (en) Imaging device
JP2013157675A (en) Imaging device, method for controlling the same, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141013

R150 Certificate of patent or registration of utility model

Ref document number: 5640388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees