JP2012209947A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2012209947A
JP2012209947A JP2012110345A JP2012110345A JP2012209947A JP 2012209947 A JP2012209947 A JP 2012209947A JP 2012110345 A JP2012110345 A JP 2012110345A JP 2012110345 A JP2012110345 A JP 2012110345A JP 2012209947 A JP2012209947 A JP 2012209947A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
face
image
data
unit
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012110345A
Other languages
Japanese (ja)
Other versions
JP5408288B2 (en )
Inventor
Hirotake Nozaki
Akira Omura
晃 大村
弘剛 野崎
Original Assignee
Nikon Corp
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect a face of a subject when a person is imaged and to easily perform processing which a user requests based on a feature of the face of the subject.SOLUTION: An electronic camera includes: an imaging element imaging a subject image; a memory; a face detection section; a face recognition section; a speaker outputting sound to outside; and a control section. The memory records a corresponding relation between registered data showing the feature amount of the face being a recognition object and characteristic data on a birthplace or use language of the person of the recognition object. The face detection section detects a face region in an imaged picture based on output of the imaging element and extracts the feature amount of the face of the subject from the face region. The face recognition section determines whether the face region is the recognition object or not based on data on the feature amount corresponding to the face region and on registered data. The control section outputs a voice determined in accordance with the characteristic data from a speaker during imaging based on a recognition result of the face recognition section.

Description

本発明は、電子カメラに関する。 The present invention relates to an electronic camera.

従来から、人物の顔を撮影した撮影画像から人物の顔の特徴点を抽出し、認識する人物に関する顔認識データと上記の特徴点との一致度に基づいて顔認識を行う技術が開示されている(特許文献1参照)。 Conventionally, extracts feature points of the face of a person from a captured image obtained by photographing the face of a person, discloses a technique of performing face recognition on the basis of the degree of coincidence between the face recognition data and the feature point related recognize the person are (see Patent Document 1). また、撮影画像から人種、年齢、性別を推定して顔画像を補正する画像処理装置も開示されている(特許文献2参照)。 The race from the photographed image, age, and image processing apparatus for correcting a facial image by estimating the sex has been disclosed (see Patent Document 2).

特開平6−259534号公報 JP-6-259534 discloses 特開2004−246456号公報 JP 2004-246456 JP

ところで、近年では電子カメラの多機能化は益々進展しており、それに伴って電子カメラの操作も煩雑になる傾向がある。 By the way, in recent years has been multi-function is more and more development of the electronic camera, the operation of the electronic camera also tend to be complicated with it. そのため、人物撮影時においてユーザーの意図する機能を簡単に使用できる電子カメラが要望されている。 Therefore, an electronic camera which can be used easily intended function user is requested at the time of portrait photography.

本発明は上記従来技術の課題を解決するためのものである。 The present invention is made to solve the above problems of the prior art. 本発明の目的は、人物撮影時に被写体の顔を検出するとともに、被写体の顔の特徴に基づいてユーザーが要求する処理を簡単に行うことのできる電子カメラを提供することである。 An object of the present invention, detects the face of a subject at the time of portrait photography is to provide an electronic camera capable of performing easily process the user request based on the facial features of the subject.

本発明の第1の例に係る電子カメラは、被写体像を撮影する撮像素子と、メモリと、顔検出部と、顔認識部と、外部に音を出力するスピーカーと、制御部とを備える。 Electronic camera according to a first embodiment of the present invention includes an imaging device that photographs a subject image, a memory, a face detecting section, a face recognizing unit, and a speaker for outputting sound to the outside, and a control unit. メモリは、認識対象となる顔の特徴量を示す登録データと、認識対象の人物の出身地または使用言語に関する特性データとの対応関係を記録する。 Memory, the registered data indicating the feature amount of the face to be recognized, to record the correspondence between the characteristic data relating to place of origin or language of the recognized person. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from said pigment region. 顔認識部は、顔領域に対応する特徴量のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。 Face recognition unit, based on the feature amount data corresponding to the face area and the registered data, it determines whether a face area is recognized. 制御部は、顔認識部の認識結果に基づいて、特性データに応じて決定されたかけ声を撮影時にスピーカーから出力させる。 Control unit on the basis of the recognition result of the face recognition unit to output a cheer determined in accordance with the characteristic data from the speaker at the time of photographing.

本発明の第2の例に係る電子カメラは、被写体像を撮影する撮像素子と、メモリと、顔検出部と、顔認識部と、撮影日時を取得するタイマと、画像処理部と、制御部とを備える。 Electronic camera according to a second embodiment of the present invention includes an imaging device for capturing an object image, a memory, a face detection unit, a timer for obtaining a face recognition unit, a shooting date and time, and an image processing unit, the control unit provided with a door. メモリは、認識対象となる顔の特徴量を示す登録データと、認識対象の人物の出身地または使用言語に関する特性データとの対応関係を記録する。 Memory, the registered data indicating the feature amount of the face to be recognized, to record the correspondence between the characteristic data relating to place of origin or language of the recognized person. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from said pigment region. 顔認識部は、顔領域に対応する特徴量のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。 Face recognition unit, based on the feature amount data corresponding to the face area and the registered data, it determines whether a face area is recognized. 画像処理部は、顔認識部の認識結果に基づいて、撮像素子で撮影された記録用画像に対して、撮影日の表示を合成する画像処理を実行する。 The image processing unit on the basis of the recognition result of the face recognition unit for recording images captured by the imaging device, performs image processing to synthesize the display shooting date. 制御部は、特性データに基づいて、撮影日の表示順を変更する。 Control unit on the basis of the characteristic data, to change the order of the shooting date.

本発明の第3の例に係る電子カメラは、被写体像を撮影する撮像素子と、メモリと、顔検出部と、顔認識部と、制御部とを備える。 Electronic camera according to a third embodiment of the present invention includes an imaging device that photographs a subject image, a memory, a face detecting section, a face recognizing unit, and a control unit. メモリは、認識対象となる顔の特徴量を示す登録データと、認識対象の人物の性別に関する特性データとの対応関係を記録する。 Memory, the registered data indicating the feature amount of the face to be recognized, to record the correspondence between the characteristic data relating to gender recognized person. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from said pigment region. 顔認識部は、顔領域に対応する特徴量のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。 Face recognition unit, based on the feature amount data corresponding to the face area and the registered data, it determines whether a face area is recognized. 制御部は、特性データの性別が女性を示す場合には、判定において顔領域が認識対象であるとする基準を緩和する補正を行う。 Control unit, when sex characteristic data indicating the woman performs correction to relax the criteria for a face area in the decision is to be recognized.

本発明の第4の例に係る電子カメラは、被写体像を撮影する撮像素子と、メモリと、顔検出部と、顔認識部と、制御部とを備える。 Electronic camera according to a fourth embodiment of the present invention includes an imaging device that photographs a subject image, a memory, a face detecting section, a face recognizing unit, and a control unit. メモリは、認識対象となる顔の特徴量を示す登録データと、認識対象の人物の性別に関する特性データとの対応関係を記録する。 Memory, the registered data indicating the feature amount of the face to be recognized, to record the correspondence between the characteristic data relating to gender recognized person. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from said pigment region. 顔認識部は、顔領域に対応する特徴量のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。 Face recognition unit, based on the feature amount data corresponding to the face area and the registered data, it determines whether a face area is recognized. 制御部は、特性データが眼鏡を着用する人物を示す場合には、判定において顔領域が認識対象であるとする基準を緩和する補正を行う。 Control unit, to indicate a person characteristic data to wear glasses corrects to relax the criteria for a face area in the decision is to be recognized.

本発明の第5の例に係る電子カメラは、被写体像を撮影する撮像素子と、メモリと、顔検出部と、顔認識部と、撮影日時を取得するタイマと、制御部とを備える。 Electronic camera according to a fifth embodiment of the present invention includes an imaging device that photographs a subject image, a memory, a face detecting section, a face recognizing unit, a timer for acquiring shooting date and time, and a control unit. メモリは、認識対象となる顔の特徴量を示す登録データと、認識対象の人物の誕生日に関する特性データとの対応関係を記録する。 Memory, the registered data indicating the feature amount of the face to be recognized, a correspondence between the characteristic data relating to the birthday of the recognition target person is recorded. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from said pigment region. 顔認識部は、顔領域に対応する特徴量のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。 Face recognition unit, based on the feature amount data corresponding to the face area and the registered data, it determines whether a face area is recognized. 制御部は、顔認識部の認識結果に基づいて、認識対象を撮影した記録用画像のデータに対して、誕生日から起算した日時に関するデータを付加する。 Control unit on the basis of the recognition result of the face recognition unit, to the data of the recording image obtained by photographing a recognition subject, adding data concerning date and time counted from the birthday.

本発明の第6の例に係る電子カメラは、被写体像を撮影する撮像素子と、メモリと、顔検出部と、顔認識部と、画像処理部と、を備える。 Electronic camera according to a sixth embodiment of the present invention includes an imaging device that photographs a subject image, a memory, a face detecting section, a face recognizing unit, and an image processing unit. メモリは、キャラクタの画像または文字情報からなる付帯表示のデータを記録するとともに、認識対象となる顔の特徴量を示す登録データと、認識対象に対応する付帯表示を示す特性データとの対応関係を記録する。 Memory records the data of the supplementary display including images or character information of the character, and registration data indicating the characteristic amount of the face to be recognized, a correspondence between the characteristic data indicating the supplementary display corresponding to recognized Record. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from the face area. 顔認識部は、顔領域に対応する特徴量のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。 Face recognition unit, based on the feature amount data corresponding to the face area and the registered data, it determines whether a face area is recognized. 画像処理部は、顔認識部の認識結果に基づいて、撮像素子で撮影された記録用画像に対して、特性データの示す付帯表示を合成する画像処理を実行する。 The image processing unit on the basis of the recognition result of the face recognition unit for recording images captured by the imaging device, performs image processing to synthesize incidental indication characteristics data.

本発明の第7の例に係る電子カメラは、被写体像を撮影する撮像素子と、メモリと、顔検出部と、顔認識部と、画像処理部と、制御部とを備える。 Electronic camera according to a seventh embodiment of the present invention includes an imaging device that photographs a subject image, a memory, a face detecting section, a face recognizing unit, and an image processing unit, and a control unit. メモリは、認識対象となる顔の特徴量を示す登録データと、認識対象の人物を撮影したときに画像に合成される文字情報の表示の設定および文字情報の合成位置の少なくとも一方に関する特性データとの対応関係を記録する。 Memory, the registered data indicating the feature amount of the face to be recognized, and at least one related characteristic data set and the synthesis position of the character information of the display of the character information is synthesized in pictures shot recognition target person to record the correspondence. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from said pigment region. 顔認識部は、顔領域に対応する特徴量のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。 Face recognition unit, based on the feature amount data corresponding to the face area and the registered data, it determines whether a face area is recognized. 画像処理部は、顔認識部の認識結果に基づいて、撮像素子で撮影された記録用画像に対して、文字情報を合成する画像処理を実行する。 The image processing unit on the basis of the recognition result of the face recognition unit for recording images captured by the imaging device, performs image processing for combining character information. 制御部は、特性データに基づいて、文字情報の表示および合成位置の少なくとも一方を変更する。 Control unit on the basis of the characteristic data, changing at least one of the display and the synthesis position of the character information.

本発明の第8の例に係る電子カメラは、被写体像を撮影する撮像素子と、顔検出部と、推論部と、メモリと、画像処理部とを備える。 Electronic camera according to the eighth embodiment of the present invention includes an imaging device that photographs a subject image, a face detecting section, and the inference unit, a memory, and an image processing unit. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from the face area. 推論部は、特徴量に基づいて被写体の年齢、性別のいずれかに関する推論処理を実行する。 Inference unit executes the age of the subject, the inference processing relating either sex on the basis of the feature quantity. メモリは、キャラクタの画像または文字情報からなる付帯表示のデータを記録する。 Memory records data incidental display including images or character information of the character. 画像処理部は、推論部の推論結果に基づいて、撮像素子で撮影された記録用画像に対して、付帯表示を合成する画像処理を実行する。 The image processing unit on the basis of the inference result of the inference unit for recording images captured by the imaging device, performs image processing to synthesize supplementary display.

本発明の第9の例に係る電子カメラは、被写体像を撮影する撮像素子と、顔検出部と、推論部と、制御部とを備える。 Electronic camera according to a ninth embodiment of the present invention includes an imaging device that photographs a subject image, a face detecting section, and the inference unit, and a control unit. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from the face area. 推論部は、特徴量に基づいて被写体の年齢に関する推論処理を実行する。 Inference unit executes the inference processing regarding the age of the subject based on the feature quantity. 制御部は、推論部の推論結果に基づいて、撮像素子で撮影された記録用画像の印刷を行うための印刷データを生成する。 Control unit on the basis of the inference result of the inference unit, generates print data for printing of the captured image for recording by the image pickup device.

本発明の第10の例に係る電子カメラは、被写体像を撮影する撮像素子と、メモリと、顔検出部と、推論部と、第1顔認識部と、第2顔認識部とを備える。 Electronic camera according to the tenth embodiment of the present invention includes an imaging device that photographs a subject image, a memory, a face detection unit, and the inference unit, a first face recognition unit, and a second face recognition unit. メモリは、認識対象となる顔の特徴量を示す登録データと、認識対象の人物の性別、人種、年齢のいずれかに関する特性データとの対応関係を記録する。 Memory records the registration data indicating the characteristic amount of the face to be recognized, gender recognized person, race, the correspondence between the characteristic data relating to any of the age. 顔検出部は、撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する。 Face detection unit detects a face region of the photographing screen based on the output of the image pickup device, it extracts a feature quantity of the face of the subject from said pigment region. 推論部は、特徴量に基づいて被写体の年齢、性別のいずれかに関する推論処理を実行する。 Inference unit executes the age of the subject, the inference processing relating either sex on the basis of the feature quantity. 第1顔認識部は、顔領域に対応する特徴量のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。 The first face recognizing section, based on the registered feature amount data corresponding to the face area data to determine whether or not the face area is recognized. 第2顔認識部は、推論部の推論結果と特性データとに基づいて、顔領域が認識対象であるか否かを判定する。 The second face recognizing section, based on the inference results and the characteristic data of the inference unit, determines whether a face area is recognized.

本発明によれば、人物撮影時に被写体の顔を検出するとともに、被写体の顔の特徴に基づいてユーザーが要求する処理を簡単に行うことができる。 According to the present invention, detects the face of a subject at the time of portrait photography, you can easily perform the process requested by the user based on the facial features of the subject.

第1実施形態の電子カメラの構成を示すブロック図 Block diagram showing the configuration of an electronic camera of the first embodiment 第1実施形態における電子カメラの撮影動作の一例を説明する流れ図 Flow chart illustrating an example of a photographing operation of the electronic camera in the first embodiment 第2実施形態における電子カメラの撮影動作の一例を説明する流れ図 Flow chart illustrating an example of a photographing operation of the electronic camera in the second embodiment

(第1実施形態の説明) (Description of First Embodiment)
図1は第1実施形態の電子カメラの構成を示すブロック図である。 Figure 1 is a block diagram showing a configuration of an electronic camera of the first embodiment.

電子カメラは、撮影レンズ11と、レンズ駆動部12と、絞り13と、絞り駆動部14と、撮像素子15と、アナログ処理部16と、A/D変換部17と、タイミングジェネレータ(TG)18と、第1メモリ19と、画像処理部20と、記録I/F21と、表示I/F22と、モニタ23と、操作部24と、通信部25と、外部I/F26と、マイク27およびスピーカー28と、閃光発光部29と、外光AF部30と、CPU31と、第2メモリ32と、システムバス33とを有している。 The electronic camera includes a photographing lens 11, a lens driving unit 12, a diaphragm 13, a diaphragm driver 14, an image pickup device 15, an analog processing unit 16, an A / D converter 17, a timing generator (TG) 18 When, a first memory 19, an image processing unit 20, a recording I / F21, and the display I / F22, a monitor 23, an operation unit 24, a communication unit 25, an external I / F 26, a microphone 27 and speaker 28, a flash emitting unit 29, an external light AF portion 30 has a CPU 31, a second memory 32, and a system bus 33. なお、第1メモリ19、画像処理部20、記録I/F21、表示I/F22、通信部25、外部I/F26およびCPU31はシステムバス33を介して接続されている。 The first memory 19, the image processing unit 20, a recording I / F21, the display I / F22, communication unit 25, external I / F 26 and CPU31 are connected via a system bus 33.

撮影レンズ11は、ズームレンズと、合焦位置調節用のフォーカスレンズとを含む複数のレンズ群で構成されている。 Photographing lens 11, a zoom lens, and a plurality of lens groups including a focus lens for adjusting focus position. 撮影レンズ11を構成する各々のレンズは、レンズ駆動部12によって光軸方向に移動する。 Each lens constituting the taking lens 11 is moved in the optical axis direction by the lens driving unit 12. なお、レンズ駆動部12の入出力はCPU31と接続されている。 Note that input and output of the lens driving section 12 is connected to the CPU 31.

絞り13は、撮影レンズ11からの入射光量を調節する。 Diaphragm 13 adjusts the amount of incident light from the photographic lens 11. 絞り13の開口量は、絞り駆動部14によって調整される。 Amount of opening of the aperture 13 is adjusted by the diaphragm driver 14. なお、絞り駆動部14の入出力はCPU31と接続されている。 Note that input and output of the diaphragm driver 14 is connected to the CPU 31.

撮像素子15は、撮影レンズ11を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。 The imaging device 15, a light beam having passed through the photographing lens 11 to photoelectric conversion to generate an analog image signal of the subject image. 被写体の撮影を行う撮影モードでは、撮像素子15は、撮影時に記録用の撮影画像を撮影するとともに、撮影待機時にも所定間隔毎に間引き読み出しでスルー画像を出力する。 In the shooting mode for shooting a subject, the image pickup device 15, with taking a photographic image of the recording at the time of shooting, and outputs the through image in the read thinned at predetermined intervals even when shooting standby. 上記のスルー画像のデータは、CPU31による各種の演算処理やモニタ23での表示などに使用される。 Data of the through image is used for a display in various arithmetic processing and a monitor 23 by the CPU 31.

アナログ処理部16は、撮像素子15の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。 Analog processing unit 16 is an analog front-end circuit which performs analog signal processing on the output of the image sensor 15. このアナログ処理部16はCDS回路やゲイン回路を内部に有している。 The analog processing unit 16 includes a CDS circuit and gain circuit inside. アナログ処理部16のCDS回路は、相関二重サンプリングによって撮像素子15の出力のノイズ成分を低減する。 CDS circuit of the analog processing section 16 reduces the noise component of the output of the image sensor 15 by correlated double sampling. アナログ処理部16のゲイン回路は、CPU31の指示に基づいて入力信号の利得を増幅する。 Gain circuit of the analog processing unit 16 amplifies the gain of the input signal based on the CPU31 instructions. 上記のゲイン回路では、ISO感度に相当する撮像感度の調整を行うことができる。 In the above gain circuit, it is possible to adjust the imaging sensitivity corresponding to ISO sensitivity.

A/D変換部17は、アナログ処理部16から出力されたアナログの画像信号にA/D変換を行う。 A / D converter 17 performs A / D conversion to the analog image signal output from the analog processing unit 16. このA/D変換部17の出力は第1メモリ19に接続されている。 The output of the A / D converter 17 is connected to the first memory 19.

TG18は、CPU31の指示に基づいて、撮像素子15、アナログ処理部16およびA/D変換部17に対してタイミングパルスを供給する。 TG18 based on the CPU31 of the instruction, and supplies the timing pulse to the image sensor 15, the analog processing unit 16 and the A / D converter 17. 撮像素子15、アナログ処理部16およびA/D変換部17の駆動タイミングは、TG18のタイミングパルスによって制御される。 Driving timing of the image sensor 15, the analog processing unit 16 and the A / D converter 17 is controlled by timing pulses TG 18.

第1メモリ19は、後述の画像処理の前工程や後工程などで画像のデータを一時的に記録するためのバッファメモリである。 The first memory 19 is a buffer memory for temporarily storing data of an image or the like pre-process and post-process of the image processing will be described later.

画像処理部20は、上記の撮影モードにおいて撮影時のデジタル画像信号に各種の画像処理を施して撮影画像を生成する。 The image processing unit 20 generates a captured image by performing various image processing on the digital image signal at the time of shooting in the shooting mode. また、画像処理部20は撮影画像のデータをJPEG形式で圧縮する。 The image processing unit 20 compresses the data of the photographed image in the JPEG format. さらに、画像処理部20は、上記の撮影モードにおいて、CPU31の指示によりスルー画像の画像信号から表示用画像(ビュー画像)を生成する。 Further, the image processing unit 20 in the photographing mode, and generates a display image from an image signal through image (view image) in accordance with an instruction of the CPU 31.

一方、撮影画像の再生などを行う編集モードでは、画像処理部20は、圧縮された撮影画像のデータを伸長復元する処理を実行する。 On the other hand, in the edit mode for a playback of the captured image, the image processing unit 20 executes a process of stretch and recovery data of the compressed captured image. また、画像処理部20は、上記の編集モードにおいて、撮影画像のデータに画像処理を施すことも可能である。 The image processing unit 20, in the editing mode, it is also possible to perform image processing on data of the photographed image. なお、画像処理部20による画像処理の具体的な内容は後述する。 The specific contents of the image processing by the image processing unit 20 will be described later.

記録I/F21には記録媒体34を接続するためのコネクタが形成されている。 Connector for connecting a recording medium 34 is formed on the recording I / F21. そして、記録I/F21は、コネクタに接続された記録媒体34に対して撮影画像データの書き込み/読み込みを実行する。 The recording I / F21 performs writing / reading of the photographic image data to the recording medium 34 connected to the connector. 上記の記録媒体34は、ハードディスクや半導体メモリを内蔵したメモリカードなどで構成される。 The above recording medium 34 is composed of a memory card with a built-in hard disk or a semiconductor memory. なお、図1では記録媒体34の一例としてメモリカードを図示する。 Incidentally, illustrating the memory card as an example of a recording medium 34 in FIG. 1.

表示I/F22は、CPU31の指示に基づいてモニタ23の表示を制御する。 Display I / F22 controls the display of the monitor 23 based on the CPU31 instructions. また、表示I/F22は、外部に画像出力を行うための映像端子を有している。 The display I / F22 have a video terminal for outputting an image to the outside. そのため、本実施形態の電子カメラでは、表示I/F22の映像端子を介して、外部の表示装置(テレビなど)に再生画像を表示させることも可能である。 Therefore, in the electronic camera of this embodiment, via the video terminal of the display I / F22, it is also possible to display the reproduced image to an external display device (such as a television).

モニタ23は、CPU31および表示I/F22の指示に応じて各種画像を表示する。 Monitor 23 displays various images in accordance with instructions CPU31 and display I / F22. 本実施形態でのモニタ23は液晶モニタで構成されている。 Monitor 23 in this embodiment is a liquid crystal monitor. このモニタ23には、撮影モードでの撮影待機時にビュー画像が動画表示される。 The monitor 23, the view image is displayed video image-capturing waiting time in shooting mode. また、モニタ23は、オンスクリーン機能によって、撮影に必要となる各種情報の表示(例えば、撮影可能なフレーム数、焦点検出エリアの位置、後述の顔検出処理で検出された顔領域の枠表示など)をビュー画像に重畳表示させることもできる。 The monitor 23 is, by the on-screen function, display of various information necessary for photographing (e.g., number of available captured frame, the position of the focus detection area, such as frame display of the detected face region in the face detecting processing described later ) it can also be superimposed on the view image.

さらに、モニタ23には、撮影画像のデータに基づく再生画像や、GUI(Graphical User Interface)形式の入力が可能なメニュー画面なども表示できる(なお、モニタ23におけるビュー画像およびメニュー画面の図示は省略する)。 Further, the monitor 23, and a reproduced image based on data of the photographed image, GUI (Graphical User Interface) is also capable of displaying an input capable menu screen format (Note that omitted the illustrated view image and a menu screen on the monitor 23 to).

操作部24は、レリーズ釦や操作釦などを有している。 The operation unit 24 has a such as the release button and the operation button. 操作部24のレリーズ釦は露光動作開始の指示入力をユーザーから受け付ける。 Release button of the operation unit 24 accepts an instruction input of the exposure operation start from the user. 操作部24の操作釦は、上記のメニュー画面等での入力や、電子カメラの撮影モードの切り換え入力などをユーザーから受け付ける。 Operation button of the operation unit 24 accepts input and in the above menu screen or the like, such as switching input of the electronic camera shooting mode from the user.

通信部25は、無線LANの標準規格IEEE802.11に規定された仕様に準拠して、外部装置との通信を制御する。 The communication unit 25 is to conform to the specifications defined in the standard specification of IEEE802.11 wireless LAN, and controls communication with an external device. 例えば、撮影画像のデータを外部装置に送信する場合、通信部25は撮影画像のデータを無線通信可能なデータに変換するとともに、変換後のデータを外部装置に送信する。 For example, when transmitting data of the photographed image to an external device, the communication unit 25 converts the data of the shot image in the wireless communicable data, and transmits the converted data to an external device.

外部I/F26は、USB(Universal Serial Bus)などのシリアル通信規格の接続端子を有している。 External I / F 26 has a connection terminal for serial communication standard such as USB (Universal Serial Bus). そして、外部I/F26は、接続端子を介して接続されたコンピュータなどとのデータ送受信を上記の通信規格に準拠して制御する。 The external I / F 26 controls data transmission and reception with such a computer connected via a connection terminal in compliance with the above-mentioned communication standard.

マイク27は、電子カメラの外部音声を録音するために設けられている。 Microphone 27 is provided for recording external voice of the electronic camera. また、スピーカー28は、撮影時などに電子カメラの外部に音声を出力するために設けられている。 Further, the speaker 28 is provided for outputting sound to the outside of the electronic camera, such as during shooting. マイク27およびスピーカー28はCPU31と接続されている。 Microphone 27 and speaker 28 are connected to the CPU 31.

閃光発光部29は、例えば、キセノン発光管、発光のエネルギを蓄えるメインコンデンサ、閃光を被写体に効率良く照射するための反射傘やレンズ部材、発光制御回路などから構成されている。 Flash emitting unit 29, for example, a xenon arc tube, a main capacitor for storing the energy of emission, reflector and lens member for efficiently irradiating the flash light to the subject, and a like light emission control circuit.

外光AF部30は、撮影レンズ11とは独立した光学系により焦点検出を行う公知のパッシブ型焦点検出装置である。 Outside light AF portion 30 is a known passive type focus detection apparatus which performs focus detection by the separate optical system and the imaging lens 11. 外光AF部30は一対の測距レンズ30aと、ミラー30b,30cおよびイメージセンサ30dとを有する。 Outside light AF portion 30 has a pair of ranging lenses 30a, a mirror 30b, and 30c and the image sensor 30d. 一対の測距レンズ30aを通過した被写体光は、ミラー30b,30cで反射された後にイメージセンサ30d上に2つの像として検出される。 Object light that has passed through the pair of range finding lenses 30a are mirror 30b, is detected as two images on the image sensor 30d after being reflected by 30c.

CPU31は、不図示のROMに格納されたシーケンスプログラムに従って、電子カメラの各部動作を制御するとともに、撮影などに必要となる各種演算を実行する(これらの内容については後述する)。 CPU31 is in accordance with the sequence program stored in the ROM (not shown), and it controls each section operation of the electronic camera, (which will be described later, these contents) for executing various operations required a shooting. また、本実施形態のCPU31は、AF制御部31a、顔検出部31b、顔認識部31c、推論部31d、撮影日時を取得するためのタイマ31eとして機能する。 Further, CPU 31 of this embodiment functions as a timer 31e for obtaining AF control unit 31a, the face detection unit 31b, a face recognition unit 31c, the inference unit 31d, a shooting date and time.

AF制御部31aは、撮像素子15から取得したスルー画像のデータに基づいて、コントラスト検出方式での公知のAF演算を実行する。 AF control unit 31a, based on the data of the through image obtained from the imaging device 15 performs the known AF calculation by a contrast detection method. また、AF制御部31aは、外光AF部30のイメージセンサから検出した2像間隔に基づいてデフォーカス量を演算するとともに、このデフォーカス量に基づいてAFを行う。 Further, AF control section 31a is configured to calculates a defocus amount based on the image-to-image gap detected from the image sensor of the external light AF portion 30 performs AF on the basis of the defocus amount. なお、第1実施形態では、通常の撮影モードにおいて、AF制御部31aは、外光AF部30のデフォーカス量でAFを行った後に、コントラスト検出方式のAFをさらに実行することでピント合わせの精度を向上させている。 In the first embodiment, in the normal shooting mode, AF control unit 31a, after the AF defocus amount of the external light AF portion 30, the focusing by further performing a contrast detection AF thereby improving the accuracy.

顔検出部31bは、スルー画像または撮影画像のデータから特徴点を抽出して被写体の顔領域、顔の大きさ等を検出する。 The face detection unit 31b, the face area of ​​the subject by extracting feature points from the data of the through image or the captured image to detect the size of the face. 例えば、顔検出部31bは、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。 For example, the face detection unit 31b extracts a face region by feature points extraction process described in, JP-2001-16573. また、上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。 As the feature points of the, for example, eyebrows, eyes, nose, each endpoint lips, the contour points of the face, like the lower end point of the head top and chin.

顔認識部31cは、顔検出部31bで検出した特徴点に基づいて顔認識データを生成する。 Face recognition unit 31c generates face recognizing data based on the feature point detected by the face detection unit 31b. 例えば、顔認識部31cは、検出した顔の特徴点の位置、特徴点から求まる顔パーツの大きさ、各特徴点の相対距離などから認識対象となる登録人物の顔認識データを生成する。 For example, face recognition unit 31c, the position of the feature point of the detected face, the size of the face part obtained from the feature points, generates the face recognizing data of the registered person to be recognized from such a relative distance of each feature point.

また、顔認識部31cは、撮影画面内の人物の顔が顔認識データの人物の顔か否かを判定する顔認識処理を行う。 The face recognition unit 31c is a face of a person in the photographing screen is performed for determining the face recognition process of determining whether the face of the person's face recognition data. 具体的には、まず顔認識部31cは検出された顔の特徴点に基づいて、撮影人物の顔の特徴点の位置、各顔パーツの大きさ、各特徴点の相対距離などを演算する。 Specifically, based on the feature point of the face face recognition unit 31c is detected First, the position of the feature point of the face of the photographed person, the size of each face part, calculates and relative distance of each feature point. 次に顔認識部31cは、上記の演算結果と顔認識データとを比較して、顔認識データの人物の顔と撮影人物の顔との相似度を求める。 Then the face recognition unit 31c compares the above calculation result and the face recognition data, obtaining the similarity between the face of the face and shooting a person of the person's face recognition data. そして、顔認識部31cは上記の相似度が閾値を上回る場合に撮影人物が顔認識データの人物に合致すると判定する。 Then, the face recognizing section 31c determines that the shooting person matches the human face recognition data when the similarity degree exceeds a threshold value.

推論部31dは、顔の器官を構成する特徴点を用いた演算処理により人種、年齢、性別などを判別する。 Inference unit 31d determines race, age, sex and the like by arithmetic processing using the feature points constituting the organs of the face. 人種の推定では、たとえば、下記の文献1の手法を適用できるが、これに限らず、顔画像内の輝度分布を検出する方法を用いることができる。 The race estimation, for example, can be applied the technique of Document 1 described below, not limited to this, it is possible to use a method of detecting the brightness distribution in the face image. また、年齢や性別を推定するには、たとえば、下記の文献2に開示された方法を使用することができる。 Also, to estimate the age and sex, for example, it may be used the method disclosed in Reference 2 below.

<文献1>:グレゴリー シャナロビッチ(Gregory Shakhnarovich),ポール A ヴィオラ(Paul A. Viola),ババック モハダム(Baback Moghaddam);「ア ユニファイド ラーニング フレームワーク フォア リアルタイム フェイス ディテクション アンド クラシフィケーション(A Unified Learning Framework for Real Time Face Detection and Classification)」;プロシーディングス オブ ザ フィフス IEEE インターナショナル コンファレンス オン オートマティック フェイス アンド ジェスチャー レコグニッション(Proceedings of the Fifth IEEE International <Reference 1>: Gregory Shanarobitchi (Gregory Shakhnarovich), Paul A viola (Paul A. Viola), Babakku Moghadam (Baback Moghaddam); "A Unified Learning Framework Fore real time Face Detection and Classification (A Unified Learning Framework for Real Time face Detection and Classification) "; Proceedings of The Fifth IEEE International Conference on automatic face and gesture Rekogunisshon (Proceedings of the Fifth IEEE International onference on Automatic Face and Gesture and Gesture Recognition);(米国) インスティチュート オブ エレクトリカル アンド エレクトロニクス エンジニアズ(Institute of Electrical and Electronics Engineers,略称 IEEE);2002年5月 <文献2>:細井聖,瀧川えりな,川出雅人;「ガボールウェーブレット変換とサポートベクタマシンによる性別・年代推定システム」;第8回画像センシングシンポジウム講演論文集;画像センシング技術研究会;2002年7月 上記の推論処理に使用される特徴量は、主として顔画像の検出領域から導き出されるが、これに限らず、顔画像の周辺領域や、画像全体または onference on Automatic Face and Gesture and Gesture Recognition); (US) Institute of Electrical and Electronics Engineers (Institute of Electrical and Electronics Engineers, abbreviation IEEE); 5 May 2002 <Reference 2>: Hosoi St., Erina Takigawa, Masato Kawade; "Gabor wavelet transform and support vector machine by gender and age estimation system"; 8th image sensing Symposium; feature amount to be used in July 2002, the above inference processing; image sensing technology research Association is mainly derived from the detection area of ​​the face image is not limited thereto, and the peripheral region of the face image, the entire image or 像の一部の特徴量も含めてもよい。 Some of the features of the image may also be included. 特徴量としては、顔画像の色彩や明度の平均や分散、強度分布、周囲画像との色彩差や明度差などを検出することができる。 As the feature amounts, the mean and variance of color and brightness of the face image, the intensity distribution, it is possible to detect a color difference and brightness difference between the peripheral image. また、これらの特徴量を所定の演算式にあてはめて、推論に必要な二次的な特徴量を求めることもできる。 Further, by applying these feature amounts to a predetermined arithmetic expression, it is also possible to obtain the secondary feature amounts required for inference.

第2メモリ32はCPU31と接続されている。 The second memory 32 is connected to the CPU 31. 第2メモリ32には、顔認識部31cで生成された顔認識データが記録される。 The second memory 32, the face recognition data generated by the face recognition unit 31c is recorded. この第2メモリ32には登録した人物(登録人物)ごとにグループフォルダを生成することができ、グループフォルダによって顔認識データを登録人物ごとにグループ化できる。 This is the second memory 32 can generate a group folder for each person registered (registered person) can be grouped face recognizing data for each registered person by the group folder. 例えば、グループフォルダには、同一の登録人物に関して、顔の向きや撮影条件などが異なる複数の顔認識データを記録することができる。 For example, the group folder, for the same registered person, it is possible to record a plurality of face recognizing data such different orientations and shooting conditions of the face.

また、第2メモリ32の各々のグループフォルダには、その登録人物の特徴や撮影時の設定を示す特性データを記録できる。 Further, in the group folder for each of the second memory 32 can be recorded the characteristic data indicating the setting of a time characteristic and the shooting of the registered person.

上記の特性データとしては、(1)登録人物の名称、(2)登録人物の生年月日、(3)登録人物の性別、(4)登録人物の人種、(5)登録人物の出身地/言語、(6)眼鏡の着用の有無、(7)撮影画像への付帯表示の設定、(8)文字の表示、が含まれる。 Examples of the above-mentioned characteristic data, (1) Name of the registered person, (2) date of birth of the registered person, (3) gender of the registered person, (4) race of the registered person, (5) the birthplace of the registered person / language, (6) whether the wearing of glasses, (7) auxiliary display setting of the photographed image, (8) characters of the display, are included. また、特性データとして、登録人物の電話番号、住所、メールアドレス、ニックネームなどを記録できるようにしてもよい。 In addition, as the characteristic data, the telephone number of the registered person, address, e-mail address, may be able to record, such as a nickname.

ここで、上記(7)の付帯表示の設定は、撮影画像に付帯表示を合成するか否かを示している。 Here, the setting attendant display of the above (7) shows whether the synthesis supplementary display the captured image. この付帯表示としては、漫画のキャラクタや、文字や絵などのスタンプや、撮影画像の周囲を飾るフレームなどのテンプレートや、撮影日のニュースなどの文字情報などが含まれる。 As the accompanying display, cartoon character or, stamps and such as letters and pictures, and templates, such as a frame to decorate the perimeter of the photographic image, and the like character information such as news of the shooting date. また、付帯表示の設定には、画像中で付帯表示を合成する位置の設定も含まれる。 In addition, the attendant display of the setting, the setting of the position of synthesizing a supplementary display in the image are also included. なお、付帯表示のデータは第2メモリ32に記録されている。 The data of the supplementary display is recorded in the second memory 32. なお、CPU31は、第2メモリ32の付帯表示のデータを、例えば外部のサーバーから通信部25を介してダウンロードすることで追加、更新できるようにしてもよい。 Incidentally, CPU 31 is a supplementary display data in the second memory 32, added by downloading via the communication unit 25, for example, from an external server may be able to update.

また、上記(8)の文字の表示は、撮影画像に文字を合成する場合(撮影日の表示や、上記の付帯表示の文字情報など)の文字に関する設定項目である。 Moreover, the character display of the above (8), (display or shooting date, such as the character information of the incidental display) when synthesizing a character on the photographed image is a setting item related to the character of. 例えば、撮影画像に合成する文字のフォントの種類、文字のサイズ、文字の色や、画像中で文字を合成する位置の設定が含まれる。 For example, type of character font to be combined with the captured image, character size, and character color, includes setting a position of synthesizing a character in the image.

さらに、第2メモリ32には、撮影時の合図に使用されるかけ声の音声データが記録されている。 Further, the second memory 32, audio data shout used for signaling during shooting is recorded. この音声データは、複数の言語に対応するかけ声のデータがそれぞれ記録されている。 The audio data is data of shout corresponding to a plurality of languages ​​are recorded, respectively. また、1つの言語に対しても標準語と方言とで複数パターンのかけ声のデータを有している。 Also it has a data cheer of a plurality of patterns between the standard language and dialect for one language.

次に、図2の流れ図を参照しつつ、第1実施形態における電子カメラの撮影動作の一例を説明する。 Next, with reference to the flow diagram of FIG. 2, an example of a photographing operation of the electronic camera in the first embodiment. ここで、以下の説明では、人物の年齢および性別の推論機能をオンに設定するとともに、顔認識機能をオフに設定した場合を説明する。 Here, in the following description, it is set to On inference function of the age and sex of the person, a case where set off a face recognition function.

ステップ101:CPU31は、撮像素子15を駆動させてスルー画像の取得を開始する。 Step 101: CPU 31 starts the acquisition of the through image by driving the image sensor 15. 撮像素子15は所定間隔毎に間引き読み出しでスルー画像の画像信号を取得する。 The imaging device 15 obtains an image signal through image in the read thinned at predetermined intervals. 画像処理部20はスルー画像のデータに基づいてビュー画像を逐次生成する。 The image processing unit 20 sequentially generates a view image based on the data of the through image. そして、撮影待機時のモニタ23にはビュー画像が動画表示される。 Then, the view image is displayed video on the monitor 23 at the time of photographing standby. したがって、ユーザーはモニタ23のビュー画像によって、撮影構図を決定するためのフレーミングを行うことができる。 Thus, the user by the view image on the monitor 23, it is possible to perform the framing to determine the photographing composition.

ステップ102:CPU31の顔検出部31bは、スルー画像のデータに顔検出処理を施して撮影画面内の顔領域を検出する。 Step 102: CPU 31 of the face detecting section 31b detects a face area in a shooting image plane by performing face detection processing on the data of the through image.

ステップ103:CPU31は、S102の顔検出処理で顔領域を検出したか否かを判定する。 Step 103: CPU 31 determines whether a face area is detected in the face detection processing of S102. 顔領域を検出した場合(YES側)にはS104に移行する。 If it detects a face area (YES side), the process proceeds to S104. 一方、顔領域を検出していない場合(NO側)にはS107に移行する。 On the other hand, if not detected face area (NO side) moves to S107.

ステップ104:CPU31の推論部31dは、S102の顔領域に対して主要被写体の年齢および性別を推定する推論処理を実行する。 Step 104: CPU 31 of the inference unit 31d executes the inference process for estimating the age and sex of the main subject relative to the S102 of the face area. 一例として、CPU31は、被写体の性別、年齢のそれぞれのカテゴリについて複数のクラスを設定して、各クラス毎の尤度を求める。 As an example, CPU 31 may, subject gender, for each of the categories of age by setting a plurality of classes, obtaining a likelihood of each class. そして、CPU31は最も尤度の高いクラスに基づいて主要被写体の年齢および性別を推定する。 Then, CPU 31 estimates the main subject age and gender on the basis of the highest likelihood class.

ここで、S102で複数の顔領域が検出されている場合、CPU31は顔のサイズが最も大きくて至近側にあると考えられる顔領域または最も中央に位置する顔領域のいずれかを主要被写体として推論処理を実行する。 Here, if a plurality of face regions in S102 is detected, CPU 31 may infer either face region located to the face area or the most central considered to be close side by the largest size of the face as the main subject process to run.

ステップ105:CPU31は、S104の推論処理で推定された年齢から主要被写体が子供であるか否かを判定する。 Step 105: CPU 31 is the main subject from the age estimated by the inference processing of S104 determines whether a child. 具体的には、CPU31は、主要被写体の推定年齢が閾値以下(例えば6〜10歳以下)の場合には主要被写体が子供であると判定する。 Specifically, CPU 31, when the following estimated age threshold of the main subject (e.g. 6-10 years) determines that the main subject is a child. 主要被写体が子供の場合(YES側)にはS108に移行する。 The main object moves to S108 in the case of children (YES side). 一方、主要被写体が子供ではない場合(NO側)にはS106に移行する。 On the other hand, the main subject is shifted to S106. If not a child (NO side).

ステップ106:CPU31は、S104の推論処理で推定された性別から主要被写体が女性であるか否かを判定する。 Step 106: CPU 31 determines whether or not the main subject from the estimated gender inference processing of S104 are women. 主要被写体が女性の場合(YES側)にはS109に移行する。 The main object moves to S109 in the case of women (YES side). 一方、主要被写体が男性の場合(NO側)にはS107に移行する。 On the other hand, the main object moves to S107 in the case of men (NO side).

ステップ107:この場合には、CPU31は通常の撮影モードで被写体を撮影する。 Step 107: In this case, CPU 31 is photographing an object in the normal shooting mode. 通常の撮影モードでは、レリーズ釦の半押しに応じてCPU31はAFを行うとともに、AE(自動露出演算)を実行して撮影条件を設定する。 In normal imaging mode, CPU 31 in accordance with the half-press of the release button performs AF, sets the imaging conditions by running AE (automatic exposure calculation). その後、レリーズ釦の全押しに応じてCPU31は被写体を撮影し、画像処理部20が撮影画像のデータを生成する。 Then, CPU 31 takes an image of an object in accordance with the full press of the release button, the image processing unit 20 generates data of a captured image. そして、CPU31は撮影画像のデータを記録媒体34に記録してS110に移行する。 Then, CPU 31 proceeds to S110 to record data of a photographed image on the recording medium 34. なお、S102で顔領域が検出されている場合には、CPU31のAF制御部31aは検出した顔領域を焦点検出エリアとしてAFを実行するのが好ましい。 Incidentally, when the face region in step S102 is detected, it is preferable to perform the AF for the face area CPU31 of the AF control unit 31a detected as a focus detection area.

ステップ108:この場合には、CPU31は子供の撮影に適した第1撮影モードに移行して被写体を撮影する。 Step 108: In this case, CPU 31 to shoot a subject shifts to the first imaging mode suitable for children photography. この第1撮影モードでは、CPU31はS107の通常の撮影モードとほぼ同じ流れで撮影を行うが、CPU31が以下の(1)から(11)のいずれかの制御を実行する点で相違する。 In the first imaging mode, CPU 31 is performing photography at substantially the same flow as the normal shooting mode S107, CPU 31 is different in that to perform the control of either of the following (1) (11).

(1)CPU31は、撮影条件の設定時において、通常の撮影モードよりも露光時間を短くする補正を行う。 (1) CPU 31, during setting of the shooting condition, correction is performed to shorten the exposure time than the normal imaging mode. 上記のように露光時間を短くすることで、子供の動きに起因する被写体ブレを抑制できる。 By shortening the exposure time as described above, it is possible to suppress motion blur caused by the child's movements.

例えば、第1撮影モードでは、CPU31は通常の撮影モードの場合よりも撮像感度を高くするとともに、絞り値を小さくして露光時間を短くする。 For example, in the first imaging mode, CPU 31 along with a higher imaging sensitivity than in the normal photographing mode, the exposure time is shortened by reducing the aperture value. 勿論、CPU31は撮像感度の補正と絞り値の補正とのいずれかの一方のみを行って露光時間を短くしてもよい。 Of course, CPU 31 may be shorter exposure time by performing only one of either the corrected aperture value and the correction of the imaging sensitivity.

(2)CPU31は、撮影条件の設定時において、通常の撮影モードよりも絞り値を大きくして被写界深度を深くする。 (2) CPU 31, at time of setting the photographing conditions, with a larger aperture than the normal photographing mode the depth of field. 子供を撮影するシーンでは子供が動いてピントが合わせづらくなることがあるが、被写界深度を深くすることで撮影失敗の可能性を低くできる。 The scene to shoot children may become difficult combined in focus moving child, but can reduce the possibility of imaging failures by deepening the depth of field. なお、上記の(1)と(2)との設定は、ユーザーが操作部24の操作で相互に切り替えることができる。 The setting of the above (1) and (2), the user can switch to each other by operating the operation unit 24.

(3)CPU31は、撮影レンズ11を近接撮影に適した位置に移動させる。 (3) CPU 31 moves to a position suitable for photographing lens 11 to the close-up photography. 特に乳児を撮影するシーンでは、カメラを人物に近づけて接写をする場合が多いからである。 In the scene in particular taking infants, because there is often a close-up close the camera person.

(4)CPU31は、露光開始直前に閃光発光部29を発光させるとともに、スピーカー28から音声を出力する設定を行う。 (4) CPU 31, as well emit flashlight unit 29 to the exposure immediately before, and sets to output the audio from the speaker 28. 撮影時に子供の注意を電子カメラに向けて撮影失敗を防止するためである。 The attention of the children at the time of shooting is to prevent the shooting failed towards the electronic camera.

(5)CPU31は、撮影時に閃光発光部29の発光を禁止するとともに、スピーカー28の音声出力をオフにする設定を行う。 (5) CPU 31 is configured to prohibit the emission of the flash light emitting unit 29, a setting to turn off the audio output of the speaker 28 performed at the time of shooting. 例えば、就寝中の子供を撮影する場合に、撮影時のフラッシュや撮影音で子供を起こさないようにするためである。 For example, when photographing a child during sleep, it is so that does not cause the children in the flash and shooting sound at the time of shooting. なお、上記の(4)と(5)との設定は、ユーザーが操作部24の操作で相互に切り替えることができる。 The setting of the above (4) and (5) may be user switches to another in operation of the operation unit 24.

(6)CPU31のAF制御部31aは、外光AF部30のみでAFを実行する。 (6) CPU 31 of the AF control unit 31a executes the AF only outside light AF portion 30. すなわち、第1撮影モードにおいて、CPU31は合焦までに時間のかかるコントラスト検出方式でのAFを行わないようにできる。 That is, in the first imaging mode, CPU 31 can be so as not to perform AF in such contrast detection method of time to focus. これにより、AFが迅速に行われるのでシャッターチャンスを逃すおそれが低下する。 Thus, AF because performed quickly may miss a photo opportunity decreases.

(7)CPU31は、主要被写体の顔領域の表情を推定する。 (7) CPU 31 estimates the facial expression of the face area of ​​the main subject. そして、CPU31は主要被写体の表情が所定の状態(例えば、目つぶりしていない状態または笑顔の状態)である場合のみ撮影できるようにする。 Then, CPU 31 will only be able to shooting when the expression of the main subject is in a predetermined state (e.g., closed eyes and have no state or smile state). これにより、ユーザーは主要被写体の表情が所望の状態の撮影画像を得ることができ、撮影失敗の可能性が低減する。 Thus, the user can look the main object to obtain a shot image of a desired state, the possibility of capturing failure is reduced.

ここで、上記の顔の表情の検出は以下の手段によって行われる。 Here, detection of the facial expression of the face is performed by the following means. 例えば、特開2004−272933号公報のように、普通の表情、目をつぶった顔、口を開いた顔、笑顔などのクラスに分類された学習用顔画像を予め用意し、CPU31が正準判別分析による識別を行なった上で各クラスごとに設定された評価値で顔の表情を判別してもよい。 For example, as in JP 2004-272933, ordinary facial expression, the face that eyes closed, face the open mouth, providing a sorted learning face images into classes such as smile advance, the CPU31 canonical after having performed identification by discriminant analysis may determine the facial expression evaluation value set for each class. あるいは、開いた目、閉じた目、開いた口、閉じた口などの標準パターンを予め用意し、CPU31が各パターンと顔領域とのマッチングをとり、パターンの組合せから表情を推定してもよい。 Alternatively, open eye, eyes closed, open mouth, prepared standard pattern such as a closed mouth in advance, CPU 31 takes the matching between each pattern and the face area may be estimated facial expressions from a combination of the pattern .

(8)CPU31は、1回のレリーズ釦の全押しで複数フレームの連写撮影を実行する。 (8) CPU 31 executes the continuous shooting of a plurality of frames at full press of a single release button. これにより、ユーザーは複数の撮影画像から最良の画像を選択できるので撮影失敗の可能性が低下する。 This allows the user the possibility of capturing failure is reduced because it selects the best image from a plurality of captured images.

(9)CPU31は、撮影時にマイク27で録音を実行する。 (9) CPU 31 executes the recording by the microphone 27 at the time of photographing. 例えば、CPU31は撮影画像の撮影に前後して録音を行い、撮影画像のデータに録音のデータを関連付けして記録する。 For example, CPU 31 performs the recording with front and rear for shooting captured image, and records the association recording data to data of the captured image. これにより、撮影したシーンの状況を音声によっても把握することが可能となる。 As a result, the status of the captured scene and it is possible to grasp even by voice.

(10)CPU31は、画像処理部20に対して撮影画像にソフトフォーカス処理を施す指示を行う。 (10) CPU 31 performs instructions for performing soft focus processing to the captured image to the image processing unit 20. これにより、主要被写体の子供が強調されるとともに柔らかみのある好ましい撮影画像を得ることができる。 Thus, it is possible to obtain a preferable photographic image with Yawarakami with children of the main subject is emphasized.

ここで、画像処理部20のソフトフォーカス処理は以下の手段で行われる。 Here, the soft focus processing of the image processing unit 20 is performed in the following way. 例えば、画像処理部20は、所定のソフトフォーカス効果を示すフィルタやローパスフィルタなどによるフィルタ処理を撮影画像に施してソフトフォーカス画像を生成する。 For example, the image processing unit 20 generates a soft focus image by applying the filtering process due to filter or low-pass filter exhibits a predetermined soft focus effect to the photographed image. また、画像処理部20は、撮影画像からマスク画像を生成するとともに、マスク画像に基づいてフィルタ処理後の画像と原画像とを合成してソフトフォーカス画像を生成してもよい。 The image processing unit 20, generates a mask image from the photographed image, it may generate the soft focus image by combining the image and the original image after the filtering process based on the mask image.

(11)CPU31は、画像処理部20に対して付帯表示の合成処理を指示する。 (11) CPU 31 instructs the synthesis process of the incidental displayed to the image processing unit 20. そして、画像処理部20は、撮影画像に漫画などのキャラクタや撮影日のニュースなどを合成する。 Then, the image processing unit 20, to synthesize such as a character or a shooting date of the news, such as a cartoon in the captured image. これにより、エンタテイメント性の高い撮影画像をユーザーに提供することができる。 Thus, it is possible to provide a highly photographed images entertaining the user.

ステップ109:この場合には、CPU31は女性の撮影に適した第2撮影モードに移行して被写体を撮影する。 Step 109: In this case, CPU 31 will migrate to the second image capturing mode suitable for photographing a woman photographing a subject. この第2撮影モードでは、CPU31はS107の通常の撮影モードとほぼ同じ流れで撮影を行うが、CPU31が以下の(1)から(4)のいずれかの制御を実行する点で相違する。 In the second imaging mode, CPU 31 is performing photography at substantially the same flow as the normal shooting mode S107, CPU 31 is different in that to perform the control of either of the following (1) (4).

(1)CPU31は、画像処理部20に対して撮影画像の露出をオーバー側に補正する露出補正処理の指示を行う。 (1) CPU 31 executes an instruction for exposure correction process for correcting the exposure of the captured image to the over side to the image processing unit 20. これにより、主要被写体の女性の肌が白く表現された好ましい撮影画像を得ることができる。 This allows a woman's skin of the main object to obtain a preferable photographic image that is white representation.

(2)CPU31は、画像処理部20に対して撮影画像にソフトフォーカス処理を施す指示を行う。 (2) CPU 31 executes an instruction for performing a soft-focus processing on the captured image to the image processing unit 20. これにより、主要被写体の女性が強調されるとともに柔らかみのある好ましい撮影画像を得ることができる。 Thus, it is possible to obtain a preferable photographic image with Yawarakami with women of the main subject is emphasized. また、主要被写体の女性のしわや肌荒れなどが目立ちにくい好ましい撮影画像を得ることができる。 Further, it is possible to such women wrinkles and skin roughness of the main object to obtain a preferable photographic image less noticeable. なお、ソフトフォーカス処理の説明は、上記のS107と同様であるので重複説明は省略する。 Incidentally, the description of the soft focus processing, duplicated description will be omitted because it is similar to S107 described above.

(3)CPU31は、画像処理部20に対して撮影画像の彩度のパラメータを補正する指示を行う。 (3) CPU 31 executes an instruction for modifying the parameter of the saturation of the captured image to the image processing unit 20. 例えば、画像処理部20は、肌色の領域の彩度を下げる補正を行って肌を白く表現する。 For example, the image processing unit 20, whitening represent skin performs correction to decrease the saturation of the skin color region. あるいは、画像処理部20は、肌色の領域の彩度を上げる補正を行って肌色のくすみなどを軽減するようにしてもよい。 Alternatively, the image processing unit 20 may be adapted to reduce skin color dullness and performs correction to increase the color saturation of the flesh color area.

(4)CPU31は、画像処理部20に対して撮影画像の人物を痩身にみせる補正を実行する指示を行う。 (4) CPU 31 executes an instruction to execute the correction to show the person photographed image to slimming the image processing unit 20. これにより、主要被写体の女性が痩せてみえる好ましい撮影画像を得ることができる。 This allows women the main subject to obtain a preferable photographic image appear slim.

ここで、上記の撮影人物を痩身にみせる処理は以下の手段で行われる。 Here, processing to show the shooting person slimming is performed in the following way. 例えば、画像処理部20は、撮影画像の縦横比を若干縦長に変更した後、画像をトリミングして画像サイズを調整する。 For example, the image processing section 20, after changing the aspect ratio of the photographed image slightly vertically elongated to adjust the image size to crop the image. あるいは、画像処理部20は、特開2004−264893号公報のように、画像処理で顔の輪郭を補正して頬を細くみせるようにしてもよい。 Alternatively, the image processing unit 20, as in JP-2004-264893 corrects the contour of the face in the image processing may be show thin cheeks.

ステップ110:CPU31は、DPOF(Digital Print Order Format)規格による印刷設定データの生成がオンに設定されているか否かを判定する。 Step 110: CPU 31 determines whether or not the DPOF (Digital Print Order Format) generates print setting data by the standard is set to ON. 上記設定がオンとなっている場合(YES側)にはS111に移行する。 If (YES side) which the setting is turned ON to shift to S111. 一方、上記設定がオフとなっている場合(NO側)には、CPU31は印刷設定データを生成することなく撮影動作を終了する。 On the other hand, when (NO side) which the setting is turned off is, CPU 31 terminates the photographing operation without generating print setting data.

ステップ111:CPU31は、S104の推論処理で推定された年齢から主要被写体が高齢者であるか否かを判定する。 Step 111: CPU 31 is the main subject from the age estimated by the inference processing of S104 determines whether or not the elderly. 具体的には、CPU31は、主要被写体の推定年齢が閾値以上(例えば60歳以上)の場合には主要被写体が高齢者であると判定する。 Specifically, CPU 31 is the main subject in the case of the main subject of the estimated age is more than the threshold value (e.g., 60 years) is determined to be the elderly. 主要被写体が高齢者の場合(YES側)にはS112に移行する。 The main object moves to S112 in the case of the elderly (YES side). 一方、顔領域が検出されていない場合や主要被写体が高齢者ではない場合(NO側)にはS113に移行する。 On the other hand, or if the main subject face area is not detected shifts to S113 when not in the elderly (NO side).

ステップ112:CPU31は、印刷のサイズを通常の場合よりも大きなサイズに変更して印刷設定データを生成する。 Step 112: CPU 31 generates print setting data is changed to a larger size than the size of the printing of the normal. 例えば、標準の印刷のサイズがL判である場合、CPU31は印刷のサイズを2L判にして印刷設定データを生成する。 For example, if the size of the standard print is L size, CPU 31 generates print setting data by the size of the print to 2L size. これにより、印刷設定データによって高齢者に見やすい撮影画像をプリントアウトすることができる。 Thus, easy to see the captured image to the elderly by the print setting data can be a print out.

ステップ113:CPU31は、通常の印刷のサイズで印刷設定データを生成する。 Step 113: CPU 31 generates print setting data in the size of a normal printing. 例えば、標準の印刷のサイズがL判である場合、CPU31は印刷のサイズをL判にして印刷設定データを生成する。 For example, the size of the standard print be a L size, CPU 31 generates print setting data by the size of the print to L-size. 以上で第1実施形態の電子カメラの撮影動作の説明を終了する。 The end of the description of the imaging operation of the electronic camera of the first embodiment above.

(第2実施形態の説明) (Description of Second Embodiment)
図3は第2実施形態における電子カメラの撮影動作の一例を説明する流れ図である。 Figure 3 is a flow chart illustrating an example of a photographing operation of the electronic camera in the second embodiment. 第2実施形態では、人物の年齢および性別の推論機能と顔認識機能とをオンに設定して登録人物の認識を行う場合である。 In the second embodiment, a case where the recognition of the registered person is set to turn on the inference function and face recognition function of the age and sex of the person.

ここで、第2実施形態の電子カメラの基本構成は第1実施形態と共通であるので重複説明は省略する。 Here, the basic configuration of the electronic camera of the second embodiment and a duplicate description because it is common to the first embodiment will be omitted. また、図3のS201、S202は第1実施形態のS101、S102にそれぞれ対応するので重複説明を省略する。 Moreover, S201, S202 of FIG. 3 is omitted redundant description will correspond to S101, S102 of the first embodiment.

ステップ203:CPU31は、S202の顔検出処理で顔領域を検出したか否かを判定する。 Step 203: CPU 31 determines whether a face area is detected in the face detection processing of S202. 顔領域を検出した場合(YES側)にはS204に移行する。 If it detects a face area (YES side), the process proceeds to S204. 一方、顔領域を検出していない場合(NO側)にはS208に移行する。 On the other hand, if not detected face area (NO side) moves to S208.

ステップ204:CPU31の顔認識部31cは、S202の顔検出処理で取得した特徴点のデータと、第2メモリ32の顔認識データとに基づいて、上記の顔領域のうちから認識対象となる登録人物の顔を検出する顔認識処理を実行する。 Step 204: CPU 31 of the face recognition unit 31c includes a feature point data acquired by the face detection processing of S202, based on the face recognizing data in the second memory 32, registers to be recognized from among the face areas to perform the face recognition process to detect a person's face.

ここで、S204の顔認識処理では、CPU31は第2メモリ32の特性データに基づいて顔認識処理の判定基準の閾値を登録人物ごとに補正する。 Here, in the face recognition processing of S204, CPU 31 corrects the threshold criteria of the face recognition process for each registered person on the basis of the characteristic data of the second memory 32. 例えば、特性データの性別が女性である登録人物については、CPU31は判定基準の閾値を低く補正して顔領域の人物を登録人物として判断する可能性を高くする。 For example, sex characteristic data for the registered person is female, CPU 31 will increase the possibility of determining the human face region by correcting the threshold low criteria as registered person. 女性の場合には、化粧やヘアスタイルの変化などで顔認識の正解率が低くなる可能性があるからである。 In the case of women, because the accuracy rate of face recognition in such as makeup and hair style change is likely to be low. また、特性データが眼鏡の着用を示す登録人物については、CPU31は判定基準の閾値を低く補正して顔領域の人物を登録人物として判断する可能性を高くする。 Further, characteristic data for the registered person showing the wearing of glasses, CPU 31 will increase the possibility of determining the human face region by correcting the threshold low criteria as registered person. 眼鏡を着用する人物の場合には、眼鏡の有無や眼鏡の変更などで顔認識の正解率が低くなる可能性があるからである。 When the person wearing the glasses, the accuracy rate of face recognition in the presence or absence or glasses changes glasses there is a possibility to be low.

ステップ205:CPU31は、S204の顔認識処理で登録人物の顔を検出したか否かを判定する。 Step 205: CPU 31 determines whether it has detected the face of the registered person in the face recognition processing of S204. 登録人物の顔を検出した場合(YES側)にはS206に移行する。 If a face has been detected in the registered person (YES side), the process proceeds to S206. 一方、登録人物の顔を検出していない場合(NO側)にはS208に移行する。 On the other hand, if not detecting the face of a registered person (NO side) moves to S208.

ステップ206:CPU31の推論部31dは、S204で登録人物と認められた顔領域に対して被写体の性別、人種、年齢を推定する推論処理を実行する。 Step 206: CPU 31 of the inference unit 31d executes subject gender for the face area that is recognized as the registered person in S204, race, the inference process for estimating the age. 一例として、CPU31は、被写体の性別、人種、年齢のそれぞれのカテゴリについて複数のクラスを設定して、各クラス毎の尤度を求める。 As an example, CPU 31 may, subject gender, race, and set a plurality of classes for each of the categories of age, determining the likelihood of each class. そして、CPU31は最も尤度の高いクラスに基づいて被写体の性別、人種、年齢を推定する。 Then, CPU 31 estimates the subject's sex, race, age based on the highest likelihood class.

ステップ207:CPU31は、第2メモリ32の特性データと、S206で推定された性別、人種、年齢とが一致するか否かを判定する。 Step 207: CPU 31 determines the characteristic data of the second memory 32, sex estimated in S206, race, whether the age-matched. 例えば、CPU31は、被写体の性別、人種、年齢について、S206の推定結果と特性データとの一致度を示す評価値を演算する。 For example, CPU 31 may, subject gender, race, for age, calculates an evaluation value indicating the degree of coincidence between the estimated result of S206 and the characteristic data. そして、この評価値が閾値以上の場合にはS204の顔領域が登録人物に一致するものと判定する。 When the evaluation value is equal to or larger than the threshold value it determines that the face region of the S204 matches the registered person. 両者が一致する場合(YES側)にはS209に移行する。 If they match (YES side), the process proceeds to S209. 一方、両者が一致しない場合(NO側)にはS208に移行する。 On the other hand, if they do not match (NO side) moves to S208.

ステップ208:この場合には、CPU31は通常の撮影モードで被写体を撮影する。 Step 208: In this case, CPU 31 is photographing an object in the normal shooting mode. 通常の撮影モードでは、レリーズ釦の半押しに応じてCPU31はAFを行うとともに、AEを実行して撮影条件を設定する。 In normal imaging mode, in accordance with the half-press of the release button CPU31 is performs AF, sets the imaging conditions by running AE. その後、レリーズ釦の全押しに応じてCPU31は被写体を撮影し、画像処理部20が撮影画像のデータを生成する。 Then, CPU 31 takes an image of an object in accordance with the full press of the release button, the image processing unit 20 generates data of a captured image. そして、CPU31は撮影画像のデータを記録媒体34に記録する。 Then, CPU 31 records the data of the photographed image on the recording medium 34. なお、S202で顔領域が検出されている場合には、CPU31のAF制御部31aは検出した顔領域を焦点検出エリアとしてAFを実行するのが好ましい。 Incidentally, when the face region in S202 is detected, it is preferable to perform the AF for the face area CPU31 of the AF control unit 31a detected as a focus detection area.

ステップ209:この場合には、CPU31は登録人物の撮影モードに移行して被写体を撮影する。 Step 209: In this case, CPU 31 is photographing an object shifts to the photographing mode of the registered person. この登録人物の撮影モードでは、CPU31はS208の通常の撮影モードとほぼ同じ流れで撮影を行うが、CPU31はS204で検出した登録人物の特性データを第2メモリ32から読み出して、その特性データに基づいて以下の(1)から(4)のいずれかの制御を実行する点で相違する。 In shooting mode of the registered person, CPU 31 performs the shooting at approximately the same flow as the normal shooting mode S208 but, CPU 31 reads the characteristic data of the registered person detected in S204 from the second memory 32, to the characteristic data based on that difference that executes the control of either of the following (1) (4).

(1)CPU31は撮影の合図を示すかけ声を撮影時にスピーカー28から出力する。 (1) CPU 31 outputs from speaker 28 at the time of photographing a shout indicating the cue shooting. ここで、CPU31は上記のかけ声を登録人物の特性データに基づいて変化させる。 Here, CPU 31 may vary based on the characteristics data of the registered person above the shout. 具体的には、CPU31は、特性データの登録人物の出身地/言語に基づいて第2メモリ32の音声データから再生する音声データを選択する。 Specifically, CPU 31 selects the audio data to be reproduced from the audio data in the second memory 32 on the basis of the birthplace / language registered person characteristic data. 例えば、特性データにおける言語が英語を示す場合には、CPU31は英語のかけ声の音声データを再生する。 For example, the language in the characteristic data to indicate English, CPU 31 reproduces the audio data of the shout of English. また、1つの言語に複数の方言が設定されている場合には、CPU31は特性データの登録人物の出身地に基づいて出身地に対応する方言の音声データを再生するようにしてもよい。 When a plurality of dialects in one language is set, CPU 31 may be configured to reproduce the audio data dialect corresponding to birthplace based on hometown registered person characteristic data. これにより、主要被写体である登録人物に対して撮影の合図を分かり易く伝達することができる。 This makes it possible to easily transmit understand signaled for photographing with respect to a main object registered person.

(2)CPU31は、画像処理部20に対して撮影日を表示する指示を行う。 (2) CPU 31 executes an instruction for displaying a photographing date to the image processing unit 20. 画像処理部20は、タイマ31eから取得した年月日を撮影画像の所定の位置に合成する。 The image processing unit 20 synthesizes the date obtained from the timer 31e to a predetermined position of the captured image. ここで、CPU31は、登録人物の特性データに基づいて年月日の表示順を変化させる。 Here, CPU 31 changes the display order of the date on the basis of the characteristic data of the registered person. 例えば、特性データの登録人物の言語が日本語の場合には、CPU31は撮影日を年月日の順に表記する。 For example, the language of the registered person of the characteristic data in the case of the Japanese is, CPU31 will be referred to the shooting date in the order of date. また、特性データの登録人物の言語が英語の場合には、CPU31は撮影日を日月年または月日年の順に表記する。 In addition, the language of the registered person of the characteristic data in the case of English, CPU31 will be referred to the shooting date in the order of Sun Moon year or month, day, and year. これにより、主要被写体である登録人物にとって日時が分かり易く表示された撮影画像を提供できる。 Thus, it is possible to provide a photographic image date is displayed clarity for a main object registered person.

(3)CPU31は、登録人物の生年月日に基づいて、誕生日から起算した日時を撮影画像に付加する。 (3) CPU31, based on the date of birth of the registered person, to add the date and time that is counted from the birth date of the captured image. 例えば、CPU31は、画像処理部20に対して、年齢を示す文字(例えば、○×歳、生後×ヶ月など)を撮影画像に合成する画像処理を指示する。 For example, CPU 31, to the image processing unit 20, a character that indicates the age (e.g., ○ × years old, age × month, etc.) and instructs the image processing for combining the captured images. あるいは、CPU31は撮影画像のデータに、誕生日から起算した日時のデータを記録するようにしてもよい。 Alternatively, the data of the shooting image CPU31, the data of the date and time counted from the birthday may be recorded. これにより、主要被写体である登録人物の成長が容易に把握でき、アルバム編集などに適した撮影画像を提供することができる。 This allows growth easily grasp a main object registered person, it is possible to provide a photographic image appropriate for such album editing.

(4)CPU31は、画像処理部20に対して付帯表示の合成処理を指示する。 (4) CPU 31 instructs the synthesis process of the incidental displayed to the image processing unit 20. そして、画像処理部20は、特性データで登録人物ごとに指定されているキャラクタなどを撮影画像に合成する。 Then, the image processing unit 20 synthesizes the like photographed image character designated for each registered person by the characteristic data. なお、画像処理部20は、特性データに基づいて、付帯表示の合成位置を登録人物ごとに変更することもできる。 The image processing unit 20 on the basis of the characteristic data, it is possible to change the combined position of the supplementary displayed for each registered person. これにより、エンタテイメント性の高い撮影画像をユーザーに提供することができる。 Thus, it is possible to provide a highly photographed images entertaining the user.

なお、S209で撮影画像に撮影日などの文字を合成する場合、画像処理部20は特性データの文字の表示の項目に基づいて、登録人物ごとに文字のフォント、色、サイズ、合成位置を変更する。 In the case of synthesizing a character such as date of recording on the recorded image using S209, changing the image processing unit 20 based on the display of items of characteristic data characters, a character font for each registered person, color, size, the combination position to. 以上で、第2実施形態の電子カメラの撮影動作の説明を終了する。 This concludes the description of the photographing operation of the electronic camera in the second embodiment.

上記第2実施形態の電子カメラでは、顔領域から検出された特徴量に基づいて顔認識処理を実行するとともに、顔領域から推定される人種、年齢、性別と特性データとを照合して顔認識結果の妥当性をチェックする。 Above the electronic camera of the second embodiment, and executes the face recognition processing on the basis of the characteristic amount detected from the face region, race estimated from the face area, age, and compares the gender and characteristic data face to check the validity of the recognition result. そのため、顔認識処理の精度を一層向上させることができる。 Therefore, it is possible to further improve the accuracy of face recognition processing.

また、上記第2実施形態では、特性データの性別や眼鏡の有無などの情報に基づいて、顔認識処理の判定基準の閾値を登録人物ごとに補正する。 Further, in the second embodiment, based on the information such as sex and the presence or absence of glasses of characteristic data, to correct the threshold criteria of the face recognition processing for each registered person. そのため、顔認識処理において登録人物が検出されない可能性を低下させることができる。 Therefore, it is possible to reduce the possibility that the registered person is not detected in the face recognition processing.

(実施形態の補足事項) (Embodiment of the Supplement)
(1)第2実施形態では、被写体の人種、年齢、性別などを推定する処理を顔認識処理とともに実行する例を説明したが、本発明では被写体の人種などを推定する処理を省略するようにしてもよい。 (1) is omitted in the second embodiment, race of the subject, age, an example has been described for performing such a process of estimating with face recognition processing sex, in the present invention a process for estimating the like race of the subject it may be so.

(2)第2実施形態における登録人物の撮影モードでの処理はあくまで一例にすぎない。 (2) only merely an example process in the shooting mode of the registered person in the second embodiment. 例えば、登録人物毎の特性データとして撮影時の撮影条件、画像処理の設定、電子メールによる自動の画像送信の設定などを第2メモリ32に記録してもよい。 For example, imaging conditions of the imaging as the characteristic data for each registered person, setting of image processing, such as setting of an automatic image transmission may be recorded in the second memory 32 by e-mail. そして、CPU31は、顔認識時には特性データに基づいて撮影条件や画像処理を自動的に設定してもよく、また、撮影後に所定のアドレスに撮影画像のデータを自動送信するようにしてもよい。 Then, CPU 31 may automatically set the imaging conditions and image processing on the basis of the characteristic data at the time of face recognition, or may be automatically transmits data of the captured image to a predetermined address after shooting.

11…撮影レンズ、12…レンズ駆動部、13…絞り、14…絞り駆動部、15…撮像素子、16…アナログ処理部、20…画像処理部、27…マイク、28…スピーカー、29…閃光発光部、30…外光AF部、31…CPU、31a…AF制御部、31b…顔検出部、31c…顔認識部、31d…推論部、31e…タイマ、32…第2メモリ 11 ... imaging lens, 12 ... lens driving section, 13 ... diaphragm, 14 ... diaphragm driver, 15 ... image pickup device, 16 ... analog processor, 20 ... image processing unit, 27 ... microphone, 28 ... speaker, 29 ... flash emission parts, 30 ... external light AF portion, 31 ... CPU, 31a ... AF control unit, 31b ... face detecting section, 31c ... face recognition unit, 31d ... inference unit, 31e ... timer, 32 ... second memory

Claims (10)

  1. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    認識対象となる顔の特徴量を示す登録データと、前記認識対象の人物の出身地または使用言語に関する特性データとの対応関係を記録したメモリと、 And registration data indicating the characteristic amount of the face to be recognized, a memory which records the correspondence between the characteristic data relating to place of origin or language of the recognition target person,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from said pigment region,
    前記顔領域に対応する前記特徴量のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、 And wherein said feature amount data corresponding to the face area on the basis of the registration data, the face area is judged face recognition unit whether or not the recognition target,
    外部に音を出力するスピーカーと、 And speakers to output the sound to the outside,
    前記顔認識部の認識結果に基づいて、前記特性データに応じて決定されたかけ声を撮影時に前記スピーカーから出力させる制御部と、 On the basis of the recognition result of the face recognition unit, and a control unit to output from the speaker shout determined in accordance with the characteristic data at the time of shooting,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  2. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    認識対象となる顔の特徴量を示す登録データと、前記認識対象の人物の出身地または使用言語に関する特性データとの対応関係を記録したメモリと、 And registration data indicating the characteristic amount of the face to be recognized, a memory which records the correspondence between the characteristic data relating to place of origin or language of the recognition target person,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from said pigment region,
    前記顔領域に対応する前記特徴量のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、 And wherein said feature amount data corresponding to the face area on the basis of the registration data, the face area is judged face recognition unit whether or not the recognition target,
    撮影日時を取得するタイマと、 A timer to get the shooting date and time,
    前記顔認識部の認識結果に基づいて、前記撮像素子で撮影された記録用画像に対して、撮影日の表示を合成する画像処理を実行する画像処理部と、 And on the basis of the recognition result of the face recognition unit, with respect to captured image for recording by the image pickup device, an image processing unit that executes image processing for combining the display of the shooting date,
    前記特性データに基づいて、前記撮影日の表示順を変更する制御部と、 Based on said characteristic data, and a control unit for changing the display order of the shooting date,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  3. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    認識対象となる顔の特徴量を示す登録データと、前記認識対象の人物の性別に関する特性データとの対応関係を記録したメモリと、 And registration data indicating the characteristic amount of the face to be recognized, a memory which records the correspondence between the characteristic data relating to gender of the recognized person,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from said pigment region,
    前記顔領域に対応する前記特徴量のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、 And wherein said feature amount data corresponding to the face area on the basis of the registration data, the face area is judged face recognition unit whether or not the recognition target,
    前記特性データの性別が女性を示す場合には、前記判定において前記顔領域が前記認識対象であるとする基準を緩和する補正を行う制御部と、 If the gender of the characteristic data showing the woman, and a control unit that performs a correction to relax the standards and the face area in the determination is the recognition target,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  4. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    認識対象となる顔の特徴量を示す登録データと、前記認識対象の人物の性別に関する特性データとの対応関係を記録したメモリと、 And registration data indicating the characteristic amount of the face to be recognized, a memory which records the correspondence between the characteristic data relating to gender of the recognized person,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from said pigment region,
    前記顔領域に対応する前記特徴量のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、 And wherein said feature amount data corresponding to the face area on the basis of the registration data, the face area is judged face recognition unit whether or not the recognition target,
    前記特性データが眼鏡を着用する人物を示す場合には、前記判定において前記顔領域が前記認識対象であるとする基準を緩和する補正を行う制御部と、 To indicate a person said characteristic data to wear glasses, and a control unit that performs a correction to relax the standards and the face area in the determination is the recognition target,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  5. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    認識対象となる顔の特徴量を示す登録データと、前記認識対象の人物の誕生日に関する特性データとの対応関係を記録したメモリと、 And registration data indicating the characteristic amount of the face to be recognized, a memory which records the correspondence between the characteristic data relating to the birthday of the recognition target person,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from said pigment region,
    前記顔領域に対応する前記特徴量のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、 And wherein said feature amount data corresponding to the face area on the basis of the registration data, the face area is judged face recognition unit whether or not the recognition target,
    撮影日時を取得するタイマと、 A timer to get the shooting date and time,
    前記顔認識部の認識結果に基づいて、前記認識対象を撮影した記録用画像のデータに対して、誕生日から起算した日時に関するデータを付加する制御部と、 Based on the recognition result of the face recognition unit, to the data of the recording image taken the recognition target, and a control unit for adding data concerning date and time counting from birthday,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  6. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    キャラクタの画像または文字情報からなる付帯表示のデータを記録するとともに、認識対象となる顔の特徴量を示す登録データと、前記認識対象に対応する前記付帯表示を示す特性データとの対応関係を記録したメモリと、 Records the supplementary display data including images or character information of the character, the recording and registration data indicating the characteristic amount of the face to be recognized, a correspondence between the characteristic data indicating the supplementary display corresponding to the recognition target a memory for,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、前記顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from the face area,
    前記顔領域に対応する前記特徴量のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、 And wherein said feature amount data corresponding to the face area on the basis of the registration data, the face area is judged face recognition unit whether or not the recognition target,
    前記顔認識部の認識結果に基づいて、前記撮像素子で撮影された記録用画像に対して、前記特性データの示す前記付帯表示を合成する画像処理を実行する画像処理部と、 And on the basis of the recognition result of the face recognition unit, with respect to captured image for recording by the image pickup device, an image processing unit that executes image processing for combining the auxiliary display indicated by the characteristic data,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  7. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    認識対象となる顔の特徴量を示す登録データと、前記認識対象の人物を撮影したときに画像に合成される文字情報の表示の設定および前記文字情報の合成位置の少なくとも一方に関する特性データとの対応関係を記録したメモリと、 And registration data indicating the characteristic amount of the face to be recognized, and at least one of the characteristics data of the combined position of the display setting and the character information of the character information is synthesized in pictures shot the recognition target person and a memory that records the corresponding relationship,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from said pigment region,
    前記顔領域に対応する前記特徴量のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、 And wherein said feature amount data corresponding to the face area on the basis of the registration data, the face area is judged face recognition unit whether or not the recognition target,
    前記顔認識部の認識結果に基づいて、前記撮像素子で撮影された記録用画像に対して、前記文字情報を合成する画像処理を実行する画像処理部と、 Based on the recognition result of the face recognition unit, with respect to captured image for recording by the image pickup device, an image processing unit that executes image processing for combining the character information,
    前記特性データに基づいて、前記文字情報の表示および合成位置の少なくとも一方を前記認識対象に応じて変更する制御部と、 Said characteristic data on the basis the control unit is changed according to at least one of the display and the synthesis position of the character information to the recognition target,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  8. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、前記顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from the face area,
    前記特徴量に基づいて被写体の年齢、性別のいずれかに関する推論処理を実行する推論部と、 An inference section for performing age of the subject, the inference processing relating either sex on the basis of the feature amount,
    キャラクタの画像または文字情報からなる付帯表示のデータを記録するメモリと、 A memory for recording the auxiliary display data including images or character information of the character,
    前記推論部の推論結果に基づいて、前記撮像素子で撮影された記録用画像に対して、前記付帯表示を合成する画像処理を実行する画像処理部と、 Based on the inference results of the inference unit, with respect to captured image for recording by the image pickup device, an image processing unit that executes image processing for combining the auxiliary display,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  9. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、前記顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from the face area,
    前記特徴量に基づいて被写体の年齢に関する推論処理を実行する推論部と、 An inference unit for executing inference processing regarding the age of the subject based on the feature amount,
    前記推論部の推論結果に基づいて、前記撮像素子で撮影された記録用画像の印刷を行うための印刷データを生成する制御部と、 Based on the inference results of the inference unit, and a control unit that generates print data for printing of the captured image for recording by the image pickup device,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
  10. 被写体像を撮影する撮像素子と、 An imaging element for capturing an object image,
    認識対象となる顔の特徴量を示す登録データと、前記認識対象の人物の性別、人種、年齢のいずれかに関する特性データとの対応関係を記録したメモリと、 And registration data indicating the characteristic amount of the face to be recognized, a memory for recording the sex of the recognized person, race, correspondence between the characteristic data relating to any age,
    前記撮像素子の出力に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴量を抽出する顔検出部と、 And it detects a face area in a shooting image plane based on an output of the image sensor, a face detection unit for extracting a feature value of the face of the subject from said pigment region,
    前記特徴量に基づいて被写体の年齢、性別のいずれかに関する推論処理を実行する推論部と、 An inference section for performing age of the subject, the inference processing relating either sex on the basis of the feature amount,
    前記顔領域に対応する前記特徴量のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する第1顔認識部と、 And wherein corresponding to the face region based on the feature quantity of data the registration data, the first face recognizing section determines whether the face area is the recognition target,
    前記推論部の推論結果と前記特性データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する第2顔認識部と、 Wherein based on the characteristic data and the inference result of the inference unit, and a second face recognizing section determines whether the face area is the recognition target,
    を備えることを特徴とする電子カメラ。 Electronic camera comprising: a.
JP2012110345A 2012-05-14 2012-05-14 Electronic camera Active JP5408288B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012110345A JP5408288B2 (en) 2012-05-14 2012-05-14 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012110345A JP5408288B2 (en) 2012-05-14 2012-05-14 Electronic camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006109006 Division 2006-04-11

Publications (2)

Publication Number Publication Date
JP2012209947A true true JP2012209947A (en) 2012-10-25
JP5408288B2 JP5408288B2 (en) 2014-02-05

Family

ID=47189279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012110345A Active JP5408288B2 (en) 2012-05-14 2012-05-14 Electronic camera

Country Status (1)

Country Link
JP (1) JP5408288B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282630A (en) * 1993-03-26 1994-10-07 Olympus Optical Co Ltd Video id photo system
JPH0883341A (en) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting object area and object recognizing device
JP2000237129A (en) * 1998-12-22 2000-09-05 Asahi Optical Co Ltd Endoscope device
JP2002152696A (en) * 2000-11-10 2002-05-24 Hitachi Ltd Portable terminal
JP2002269504A (en) * 2001-03-07 2002-09-20 Konica Corp Issuing system of electronic card, and issuing method of the electronic card
JP2003150603A (en) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd Image processor and program
JP2004222118A (en) * 2003-01-17 2004-08-05 Omron Corp Photographing equipment
JP2005275935A (en) * 2004-03-25 2005-10-06 Omron Corp Terminal device
JP2005341016A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282630A (en) * 1993-03-26 1994-10-07 Olympus Optical Co Ltd Video id photo system
JPH0883341A (en) * 1994-09-12 1996-03-26 Nippon Telegr & Teleph Corp <Ntt> Method and device for extracting object area and object recognizing device
JP2000237129A (en) * 1998-12-22 2000-09-05 Asahi Optical Co Ltd Endoscope device
JP2002152696A (en) * 2000-11-10 2002-05-24 Hitachi Ltd Portable terminal
JP2002269504A (en) * 2001-03-07 2002-09-20 Konica Corp Issuing system of electronic card, and issuing method of the electronic card
JP2003150603A (en) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd Image processor and program
JP2004222118A (en) * 2003-01-17 2004-08-05 Omron Corp Photographing equipment
JP2005275935A (en) * 2004-03-25 2005-10-06 Omron Corp Terminal device
JP2005341016A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program

Also Published As

Publication number Publication date Type
JP5408288B2 (en) 2014-02-05 grant

Similar Documents

Publication Publication Date Title
US7046924B2 (en) Method and computer program product for determining an area of importance in an image using eye monitoring information
US20080218603A1 (en) Imaging apparatus and control method thereof
US20090196466A1 (en) Face Detection in Mid-Shot Digital Images
US20100302595A1 (en) Image Reproducing Apparatus And Imaging Apparatus
US20040100567A1 (en) Camera system with eye monitoring
US20080025576A1 (en) Method for detecting facial expressions of a portrait photo by an image capturing electronic device
US20100066840A1 (en) Image processing device and image processing method
US20050275734A1 (en) Image processing apparatus and image-taking apparatus
US20080008361A1 (en) Electronic camera and image processing apparatus
US20090135269A1 (en) Electronic Camera and Image Processing Device
JP2005128156A (en) Focusing device and method
JP2008042319A (en) Imaging apparatus and method, and facial expression evaluating device and program
CN102055834A (en) Double-camera photographing method of mobile terminal
JP2005086516A (en) Imaging device, printer, image processor and program
JP2004320286A (en) Digital camera
JP2004317699A (en) Digital camera
US20090016645A1 (en) Image processing apparatus and image processing method
CN101216881A (en) A method and device for automatic image acquisition
JP2006227080A (en) Electronic camera
JP2004320287A (en) Digital camera
US20060115235A1 (en) Moving picture recording apparatus and moving picture reproducing apparatus
JP2007074143A (en) Imaging device and imaging system
US20050200722A1 (en) Image capturing apparatus, image capturing method, and machine readable medium storing thereon image capturing program
JP2008061157A (en) Camera
JP2008131405A (en) Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131021

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250