JP2007282119A - Electronic camera and image processing apparatus - Google Patents

Electronic camera and image processing apparatus Download PDF

Info

Publication number
JP2007282119A
JP2007282119A JP2006109008A JP2006109008A JP2007282119A JP 2007282119 A JP2007282119 A JP 2007282119A JP 2006109008 A JP2006109008 A JP 2006109008A JP 2006109008 A JP2006109008 A JP 2006109008A JP 2007282119 A JP2007282119 A JP 2007282119A
Authority
JP
Japan
Prior art keywords
data
face
image
subject
electronic camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006109008A
Other languages
Japanese (ja)
Inventor
Hirotake Nozaki
弘剛 野崎
Hideya Inoue
英也 井上
Akira Omura
晃 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006109008A priority Critical patent/JP2007282119A/en
Priority to US11/783,198 priority patent/US8306280B2/en
Priority to EP12189992.6A priority patent/EP2552101A3/en
Priority to EP12190013.8A priority patent/EP2552102A3/en
Priority to EP12190049.2A priority patent/EP2552104A3/en
Priority to EP20070105899 priority patent/EP1845711A3/en
Priority to EP12190016.1A priority patent/EP2552103A3/en
Publication of JP2007282119A publication Critical patent/JP2007282119A/en
Priority to US13/632,482 priority patent/US20130027536A1/en
Priority to US14/792,240 priority patent/US9485415B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera and an image processing apparatus for executing various processes on the basis of information of a principal object designated as a result of face recognition. <P>SOLUTION: The electronic camera includes: an imaging element; a memory; a face detection section; a face recognition section; an object designation section; and a photographing control section. The imaging element applies photoelectric conversion to an object image to produce an image signal. The memory records registration data denoting a characteristic point of a face to be a recognition object. The face detection section detects a face region in a photographed image on the basis of the image signal and extracts the characteristic point of the face of the object from the face region. The face recognition section discriminates whether or not the face region is a recognition object on the basis of data of the characteristic point corresponding to the face region and the registration data. The object designation section designates a principal object located among the recognition objects corresponding to the face region. The photographing control section detects a state of the principal object on the basis of the image signal and controls photographing operations of the electronic camera depending on a detection state. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、人物などの顔認識機能を備えた電子カメラおよび画像処理装置に関する。   The present invention relates to an electronic camera and an image processing apparatus having a face recognition function for a person or the like.

従来から、例えば特許文献1に示すように、人物の顔を撮影した撮影画像から人物の顔の特徴点を抽出し、認識する人物に関する顔認識データと上記の特徴点との一致度に基づいて顔認識を行う技術が開示されている。
特開平6−259534号公報
Conventionally, as shown in Patent Document 1, for example, feature points of a person's face are extracted from a captured image obtained by photographing the person's face, and based on the degree of coincidence between face recognition data related to the person to be recognized and the above feature points. A technique for performing face recognition is disclosed.
JP-A-6-259534

ところで、電子カメラ等の利便性を高める1手段として、顔認識の結果に応じて主要被写体となる人物を指定して、その主要被写体の情報を活用して各種の処理を行う電子カメラや画像処理装置が要望されている。
本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、顔認識の結果に基づいて指定された主要被写体の情報に基づいて、各種の処理を行う電子カメラや画像処理装置を提供することである。
By the way, as one means for enhancing the convenience of an electronic camera or the like, an electronic camera or image processing that designates a person as a main subject according to the result of face recognition and performs various processes using information on the main subject. An apparatus is desired.
The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide an electronic camera and an image processing apparatus that perform various processes based on information of a main subject designated based on a result of face recognition.

第1の発明に係る電子カメラは、撮像素子と、メモリと、顔検出部と、顔認識部と、被写体指定部と、撮影制御部とを備える。撮像素子は、被写体像を光電変換して画像信号を生成する。メモリは、認識対象となる顔の特徴点を示す登録データを記録する。顔検出部は、画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、判定結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。撮影制御部は、画像信号に基づいて主要被写体の状態を検出するとともに、該検出状態に応じて電子カメラの撮影動作の制御を行う。   An electronic camera according to a first invention includes an imaging device, a memory, a face detection unit, a face recognition unit, a subject designation unit, and a shooting control unit. The image sensor photoelectrically converts the subject image to generate an image signal. The memory records registration data indicating facial feature points to be recognized. The face detection unit detects a face area in the shooting screen based on the image signal, and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registration data. The subject designating unit designates a main subject from subjects corresponding to the face region based on the determination result. The photographing control unit detects the state of the main subject based on the image signal and controls the photographing operation of the electronic camera according to the detected state.

上記第1の発明では、撮影制御部は、主要被写体を基準として合焦制御を行うことが好ましい。
上記第1の発明では、撮影制御部は、撮影制御部は、画像信号に基づいて主要被写体の像ブレを検出するとともに、該像ブレの検出状態に応じて撮影動作の制御を行うことが好ましい。
In the first aspect of the invention, it is preferable that the imaging control unit performs focusing control with the main subject as a reference.
In the first aspect of the invention, it is preferable that the imaging control unit detects the image blur of the main subject based on the image signal and controls the shooting operation according to the detection state of the image blur. .

上記第1の発明では、撮影制御部は、画像信号に基づいて主要被写体の顔の表情を推定するとともに、表情の種類に応じて撮影動作の制御を行うことが好ましい。
上記第1の発明では、撮影制御部は、画像信号に基づいて複数の主要被写体における各々の合焦状態を検出するとともに、該合焦状態に応じて被写界深度を制御することが好ましい。
In the first aspect of the invention, it is preferable that the shooting control unit estimates the facial expression of the main subject based on the image signal and controls the shooting operation according to the type of facial expression.
In the first aspect, it is preferable that the imaging control unit detects each in-focus state of the plurality of main subjects based on the image signal and controls the depth of field according to the in-focus state.

第2の発明に係る電子カメラは、撮像素子と、メモリと、顔検出部と、顔認識部と、被写体指定部と、画像処理部とを備える。撮像素子は、被写体像を光電変換して画像信号を生成する。メモリは、認識対象となる顔の特徴点を示す登録データを記録する。顔検出部は、画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、判定結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。画像処理部は、画像信号に基づいて撮影画像のデータを生成するとともに、該撮影画像の主要被写体に対応する領域には他の領域と異なる画像処理を施す。   An electronic camera according to a second invention includes an image sensor, a memory, a face detection unit, a face recognition unit, a subject designation unit, and an image processing unit. The image sensor photoelectrically converts the subject image to generate an image signal. The memory records registration data indicating facial feature points to be recognized. The face detection unit detects a face area in the shooting screen based on the image signal, and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registered data. The subject designating unit designates a main subject from subjects corresponding to the face region based on the determination result. The image processing unit generates captured image data based on the image signal, and performs image processing different from the other regions on the region corresponding to the main subject of the captured image.

上記第2の発明では、画像処理部は、主要被写体に対応する領域での輪郭強調に関する補正処理を、他の領域と変化させることが好ましい。
上記第2の発明では、画像処理部は、主要被写体に対応する領域での階調補正の特性を、他の領域と変化させることが好ましい。
上記第2の発明では、画像処理部は、主要被写体に対応する領域での彩度に関する補正処理を、他の領域と変化させることが好ましい。
In the second aspect of the invention, it is preferable that the image processing unit changes the correction processing related to the contour enhancement in the region corresponding to the main subject with another region.
In the second aspect of the invention, it is preferable that the image processing unit changes the characteristics of gradation correction in an area corresponding to the main subject from other areas.
In the second aspect of the invention, it is preferable that the image processing unit changes the correction processing related to the saturation in the region corresponding to the main subject with another region.

上記第2の発明では、画像処理部は、主要被写体に対応する領域に対して、画像解析の結果に基づき画像の暗部またはハイライト部の階調を調整する光量補正処理を実行することが好ましい。
上記第2の発明では、画像処理部は、主要被写体に対応する領域でのノイズ低減処理を、他の領域と変化させることが好ましい。
In the second aspect, it is preferable that the image processing unit executes a light amount correction process for adjusting a gradation of a dark part or a highlight part of an image based on a result of image analysis on an area corresponding to a main subject. .
In the second aspect, it is preferable that the image processing unit changes the noise reduction processing in the area corresponding to the main subject to another area.

上記第2の発明では、画像処理部は、主要被写体に対応する領域での赤目軽減に関する補正処理を、他の領域と変化させることが好ましい。
上記第2の発明では、画像処理部は、主要被写体に対応する領域でのボケ軽減に関する補正処理を、他の領域と変化させることが好ましい。
第3の発明に係る電子カメラは、撮像素子と、メモリと、顔検出部と、顔認識部と、被写体指定部と、画像処理部と、画像ファイル生成部とを備える。撮像素子は、被写体像を光電変換して画像信号を生成する。メモリは、認識対象となる顔の特徴点を示す登録データを記録する。顔検出部は、画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、判定結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。画像処理部は、画像信号に基づいて撮影画像のデータを生成する。画像ファイル生成部は、撮影画像における主要被写体を示す付属データを生成するとともに、撮影画像のデータに付属データを関連付けした画像ファイルを生成する。
In the second aspect, it is preferable that the image processing unit changes the correction process related to red-eye reduction in the area corresponding to the main subject to another area.
In the second aspect of the invention, it is preferable that the image processing unit changes the correction processing related to blur reduction in the area corresponding to the main subject with another area.
An electronic camera according to a third invention includes an image sensor, a memory, a face detection unit, a face recognition unit, a subject designation unit, an image processing unit, and an image file generation unit. The image sensor photoelectrically converts the subject image to generate an image signal. The memory records registration data indicating facial feature points to be recognized. The face detection unit detects a face area in the shooting screen based on the image signal, and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registered data. The subject designating unit designates a main subject from subjects corresponding to the face region based on the determination result. The image processing unit generates captured image data based on the image signal. The image file generation unit generates attached data indicating the main subject in the captured image and generates an image file in which the attached data is associated with the captured image data.

第4の発明に係る電子カメラは、撮像素子と、メモリと、顔検出部と、顔認識部と、被写体指定部と、画像処理部と、印刷設定データ生成部とを備える。撮像素子は、被写体像を光電変換して画像信号を生成する。メモリは、認識対象となる顔の特徴点を示す登録データを記録する。顔検出部は、画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、判定結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。画像処理部は、画像信号に基づいて撮影画像のデータを生成する。印刷設定データ生成部は、撮影画像で指定された主要被写体に応じて、撮影画像の印刷設定に関する印刷設定データを生成する。   An electronic camera according to a fourth aspect of the present invention includes an image sensor, a memory, a face detection unit, a face recognition unit, a subject designation unit, an image processing unit, and a print setting data generation unit. The image sensor photoelectrically converts the subject image to generate an image signal. The memory records registration data indicating facial feature points to be recognized. The face detection unit detects a face area in the shooting screen based on the image signal, and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registered data. The subject designating unit designates a main subject from subjects corresponding to the face region based on the determination result. The image processing unit generates captured image data based on the image signal. The print setting data generation unit generates print setting data related to the print setting of the captured image in accordance with the main subject specified in the captured image.

第5の発明に係る電子カメラは、撮像素子と、メモリと、顔検出部と、顔認識部と、被写体指定部と、画像処理部と、制御部とを備える。撮像素子は、被写体像を光電変換して画像信号を生成する。メモリは、認識対象となる顔の特徴点を示す登録データと、該登録データの人物に対するデータ通信に用いるアドレスデータとを記録する。顔検出部は、画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、顔領域に対応する被写体のうちから、認識対象である主要被写体を指定する。画像処理部は、画像信号に基づいて撮影画像のデータを生成する。制御部は、主要被写体に対応するアドレスデータを、撮影画像のデータに関連付けする。   An electronic camera according to a fifth aspect includes an imaging device, a memory, a face detection unit, a face recognition unit, a subject designation unit, an image processing unit, and a control unit. The image sensor photoelectrically converts the subject image to generate an image signal. The memory records registration data indicating feature points of the face to be recognized and address data used for data communication with the person of the registration data. The face detection unit detects a face area in the shooting screen based on the image signal, and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registered data. The subject designating unit designates a main subject as a recognition target from subjects corresponding to the face area. The image processing unit generates captured image data based on the image signal. The control unit associates the address data corresponding to the main subject with the data of the captured image.

第6の発明に係る画像処理装置は、データ読込部と、メモリと、顔検出部と、顔認識部と、被写体指定部と、画像処理部とを備える。データ読込部は、電子カメラで生成された撮影画像のデータを読み込む。メモリは、認識対象となる顔の特徴点を示す登録データを記録する。顔検出部は、撮影画像内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、判定結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。画像処理部は、撮影画像の主要被写体に対応する領域に他の領域と異なる画像処理を施す。   An image processing apparatus according to a sixth aspect includes a data reading unit, a memory, a face detection unit, a face recognition unit, a subject designation unit, and an image processing unit. The data reading unit reads captured image data generated by the electronic camera. The memory records registration data indicating facial feature points to be recognized. The face detection unit detects a face area in the captured image and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registered data. The subject designating unit designates a main subject from subjects corresponding to the face region based on the determination result. The image processing unit performs image processing different from other regions on the region corresponding to the main subject of the captured image.

第7の発明に係る画像処理装置は、データ読込部と、メモリと、顔検出部と、顔認識部と、被写体指定部と、再生制御部とを備える。データ読込部は、電子カメラで生成された撮影画像のデータを読み込む。メモリは、認識対象となる顔の特徴点を示す登録データと、該登録データの被写体を撮影した画像の再生に関する表示設定を示す再生設定データとを記録する。顔検出部は、撮影画像内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、判定結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。再生制御部は、主要被写体に対応する再生設定データを取得するとともに、再生設定データに基づいて撮影画像の再生を行う。   An image processing apparatus according to a seventh aspect includes a data reading unit, a memory, a face detection unit, a face recognition unit, a subject designation unit, and a reproduction control unit. The data reading unit reads captured image data generated by the electronic camera. The memory records registration data indicating facial feature points to be recognized, and reproduction setting data indicating display settings relating to reproduction of an image obtained by photographing the subject of the registration data. The face detection unit detects a face area in the captured image and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registered data. The subject designating unit designates a main subject from subjects corresponding to the face region based on the determination result. The reproduction control unit obtains reproduction setting data corresponding to the main subject and reproduces the captured image based on the reproduction setting data.

第8の発明に係る画像処理装置は、データ読込部と、メモリと、顔検出部と、顔認識部と、被写体指定部と、印刷設定データ生成部とを備える。データ読込部は、電子カメラで生成された撮影画像のデータを読み込む。メモリは、認識対象となる顔の特徴点を示す登録データを記録する。顔検出部は、撮影画像内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、判定結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。印刷設定データ生成部は、撮影画像で指定された主要被写体に応じて、撮影画像の印刷設定に関する印刷設定データを生成する。   An image processing apparatus according to an eighth invention includes a data reading unit, a memory, a face detection unit, a face recognition unit, a subject designation unit, and a print setting data generation unit. The data reading unit reads captured image data generated by the electronic camera. The memory records registration data indicating facial feature points to be recognized. The face detection unit detects a face area in the captured image and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registered data. The subject designating unit designates a main subject from subjects corresponding to the face region based on the determination result. The print setting data generation unit generates print setting data related to the print setting of the captured image in accordance with the main subject specified in the captured image.

第9の発明に係る画像処理装置は、データ読込部と、メモリと、顔検出部と、顔認識部と、被写体指定部と、制御部とを備える。データ読込部は、電子カメラで生成された撮影画像のデータを読み込む。メモリは、認識対象となる顔の特徴点を示す登録データと、該登録データの人物に対するデータ通信に用いるアドレスデータとを記録する。顔検出部は、撮影画像内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する。顔認識部は、顔領域に対応する特徴点のデータと登録データとに基づいて、顔領域が認識対象であるか否かを判定する。被写体指定部は、判定結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。制御部は、主要被写体に対応するアドレスデータを、撮影画像のデータに関連付けする。   An image processing apparatus according to a ninth aspect includes a data reading unit, a memory, a face detection unit, a face recognition unit, a subject designation unit, and a control unit. The data reading unit reads captured image data generated by the electronic camera. The memory records registration data indicating feature points of the face to be recognized and address data used for data communication with the person of the registration data. The face detection unit detects a face area in the captured image and extracts a feature point of the face of the subject from the face area. The face recognition unit determines whether or not the face area is a recognition target based on the feature point data corresponding to the face area and the registered data. The subject designating unit designates a main subject from subjects corresponding to the face region based on the determination result. The control unit associates the address data corresponding to the main subject with the data of the captured image.

第10の発明に係る画像処理装置は、データ読込部と、被写体指定部と、画像処理部とを備える。データ読込部は、画像ファイルを読み込む。この画像ファイルは、電子カメラによって生成された撮影画像のデータと、電子カメラが顔認識処理に基づいて指定した撮影画像内の主要被写体を示す付属データとを関連付けして構成される。被写体指定部は、付属データに基づいて、撮影画像の被写体のうちから主要被写体を指定する。画像処理部は、撮影画像の主要被写体に対応する領域に他の領域と異なる画像処理を施す。   An image processing apparatus according to a tenth aspect includes a data reading unit, a subject specifying unit, and an image processing unit. The data reading unit reads an image file. This image file is configured by associating captured image data generated by the electronic camera with attached data indicating the main subject in the captured image designated by the electronic camera based on face recognition processing. The subject designating unit designates the main subject from among the subjects of the captured image based on the attached data. The image processing unit performs image processing different from other regions on the region corresponding to the main subject of the captured image.

第11の発明に係る画像処理装置は、データ読込部と、メモリと、被写体指定部と、再生制御部とを備える。データ読込部は、画像ファイルを読み込む。この画像ファイルは、電子カメラによって生成された撮影画像のデータと、電子カメラが顔認識処理に基づいて指定した撮影画像内の主要被写体を示す付属データとを関連付けして構成される。メモリは、登録人物を含む撮影画像の再生に関する表示設定を示す再生設定データを記録する。被写体指定部は、付属データに基づいて、撮影画像の被写体のうちから主要被写体を指定する。再生制御部は、主要被写体が登録人物と一致する場合には、登録人物に対応する再生設定データに基づいて撮影画像の再生を行う。   An image processing apparatus according to an eleventh aspect includes a data reading unit, a memory, a subject specifying unit, and a reproduction control unit. The data reading unit reads an image file. This image file is configured by associating captured image data generated by the electronic camera with attached data indicating the main subject in the captured image designated by the electronic camera based on face recognition processing. The memory records reproduction setting data indicating display settings relating to reproduction of a captured image including a registered person. The subject designating unit designates the main subject from among the subjects of the captured image based on the attached data. When the main subject matches the registered person, the playback control unit plays back the captured image based on the playback setting data corresponding to the registered person.

第12の発明に係る画像処理装置は、データ読込部と、被写体指定部と、印刷設定データ生成部とを備える。データ読込部は、画像ファイルを読み込む。この画像ファイルは、電子カメラによって生成された撮影画像のデータと、電子カメラが顔認識処理に基づいて指定した撮影画像内の主要被写体を示す付属データとを関連付けして構成される。被写体指定部は、付属データに基づいて、撮影画像の被写体のうちから主要被写体を指定する。印刷設定データ生成部は、撮影画像で指定された主要被写体に応じて、撮影画像の印刷設定に関する印刷設定データを生成する。   An image processing apparatus according to a twelfth aspect includes a data reading unit, a subject designating unit, and a print setting data generating unit. The data reading unit reads an image file. This image file is configured by associating captured image data generated by the electronic camera with attached data indicating the main subject in the captured image designated by the electronic camera based on face recognition processing. The subject designating unit designates the main subject from among the subjects of the captured image based on the attached data. The print setting data generation unit generates print setting data related to the print setting of the captured image in accordance with the main subject specified in the captured image.

第13の発明に係る画像処理装置は、データ読込部と、メモリと、被写体指定部と、制御部とを備える。データ読込部は、画像ファイルを読み込む。この画像ファイルは、電子カメラによって生成された撮影画像のデータと、電子カメラが顔認識処理に基づいて指定した撮影画像内の主要被写体を示す付属データとを関連付けして構成される。メモリは、登録人物に対するデータ通信に用いるアドレスデータを記録する。被写体指定部は、付属データに基づいて、撮影画像の被写体のうちから主要被写体を指定する。制御部は、主要被写体が登録人物と一致する場合には、主要被写体に対応するアドレスデータを撮影画像のデータに関連付けする。   An image processing apparatus according to a thirteenth aspect includes a data reading unit, a memory, a subject designating unit, and a control unit. The data reading unit reads an image file. This image file is configured by associating captured image data generated by the electronic camera with attached data indicating the main subject in the captured image designated by the electronic camera based on face recognition processing. The memory records address data used for data communication with a registered person. The subject designating unit designates the main subject from among the subjects of the captured image based on the attached data. When the main subject matches the registered person, the control unit associates the address data corresponding to the main subject with the captured image data.

第14の発明に係る電子カメラは、認証手段と、登録手段と、登録制御手段とを備える。認証手段は、人物とともに人物以外の被写体を認証する。登録手段は、被写体を認証するために認証手段が用いる認証データを登録する。登録制御手段は、人物以外の被写体に関する認証データを、人物に関する認証データとともにグループ化して登録する。この第14の発明では、人物以外の被写体は動物であることが好ましい。   An electronic camera according to a fourteenth aspect includes authentication means, registration means, and registration control means. The authentication unit authenticates a subject other than the person together with the person. The registration means registers authentication data used by the authentication means to authenticate the subject. The registration control unit registers authentication data related to a subject other than a person together with authentication data related to the person. In the fourteenth invention, the subject other than the person is preferably an animal.

ここで、上記第7および第10の発明に係る画像処理装置では、画像処理部は第2の発明の画像処理部と同様の画像処理を行うようにしてもよい。また、上記第6から第13までの発明に関する構成を方法、記録媒体、コンピュータプログラムなどに変換して表現したものも本発明の具体的態様として有効である。   Here, in the image processing apparatuses according to the seventh and tenth inventions, the image processing unit may perform the same image processing as the image processing unit of the second invention. In addition, a configuration obtained by converting the configurations related to the sixth to thirteenth inventions into methods, recording media, computer programs, and the like is also effective as a specific aspect of the present invention.

本発明によれば、顔認識の結果に基づいて指定された主要被写体の情報に基づいて、各種の処理を行う電子カメラや画像処理装置を実現することができる。   According to the present invention, it is possible to realize an electronic camera and an image processing apparatus that perform various processes based on information on a main subject designated based on a result of face recognition.

図1は本実施形態の電子カメラの構成を示すブロック図である。
電子カメラは、撮影レンズ11と、レンズ駆動部12と、絞り13と、絞り駆動部14と、撮像素子15と、アナログ処理部16と、A/D変換部17と、タイミングジェネレータ(TG)18と、第1メモリ19と、画像処理部20と、記録I/F21と、表示I/F22と、モニタ23と、操作部24と、通信部25と、外部I/F26と、CPU27と、第2メモリ28と、システムバス29とを有している。なお、第1メモリ19、画像処理部20、記録I/F21、表示I/F22、通信部25、外部I/F26およびCPU27はシステムバス29を介して接続されている。
FIG. 1 is a block diagram showing the configuration of the electronic camera of this embodiment.
The electronic camera includes a photographing lens 11, a lens driving unit 12, a diaphragm 13, a diaphragm driving unit 14, an image sensor 15, an analog processing unit 16, an A / D conversion unit 17, and a timing generator (TG) 18. The first memory 19, the image processing unit 20, the recording I / F 21, the display I / F 22, the monitor 23, the operation unit 24, the communication unit 25, the external I / F 26, the CPU 27, 2 has a memory 28 and a system bus 29. The first memory 19, the image processing unit 20, the recording I / F 21, the display I / F 22, the communication unit 25, the external I / F 26, and the CPU 27 are connected via a system bus 29.

撮影レンズ11は、ズームレンズと、合焦位置調節用のフォーカスレンズとを含む複数のレンズ群で構成されている。撮影レンズ11を構成する各々のレンズは、レンズ駆動部12によって光軸方向に移動する。また、レンズ駆動部12は、撮影レンズ11の光軸方向位置を検出するエンコーダ(不図示)を備えている。なお、レンズ駆動部12の入出力はCPU27と接続されている。   The photographing lens 11 is composed of a plurality of lens groups including a zoom lens and a focus lens for adjusting a focus position. Each lens constituting the photographing lens 11 is moved in the optical axis direction by the lens driving unit 12. Further, the lens driving unit 12 includes an encoder (not shown) that detects the position of the photographing lens 11 in the optical axis direction. The input / output of the lens driving unit 12 is connected to the CPU 27.

絞り13は、撮影レンズ11からの入射光量を調節する。絞り13の開口量は、絞り駆動部14によって調整される。なお、絞り駆動部14の入出力はCPU27と接続されている。
撮像素子15は、撮影レンズ11を通過した光束を光電変換して被写体像のアナログ画像信号を生成する。被写体の撮影を行う撮影モードでは、撮像素子15は、撮影時に記録用の撮影画像を撮影するとともに、撮影待機時にも所定間隔毎に間引き読み出しでスルー画像を出力する。上記のスルー画像のデータは、CPU27による各種の演算処理やモニタ23での表示などに使用される。
The diaphragm 13 adjusts the amount of incident light from the photographic lens 11. The aperture amount of the diaphragm 13 is adjusted by the diaphragm drive unit 14. The input / output of the aperture driving unit 14 is connected to the CPU 27.
The image sensor 15 photoelectrically converts the light beam that has passed through the photographing lens 11 to generate an analog image signal of the subject image. In the photographing mode for photographing a subject, the image sensor 15 captures a recording image for recording at the time of shooting, and outputs a through image by thinning out at predetermined intervals even during standby for shooting. The through image data is used for various arithmetic processes by the CPU 27 and display on the monitor 23.

アナログ処理部16は、撮像素子15の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このアナログ処理部16はCDS回路やゲイン回路を内部に有している。アナログ処理部16のCDS回路は、相関二重サンプリングによって撮像素子15の出力のノイズ成分を低減する。アナログ処理部16のゲイン回路は、CPU27の指示に基づいて入力信号の利得を増幅する。上記のゲイン回路では、ISO感度に相当する撮像感度の調整を行うことができる。   The analog processing unit 16 is an analog front end circuit that performs analog signal processing on the output of the image sensor 15. The analog processing unit 16 has a CDS circuit and a gain circuit inside. The CDS circuit of the analog processing unit 16 reduces the noise component of the output of the image sensor 15 by correlated double sampling. The gain circuit of the analog processing unit 16 amplifies the gain of the input signal based on an instruction from the CPU 27. In the gain circuit described above, the imaging sensitivity corresponding to the ISO sensitivity can be adjusted.

A/D変換部17は、アナログ処理部16から出力されたアナログの画像信号にA/D変換を行う。このA/D変換部17の出力は第1メモリ19に接続されている。
TG18は、CPU27の指示に基づいて、撮像素子15、アナログ処理部16およびA/D変換部17に対してタイミングパルスを供給する。撮像素子15、アナログ処理部16およびA/D変換部17の駆動タイミングは、TG18のタイミングパルスによって制御される。
The A / D conversion unit 17 performs A / D conversion on the analog image signal output from the analog processing unit 16. The output of the A / D converter 17 is connected to the first memory 19.
The TG 18 supplies timing pulses to the image sensor 15, the analog processing unit 16, and the A / D conversion unit 17 based on instructions from the CPU 27. The drive timing of the image sensor 15, the analog processing unit 16, and the A / D conversion unit 17 is controlled by the timing pulse of the TG 18.

第1メモリ19は、後述の画像処理の前工程や後工程などで画像のデータを一時的に記録するためのバッファメモリである。
画像処理部20は、上記の撮影モードにおいて撮影時のデジタル画像信号に各種の画像処理を施して撮影画像を生成する。また、画像処理部20は撮影画像のデータをJPEG形式で圧縮する。さらに、画像処理部20は、上記の撮影モードにおいて、CPU27の指示によりスルー画像の画像信号から表示用画像(ビュー画像)を生成する。
The first memory 19 is a buffer memory for temporarily recording image data in the pre-process and post-process of image processing described later.
The image processing unit 20 performs various kinds of image processing on the digital image signal at the time of shooting in the above shooting mode to generate a shot image. The image processing unit 20 compresses the captured image data in the JPEG format. Furthermore, the image processing unit 20 generates a display image (view image) from the image signal of the through image according to an instruction from the CPU 27 in the above-described shooting mode.

一方、撮影画像の再生などを行う編集モードでは、画像処理部20は、圧縮された撮影画像のデータを伸長復元する処理を実行する。また、画像処理部20は、上記の編集モードにおいて、撮影画像のデータに画像処理を施すことも可能である。なお、画像処理部20による画像処理の具体的な内容は後述する。
記録I/F21には記録媒体30を接続するためのコネクタが形成されている。そして、記録I/F21は、コネクタに接続された記録媒体30に対して撮影画像データの書き込み/読み込みを実行する。上記の記録媒体30は、ハードディスクや半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記録媒体30の一例としてメモリカードを図示する。
On the other hand, in an edit mode in which a captured image is reproduced, the image processing unit 20 executes a process of decompressing and restoring the compressed captured image data. The image processing unit 20 can also perform image processing on captured image data in the editing mode. The specific contents of the image processing by the image processing unit 20 will be described later.
A connector for connecting the recording medium 30 is formed on the recording I / F 21. The recording I / F 21 executes writing / reading of the captured image data with respect to the recording medium 30 connected to the connector. The recording medium 30 includes a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the recording medium 30.

表示I/F22は、CPU27の指示に基づいてモニタ23の表示を制御する。また、表示I/F22は、外部に画像出力を行うための映像端子を有している。そのため、本実施形態の電子カメラでは、表示I/F22の映像端子を介して、外部の表示装置(テレビなど)に再生画像を表示させることも可能である。
モニタ23は、CPU27および表示I/F22の指示に応じて各種画像を表示する。本実施形態でのモニタ23は液晶モニタで構成されている。このモニタ23には、撮影モードでの撮影待機時にビュー画像が動画表示される。また、モニタ23は、オンスクリーン機能によって、撮影に必要となる各種情報の表示(例えば、撮影可能なフレーム数、焦点検出エリアの位置、後述の顔検出処理で検出された顔領域の枠表示など)をビュー画像に重畳表示させることもできる。
The display I / F 22 controls display on the monitor 23 based on an instruction from the CPU 27. The display I / F 22 has a video terminal for outputting an image to the outside. Therefore, in the electronic camera of the present embodiment, it is possible to display a reproduced image on an external display device (such as a television) via the video terminal of the display I / F 22.
The monitor 23 displays various images in accordance with instructions from the CPU 27 and the display I / F 22. The monitor 23 in this embodiment is a liquid crystal monitor. The monitor 23 displays a moving image of the view image during shooting standby in the shooting mode. The monitor 23 displays various information necessary for shooting (for example, the number of frames that can be shot, the position of the focus detection area, the frame display of the face area detected by the face detection process described later, etc.) by the on-screen function. ) Can be superimposed on the view image.

さらに、モニタ23には、撮影画像のデータに基づく再生画像や、GUI(Graphical User Interface)形式の入力が可能なメニュー画面なども表示できる(なお、モニタ23におけるビュー画像およびメニュー画面の図示は省略する)。
操作部24は、レリーズ釦や操作釦などを有している。操作部24のレリーズ釦は露光動作開始の指示入力をユーザーから受け付ける。操作部24の操作釦は、上記のメニュー画面等での入力や、電子カメラの撮影モードの切り換え入力などをユーザーから受け付ける。
Further, the monitor 23 can also display a playback image based on the captured image data, a menu screen that can be input in a GUI (Graphical User Interface) format, and the like (the illustration of the view image and the menu screen on the monitor 23 is omitted). To do).
The operation unit 24 has a release button, an operation button, and the like. The release button of the operation unit 24 receives an instruction input for starting an exposure operation from the user. The operation buttons of the operation unit 24 accept input from the user such as an input on the menu screen or the like, an input for switching the photographing mode of the electronic camera, and the like.

通信部25は、無線LANの標準規格IEEE802.11に規定された仕様に準拠して、外部装置との通信を制御する。例えば、撮影画像のデータを外部装置に送信する場合、通信部25は撮影画像のデータを無線通信可能なデータに変換するとともに、変換後のデータを外部装置に送信する。
外部I/F26は、USB(Universal Serial Bus)などのシリアル通信規格の接続端子を有している。そして、外部I/F26は、接続端子を介して接続されたコンピュータなどとのデータ送受信を上記の通信規格に準拠して制御する。
The communication unit 25 controls communication with an external device in accordance with a specification defined in the wireless LAN standard IEEE 802.11. For example, when transmitting captured image data to an external device, the communication unit 25 converts the captured image data into data that can be wirelessly communicated, and transmits the converted data to the external device.
The external I / F 26 has a connection terminal of a serial communication standard such as USB (Universal Serial Bus). The external I / F 26 controls data transmission / reception with a computer or the like connected via the connection terminal in accordance with the communication standard.

CPU27は、不図示のROMに格納されたシーケンスプログラムに従って、電子カメラの各部動作を制御するとともに、撮影などに必要となる各種演算を実行する(これらの内容については後述する)。また、本実施形態のCPU27は、AF制御部31、顔検出部32、顔認識部33として機能する。
AF制御部31は、フォーカスレンズの駆動制御や、スルー画像のデータに基づくコントラスト検出方式での公知のAF演算などを実行する。また、AF制御部31は、レンズ駆動部12から合焦時のフォーカスレンズの位置を取得し、撮影画面内の各々の被写体の被写体距離を演算することもできる。
The CPU 27 controls the operation of each part of the electronic camera according to a sequence program stored in a ROM (not shown), and executes various calculations necessary for shooting and the like (the contents will be described later). Further, the CPU 27 of the present embodiment functions as an AF control unit 31, a face detection unit 32, and a face recognition unit 33.
The AF control unit 31 performs drive control of the focus lens, a known AF calculation in a contrast detection method based on through image data, and the like. The AF control unit 31 can also acquire the position of the focus lens at the time of focusing from the lens driving unit 12 and calculate the subject distance of each subject in the shooting screen.

顔検出部32は、スルー画像または撮影画像のデータから特徴点を抽出して被写体の顔領域、顔の大きさ等を検出する。例えば、顔検出部32は、特開2001−16573号公報などに記載された特徴点抽出処理によって顔領域を抽出する。また、上記の特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。なお、顔検出部32では、犬、猫、鳥などの動物の顔を検出対象とすることもできる。   The face detection unit 32 extracts feature points from the data of the through image or the photographed image, and detects the face area of the subject, the size of the face and the like. For example, the face detection unit 32 extracts a face region by a feature point extraction process described in Japanese Patent Laid-Open No. 2001-16573. Examples of the feature points include eyebrow, eye, nose, and lip end points, face contour points, head vertices, and chin lower end points. Note that the face detection unit 32 can also detect the faces of animals such as dogs, cats, and birds.

顔認識部33は、顔検出部32で検出した特徴点に基づいて顔認識データを生成する。例えば、顔認識部33は、検出した顔の特徴点の位置、特徴点から求まる顔パーツの大きさ、各特徴点の相対距離などから認識対象となる登録人物の顔認識データを生成する。
また、顔認識部33は、撮影画面内の人物の顔が顔認識データの人物の顔か否かを判定する顔認識処理を行う。具体的には、まず顔認識部33は検出された顔の特徴点に基づいて、撮影人物の顔の特徴点の位置、各顔パーツの大きさ、各特徴点の相対距離などを演算する。次に顔認識部33は、上記の演算結果と顔認識データとを比較して、顔認識データの人物の顔と撮影人物の顔との相似度を求める。そして、顔認識部33は上記の相似度が閾値を上回る場合に撮影人物が顔認識データの人物に合致すると判定する。なお、CPU27は、顔認識部33の顔認識結果に基づいて、後述の主要被写体の指定を実行する。
The face recognition unit 33 generates face recognition data based on the feature points detected by the face detection unit 32. For example, the face recognition unit 33 generates face recognition data of a registered person to be recognized from the position of the detected feature point of the face, the size of the face part obtained from the feature point, the relative distance of each feature point, and the like.
Further, the face recognition unit 33 performs face recognition processing for determining whether or not the face of the person in the shooting screen is the face of the person in the face recognition data. Specifically, first, the face recognition unit 33 calculates the position of the feature point of the photographed person's face, the size of each face part, the relative distance of each feature point, and the like based on the detected feature points of the face. Next, the face recognition unit 33 compares the above calculation result with the face recognition data, and obtains the similarity between the face of the person in the face recognition data and the face of the photographed person. Then, the face recognition unit 33 determines that the photographed person matches the person in the face recognition data when the similarity is above the threshold. Note that the CPU 27 executes designation of a main subject, which will be described later, based on the face recognition result of the face recognition unit 33.

本実施形態では、顔認識部33は人間の場合と同様に動物の顔認識データも生成してもよい。そして、顔認識部33は、動物の顔認識データに基づいて、撮影画面内の動物を対象とする顔認識を行なうことも可能である。
第2メモリ28はCPU27と接続されている。第2メモリ28には、顔認識部33で生成された顔認識データが記録される。この第2メモリ28には登録した人物(登録人物)ごとにグループフォルダを生成することができ、グループフォルダによって顔認識データを登録人物ごとにグループ化できる。例えば、グループフォルダには、同一の登録人物に関して、顔の向きや撮影条件などが異なる複数の顔認識データを記録することができる。
In the present embodiment, the face recognition unit 33 may generate animal face recognition data as in the case of a human being. The face recognition unit 33 can also perform face recognition for an animal in the shooting screen based on the animal face recognition data.
The second memory 28 is connected to the CPU 27. In the second memory 28, face recognition data generated by the face recognition unit 33 is recorded. In the second memory 28, a group folder can be generated for each registered person (registered person), and face recognition data can be grouped for each registered person by the group folder. For example, in the group folder, a plurality of face recognition data with different face orientations, shooting conditions, etc. can be recorded for the same registered person.

また、第2メモリ28の各々のグループフォルダには、その登録人物を認識した場合にCPU27が適用する各種設定を示す設定データを記録することもできる。例えば、上記の設定データとしては、(1)再生表示の設定、(2)印刷設定、(3)送信設定などが含まれる。
上記(1)の再生表示の設定では、編集モードでの再生表示の各種設定を行うことができる。再生表示の設定の内容としては、例えば、スライドショー表示において、登録人物が撮影されている撮影画像の表示時間、表示のパターン、表示時の音楽などの設定が該当する。上記(2)の印刷設定では、例えば、DPOF(Digital Print Order Format)規格による印刷設定データの生成の有無や印刷設定の詳細内容(印刷枚数やサイズの指定)などを設定することができる。上記(3)の送信設定では、登録人物が撮影されている撮影画像の送信の要否と、送信先のアドレスデータ(電子メールアドレス)とを設定することができる。
Further, setting data indicating various settings applied by the CPU 27 when the registered person is recognized can be recorded in each group folder of the second memory 28. For example, the setting data includes (1) playback display settings, (2) print settings, and (3) transmission settings.
In the playback display setting in (1) above, various playback display settings in the edit mode can be made. The content of the playback display setting includes, for example, the display time, display pattern, music at the time of display, and the like of a captured image in which a registered person is captured in a slide show display. In the print setting (2), for example, whether or not print setting data is generated according to the DPOF (Digital Print Order Format) standard, detailed contents of the print setting (designation of the number of prints and size), and the like can be set. In the transmission setting of (3) above, it is possible to set the necessity of transmission of a captured image of a registered person and the address data (e-mail address) of the transmission destination.

上記の説明では、人間の顔認識データの場合を前提として説明したが、動物の顔認識データについてもグループフォルダを生成してグループ化することも可能である。また、動物の顔認識データに関してもグループフォルダに設定データを記録することも可能である。例えば、飼っているペットの犬を、家族の人物を登録する「家族」のグループフォルダに登録することもできる。   In the above description, the case of human face recognition data has been described. However, a group folder can also be generated and grouped for animal face recognition data. In addition, setting data can be recorded in the group folder for animal face recognition data. For example, a pet dog can be registered in a “family” group folder in which family members are registered.

次に、図2、図3の流れ図を参照しつつ、本実施形態の電子カメラにおける撮影モードの動作の一例を説明する。なお、以下の説明では、人物を撮影した場合を前提として説明を行う。
ステップ101:まず、ユーザーはCPU27に対して撮影モードの設定入力を行い、顔認識機能をオンにする。なお、前回の撮影などで上記の設定が予め行われている場合には、ユーザーはS101の工程を省略することが可能である。
Next, an example of the operation of the shooting mode in the electronic camera of the present embodiment will be described with reference to the flowcharts of FIGS. In the following description, the description is given on the assumption that a person is photographed.
Step 101: First, the user inputs a shooting mode setting to the CPU 27 to turn on the face recognition function. Note that if the above setting has been made in advance in the previous shooting or the like, the user can omit step S101.

例えば、電子カメラが撮影モードに設定されている状態において、ユーザーは操作部24によりメニュー画面を呼び出す操作を行う。これにより、CPU27はメニュー画面をモニタ23に表示する。そして、ユーザーは操作部24でメニュー画面上のカーソル等を操作し、CPU27に対して顔認識機能をオンにする入力を行う。これにより、CPU27は顔認識データに基づく顔認識を実行する。なお、上記のメニュー画面では、後述の主要被写体に関する各種設定を行うこともできる。   For example, in a state where the electronic camera is set to the shooting mode, the user performs an operation for calling a menu screen by the operation unit 24. As a result, the CPU 27 displays a menu screen on the monitor 23. Then, the user operates the cursor on the menu screen with the operation unit 24 to input to the CPU 27 for turning on the face recognition function. Thereby, the CPU 27 executes face recognition based on the face recognition data. In the menu screen, various settings related to the main subject described later can be performed.

ステップ102:CPU27は、撮像素子15を駆動させてスルー画像の取得を開始する。撮像素子15は所定間隔毎に間引き読み出しでスルー画像の画像信号を取得する。画像処理部20はスルー画像のデータに基づいてビュー画像を逐次生成する。そして、撮影待機時のモニタ23にはビュー画像が動画表示される。したがって、ユーザーはモニタ23のビュー画像によって、撮影構図を決定するためのフレーミングを行うことができる。   Step 102: The CPU 27 drives the imaging device 15 to start acquiring a through image. The imaging element 15 acquires an image signal of a through image by thinning out reading at predetermined intervals. The image processing unit 20 sequentially generates view images based on through-image data. The view image is displayed as a moving image on the monitor 23 at the time of shooting standby. Therefore, the user can perform framing for determining the shooting composition based on the view image on the monitor 23.

ステップ103:CPU27の顔検出部32は、スルー画像のデータに顔検出処理を施して撮影画面内の顔領域を検出する。
ステップ104:CPU27は、S103の顔検出処理で顔領域を検出したか否かを判定する。顔領域を検出した場合(YES側)にはS105に移行する。一方、顔領域を検出していない場合(NO側)にはS110に移行する。
Step 103: The face detection unit 32 of the CPU 27 performs a face detection process on the through image data to detect a face area in the shooting screen.
Step 104: The CPU 27 determines whether or not a face area is detected in the face detection process of S103. If a face area is detected (YES side), the process proceeds to S105. On the other hand, when the face area is not detected (NO side), the process proceeds to S110.

ステップ105:CPU27の顔認識部33は、S103の顔検出処理で取得した特徴点のデータと、第2メモリ28の顔認識データとに基づいて、上記の顔領域のうちから認識対象となる登録人物の顔を検出する顔認識処理を実行する。
ステップ106:CPU27は、S105の顔認識処理で登録人物の顔を検出したか否かを判定する。登録人物の顔を検出した場合(YES側)にはS107に移行する。一方、登録人物の顔を検出していない場合(NO側)にはS109に移行する。
Step 105: The face recognition unit 33 of the CPU 27 is registered as a recognition target from the face areas based on the feature point data acquired in the face detection process of S103 and the face recognition data of the second memory 28. A face recognition process for detecting a human face is executed.
Step 106: The CPU 27 determines whether or not the face of the registered person has been detected in the face recognition process in S105. When the face of the registered person is detected (YES side), the process proceeds to S107. On the other hand, when the face of the registered person is not detected (NO side), the process proceeds to S109.

ステップ107:CPU27は、S105の顔認識処理の結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。ここで、CPU27は主要被写体として2以上の人物を指定することができる。CPU27が指定できる主要被写体の数は、ユーザーが操作部24の操作で変更することができる。主要被写体の数の調整によって、ユーザーの意図に沿った撮影環境を実現するためである。なお、CPU27に対する主要被写体の数の入力は、例えば上記のメニュー画面等で行われる。   Step 107: The CPU 27 designates a main subject from subjects corresponding to the face area based on the result of the face recognition process in S105. Here, the CPU 27 can designate two or more persons as main subjects. The number of main subjects that can be designated by the CPU 27 can be changed by the operation of the operation unit 24 by the user. This is to realize a shooting environment according to the user's intention by adjusting the number of main subjects. Note that the input of the number of main subjects to the CPU 27 is performed, for example, on the menu screen described above.

以下、CPU27による主要被写体の指定方法を具体的に説明する。
第1に、CPU27は登録人物を主要被写体に指定する。
第2に、CPU27は登録人物に該当しない顔領域のうちで、所定の条件を満たす顔領域の被写体を主要被写体としてさらに指定する。勿論、主要被写体の数が既に上限に達している場合、CPU27はこの第2の工程を省略する。
Hereinafter, a method for specifying the main subject by the CPU 27 will be specifically described.
First, the CPU 27 designates a registered person as a main subject.
Secondly, the CPU 27 further designates a subject in the face region that satisfies a predetermined condition among the face regions not corresponding to the registered person as a main subject. Of course, when the number of main subjects has already reached the upper limit, the CPU 27 omits the second step.

例えば、第2の工程において、CPU27は以下の(1)から(3)のいずれかの方法で登録人物以外から主要被写体をさらに指定する。
(1)CPU27は、顔領域の検出されている被写体のうちで、その被写体距離が登録人物の被写体距離(基準被写体距離)とほぼ等しい人物を主要被写体として指定する。すなわち、この場合には、撮影画面内で登録人物から離れていても登録人物とほぼ被写体距離が等しい人物は、登録人物とともに主要被写体に指定されることとなる。
For example, in the second step, the CPU 27 further designates a main subject from a person other than the registered person by any one of the following methods (1) to (3).
(1) The CPU 27 designates, as a main subject, a subject whose subject distance is substantially equal to the subject distance (reference subject distance) of the registered person among the subjects whose face areas are detected. That is, in this case, a person whose subject distance is substantially the same as the registered person even if it is far from the registered person in the shooting screen is designated as the main subject together with the registered person.

具体的には、CPU27は以下のようにして主要被写体を指定する。まず、CPU27は、フォーカスレンズを一方向に走査しつつ撮像素子15を駆動させて複数のスルー画像を取得する。次に、CPU27は、AF演算と同様の手法によって、各々のスルー画像において各顔領域のコントラストの値を取得する。CPU27は、各々の顔領域毎に最もコントラストの値が高くなるフォーカスレンズの位置に基づいて、撮影画面内の各々の顔領域の被写体距離を演算する。そして、CPU27は、登録人物の被写体距離(基準被写体距離)との被写体距離の差が閾値以内にある顔領域の被写体を主要被写体に指定する。   Specifically, the CPU 27 designates the main subject as follows. First, the CPU 27 drives the imaging element 15 while scanning the focus lens in one direction to acquire a plurality of through images. Next, the CPU 27 acquires the contrast value of each face area in each through image by the same method as the AF calculation. The CPU 27 calculates the subject distance of each face area in the shooting screen based on the position of the focus lens that provides the highest contrast value for each face area. Then, the CPU 27 designates the subject in the face area whose subject distance difference from the subject distance (reference subject distance) of the registered person is within the threshold as the main subject.

(2)CPU27は、顔領域の検出されている被写体のうちで、撮影画面上で登録人物から所定範囲内に位置する人物(登録人物の顔領域から所定範囲内にある顔領域)を主要被写体として指定する。すなわち、この場合には、登録人物の近くにいる人物は、登録人物とともに主要被写体に指定されることとなる。
(3)CPU27は、顔領域の検出されている被写体のうちで、顔領域のサイズが閾値以上である被写体を主要被写体として指定する。このとき、CPU27は登録人物の顔領域のサイズを基準として上記の閾値を設定する。例えば、CPU27は、登録人物の顔領域よりも大きい顔領域の被写体を主要被写体としてもよい。この場合には、登録人物よりも至近側に位置すると考えられる人物が登録人物とともに主要被写体に指定される。また、CPU27は、顔領域のサイズが登録人物と大きく異ならない被写体を主要被写体とすることもできる。この場合には、上記(1)と同様に、登録人物とほぼ被写体距離が等しいと考えられる人物を登録人物とともに主要被写体に指定できる。
(2) The CPU 27 selects a person (a face area within the predetermined range from the registered person's face area) positioned within a predetermined range from the registered person on the shooting screen among the subjects whose face areas are detected. Specify as. That is, in this case, a person near the registered person is designated as the main subject together with the registered person.
(3) The CPU 27 designates, as a main subject, a subject whose face region size is equal to or greater than a threshold among subjects whose face region is detected. At this time, the CPU 27 sets the threshold value based on the size of the face area of the registered person. For example, the CPU 27 may set a subject having a face area larger than the face area of the registered person as the main subject. In this case, a person who is considered to be located closer to the registered person is designated as the main subject together with the registered person. Further, the CPU 27 can set a subject whose face area size is not significantly different from that of a registered person as a main subject. In this case, similarly to the above (1), a person who is considered to have a subject distance substantially equal to the registered person can be designated as the main subject together with the registered person.

ステップ108:CPU27は、S103で検出した顔領域と、S107で指定した主要被写体とを示す表示をモニタ23で行う。なお、CPU27はその後にS110に移行する。
図4(a)にモニタ23での顔領域および主要被写体の表示例を示す。図4(a)の例では、CPU27はモニタ23上のビュー画像で顔領域の位置に矩形の枠を重畳させて表示する。そして、CPU27は、矩形の枠の太さや色を変えるなどの手段によって、モニタ23上で主要被写体に対応する顔領域を示している。これにより、ユーザーはビュー画像で顔検出の結果と、CPU27の指定した主要被写体とを確認することができる。なお、図4(a)における主要被写体の枠表示では、登録人物とその他の人物の表示を変化させてもよい。
Step 108: The CPU 27 displays on the monitor 23 the face area detected in S103 and the main subject specified in S107. The CPU 27 thereafter proceeds to S110.
FIG. 4A shows a display example of the face area and main subject on the monitor 23. In the example of FIG. 4A, the CPU 27 displays a rectangular frame superimposed on the position of the face area in the view image on the monitor 23. Then, the CPU 27 shows the face area corresponding to the main subject on the monitor 23 by means such as changing the thickness or color of the rectangular frame. As a result, the user can confirm the face detection result and the main subject designated by the CPU 27 in the view image. In addition, in the frame display of the main subject in FIG. 4A, the display of the registered person and other persons may be changed.

ステップ109:CPU27はS103で検出した顔領域のみを示す表示をモニタ23で行う。なお、この場合のモニタ23の表示は図4(b)に示すように、主要被写体の表示がない点を除いてS108の場合とほぼ共通する。
ステップ110:CPU27はレリーズ釦が半押しされたか否かを判定する。レリーズ釦が半押しされた場合(YES側)にはS111に移行する。一方、レリーズ釦が半押しされていない場合(NO側)には、CPU27はS102に戻って上記動作を繰り返す。
Step 109: The CPU 27 displays on the monitor 23 only the face area detected in S103. Note that the display on the monitor 23 in this case is substantially the same as in the case of S108 except that the main subject is not displayed, as shown in FIG. 4B.
Step 110: The CPU 27 determines whether or not the release button is half-pressed. When the release button is half-pressed (YES side), the process proceeds to S111. On the other hand, when the release button is not half-pressed (NO side), the CPU 27 returns to S102 and repeats the above operation.

ステップ111:CPU27は、S107で主要被写体が指定されているか否かを判定する。主要被写体が指定されている場合(YES側)にはS112に移行する。一方、主要被写体が指定されていない場合(NO側)にはS125に移行する。
ステップ112:CPU27は主要被写体が単独か否か判定する。主要被写体が単独の場合(YES側)にはS113に移行する。一方、主要被写体が複数の場合(NO側)にはS114に移行する。
Step 111: The CPU 27 determines whether or not a main subject is designated in S107. When the main subject is designated (YES side), the process proceeds to S112. On the other hand, when the main subject is not designated (NO side), the process proceeds to S125.
Step 112: The CPU 27 determines whether or not the main subject is single. When the main subject is alone (YES side), the process proceeds to S113. On the other hand, when there are a plurality of main subjects (NO side), the process proceeds to S114.

ステップ113:CPU27のAF制御部31は、S107で指定された主要被写体(登録人物)を基準としてAF制御およびAE演算を実行する。なお、CPU27はその後にS116に移行する。
ステップ114:CPU27は、主要被写体のうちから焦点検出の基準となる顔を決定する。
Step 113: The AF control unit 31 of the CPU 27 executes AF control and AE calculation with the main subject (registered person) designated in S107 as a reference. The CPU 27 thereafter proceeds to S116.
Step 114: The CPU 27 determines a face as a reference for focus detection from the main subjects.

まず、CPU27は、焦点検出の基準となる顔を登録人物の顔領域に限定する。登録人物の顔が1つのみの場合には、CPU27は、その登録人物の顔を焦点検出の基準とする。次に、登録人物の顔が複数ある場合には、CPU27は、登録人物の顔のうちで、最も面積が大きくて至近側にあると考えられる顔または撮影画面の中央に近い顔を焦点検出の基準とする。   First, the CPU 27 limits the face serving as a reference for focus detection to the face area of the registered person. When there is only one registered person's face, the CPU 27 uses the registered person's face as a reference for focus detection. Next, when there are a plurality of registered person's faces, the CPU 27 performs focus detection on the face of the registered person whose face is considered to be the largest and closest, or the face close to the center of the shooting screen. The standard.

ステップ115:CPU27は、上記のS114で選択された主要被写体(登録人物)の顔を基準としてAF制御とAE演算とを実行する。ここで、CPU27は、AF演算時に各々の主要被写体の顔の合焦状態に応じて絞り13を制御して、全ての主要被写体の顔にピントがあうように被写界深度を広げてもよい。
ステップ116:CPU27は、S107で指定したいずれかの主要被写体の顔に被写体ブレが生じているか否かを判定する。主要被写体の顔に被写体ブレが生じている場合(YES側)にはS117に移行する。一方、主要被写体の顔に被写体ブレが生じていない場合(NO側)にはS118に移行する。なお、CPU27はメニュー画面での設定に応じてS116での被写体ブレの判定を省略してS118に移行してもよい。
Step 115: The CPU 27 executes AF control and AE calculation based on the face of the main subject (registered person) selected in S114. Here, the CPU 27 may control the diaphragm 13 in accordance with the focus state of each main subject's face at the time of AF calculation to widen the depth of field so that all the main subjects' faces are in focus. .
Step 116: The CPU 27 determines whether or not subject blur has occurred on the face of any of the main subjects specified in S107. If subject blurring has occurred on the face of the main subject (YES side), the flow proceeds to S117. On the other hand, if subject blurring has not occurred on the face of the main subject (NO side), the flow proceeds to S118. Note that the CPU 27 may skip the subject blur determination in S116 in accordance with the setting on the menu screen and proceed to S118.

ここで、上記のS115での被写体ブレの検出は公知の手段によって行われる。例えば、被写体に動きがあるとエッジに相当する部分が流れて撮像されるため、CPU27は複数のスルー画像から空間周波数の高域部分を抽出し、スルー画像間でのエッジの変化に基づいて主要被写体の被写体ブレを検出する。あるいは、CPU27はスルー画像間でパターンが一致する領域を求め、この領域間の移動距離に基づいて被写体ブレを検出してもよい。なお、画像間でパターンが一致する領域を求めるアルゴリズムとしては、例えば、残差逐次検定法、構造マッチング法などが知られている。   Here, the detection of subject blur in S115 is performed by a known means. For example, when a subject moves, a portion corresponding to an edge flows and is imaged. Therefore, the CPU 27 extracts a high frequency portion of a spatial frequency from a plurality of through images, and based on a change in the edge between the through images. Detect subject blur of the subject. Alternatively, the CPU 27 may obtain an area where the pattern matches between the through images and detect the subject blur based on the moving distance between the areas. As an algorithm for obtaining a region where patterns match between images, for example, a residual sequential test method, a structure matching method, and the like are known.

ステップ117:CPU27は、被写体ブレを抑制するために、撮像感度や絞り値などの撮影条件を再設定して露光時間を短くする。これにより、主要被写体の動きによる被写体ブレで撮影失敗する可能性が低減する。なお、CPU27は主要被写体以外の人物に対しては被写体ブレの検出を行わないので、主要被写体以外の人物の動きでCPU27が不要な撮影条件の変更を行うことはない。   Step 117: The CPU 27 resets imaging conditions such as imaging sensitivity and aperture value to shorten the exposure time in order to suppress subject blurring. This reduces the possibility of shooting failure due to subject blur due to the movement of the main subject. Since the CPU 27 does not detect subject blur for a person other than the main subject, the CPU 27 does not change unnecessary shooting conditions due to the movement of a person other than the main subject.

ステップ118:CPU27は、顔領域における顔の特徴点の検出状態に基づいて、主要被写体の顔の表情を推定する。そして、CPU27は全ての主要被写体の顔の表情が所定の状態(例えば、目つぶりしていない状態または笑顔の状態)であるか否かを判定する。上記の条件を満たす場合(YES側)にはS119に移行する。一方、上記の条件を満たさない場合(NO側)には、全ての主要被写体の顔の表情が所定の状態になるまでCPU27は待機する。このとき、CPU27は、主要被写体の表情に関する警告表示をモニタ23に表示してもよい。なお、CPU27はメニュー画面での設定に応じてS118での処理を省略することが可能である。   Step 118: The CPU 27 estimates the facial expression of the main subject based on the detection state of the facial feature points in the facial area. Then, the CPU 27 determines whether or not the facial expressions of all the main subjects are in a predetermined state (for example, no blinking state or a smiling state). If the above condition is satisfied (YES side), the process proceeds to S119. On the other hand, if the above condition is not satisfied (NO side), the CPU 27 waits until the facial expressions of all the main subjects are in a predetermined state. At this time, the CPU 27 may display a warning display regarding the facial expression of the main subject on the monitor 23. Note that the CPU 27 can omit the process in S118 according to the setting on the menu screen.

ここで、上記のS118での顔の表情の検出は公知の手段によって行われる。例えば、特開2004−272933号公報のように、普通の表情、目をつぶった顔、口を開いた顔、笑顔などのクラスに分類された学習用顔画像を予め用意し、CPU27が正準判別分析による識別を行なった上で各クラスごとに設定された評価値で顔の表情を判別してもよい。あるいは、開いた目、閉じた目、開いた口、閉じた口などの標準パターンを予め用意し、CPU27が各パターンと顔領域とのマッチングをとり、パターンの組合せから表情を推定してもよい。   Here, the detection of the facial expression in S118 is performed by a known means. For example, as disclosed in Japanese Patent Application Laid-Open No. 2004-272933, learning face images classified into classes such as a normal expression, a face with closed eyes, a face with an open mouth, and a smile are prepared in advance. After performing discrimination by discriminant analysis, facial expressions may be discriminated based on evaluation values set for each class. Alternatively, standard patterns such as open eyes, closed eyes, open mouths, closed mouths, etc., may be prepared in advance, and the CPU 27 may match each pattern with the face area and estimate the facial expression from the combination of patterns. .

S118でNO側の場合には、主要被写体の顔の表情が変わるまでCPU27は撮影を許可しない。したがって、ユーザーは主要被写体の表情が所望の状態で撮影を行うことができ、撮影失敗の可能性が低減する。また、CPU27は主要被写体以外の人物に対しては上記の表情の推定を行わないので、主要被写体以外の人物によって電子カメラの撮影が制約されることはない。   In the case of NO at S118, the CPU 27 does not allow photographing until the facial expression of the main subject changes. Therefore, the user can take a picture with the expression of the main subject in a desired state, and the possibility of shooting failure is reduced. In addition, since the CPU 27 does not estimate the expression for a person other than the main subject, the photographing of the electronic camera is not restricted by a person other than the main subject.

ステップ119:CPU27はレリーズ釦が全押しされたか否かを判定する。レリーズ釦が全押しされた場合(YES側)にはS120に移行する。一方、レリーズ釦が全押しされていない場合(NO側)にはS118に戻る。
ステップ120:CPU27は撮像素子15を駆動させて被写体像を撮影する。
ステップ121:CPU27は画像処理部20に撮影画像のデータを生成させる。ここで、画像処理部20は、以下の(1)〜(8)に示すように、撮影画像の主要被写体(S107)に対応する領域には、他の領域と異なる画像処理を施すようにしてもよい。なお、下記の各々の画像処理のオン/オフは、CPU27がメニュー画面での設定に応じて変更することができる。
Step 119: The CPU 27 determines whether or not the release button has been fully pressed. When the release button is fully pressed (YES side), the process proceeds to S120. On the other hand, if the release button is not fully pressed (NO side), the process returns to S118.
Step 120: The CPU 27 drives the image sensor 15 to shoot a subject image.
Step 121: The CPU 27 causes the image processing unit 20 to generate captured image data. Here, as shown in the following (1) to (8), the image processing unit 20 performs different image processing on the area corresponding to the main subject (S107) of the photographed image from the other areas. Also good. The on / off of each of the following image processes can be changed by the CPU 27 according to the setting on the menu screen.

(1)画像処理部20は、主要被写体の領域に対する輪郭強調処理を他の領域と変化させる。例えば、画像処理部20は、撮影画像の主要被写体の領域には、他の領域よりも輪郭強調の度合いが弱い輪郭強調フィルタを適用して輪郭強調処理を実行する。その結果、主要被写体の人物の肌荒れなどが目立ちにくい好ましい撮影画像を得ることができる。
(2)画像処理部20は、主要被写体の領域の階調補正の特性を他の領域と変化させる。例えば、画像処理部20は、撮影画像の主要被写体の領域には、他の領域と異なる階調曲線の階調特性テーブルを適用して階調補正を実行する。具体的には、主要被写体の領域に対しては、他の領域の階調曲線よりも相対的にコントラストが低めになる軟調の階調曲線の階調特性テーブルを適用する。その結果、主要被写体の顔に柔らかさのある好ましい撮影画像を得ることができる。
(1) The image processing unit 20 changes the outline emphasis processing for the main subject region from that of the other regions. For example, the image processing unit 20 executes contour enhancement processing by applying a contour enhancement filter having a lower degree of contour enhancement to the region of the main subject in the captured image than other regions. As a result, it is possible to obtain a preferable captured image in which rough skin of a person as a main subject is not noticeable.
(2) The image processing unit 20 changes the tone correction characteristics of the main subject area from other areas. For example, the image processing unit 20 performs gradation correction by applying a gradation characteristic table having a gradation curve different from that of the other areas to the main subject area of the captured image. Specifically, a gradation characteristic table of a soft gradation curve in which contrast is relatively lower than the gradation curves of other areas is applied to the main subject area. As a result, it is possible to obtain a preferable captured image with softness on the face of the main subject.

(3)画像処理部20は、主要被写体の領域の彩度を他の領域よりも高める補正を行う。例えば、画像処理部20は、撮影画像の主要被写体の領域の彩度のパラメータを他の領域よりも相対的に高く設定する。その結果、主要被写体の人物の肌色のくすみなどが軽減された好ましい撮影画像を得ることができる。
(4)画像処理部20は、主要被写体の領域に対して、画像解析の結果に基づき画像の暗部またはハイライト部の階調を調整する光量補正処理を実行する。上記の光量補正処理は、例えば、特開2006−5699号公報に開示された公知の技術により行われる。具体的には、画像処理部20は、撮影画像から局所的な変動成分を抽出して、変動成分を含む局所変動画像を生成する。次に、画像処理部20は、撮影画像を局所変動画像へ変調する変調信号を求めるとともに、変調信号をレベル圧縮する。そして、画像処理部20はレベル圧縮後の変調信号によって撮影画像を変調して階調修正画像を取得する。その結果、補正範囲の明暗変化を適度に抑制しつつ、視覚的に埋もれやすい階調が修復された良好な状態の画像を得ることができる。特に、逆光撮影の場合や、フラッシュ撮影で人物に閃光が十分に届かない場合の撮影画像を良好な状態に修正できる。また、主要被写体の領域以外に施す画像処理を一部省略することで演算時間を短縮できる。
(3) The image processing unit 20 performs correction to increase the saturation of the main subject area more than other areas. For example, the image processing unit 20 sets the saturation parameter of the main subject area of the captured image relatively higher than other areas. As a result, it is possible to obtain a preferable captured image in which the skin color dullness of the person who is the main subject is reduced.
(4) The image processing unit 20 executes a light amount correction process for adjusting the gradation of the dark part or highlight part of the image based on the result of the image analysis on the area of the main subject. The above light amount correction processing is performed by, for example, a known technique disclosed in Japanese Patent Application Laid-Open No. 2006-5699. Specifically, the image processing unit 20 extracts a local fluctuation component from the captured image, and generates a local fluctuation image including the fluctuation component. Next, the image processing unit 20 obtains a modulation signal that modulates the captured image into a local variation image, and level-compresses the modulation signal. The image processing unit 20 then modulates the captured image with the level-compressed modulation signal to obtain a gradation corrected image. As a result, it is possible to obtain an image in a good state in which a gradation that is easily buried is visually restored while moderately suppressing a change in brightness of the correction range. In particular, it is possible to correct a photographed image in a good state in the case of backlight photography or when the flash does not reach the person sufficiently by flash photography. Further, the calculation time can be shortened by omitting a part of the image processing applied to areas other than the main subject area.

(5)画像処理部20は、主要被写体の領域のノイズ低減処理を他の領域と変化させる。例えば、画像処理部20は、撮影画像のうちで主要被写体の領域のみを対象としてメディアンフィルタなどによるノイズ低減処理を実行する。その結果、主要被写体の顔の粒状感を低減できる。また、主要被写体の領域以外に施す画像処理を一部省略することで演算時間を短縮できる。   (5) The image processing unit 20 changes the noise reduction processing of the main subject area from the other areas. For example, the image processing unit 20 performs noise reduction processing using a median filter or the like for only the main subject region in the captured image. As a result, the graininess of the face of the main subject can be reduced. Further, the calculation time can be shortened by omitting a part of the image processing applied to areas other than the main subject area.

(6)画像処理部20は、主要被写体の領域に対してのみ、画像処理による赤目軽減補正を施す。上記の赤目軽減補正は、例えば、特開平10−233929号公報に開示された公知の技術により行われる。具体的には、画像処理部20は、顔領域から赤目領域を検出するとともに、検出した赤目領域の明度または彩度を低下させる補正を行う。その結果、主要被写体の赤目を防止できる。また、主要被写体以外の人物に対する画像処理を一部省略することで演算時間を短縮できる。   (6) The image processing unit 20 performs red-eye reduction correction by image processing only on the area of the main subject. The red-eye reduction correction is performed by a known technique disclosed in, for example, Japanese Patent Laid-Open No. 10-233929. Specifically, the image processing unit 20 detects a red-eye area from the face area and performs correction to reduce the lightness or saturation of the detected red-eye area. As a result, red eyes of the main subject can be prevented. Also, the calculation time can be shortened by omitting part of the image processing for a person other than the main subject.

(7)画像処理部20は、主要被写体の領域に対してのみボケ軽減補正を施す。例えば、画像処理部20は、主要被写体の領域に対してアンシャープマスク処理を行って手ブレやピンボケを緩和するようにしてもよい。その結果、主要被写体のピンボケやブレをある程度緩和できる。また、主要被写体の領域以外に施す画像処理を一部省略することで演算時間を短縮できる。   (7) The image processing unit 20 performs blur reduction correction only on the main subject area. For example, the image processing unit 20 may perform an unsharp mask process on the area of the main subject to reduce camera shake and blurring. As a result, the blurring and blurring of the main subject can be alleviated to some extent. Further, the calculation time can be shortened by omitting a part of the image processing applied to areas other than the main subject area.

(8)画像処理部20は、主要被写体の領域に対してのみ撮影画像にソフトフォーカス処理を施す。これにより、主要被写体が強調されるとともに柔らかみのある好ましい撮影画像を得ることができる。
ここで、画像処理部20のソフトフォーカス処理は以下の手段で行われる。例えば、画像処理部20は、所定のソフトフォーカス効果を示すフィルタやローパスフィルタなどによるフィルタ処理を撮影画像に施してソフトフォーカス画像を生成する。また、画像処理部20は、撮影画像からマスク画像を生成するとともに、マスク画像に基づいてフィルタ処理後の画像と原画像とを合成してソフトフォーカス画像を生成してもよい。
(8) The image processing unit 20 performs soft focus processing on the captured image only for the area of the main subject. As a result, it is possible to obtain a preferable captured image in which the main subject is emphasized and soft.
Here, the soft focus processing of the image processing unit 20 is performed by the following means. For example, the image processing unit 20 generates a soft focus image by performing filter processing using a filter that exhibits a predetermined soft focus effect, a low-pass filter, or the like on the captured image. The image processing unit 20 may generate a mask image from the captured image, and may generate a soft focus image by synthesizing the filtered image and the original image based on the mask image.

ステップ122:CPU27は、Exif(Exchangeable image file format for digital still cameras)規格に準拠した画像ファイルの生成を行う。CPU27は、第1メモリ19または第2メモリ28のワークエリアを利用して画像ファイルのヘッダのデータを生成する。例えば、CPU27は、撮影画像の撮影条件(露光時間、絞り値、撮像感度など)のデータとともに、S107で指定された主要被写体の位置や登録人物を示すデータをMakerNoteタグを利用してヘッダに記録する。ヘッダに記録された主要被写体の位置などのデータは、ユーザーが主要被写体に対する画像処理(S121と同様の処理)などを事後的に行なおうとする場合に使用される。そして、CPU27は、撮影画像のデータと、上記のヘッダのデータとを関連づけして画像ファイルを生成し、最終的に画像ファイルを記録媒体30に記録する。   Step 122: The CPU 27 generates an image file compliant with the Exif (Exchangeable image file format for digital still cameras) standard. The CPU 27 uses the work area of the first memory 19 or the second memory 28 to generate header data of the image file. For example, the CPU 27 records data indicating the position of the main subject and the registered person specified in S107 in the header using the MakerNote tag together with the data of the shooting conditions (exposure time, aperture value, imaging sensitivity, etc.) of the shot image. To do. Data such as the position of the main subject recorded in the header is used when the user intends to perform image processing (processing similar to S121) on the main subject after the fact. Then, the CPU 27 associates the captured image data with the header data to generate an image file, and finally records the image file on the recording medium 30.

ステップ123:CPU27は、S122の画像ファイルに関する印刷設定データをDPOF規格に準拠して生成する。なお、CPU27はメニュー画面での設定に応じてS123での処理を省略することが可能である。
具体的には、まずCPU27は、印刷する撮影画像の画像ファイルを指定するとともに、撮影画像の主要被写体の人数をカウントして印刷設定データの印刷枚数を指定する。また、CPU27は、メニュー画面での設定に応じて印刷設定データでの印刷サイズ(L、2Lなど)を指定する。なお、CPU27は、S105で検出した登録人物の印刷設定を第2メモリ28から読み出して、印刷設定データの印刷枚数や印刷サイズを指定してもよい。
Step 123: The CPU 27 generates print setting data relating to the image file in S122 in accordance with the DPOF standard. The CPU 27 can omit the process in S123 according to the setting on the menu screen.
Specifically, the CPU 27 first designates an image file of a photographed image to be printed, and counts the number of main subjects of the photographed image and designates the number of print setting data to be printed. Further, the CPU 27 designates the print size (L, 2L, etc.) in the print setting data according to the setting on the menu screen. Note that the CPU 27 may read the print setting of the registered person detected in S105 from the second memory 28 and specify the number of prints and the print size of the print setting data.

ステップ124:CPU27は、S122の画像ファイルに無線通信に関するアドレスデータを関連付けするとともに、通信部25を介して画像ファイルを外部に送信する。なお、CPU27はメニュー画面での設定に応じてS124での処理を省略して、一連の撮影動作を終了させてもよい。
具体的には、CPU27は、S105で検出した登録人物の送信設定を第2メモリ28から読み出す。そして、撮影画像の送信の設定がオンの場合には、CPU27は、通信部25に対してアドレスデータの示す送信先に画像ファイルを送信する指示を行う。一方、撮影画像の送信の設定がオフの場合や無線通信ができない状態の場合には、CPU27は画像ファイルのヘッダにアドレスデータを記録しておくようにしてもよい。
Step 124: The CPU 27 associates the address data related to the wireless communication with the image file in S122 and transmits the image file to the outside via the communication unit 25. The CPU 27 may omit the process in S124 according to the setting on the menu screen and end the series of shooting operations.
Specifically, the CPU 27 reads the registered person transmission setting detected in S <b> 105 from the second memory 28. When the transmission setting of the captured image is on, the CPU 27 instructs the communication unit 25 to transmit the image file to the transmission destination indicated by the address data. On the other hand, when the transmission setting of the captured image is off or wireless communication is not possible, the CPU 27 may record address data in the header of the image file.

ステップ125:この場合には、CPU27は通常の撮影時と同様のアルゴリズムでAFやAEを実行する。そして、レリーズ釦の全押しに応じてCPU27は被写体を撮影し、撮影画像データを生成する。以上で撮影モードの動作説明を終了する。
以下、本実施形態における電子カメラの撮影モードでの効果を説明する。
上記の撮影モードでは、顔認識結果に基づいて指定される主要被写体を基準として、電子カメラにおける撮影制御や画像処理などが行われる。また、電子カメラは、主要被写体の指定された撮影画像のデータについて、印刷設定データの生成や無線通信による外部送信などを自動的に行なうこともできる。そのため、本実施形態によれば、機能的でユーザーにとって利便性の高い電子カメラを実現できる。
Step 125: In this case, the CPU 27 executes AF and AE with the same algorithm as in normal shooting. Then, in response to the release button being fully pressed, the CPU 27 captures the subject and generates captured image data. This is the end of the description of the shooting mode operation.
Hereinafter, the effect in the photographing mode of the electronic camera in the present embodiment will be described.
In the above shooting mode, shooting control, image processing, and the like in the electronic camera are performed based on the main subject specified based on the face recognition result. In addition, the electronic camera can automatically generate print setting data, external transmission by wireless communication, and the like for the captured image data of the main subject specified. Therefore, according to this embodiment, an electronic camera that is functional and highly convenient for the user can be realized.

また、上記の主要被写体の指定では、CPU27は顔認識処理で登録人物を検出して、その登録人物を主要被写体に指定する。そして、撮影シーンによっては、ユーザーが登録人物と同様に扱いたいと推定できる人物についても、CPU27は登録人物とともに主要被写体に指定できる。そのため、本実施形態によれば、ユーザーの意図に沿った撮影画像を容易に得ることが可能となる。   Further, in the designation of the main subject, the CPU 27 detects a registered person in the face recognition process and designates the registered person as the main subject. Depending on the shooting scene, the CPU 27 can designate a person who can be assumed to be treated in the same way as a registered person as a main subject together with the registered person. Therefore, according to the present embodiment, it is possible to easily obtain a captured image according to the user's intention.

次に、図5を参照しつつ、本実施形態の電子カメラにおける編集モードの動作の一例を説明する。この編集モードは、予め記録媒体30等に記録されているExif規格の画像ファイルの再生などを行うためのモードである。この編集モードの起動は、電子カメラが撮影モードで起動している状態で、CPU27が操作釦からの入力に応じて行われる。あるいは、ユーザーのモード選択操作に応じて、CPU27が撮影モードを経ることなく編集モードを直接起動してもよい。   Next, an example of the edit mode operation in the electronic camera of the present embodiment will be described with reference to FIG. This editing mode is a mode for reproducing an Exif standard image file recorded in advance on the recording medium 30 or the like. The editing mode is activated in response to an input from the operation button by the CPU 27 while the electronic camera is activated in the shooting mode. Alternatively, the CPU 27 may directly activate the edit mode without going through the shooting mode in response to a user mode selection operation.

ステップ201:CPU27は、記録I/F21の記録媒体30または外部I/F26に接続された外部装置(不図示)から、ユーザーの指定した画像ファイルを読み込む。なお、S201でCPU27が読み込む画像ファイルは、上記の電子カメラによる画像ファイルと規格が共通するものであれば、他の電子カメラで生成されたものであってもよい。
ステップ202:CPU27は、S201で読み出した画像ファイルに主要被写体の位置および登録人物を示すデータが含まれているか否かを判定する。この主要被写体の位置などのデータは、上記の撮影モードのS122においてヘッダに記録されたデータに相当する。画像ファイルに上記のデータが含まれる場合(YES側)にはS209に移行する。画像ファイルに上記のデータが含まれない場合(YES側)にはS203に移行する。
Step 201: The CPU 27 reads an image file designated by the user from the recording medium 30 of the recording I / F 21 or an external device (not shown) connected to the external I / F 26. Note that the image file read by the CPU 27 in step S201 may be generated by another electronic camera as long as the image file by the electronic camera has the same standard.
Step 202: The CPU 27 determines whether or not the image file read in S201 includes data indicating the position of the main subject and the registered person. The data such as the position of the main subject corresponds to the data recorded in the header in S122 of the shooting mode. When the above data is included in the image file (YES side), the process proceeds to S209. When the above data is not included in the image file (YES side), the process proceeds to S203.

ステップ203:CPU27は、撮影画像のデータに対して顔検出処理を実行する。
ステップ204:CPU27は、S203の顔検出処理で顔領域を検出したか否かを判定する。顔領域を検出した場合(YES側)にはS205に移行する。一方、顔領域を検出していない場合(NO側)にはS209に移行する。
ステップ205:CPU27の顔認識部33は、S203の顔検出処理で取得した特徴点のデータと、第2メモリ28の顔認識データとに基づいて、上記の顔領域のうちから認識対象となる登録人物の顔を検出する顔認識処理を実行する。
Step 203: The CPU 27 executes face detection processing on the captured image data.
Step 204: The CPU 27 determines whether or not a face area has been detected in the face detection process of S203. If a face area is detected (YES side), the process proceeds to S205. On the other hand, when the face area is not detected (NO side), the process proceeds to S209.
Step 205: The face recognition unit 33 of the CPU 27 is registered as a recognition target from the face areas based on the feature point data acquired in the face detection process of S203 and the face recognition data of the second memory 28. A face recognition process for detecting a human face is executed.

ステップ206:CPU27は、S205の顔認識処理で登録人物の顔を検出したか否かを判定する。登録人物の顔を検出した場合(YES側)にはS207に移行する。一方、登録人物の顔を検出していない場合(NO側)にはS209に移行する。
ステップ207:CPU27は、S205の顔認識処理の結果に基づいて、顔領域に対応する被写体のうちから主要被写体を指定する。ここで、CPU27による主要被写体の指定の方法については、被写体距離に基づく主要被写体の指定を行わない点を除いて上記のS107の場合とほぼ共通するので重複説明を省略する。
Step 206: The CPU 27 determines whether or not the face of the registered person has been detected in the face recognition process of S205. When the face of the registered person is detected (YES side), the process proceeds to S207. On the other hand, when the face of the registered person is not detected (NO side), the process proceeds to S209.
Step 207: The CPU 27 designates a main subject from subjects corresponding to the face area based on the result of the face recognition processing in S205. Here, the method of designating the main subject by the CPU 27 is almost the same as the case of S107 described above except that the main subject is not designated based on the subject distance, and therefore a duplicate description is omitted.

ステップ208:CPU27は、S207で指定した主要被写体の位置および登録人物を示すデータを、画像ファイルのヘッダに記録する。あるいは、CPU27は、S201で読み出した画像ファイルとは別に、S207で取得した主要被写体の位置などのデータを含む画像ファイルを生成してもよい。これにより、CPU27は次回以降の読み出しにおいて、S207で指定した主要被写体の位置などのデータを活用することができる。   Step 208: The CPU 27 records data indicating the position of the main subject and the registered person specified in S207 in the header of the image file. Alternatively, the CPU 27 may generate an image file including data such as the position of the main subject acquired in S207, separately from the image file read in S201. As a result, the CPU 27 can utilize data such as the position of the main subject designated in S207 in subsequent readings.

ステップ209:CPU27は、モニタ23に撮影画像のデータを再生表示する。このとき、CPU27は、図6に示すようなGUI形式のメニュー表示をモニタ23に表示し、ユーザーによる項目の選択入力を受け付ける。メニュー表示の項目には、例えば、スライドショー、画像処理、印刷設定データ生成、無線通信などが含まれている。そして、CPU27はメニュー表示で選択された項目に応じて各種処理を実行する。なお、主要被写体が指定されている画像ファイルについては、図4の場合と同様に、主要被写体を示す枠表示をCPU27が再生画像に重畳して表示できるモードを設けてもよい(図6では枠表示の図示は省略する)。   Step 209: The CPU 27 reproduces and displays the captured image data on the monitor 23. At this time, the CPU 27 displays a menu display in a GUI format as shown in FIG. 6 on the monitor 23, and accepts an item selection input by the user. Menu display items include, for example, a slide show, image processing, print setting data generation, wireless communication, and the like. Then, the CPU 27 executes various processes according to the item selected on the menu display. For the image file in which the main subject is designated, a mode in which the CPU 27 can display a frame display indicating the main subject superimposed on the reproduced image may be provided as in FIG. The illustration of the display is omitted).

以下、各項目の詳細を説明する。
(1)スライドショー
メニュー表示でスライドショーの項目が選択された場合、CPU27は画像ファイルのスライドショーを実行し、複数の画像ファイル(例えば記録媒体30内の全画像ファイルなど)の撮影画像を順次再生する。ここで、主要被写体が指定されている画像ファイルについては、CPU27はスライドショーにおいて以下の処理を行う。
Details of each item will be described below.
(1) Slideshow When a slideshow item is selected in the menu display, the CPU 27 executes a slideshow of image files, and sequentially reproduces captured images of a plurality of image files (for example, all image files in the recording medium 30). Here, for the image file in which the main subject is designated, the CPU 27 performs the following processing in the slide show.

CPU27は撮影画像に含まれる主要被写体の人数に応じて、スライドショーでの撮影画像の表示時間を長く設定する。また、CPU27は、スライドショーの表示において、主要被写体の顔の位置を基準として特殊効果を伴う表示を行うようにしてもよい。例えば、CPU27は、主要被写体の顔の位置を基準としてズームアップ、ズームダウン、画像の回転、フェードイン、フェードアウトなどの表示を行うようにしてもよい。   The CPU 27 sets a long display time of the captured image in the slide show according to the number of main subjects included in the captured image. In addition, the CPU 27 may perform display with special effects based on the position of the face of the main subject in the slide show display. For example, the CPU 27 may display zoom-in, zoom-down, image rotation, fade-in, fade-out, and the like based on the position of the face of the main subject.

さらに、複数の主要被写体の顔が撮影画像に含まれる場合には、CPU27は、スライドショーの表示において、その撮影画像を主要被写体の人数分に分割して表示してもよい。例えば、CPU27は、各々の主要被写体の顔を拡大表示するなどの手段で上記の分割表示を行う。なお、主要被写体となった登録人物に関する再生表示の設定のデータが第2メモリ28にある場合には、CPU27は再生表示の設定のデータに基づいて、スライドショーの表示を行うようにしてもよい。   Further, when the faces of a plurality of main subjects are included in the photographed image, the CPU 27 may divide and display the photographed images for the number of main subjects in the slide show display. For example, the CPU 27 performs the above-described divided display by means such as an enlarged display of the face of each main subject. Note that if the second memory 28 has reproduction display setting data relating to the registered person who has become the main subject, the CPU 27 may display a slide show based on the reproduction display setting data.

(2)フォトレタッチ
メニュー表示でフォトレタッチの項目が選択された場合、CPU27は撮影画像のデータに対する画像処理を画像処理部20に指示する。画像処理部20は、再生表示中の撮影画像のデータに輪郭強調処理、階調補正、彩度の調整、光量補正処理、ノイズ低減処理、赤目軽減補正、ボケ軽減補正などを実行する。ここで、主要被写体が指定されている画像ファイルについては、S121の場合と同様に、画像処理部20は撮影画像の主要被写体に対応する領域には他の領域と異なる画像処理を施すことができる。なお、個々の画像処理の説明は上記のS121と重複するので省略する。
(2) Photo Retouch When the item of photo retouch is selected in the menu display, the CPU 27 instructs the image processing unit 20 to perform image processing on the captured image data. The image processing unit 20 executes contour enhancement processing, gradation correction, saturation adjustment, light amount correction processing, noise reduction processing, red-eye reduction correction, blur reduction correction, and the like on the captured image data being reproduced and displayed. Here, for the image file in which the main subject is specified, the image processing unit 20 can perform image processing different from other regions on the region corresponding to the main subject of the captured image, as in S121. . The description of the individual image processing is omitted because it overlaps with the above S121.

(3)DPOF
メニュー表示でDPOFの項目が選択された場合、CPU27は再生対象の画像ファイルに関する印刷設定データをDPOF規格に準拠して生成する。ここで、主要被写体が指定されている画像ファイルについては、CPU27は撮影画像の主要被写体の人数をカウントして印刷設定データの印刷枚数を自動的に指定する。また、主要被写体となった登録人物に関する印刷設定のデータが第2メモリ28にある場合には、CPU27は登録人物の印刷設定を第2メモリ28からを読み出して、印刷設定データの印刷枚数や印刷サイズを指定してもよい。
(3) DPOF
When the DPOF item is selected in the menu display, the CPU 27 generates print setting data related to the image file to be reproduced in accordance with the DPOF standard. Here, for the image file in which the main subject is specified, the CPU 27 automatically specifies the number of print setting data by counting the number of main subjects in the captured image. When the print setting data relating to the registered person who is the main subject is stored in the second memory 28, the CPU 27 reads the print setting of the registered person from the second memory 28, and prints the number of print settings data and prints. You may specify the size.

(4)無線通信
メニュー表示で無線通信の項目が選択された場合、CPU27は通信部25を介して再生対象の画像ファイルを外部に送信する。ここで、画像ファイルのヘッダにアドレスデータが記録されている場合には、CPU27はそのアドレスデータに基づいて画像ファイルの送信を実行する。また、主要被写体となった登録人物に関する送信設定のデータが第2メモリ28にある場合には、CPU27は、アドレスデータを第2メモリ28から読み出して再生対象の画像ファイルを外部に送信してもよい。以上で編集モードの動作説明を終了する。
(4) Wireless communication When the item of wireless communication is selected in the menu display, the CPU 27 transmits an image file to be reproduced to the outside via the communication unit 25. Here, when address data is recorded in the header of the image file, the CPU 27 executes transmission of the image file based on the address data. If the second memory 28 has transmission setting data relating to the registered person who has become the main subject, the CPU 27 may read the address data from the second memory 28 and transmit the image file to be reproduced to the outside. Good. This is the end of the description of the editing mode operation.

以下、本実施形態における電子カメラの編集モードでの効果を説明する。
上記の編集モードでは、顔認識結果に基づいて指定される主要被写体に応じて、電子カメラにおける画像処理やスライドショー表示を行なうことができる。また、電子カメラは、主要被写体の指定された撮影画像のデータについて、印刷設定データの生成や無線通信による外部送信などを行なうこともできる。そのため、本実施形態によれば、機能的でユーザーにとって利便性の高い電子カメラを実現できる。
Hereinafter, the effect in the edit mode of the electronic camera in this embodiment will be described.
In the editing mode described above, image processing and slide show display in the electronic camera can be performed according to the main subject specified based on the face recognition result. The electronic camera can also generate print setting data, externally transmit by wireless communication, and the like for the captured image data of the main subject. Therefore, according to this embodiment, an electronic camera that is functional and highly convenient for the user can be realized.

特に、本実施形態の編集モードでは、主要被写体の指定に関するデータが画像ファイルにない場合でも、CPU27が撮影画像のデータに顔認識処理を行って主要被写体の指定をすることもできる。そのため、撮影時に顔認識を行わなかった場合にも上記の撮影モードの場合と同様の効果を得ることができるので、電子カメラの利便性をより向上させることができる。   In particular, in the editing mode of the present embodiment, even when there is no data relating to the designation of the main subject in the image file, the CPU 27 can perform face recognition processing on the captured image data to designate the main subject. Therefore, even when face recognition is not performed at the time of shooting, the same effect as in the above shooting mode can be obtained, so that the convenience of the electronic camera can be further improved.

また、編集モードにおける主要被写体の指定では、CPU27は撮影画像に対して顔認識処理を施して登録人物を検出し、その登録人物を主要被写体に指定する。そして、撮影画像の構図からユーザーが登録人物と同様に扱いたいと推定できる人物についても、CPU27は登録人物とともに主要被写体に指定できる。そのため、本実施形態によれば、ユーザーの意図に沿った主要被写体の指定が可能となる。   In the designation of the main subject in the edit mode, the CPU 27 performs face recognition processing on the captured image to detect a registered person, and designates the registered person as the main subject. The CPU 27 can also designate a person who can be estimated from the composition of the photographed image as a registered person as a main subject together with the registered person. Therefore, according to the present embodiment, it is possible to specify the main subject according to the user's intention.

(実施形態の補足事項)
(1)上記実施形態では撮影画像を取得するための撮像素子15を用いて顔検出などを行う電子カメラの例を説明したが、本発明の構成は上記実施形態の例に限定されることはない。例えば、一眼レフタイプのカメラシステムにおいて、焦点検出機構や光学ファインダなどに顔検出を行うための撮像素子を設けてもよい。この場合には、一眼レフタイプの電子カメラでも本発明を実施できる。
(Supplementary items of the embodiment)
(1) In the above embodiment, an example of an electronic camera that performs face detection or the like using the image sensor 15 for acquiring a captured image has been described. However, the configuration of the present invention is not limited to the example of the above embodiment. Absent. For example, in a single-lens reflex type camera system, an image sensor for performing face detection may be provided in a focus detection mechanism, an optical viewfinder, or the like. In this case, the present invention can be implemented even with a single-lens reflex type electronic camera.

(2)上記実施形態では電子カメラで画像の再生などを行う例を説明した。しかし、本発明では、画像ファイルを再生する機能を備える再生専用装置(ビューアー)や、画像再生プログラムを実行する汎用コンピュータで、上記実施形態の電子カメラの編集モードと同様の処理を実行する画像処理装置を構成してもよい。
(3)上記実施形態の撮影モードにおいて、CPU27はレリーズ釦の半押しをトリガとして顔検出処理や顔認識処理などを行うようにしてもよい。
(2) In the above embodiment, an example in which an image is reproduced by an electronic camera has been described. However, in the present invention, image processing for executing processing similar to the editing mode of the electronic camera of the above-described embodiment on a playback-only device (viewer) having a function of playing back an image file or a general-purpose computer that executes an image playback program. An apparatus may be configured.
(3) In the shooting mode of the above embodiment, the CPU 27 may perform face detection processing, face recognition processing, or the like with a half-press of the release button as a trigger.

(4)上記実施形態の編集モードにおいて、CPU27は表示I/F22の映像端子を介して、外部の表示装置(テレビなど)に画像を表示させるようにしてもよい。
(5)本発明の電子カメラは実施形態の電子カメラの構成と必ずしも一致する必要はない。例えば、第1メモリ19と第2メモリ28とが共通のメモリで構成されていてもよい。また、通信部25などの一部の構成が省略されていてもよい。
(4) In the edit mode of the above embodiment, the CPU 27 may display an image on an external display device (such as a television) via the video terminal of the display I / F 22.
(5) The electronic camera of the present invention does not necessarily match the configuration of the electronic camera of the embodiment. For example, the first memory 19 and the second memory 28 may be configured by a common memory. Moreover, some structures, such as the communication part 25, may be abbreviate | omitted.

本実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of this embodiment 本実施形態の電子カメラでの撮影モードの動作例を説明する流れ図Flowchart for explaining an operation example of the shooting mode in the electronic camera of the present embodiment 本実施形態の電子カメラでの撮影モードの動作例を説明する流れ図Flowchart for explaining an operation example of the shooting mode in the electronic camera of the present embodiment 顔検出時におけるビュー画像の表示例を示す図The figure which shows the example of a display of the view image at the time of face detection 本実施形態の電子カメラでの編集モードの動作例を説明する流れ図A flowchart for explaining an operation example of the edit mode in the electronic camera of the present embodiment 編集モードにおけるモニタでのメニュー表示の一例を示す図The figure which shows an example of the menu display on the monitor in edit mode

符号の説明Explanation of symbols

11…撮影レンズ、12…レンズ駆動部、13…絞り、14…絞り駆動部、15…撮像素子、20…画像処理部、21…記録I/F、22…表示I/F、23…モニタ、24…操作部、25…通信部、26…外部I/F、27…CPU、28…第2メモリ、29…システムバス、30…記録媒体、31…AF制御部、32…顔検出部、33…顔認識部
DESCRIPTION OF SYMBOLS 11 ... Shooting lens, 12 ... Lens drive part, 13 ... Diaphragm, 14 ... Diaphragm drive part, 15 ... Image sensor, 20 ... Image processing part, 21 ... Recording I / F, 22 ... Display I / F, 23 ... Monitor, 24 ... operation unit, 25 ... communication unit, 26 ... external I / F, 27 ... CPU, 28 ... second memory, 29 ... system bus, 30 ... recording medium, 31 ... AF control unit, 32 ... face detection unit, 33 ... Face recognition part

Claims (26)

被写体像を光電変換して画像信号を生成する撮像素子と、
認識対象となる顔の特徴点を示す登録データを記録したメモリと、
前記画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記画像信号に基づいて前記主要被写体の状態を検出するとともに、該検出状態に応じて電子カメラの撮影動作の制御を行う撮影制御部と、
を備えることを特徴とする電子カメラ。
An image sensor that photoelectrically converts a subject image to generate an image signal;
A memory storing registration data indicating facial feature points to be recognized;
A face detection unit for detecting a face area in the shooting screen based on the image signal and extracting a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
A shooting control unit that detects a state of the main subject based on the image signal and controls a shooting operation of the electronic camera according to the detection state;
An electronic camera comprising:
請求項1に記載の電子カメラにおいて、
前記撮影制御部は、前記主要被写体を基準として合焦制御を行うことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera according to claim 1, wherein the photographing control unit performs focusing control with the main subject as a reference.
請求項1に記載の電子カメラにおいて、
前記撮影制御部は、前記画像信号に基づいて前記主要被写体の像ブレを検出するとともに、該像ブレの検出状態に応じて前記撮影動作の制御を行うことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera, wherein the photographing control unit detects image blur of the main subject based on the image signal, and controls the photographing operation according to a detection state of the image blur.
請求項1に記載の電子カメラにおいて、
前記撮影制御部は、前記画像信号に基づいて前記主要被写体の顔の表情を推定するとともに、前記表情の種類に応じて前記撮影動作の制御を行うことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera, wherein the photographing control unit estimates facial expression of the main subject based on the image signal, and controls the photographing operation according to the type of facial expression.
請求項1に記載の電子カメラにおいて、
前記撮影制御部は、前記画像信号に基づいて複数の前記主要被写体における各々の合焦状態を検出するとともに、該合焦状態に応じて被写界深度を制御することを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera, wherein the photographing control unit detects each in-focus state of the plurality of main subjects based on the image signal, and controls the depth of field according to the in-focus state.
被写体像を光電変換して画像信号を生成する撮像素子と、
認識対象となる顔の特徴点を示す登録データを記録したメモリと、
前記画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記画像信号に基づいて撮影画像のデータを生成するとともに、該撮影画像の前記主要被写体に対応する領域には他の領域と異なる画像処理を施す画像処理部と、
を備えることを特徴とする電子カメラ。
An image sensor that photoelectrically converts a subject image to generate an image signal;
A memory storing registration data indicating facial feature points to be recognized;
A face detection unit for detecting a face area in the shooting screen based on the image signal and extracting a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
An image processing unit that generates data of a captured image based on the image signal, and that performs image processing different from other regions on a region corresponding to the main subject of the captured image;
An electronic camera comprising:
請求項6に記載の電子カメラにおいて、
前記画像処理部は、前記主要被写体に対応する領域での輪郭強調に関する補正処理を、前記他の領域と変化させることを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera according to claim 1, wherein the image processing unit changes a correction process related to contour enhancement in an area corresponding to the main subject from the other area.
請求項6に記載の電子カメラにおいて、
前記画像処理部は、前記主要被写体に対応する領域での階調補正の特性を、前記他の領域と変化させることを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera according to claim 1, wherein the image processing unit changes a characteristic of gradation correction in an area corresponding to the main subject from the other area.
請求項6に記載の電子カメラにおいて、
前記画像処理部は、前記主要被写体に対応する領域での彩度に関する補正処理を、前記他の領域と変化させることを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera according to claim 1, wherein the image processing unit changes a correction process related to saturation in an area corresponding to the main subject from the other area.
請求項6に記載の電子カメラにおいて、
前記画像処理部は、前記主要被写体に対応する領域に対して、画像解析の結果に基づき画像の暗部またはハイライト部の階調を調整する光量補正処理を実行することを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera is characterized in that the image processing unit executes a light amount correction process for adjusting a gradation of a dark part or a highlight part of an image based on a result of image analysis on an area corresponding to the main subject.
請求項6に記載の電子カメラにおいて、
前記画像処理部は、前記主要被写体に対応する領域でのノイズ低減処理を、前記他の領域と変化させることを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera according to claim 1, wherein the image processing unit changes a noise reduction process in an area corresponding to the main subject to the other area.
請求項6に記載の電子カメラにおいて、
前記画像処理部は、前記主要被写体に対応する領域での赤目軽減に関する補正処理を、前記他の領域と変化させることを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera according to claim 1, wherein the image processing unit changes a correction process related to red-eye reduction in an area corresponding to the main subject with the other area.
請求項6に記載の電子カメラにおいて、
前記画像処理部は、前記主要被写体に対応する領域でのボケ軽減に関する補正処理を、前記他の領域と変化させることを特徴とする電子カメラ。
The electronic camera according to claim 6.
The electronic camera according to claim 1, wherein the image processing unit changes correction processing related to blur reduction in an area corresponding to the main subject from the other area.
被写体像を光電変換して画像信号を生成する撮像素子と、
認識対象となる顔の特徴点を示す登録データを記録したメモリと、
前記画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記画像信号に基づいて撮影画像のデータを生成する画像処理部と、
前記撮影画像における前記主要被写体を示す付属データを生成するとともに、前記撮影画像のデータに前記付属データを関連付けした画像ファイルを生成する画像ファイル生成部と、
を備えることを特徴とする電子カメラ。
An image sensor that photoelectrically converts a subject image to generate an image signal;
A memory storing registration data indicating facial feature points to be recognized;
A face detection unit for detecting a face area in the shooting screen based on the image signal and extracting a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
An image processing unit that generates data of a captured image based on the image signal;
Generating ancillary data indicating the main subject in the captured image, and generating an image file in which the attached data is associated with the captured image data; and
An electronic camera comprising:
被写体像を光電変換して画像信号を生成する撮像素子と、
認識対象となる顔の特徴点を示す登録データを記録したメモリと、
前記画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記画像信号に基づいて撮影画像のデータを生成する画像処理部と、
前記撮影画像で指定された前記主要被写体に応じて、前記撮影画像の印刷設定に関する印刷設定データを生成する印刷設定データ生成部と、
を備えることを特徴とする電子カメラ。
An image sensor that photoelectrically converts a subject image to generate an image signal;
A memory storing registration data indicating facial feature points to be recognized;
A face detection unit for detecting a face area in the shooting screen based on the image signal and extracting a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
An image processing unit that generates data of a captured image based on the image signal;
A print setting data generation unit that generates print setting data related to print settings of the captured image according to the main subject specified in the captured image;
An electronic camera comprising:
被写体像を光電変換して画像信号を生成する撮像素子と、
認識対象となる顔の特徴点を示す登録データと、該登録データの人物に対するデータ通信に用いるアドレスデータとを記録したメモリと、
前記画像信号に基づいて撮影画面内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記画像信号に基づいて撮影画像のデータを生成する画像処理部と、
前記主要被写体に対応する前記アドレスデータを、前記撮影画像のデータに関連付けする制御部と、
を備えることを特徴とする電子カメラ。
An image sensor that photoelectrically converts a subject image to generate an image signal;
A memory that records registration data indicating facial feature points to be recognized, and address data used for data communication with the person of the registration data;
A face detection unit for detecting a face area in the shooting screen based on the image signal and extracting a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
An image processing unit that generates data of a captured image based on the image signal;
A control unit that associates the address data corresponding to the main subject with the data of the captured image;
An electronic camera comprising:
電子カメラで生成された撮影画像のデータを読み込むデータ読込部と、
認識対象となる顔の特徴点を示す登録データを記録したメモリと、
前記撮影画像内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記撮影画像の前記主要被写体に対応する領域に他の領域と異なる画像処理を施す画像処理部と、
を備えることを特徴とする画像処理装置。
A data reading unit for reading data of a captured image generated by an electronic camera;
A memory storing registration data indicating facial feature points to be recognized;
A face detection unit that detects a face area in the captured image and extracts a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
An image processing unit that performs image processing different from other regions on a region corresponding to the main subject of the captured image;
An image processing apparatus comprising:
電子カメラで生成された撮影画像のデータを読み込むデータ読込部と、
認識対象となる顔の特徴点を示す登録データと、該登録データの被写体を撮影した画像の再生に関する表示設定を示す再生設定データとを記録したメモリと、
前記撮影画像内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記主要被写体に対応する前記再生設定データを取得するとともに、前記再生設定データに基づいて前記撮影画像の再生を行う再生制御部と、
を備えることを特徴とする画像処理装置。
A data reading unit for reading data of a captured image generated by an electronic camera;
A memory in which registration data indicating facial feature points to be recognized and reproduction setting data indicating display settings relating to reproduction of an image obtained by photographing the subject of the registration data are recorded;
A face detection unit that detects a face area in the captured image and extracts a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
A reproduction control unit that obtains the reproduction setting data corresponding to the main subject and reproduces the captured image based on the reproduction setting data;
An image processing apparatus comprising:
電子カメラで生成された撮影画像のデータを読み込むデータ読込部と、
認識対象となる顔の特徴点を示す登録データを記録したメモリと、
前記撮影画像内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記撮影画像で指定された前記主要被写体に応じて、前記撮影画像の印刷設定に関する印刷設定データを生成する印刷設定データ生成部と、
を備えることを特徴とする画像処理装置。
A data reading unit for reading data of a captured image generated by an electronic camera;
A memory storing registration data indicating facial feature points to be recognized;
A face detection unit that detects a face area in the captured image and extracts a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
A print setting data generation unit that generates print setting data related to print settings of the captured image according to the main subject specified in the captured image;
An image processing apparatus comprising:
電子カメラで生成された撮影画像のデータを読み込むデータ読込部と、
認識対象となる顔の特徴点を示す登録データと、該登録データの人物に対するデータ通信に用いるアドレスデータとを記録したメモリと、
前記撮影画像内の顔領域を検出するとともに、該顔領域から被写体の顔の特徴点を抽出する顔検出部と、
前記顔領域に対応する前記特徴点のデータと前記登録データとに基づいて、前記顔領域が前記認識対象であるか否かを判定する顔認識部と、
前記判定結果に基づいて、前記顔領域に対応する被写体のうちから主要被写体を指定する被写体指定部と、
前記主要被写体に対応する前記アドレスデータを、前記撮影画像のデータに関連付けする制御部と、
を備えることを特徴とする画像処理装置。
A data reading unit for reading data of a captured image generated by an electronic camera;
A memory that records registration data indicating facial feature points to be recognized, and address data used for data communication with the person of the registration data;
A face detection unit that detects a face area in the captured image and extracts a feature point of the face of the subject from the face area;
A face recognition unit that determines whether the face area is the recognition target based on the feature point data corresponding to the face area and the registration data;
A subject designating unit for designating a main subject from subjects corresponding to the face area based on the determination result;
A control unit that associates the address data corresponding to the main subject with the data of the captured image;
An image processing apparatus comprising:
電子カメラによって生成された撮影画像のデータと、前記電子カメラが顔認識処理に基づいて指定した前記撮影画像内の主要被写体を示す付属データとを関連付けした画像ファイルを読み込むデータ読込部と、
前記付属データに基づいて、前記撮影画像の被写体のうちから主要被写体を指定する被写体指定部と、
前記撮影画像の前記主要被写体に対応する領域に他の領域と異なる画像処理を施す画像処理部と、
を備えることを特徴とする画像処理装置。
A data reading unit that reads an image file in which data of a captured image generated by an electronic camera and associated data indicating a main subject in the captured image specified by the electronic camera based on face recognition processing are associated;
A subject designation unit for designating a main subject among subjects of the captured image based on the attached data;
An image processing unit that performs image processing different from other regions on a region corresponding to the main subject of the captured image;
An image processing apparatus comprising:
電子カメラによって生成された撮影画像のデータと、前記電子カメラが顔認識処理に基づいて指定した前記撮影画像内の主要被写体を示す付属データとを関連付けした画像ファイルを読み込むデータ読込部と、
登録人物を含む前記撮影画像の再生に関する表示設定を示す再生設定データを記録したメモリと、
前記付属データに基づいて、前記撮影画像の被写体のうちから主要被写体を指定する被写体指定部と、
前記主要被写体が前記登録人物と一致する場合には、前記登録人物に対応する前記再生設定データに基づいて前記撮影画像の再生を行う再生制御部と、
を備えることを特徴とする画像処理装置。
A data reading unit that reads an image file in which data of a captured image generated by an electronic camera and associated data indicating a main subject in the captured image specified by the electronic camera based on face recognition processing are associated;
A memory in which reproduction setting data indicating display settings relating to reproduction of the captured image including a registered person is recorded;
A subject designation unit for designating a main subject among subjects of the captured image based on the attached data;
A reproduction control unit that reproduces the captured image based on the reproduction setting data corresponding to the registered person when the main subject matches the registered person;
An image processing apparatus comprising:
電子カメラによって生成された撮影画像のデータと、前記電子カメラが顔認識処理に基づいて指定した前記撮影画像内の主要被写体を示す付属データとを関連付けした画像ファイルを読み込むデータ読込部と、
前記付属データに基づいて、前記撮影画像の被写体のうちから主要被写体を指定する被写体指定部と、
前記撮影画像で指定された前記主要被写体に応じて、前記撮影画像の印刷設定に関する印刷設定データを生成する印刷設定データ生成部と、
を備えることを特徴とする画像処理装置。
A data reading unit that reads an image file in which data of a captured image generated by an electronic camera and associated data indicating a main subject in the captured image specified by the electronic camera based on face recognition processing are associated;
A subject designation unit for designating a main subject among subjects of the captured image based on the attached data;
A print setting data generation unit that generates print setting data related to print settings of the captured image according to the main subject specified in the captured image;
An image processing apparatus comprising:
電子カメラによって生成された撮影画像のデータと、前記電子カメラが顔認識処理に基づいて指定した前記撮影画像内の主要被写体を示す付属データとを関連付けした画像ファイルを読み込むデータ読込部と、
登録人物に対するデータ通信に用いるアドレスデータを記録したメモリと、
前記付属データに基づいて、前記撮影画像の被写体のうちから主要被写体を指定する被写体指定部と、
前記主要被写体が前記登録人物と一致する場合には、前記主要被写体に対応する前記アドレスデータを前記撮影画像のデータに関連付けする制御部と、
を備えることを特徴とする画像処理装置。
A data reading unit that reads an image file in which data of a captured image generated by an electronic camera and associated data indicating a main subject in the captured image specified by the electronic camera based on face recognition processing are associated;
A memory in which address data used for data communication with a registered person is recorded;
A subject designation unit for designating a main subject among subjects of the captured image based on the attached data;
A control unit that associates the address data corresponding to the main subject with data of the captured image when the main subject matches the registered person;
An image processing apparatus comprising:
人物とともに人物以外の被写体を認証する認証手段と、
前記被写体を認証するために前記認証手段が用いる認証データを登録する登録手段と、
前記人物以外の被写体に関する認証データを、人物に関する認証データとともにグループ化して登録する登録制御手段と、
を備えることを特徴とする電子カメラ。
An authentication means for authenticating a subject other than a person together with a person;
Registration means for registering authentication data used by the authentication means to authenticate the subject;
Registration control means for registering authentication data related to a subject other than the person together with authentication data related to the person;
An electronic camera comprising:
請求項25に記載の電子カメラにおいて、
前記人物以外の被写体は、動物であることを特徴とする電子カメラ。


The electronic camera according to claim 25,
An electronic camera, wherein the subject other than the person is an animal.


JP2006109008A 2006-04-11 2006-04-11 Electronic camera and image processing apparatus Pending JP2007282119A (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2006109008A JP2007282119A (en) 2006-04-11 2006-04-11 Electronic camera and image processing apparatus
US11/783,198 US8306280B2 (en) 2006-04-11 2007-04-06 Electronic camera and image processing apparatus
EP12189992.6A EP2552101A3 (en) 2006-04-11 2007-04-10 Electronic camera and image processing apparatus
EP12190013.8A EP2552102A3 (en) 2006-04-11 2007-04-10 Electronic camera and image processing apparatus
EP12190049.2A EP2552104A3 (en) 2006-04-11 2007-04-10 Electronic camera and image processing apparatus
EP20070105899 EP1845711A3 (en) 2006-04-11 2007-04-10 Electronic camera and image processing apparatus
EP12190016.1A EP2552103A3 (en) 2006-04-11 2007-04-10 Electronic camera and image processing apparatus
US13/632,482 US20130027536A1 (en) 2006-04-11 2012-10-01 Electronic Camera and Image Processing Apparatus
US14/792,240 US9485415B2 (en) 2006-04-11 2015-07-06 Electronic camera and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006109008A JP2007282119A (en) 2006-04-11 2006-04-11 Electronic camera and image processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010024418A Division JP2010104061A (en) 2010-02-05 2010-02-05 Electronic camera and image processing apparatus

Publications (1)

Publication Number Publication Date
JP2007282119A true JP2007282119A (en) 2007-10-25

Family

ID=38683077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006109008A Pending JP2007282119A (en) 2006-04-11 2006-04-11 Electronic camera and image processing apparatus

Country Status (1)

Country Link
JP (1) JP2007282119A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
JP2010009228A (en) * 2008-06-25 2010-01-14 Canon Inc Image processor, image processing method, computer program, and storage medium
WO2010018669A1 (en) 2008-08-11 2010-02-18 オムロン株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
JP2011504266A (en) * 2007-11-12 2011-02-03 クゥアルコム・インコーポレイテッド Block-based image stabilization
JP2011023823A (en) * 2009-07-13 2011-02-03 Canon Inc Apparatus and method for processing image
JP2011041096A (en) * 2009-08-14 2011-02-24 Nec Corp Mobile terminal, method of controlling sound collection used for the same, and program
US8068137B2 (en) 2007-12-11 2011-11-29 Canon Kabushiki Kaisha Image processing apparatus, control method, and storage medium
US8107806B2 (en) 2009-08-18 2012-01-31 Canon Kabushiki Kaisha Focus adjustment apparatus and focus adjustment method
KR101130775B1 (en) * 2008-09-09 2012-03-28 가시오게산키 가부시키가이샤 Image capturing apparatus, method of determining presence or absence of image area, and recording medium
US8396351B2 (en) 2008-11-12 2013-03-12 Sony Corporation Information processing apparatus, information processing method, information processing program and imaging apparatus
JP2013085291A (en) * 2012-12-28 2013-05-09 Canon Inc Image processing apparatus and image processing method
JP2014033305A (en) * 2012-08-02 2014-02-20 Nikon Corp Image processing apparatus, imaging apparatus, and image processing program
JP5482654B2 (en) * 2008-07-17 2014-05-07 日本電気株式会社 Imaging apparatus, imaging method, and program
JP2014235556A (en) * 2013-05-31 2014-12-15 株式会社ニコン Image process program
KR101474304B1 (en) 2008-07-24 2014-12-18 삼성전자주식회사 Method for controlling the digital image processing apparatus and the digital image processing apparatus of operating by the method
US8989504B2 (en) 2011-09-28 2015-03-24 Casio Computer Co., Ltd. Image processing device that renews identification information of specific subject
WO2019163576A1 (en) * 2018-02-26 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program
JP2022518276A (en) * 2019-01-25 2022-03-14 北京字節跳動網絡技術有限公司 Image processing method and equipment for animal face

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001230965A (en) * 2000-02-18 2001-08-24 Toshiba Corp Image pickup device
JP2002008031A (en) * 2000-06-16 2002-01-11 Canon Inc Pattern detection method and device, and image processing device and method
JP2002077592A (en) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd Image processing method
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2004070229A (en) * 2002-08-09 2004-03-04 Canon Inc Camera, photographing method with camera and storage medium
JP2004120576A (en) * 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd Digital camera
JP2004222118A (en) * 2003-01-17 2004-08-05 Omron Corp Photographing equipment
JP2004246456A (en) * 2003-02-12 2004-09-02 Omron Corp Apparatus and method for image editing
JP2004320285A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2004320284A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2004336466A (en) * 2003-05-08 2004-11-25 Canon Inc Method for registering metadata
JP2005203865A (en) * 2004-01-13 2005-07-28 Konica Minolta Photo Imaging Inc Image processing system
JP2005341017A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2005341016A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2006012062A (en) * 2004-06-29 2006-01-12 Canon Inc Image processor and its method, program and imaging device
JP2006094059A (en) * 2004-09-22 2006-04-06 Nikon Corp Imaging apparatus and program

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001230965A (en) * 2000-02-18 2001-08-24 Toshiba Corp Image pickup device
JP2002077592A (en) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd Image processing method
JP2002008031A (en) * 2000-06-16 2002-01-11 Canon Inc Pattern detection method and device, and image processing device and method
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP2004070229A (en) * 2002-08-09 2004-03-04 Canon Inc Camera, photographing method with camera and storage medium
JP2004120576A (en) * 2002-09-27 2004-04-15 Fuji Photo Film Co Ltd Digital camera
JP2004222118A (en) * 2003-01-17 2004-08-05 Omron Corp Photographing equipment
JP2004246456A (en) * 2003-02-12 2004-09-02 Omron Corp Apparatus and method for image editing
JP2004320285A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2004320284A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2004336466A (en) * 2003-05-08 2004-11-25 Canon Inc Method for registering metadata
JP2005203865A (en) * 2004-01-13 2005-07-28 Konica Minolta Photo Imaging Inc Image processing system
JP2005341017A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2005341016A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2006012062A (en) * 2004-06-29 2006-01-12 Canon Inc Image processor and its method, program and imaging device
JP2006094059A (en) * 2004-09-22 2006-04-06 Nikon Corp Imaging apparatus and program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118009A (en) * 2007-11-02 2009-05-28 Sony Corp Imaging apparatus, method for controlling same, and program
US8384792B2 (en) 2007-11-02 2013-02-26 Sony Corporation Imaging apparatus, method for controlling the same, and program
JP2011504266A (en) * 2007-11-12 2011-02-03 クゥアルコム・インコーポレイテッド Block-based image stabilization
US8600189B2 (en) 2007-11-12 2013-12-03 Qualcomm Incorporated Block-based image stabilization
US8068137B2 (en) 2007-12-11 2011-11-29 Canon Kabushiki Kaisha Image processing apparatus, control method, and storage medium
JP2010009228A (en) * 2008-06-25 2010-01-14 Canon Inc Image processor, image processing method, computer program, and storage medium
US8630503B2 (en) 2008-06-25 2014-01-14 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and computer program
JP5482654B2 (en) * 2008-07-17 2014-05-07 日本電気株式会社 Imaging apparatus, imaging method, and program
KR101474304B1 (en) 2008-07-24 2014-12-18 삼성전자주식회사 Method for controlling the digital image processing apparatus and the digital image processing apparatus of operating by the method
WO2010018669A1 (en) 2008-08-11 2010-02-18 オムロン株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
US8774456B2 (en) 2008-08-11 2014-07-08 Omron Corporation Detective information registration device and target object detection device for detecting an object in an image
EP2892027A1 (en) 2008-08-11 2015-07-08 Omron Corporation Detective information registration device, method of controlling detective information registration device and control program for detective information registration device
KR101130775B1 (en) * 2008-09-09 2012-03-28 가시오게산키 가부시키가이샤 Image capturing apparatus, method of determining presence or absence of image area, and recording medium
US8396351B2 (en) 2008-11-12 2013-03-12 Sony Corporation Information processing apparatus, information processing method, information processing program and imaging apparatus
US8350954B2 (en) 2009-07-13 2013-01-08 Canon Kabushiki Kaisha Image processing apparatus and image processing method with deconvolution processing for image blur correction
JP2011023823A (en) * 2009-07-13 2011-02-03 Canon Inc Apparatus and method for processing image
JP2011041096A (en) * 2009-08-14 2011-02-24 Nec Corp Mobile terminal, method of controlling sound collection used for the same, and program
US8107806B2 (en) 2009-08-18 2012-01-31 Canon Kabushiki Kaisha Focus adjustment apparatus and focus adjustment method
US8989504B2 (en) 2011-09-28 2015-03-24 Casio Computer Co., Ltd. Image processing device that renews identification information of specific subject
JP2014033305A (en) * 2012-08-02 2014-02-20 Nikon Corp Image processing apparatus, imaging apparatus, and image processing program
JP2013085291A (en) * 2012-12-28 2013-05-09 Canon Inc Image processing apparatus and image processing method
JP2014235556A (en) * 2013-05-31 2014-12-15 株式会社ニコン Image process program
WO2019163576A1 (en) * 2018-02-26 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program
US11430204B2 (en) 2018-02-26 2022-08-30 Sony Corporation Information processing device, information processing method, and program
JP2022518276A (en) * 2019-01-25 2022-03-14 北京字節跳動網絡技術有限公司 Image processing method and equipment for animal face
JP7383714B2 (en) 2019-01-25 2023-11-20 北京字節跳動網絡技術有限公司 Image processing method and device for animal faces

Similar Documents

Publication Publication Date Title
JP2007282119A (en) Electronic camera and image processing apparatus
US9485415B2 (en) Electronic camera and image processing apparatus
JP5239126B2 (en) Electronic camera
JP4888191B2 (en) Imaging device
JP4574459B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
JP2007282118A (en) Electronic camera and image processing apparatus
JP2007281760A (en) Electronic camera
JP2007281646A (en) Electronic camera
JP2011182252A (en) Imaging device, and image imaging method
JP2009094946A (en) Image pickup device and portrait right protection method in the same device
JP2007281647A (en) Electronic camera and image processing apparatus
JP2007188126A (en) Image brightness calculation device, method, and program
JP2009089220A (en) Imaging apparatus
JP5104595B2 (en) Imaging device
JP2010104061A (en) Electronic camera and image processing apparatus
JP2009290260A (en) Photographing apparatus, control method therefor and program
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2017192114A (en) Image processing apparatus and image processing method, program, and storage medium
JP2007208355A (en) Photographing device, method, and program
JP2008258830A (en) Image processing apparatus, imaging apparatus, and program
JP6602093B2 (en) Imaging apparatus, imaging method, imaging system, and program
JP5408288B2 (en) Electronic camera
JP4773924B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2008271181A (en) Imaging apparatus and imaging method, reproducing device and reproducing method, and imaged image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100720