JP2013141104A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2013141104A
JP2013141104A JP2011290243A JP2011290243A JP2013141104A JP 2013141104 A JP2013141104 A JP 2013141104A JP 2011290243 A JP2011290243 A JP 2011290243A JP 2011290243 A JP2011290243 A JP 2011290243A JP 2013141104 A JP2013141104 A JP 2013141104A
Authority
JP
Japan
Prior art keywords
face
image
unit
correction
eyelid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011290243A
Other languages
Japanese (ja)
Inventor
Yasuyuki Kojima
康行 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011290243A priority Critical patent/JP2013141104A/en
Publication of JP2013141104A publication Critical patent/JP2013141104A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • Y02P70/54

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of simply correcting an image of a face with closed eyelids into an image of a face with opened eyelids without much time and labor.SOLUTION: An imaging apparatus includes an imaging element, a face detection section, a face recognition section, a determination section, a collation section, an extraction section, and a correction section. The imaging element picks up an image of a subject and generates an image. The face detection section detects the area of a face from the image. The face recognition section recognizes features for identifying the face from the area of the face. The determination section determines the opening/closing state of eyelids within the area of the face on the basis of the recognition result of the face recognition section. The collation section searches for another image recorded in a memory when the determination section determines that the eyelids are closed, and collates whether the face with the opened eyelids in the same subject exists or not. The extraction section extracts at least the area of eyes of the face with the opened eyelids when the face with the opened eyelids in the same subject is collated by the collation section. The correction section performs correction processing by allowing an extraction area extracted by the extraction section to be applied to the image of the face with the closed eyelids.

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来、撮像装置の一種である電子カメラでの撮影では、撮影の瞬間に被写体である人物が瞼を閉じてしまうために、瞼を閉じた人物の撮影画像が生成してしまうことがある。   Conventionally, in photographing with an electronic camera which is a kind of imaging apparatus, a person who is a subject closes his eyelid at the moment of photographing, so that a photographed image of the person who closed the eyelid may be generated.

そこで、目の画像を多数保存するデータベースを用いて、そのデータベースから目の画像を選択し、閉じた瞼の領域を所望の目の画像に修正する方法が提案されている(例えば、特許文献1参照)。   Therefore, a method has been proposed in which a database that stores a large number of eye images is used, eye images are selected from the database, and the closed eyelid region is corrected to a desired eye image (for example, Patent Document 1). reference).

特開2001−197296号公報JP 2001-197296 A

しかしながら、特許文献1の技術では、例えば、オペレータに修正する目を選択入力させて、同一人物の目を修正している。そのため、オペレータが合致する目を判断するのに手間がかかるおそれが生じる。   However, in the technique of Patent Document 1, for example, an eye to be corrected is selectively input by an operator to correct the eyes of the same person. Therefore, it may take time for the operator to determine matching eyes.

そこで、本発明は、上記事情に鑑み、手間をかけずに簡単にして、瞼を閉じている顔の画像から瞼を開いている顔の画像に修正できる撮像装置を提供することを目的とする。   SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide an imaging apparatus that can easily and easily correct an image of a face with a closed eyelid to an image of a face with an open eyelid without taking time and effort. .

第1の発明に係る撮像装置は、撮像素子と、顔検出部と、顔認識部と、判断部と、照合部と、抽出部と、修正部とを備える。撮像素子は、被写体の像を撮像し、画像を生成する。顔検出部は、画像を解析して画像の中から顔の領域を検出する。顔認識部は、顔を識別する特徴を顔の領域から認識する。判断部は、顔認識部の認識結果に基づいて、顔の領域内の瞼の開閉状態を判断する。照合部は、判断部により瞼を閉じていると判断された場合、メモリに記録されている他の画像を検索し、同一被写体でかつ瞼を開いている顔が存在するか否かを照合する。抽出部は、照合部が、同一被写体でかつ瞼を開いている顔を照合した場合、瞼を開いている顔の目の領域を少なくとも抽出する。修正部は、抽出部が抽出した抽出領域を、瞼を閉じている顔の画像に適合させて修正処理を行なう。   An imaging apparatus according to a first invention includes an imaging element, a face detection unit, a face recognition unit, a determination unit, a collation unit, an extraction unit, and a correction unit. The imaging element captures an image of a subject and generates an image. The face detection unit analyzes the image and detects a face region from the image. The face recognition unit recognizes a feature for identifying the face from the face area. The determination unit determines the open / close state of the eyelid in the face region based on the recognition result of the face recognition unit. When the determination unit determines that the eyelid is closed, the verification unit searches other images recorded in the memory to verify whether there is a face that is the same subject and has the eyelid open. . The extraction unit extracts at least an eye area of the face with the eyelid open when the matching unit collates faces with the same subject and with the eyelid open. The correction unit performs correction processing by adapting the extraction region extracted by the extraction unit to the face image with the eyelid closed.

第2の発明は、第1の発明において、修正部は、抽出領域を拡大又は縮小することにより、瞼を閉じている顔の画像に適合させて修正処理を行なう。   In a second aspect based on the first aspect, the correction unit performs the correction process by adapting to the face image with the eyelid closed by enlarging or reducing the extraction region.

第3の発明は、第1の発明において、傾き検出部をさらに備える。傾き検出部は、顔の傾きを検出する。傾き検出部は、傾きを補正する傾き補正角度を算出し、修正部は、その傾き補正角度に基づいて、抽出領域を、瞼を閉じている顔の画像に適合させて修正処理を行なう。   In a third aspect based on the first aspect, the apparatus further comprises an inclination detection unit. The tilt detection unit detects the tilt of the face. The inclination detection unit calculates an inclination correction angle for correcting the inclination, and the correction unit performs correction processing by adapting the extraction region to the face image with the eyelid closed based on the inclination correction angle.

第4の発明は、第1の発明において、輝度解析部をさらに備える。輝度解析部は、画像の輝度分布を解析する。修正部は、輝度解析部の解析結果に基づいて、抽出領域の明るさを、瞼を閉じている顔の明るさに適合させて修正処理を行なう。   In a fourth aspect based on the first aspect, the apparatus further comprises a luminance analysis unit. The luminance analysis unit analyzes the luminance distribution of the image. The correction unit performs correction processing by adapting the brightness of the extraction region to the brightness of the face with the eyelid closed based on the analysis result of the luminance analysis unit.

第5の発明は、第1から第4の発明の何れかにおいて、データベースをさらに備える。データベースは、修正部が修正処理した画像と特徴を示す特徴情報とを関連付けて登録する。照合部は、判断部により瞼を閉じていると判断された場合、データベースを検索し、同一被写体でかつ瞼を開いている顔が存在するか否かを特徴情報に基づいて照合する。   A fifth invention further comprises a database according to any one of the first to fourth inventions. The database registers the image corrected by the correction unit and the feature information indicating the feature in association with each other. When the determination unit determines that the eyelid is closed, the verification unit searches the database and verifies whether there is a face that is the same subject and has the eyelid open based on the feature information.

第6の発明は、第1から第5の発明の何れかにおいて、顔検出部が複数の顔を検出した場合、顔認識部と、判断部と、照合部と、抽出部と、修正部とは、顔別に処理をそれぞれ行なう。   In a sixth aspect based on any one of the first to fifth aspects, when the face detection unit detects a plurality of faces, a face recognition unit, a determination unit, a collation unit, an extraction unit, a correction unit, Performs processing for each face.

第7の発明は、第1から第5の発明の何れかにおいて、顔は、人物の顔である。   In a seventh aspect based on any one of the first to fifth aspects, the face is a human face.

本発明は、手間をかけず簡単にして、瞼を閉じている顔の画像から瞼を開いている顔の画像に修正できる撮像装置を提供できる。   INDUSTRIAL APPLICABILITY The present invention can provide an imaging apparatus that can easily and easily correct an image of a face with a closed eyelid to an image of a face with an open eyelid.

本実施形態の電子カメラ1の構成例を説明するブロック図FIG. 2 is a block diagram illustrating a configuration example of the electronic camera 1 of the present embodiment. 自動修正モードの動作の一例を示すフローチャートFlow chart showing an example of operation in automatic correction mode 自動修正モードの処理の流れを模式的に説明する図Diagram explaining the flow of processing in automatic correction mode 傾き補正処理の流れを模式的に説明する図A diagram for schematically explaining the flow of tilt correction processing 明るさ補正処理を模式的に説明する図The figure which illustrates brightness correction processing typically 第1変形例を説明する図The figure explaining the 1st modification 第2変形例を説明する図The figure explaining the 2nd modification

以下、図面に基づいて本発明の実施の形態を詳細に説明する。ここでは、本発明の撮像装置の一実施形態である電子カメラを例に取り上げて説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, an electronic camera which is an embodiment of the imaging apparatus of the present invention will be described as an example.

図1は、本実施形態の電子カメラ1の構成例を説明するブロック図である。ここで、本実施形態の電子カメラ1は、瞼を閉じている顔の画像(以下「瞼を閉じた画像」という。)から瞼を開いている顔の画像(以下「瞼を開いた画像」という。)に自動的に修正するモード(以下「自動修正モード」という。)を有する。自動修正モードの具体的な内容については、後述する。なお、瞼を閉じた画像は、慣用的に目を閉じた画像と表現し、瞼を開いた画像は、慣用的に目を開いた画像と表現しても良い。   FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 1 according to the present embodiment. Here, the electronic camera 1 of the present embodiment uses a face image (hereinafter, “image with the eyelids opened”) from a face image with the eyelids closed (hereinafter referred to as “image with the eyelids closed”). Mode) (hereinafter referred to as “automatic correction mode”). Specific contents of the automatic correction mode will be described later. An image with the eyelid closed may be expressed as an image with the eyes closed conventionally, and an image with the eyelid open may be expressed with an image with the eyes open conventionally.

電子カメラ1は、図1に示す通り、撮影光学系10と、撮像素子11と、信号処理部12と、RAM(Random Access Memory)13と、画像処理部14と、フラッシュメモリ15と、表示モニタ16と、記録インターフェース部(以下「記録I/F部」という。)17と、操作部18と、レリーズ釦19と、CPU20と、バス28とを備える。   As shown in FIG. 1, the electronic camera 1 includes a photographing optical system 10, an image sensor 11, a signal processing unit 12, a RAM (Random Access Memory) 13, an image processing unit 14, a flash memory 15, and a display monitor. 16, a recording interface unit (hereinafter referred to as “recording I / F unit”) 17, an operation unit 18, a release button 19, a CPU 20, and a bus 28.

このうち、信号処理部12、RAM13、画像処理部14、フラッシュメモリ15、記録I/F部17、表示モニタ16及びCPU20は、バス21を介して互いに接続されている。   Among these, the signal processing unit 12, the RAM 13, the image processing unit 14, the flash memory 15, the recording I / F unit 17, the display monitor 16, and the CPU 20 are connected to each other via a bus 21.

撮影光学系10は、ズームレンズと、フォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮影光学系10を1枚のレンズとして図示する。   The photographing optical system 10 includes a plurality of lens groups including a zoom lens and a focus lens. For the sake of simplicity, FIG. 1 shows the photographing optical system 10 as a single lens.

撮像素子11は、被写体の像を撮像し、アナログの画像信号(画像)を生成する。そして、撮像素子11が出力するアナログの画像信号は、信号処理部12に入力される。なお、撮像素子11の撮像面には、R(赤)、G(緑)B(青)の3種類のカラーフィルタが例えばベイヤー配列で配置されている。また、撮像素子11の電荷蓄積時間及び画像信号の読み出しは、タイミングジェネレータ(不図示)によって制御される。   The image sensor 11 captures an image of a subject and generates an analog image signal (image). The analog image signal output from the image sensor 11 is input to the signal processing unit 12. Note that three types of color filters of R (red), G (green), and B (blue) are arranged on the imaging surface of the imaging device 11 in, for example, a Bayer array. Further, the charge accumulation time of the image sensor 11 and the reading of the image signal are controlled by a timing generator (not shown).

ここで、撮像素子11は、電子カメラの撮影モードにおいて、レリーズ釦19の全押し操作に応答して記録用の撮影画像を撮像する。また、撮像素子11は、撮影待機時にも所定間隔毎に構図確認用の画像(スルー画像)を連続的に撮像する。   Here, the imaging device 11 captures a recording image for recording in response to a full pressing operation of the release button 19 in the imaging mode of the electronic camera. In addition, the image sensor 11 continuously captures images for composition confirmation (through images) at predetermined intervals even during standby for shooting.

なお、撮像素子11は、CCD(Charge Coupled Device)型、又は、CMOS(Complementary Metal−Oxide Semiconductor)型のイメージセンサである。   The imaging device 11 is a CCD (Charge Coupled Device) type or CMOS (Complementary Metal-Oxide Semiconductor) type image sensor.

信号処理部12は、撮像素子11が出力する画像信号に対してアナログ信号処理を施すアナログフロントエンド回路(AFE)と、そのAFEでアナログ信号処理が施された画像信号に対して、デジタル信号処理を施すデジタルフロントエンド回路(DFE)とを有する。信号処理部12のAFEは、アナログの画像信号に対して相関二重サンプリングやゲイン調整をした後、アナログの画像信号をデジタルの画像信号に変換する(A/D変換)処理等を行なう。ここで、信号処理部12のAFEは、画像信号のゲインを調整することで、ISO感度に相当する撮像感度を調整できる。   The signal processing unit 12 performs an analog front end circuit (AFE) that performs analog signal processing on an image signal output from the image sensor 11, and performs digital signal processing on the image signal that has been subjected to analog signal processing by the AFE. A digital front-end circuit (DFE). The AFE of the signal processing unit 12 performs correlated double sampling and gain adjustment on the analog image signal, and then performs a process of converting the analog image signal into a digital image signal (A / D conversion). Here, the AFE of the signal processing unit 12 can adjust the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal.

また、信号処理部12のDFEは、A/D変換されたデジタルの画像信号の修正処理等を行なう。この信号処理部12が出力する画像信号は、RGB信号の画像データとしてRAM13に一時的に記録される。RAM13は、画像データを一時的に記録するバッファメモリである。   Further, the DFE of the signal processing unit 12 performs a correction process on the digital image signal after A / D conversion. The image signal output from the signal processing unit 12 is temporarily recorded in the RAM 13 as image data of RGB signals. The RAM 13 is a buffer memory that temporarily records image data.

画像処理部14は、RAM13に記録されている画像データを読み出し、必要に応じて各種の画像処理(例えば、ホワイトバランス処理、色補間処理、階調変換処理、輪郭強調処理等)を施す。   The image processing unit 14 reads out the image data recorded in the RAM 13 and performs various image processing (for example, white balance processing, color interpolation processing, gradation conversion processing, contour enhancement processing, etc.) as necessary.

フラッシュメモリ15は、電子カメラ1の制御を行なうプログラム等を予め記憶している不揮発性のメモリである。このフラッシュメモリ15には、自動修正モードを実行するための自動修正モード用プログラムが予め記録されている。また、フラッシュメモリ15は、データベース15aを有する。データベース15aには、自動修正モードで使用する情報テーブルを有する。この情報テーブルの内容の詳細については、図6を用いて後述する。   The flash memory 15 is a non-volatile memory that stores a program for controlling the electronic camera 1 in advance. In the flash memory 15, an automatic correction mode program for executing the automatic correction mode is recorded in advance. The flash memory 15 has a database 15a. The database 15a has an information table used in the automatic correction mode. Details of the contents of this information table will be described later with reference to FIG.

表示モニタ16は、例えば液晶表示媒体により構成される。表示モニタ16は、CPU20の指示に応じて各種画像や電子カメラ1の操作メニュー等を表示する。   The display monitor 16 is composed of, for example, a liquid crystal display medium. The display monitor 16 displays various images, an operation menu of the electronic camera 1 and the like according to instructions from the CPU 20.

記録I/F部17には、着脱自在の記録媒体M1を接続するためのコネクタ(不図示)が形成されている。そして、記録I/F部17は、そのコネクタに接続された記録媒体M1にアクセスして画像の記録処理等を行なう。この記録媒体M1は、例えば、不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体M1を示している。   The recording I / F unit 17 is formed with a connector (not shown) for connecting a detachable recording medium M1. The recording I / F unit 17 accesses the recording medium M1 connected to the connector and performs image recording processing and the like. The recording medium M1 is, for example, a nonvolatile memory card. FIG. 1 shows the recording medium M1 after being connected to the connector.

操作部18は、ユーザの操作を受け付ける複数の釦(不図示)を有している。レリーズ釦19は、半押し操作(撮像の準備動作開始)の指示入力と全押し操作(撮像の動作開始)との指示入力とを受け付ける。   The operation unit 18 has a plurality of buttons (not shown) that receive user operations. The release button 19 receives an instruction input for a half-press operation (start of imaging preparation operation) and an instruction input for a full-press operation (start of imaging operation).

CPU20は、各種演算及び電子カメラ1の制御を行なうプロセッサである。CPU20は、フラッシュメモリ15に予め格納されたシーケンスプログラムを実行することにより、電子カメラ1の各部の制御等を行なう。   The CPU 20 is a processor that performs various calculations and control of the electronic camera 1. The CPU 20 controls each part of the electronic camera 1 by executing a sequence program stored in advance in the flash memory 15.

本実施形態では、フラッシュメモリ15内の自動修正モード用プログラムがCPU20に読み込まれる。そして、CPU20は、自動修正モード用プログラムを実行することによって、顔検出部20aと、顔認識部20bと、判断部20cと、照合部20dと、抽出部20eと、傾き検出部20fと、輝度解析部20gと、修正部20hとしても機能する。   In the present embodiment, the automatic correction mode program in the flash memory 15 is read into the CPU 20. Then, the CPU 20 executes the automatic correction mode program, thereby performing the face detection unit 20a, the face recognition unit 20b, the determination unit 20c, the collation unit 20d, the extraction unit 20e, the inclination detection unit 20f, the luminance It also functions as an analysis unit 20g and a correction unit 20h.

顔検出部20aは、画像を解析して画像の中から顔の領域を検出する。具体的には、顔検出部20aは、撮像素子11から出力された記録用の画像データに基づいて色の成分や輝度値を取得する。この場合、顔検出部20aは、肌色成分の領域を特定する等して、顔の領域を検出する。そして、顔検出部20aは、顔領域の画像内の位置情報(位置座標等)を特定する。   The face detection unit 20a analyzes the image and detects a face region from the image. Specifically, the face detection unit 20a acquires color components and luminance values based on the recording image data output from the image sensor 11. In this case, the face detection unit 20a detects the face region by specifying the skin color component region. Then, the face detection unit 20a identifies position information (position coordinates and the like) in the face area image.

顔認識部20bは、顔を識別する特徴を顔の領域から認識する。具体的には、顔認識部20bは、例えば特開2001−16573号公報等に記載された特徴抽出処理によって顔の特徴(特徴部位)を抽出する。特徴部位としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等が挙げられる。そして、顔認識部20bは、顔領域の位置情報を特定する。   The face recognition unit 20b recognizes a feature for identifying a face from the face area. Specifically, the face recognition unit 20b extracts facial features (feature parts) by a feature extraction process described in, for example, Japanese Patent Application Laid-Open No. 2001-16573. Examples of the characteristic part include eyebrow, eye, nose, lip end points, face contour points, head apex, chin lower end point, and the like. Then, the face recognition unit 20b specifies the position information of the face area.

判断部20cは、顔認識部20bの認識結果に基づいて、顔の領域内の瞼の開閉状態を判断する。具体的には、判断部20cは、顔認識部20bの認識した目の領域に対して、例えば、特開2000−235648号公報などに記載された瞬き検出処理によって、瞬きの度合いを検出する。そして、判断部20cは、瞬きの度合いから、瞼の開閉状態を判断する。   The determination unit 20c determines the open / closed state of the eyelids in the face region based on the recognition result of the face recognition unit 20b. Specifically, the determination unit 20c detects the degree of blinking for the eye area recognized by the face recognition unit 20b, for example, by blink detection processing described in Japanese Patent Application Laid-Open No. 2000-235648. Then, the determination unit 20c determines the open / close state of the kite from the degree of blinking.

照合部20dは、判断部20cにより瞼を閉じていると判断された場合、フラッシュメモリ15や記録媒体M1に記録されている他の画像を検索し、同一被写体でかつ瞼を開いている顔が存在するか否かを照合する。照合部20dは、例えば、周知のパターンマッチング処理により照合する。   When the determination unit 20c determines that the eyelid is closed, the collation unit 20d searches for another image recorded in the flash memory 15 or the recording medium M1, and a face with the same subject and the eyelid opened. Check whether it exists. The collation unit 20d performs collation by, for example, a well-known pattern matching process.

ただし、瞼を開いている顔と、瞼を閉じている顔とでは、瞼の開閉状態が異なるので、目の付近のパターンマッチングが一致しなくなる。そのため、照合部20dは、目の領域を除く他の特徴部位のパターンマッチングに基づいて、照合処理を行なう。   However, since the open / closed state of the eyelid is different between the face with the eyelid open and the face with the eyelid closed, the pattern matching near the eyes does not match. Therefore, the collation unit 20d performs a collation process based on pattern matching of other feature parts excluding the eye region.

抽出部20eは、照合部20dが同一被写体でかつ瞼を開いている顔を照合した場合、瞼を開いている顔の目の領域を少なくとも抽出する。具体的には、抽出部20eは、撮影画像の座標に基づいて、目の領域を抽出領域として抽出する。或いは、抽出部20eは、目を含む領域を抽出領域としても良い。ここで、抽出するとは、例えば、その抽出領域を切り出すことを意味する。つまり、本実施形態では、目だけに限らず、目の領域と合わせて眉毛等、他の特徴部位も抽出領域として修正しても良い。   The extraction unit 20e extracts at least the eye region of the face with the eyelid open when the collation unit 20d collates the same subject and the face with the eyelid open. Specifically, the extraction unit 20e extracts the eye area as an extraction area based on the coordinates of the captured image. Or the extraction part 20e is good also considering the area | region containing eyes as an extraction area | region. Here, extracting means, for example, extracting the extraction region. In other words, in the present embodiment, not only the eyes but also other characteristic parts such as eyebrows may be corrected as the extraction region in combination with the eye region.

傾き検出部20fは、画像を解析して、顔の傾きを検出する。輝度解析部20gは、画像の輝度分布を解析する。修正部20hは、抽出部20eが抽出した抽出領域を、瞼を閉じた画像に適合させて修正処理を行なう。傾き検出部20f、輝度解析部20g及び修正部20hの詳細は、動作の説明の際、後述する。   The tilt detection unit 20f analyzes the image and detects the tilt of the face. The luminance analysis unit 20g analyzes the luminance distribution of the image. The correction unit 20h performs correction processing by adapting the extraction region extracted by the extraction unit 20e to an image with the eyelids closed. Details of the inclination detection unit 20f, the luminance analysis unit 20g, and the correction unit 20h will be described later when the operation is described.

次に、本実施形態の電子カメラ1における自動修正モードにおける動作の一例を説明する。   Next, an example of the operation in the automatic correction mode in the electronic camera 1 of the present embodiment will be described.

図2は、自動修正モードの動作の一例を示すフローチャートである。図3は、自動修正モードの処理の流れを模式的に説明する図である。   FIG. 2 is a flowchart showing an example of the operation in the automatic correction mode. FIG. 3 is a diagram schematically illustrating the processing flow in the automatic correction mode.

ここでは、撮影者によりレリーズ釦19の全押し操作がなされ、電子カメラ1が画像を取得したことを前提とする。なお、本実施形態では、説明をわかりやすくするため、今回撮影した画像であって、目の修正処理を行なう画像を撮影画像といい、既に記録媒体M1やフラッシュメモリ15に記録されている撮影画像を単に画像ということがある。図3(a)は、撮影画像の一例を示している。図3(a)では、瞼を閉じた被写体の人物P1が写っている。   Here, it is assumed that the photographer has fully pressed the release button 19 and the electronic camera 1 has acquired an image. In this embodiment, in order to make the explanation easy to understand, an image that has been captured this time and is subjected to eye correction processing is referred to as a captured image, and is a captured image that has already been recorded in the recording medium M1 or the flash memory 15. Is sometimes simply called an image. FIG. 3A shows an example of a captured image. In FIG. 3A, the subject person P1 with the eyelid closed is shown.

そして、図1に示す操作部18が、先ず、自動修正モードの指示入力を受け付けた場合、CPU20は、図2に示すフローの処理を開始させる。なお、説明の便宜上、記録媒体M1には、被写体の顔が写っている画像が既に複数枚記録されていることとする。   When the operation unit 18 illustrated in FIG. 1 first receives an instruction input in the automatic correction mode, the CPU 20 starts the processing of the flow illustrated in FIG. For convenience of explanation, it is assumed that a plurality of images in which the face of the subject is reflected are already recorded on the recording medium M1.

ステップS101:CPU20の顔検出部20aは、顔検出処理を行なう。さらに、CPU20の顔認識部20bは、認識処理を行なう。具体的には、顔検出部20aは、今回撮影された撮影画像の画像データを解析して、肌色成分の領域を特定する等して、顔の領域を検出する。続いて、顔認識部20bは、顔の領域に対して、特徴抽出処理によって顔の特徴部位を抽出する。そして、CPU20は、ステップS102の処理に移行する。   Step S101: The face detection unit 20a of the CPU 20 performs face detection processing. Further, the face recognition unit 20b of the CPU 20 performs recognition processing. Specifically, the face detection unit 20a detects the face area by analyzing the image data of the photographed image taken this time and specifying the skin color component area. Subsequently, the face recognizing unit 20b extracts a feature portion of the face from the face region through feature extraction processing. And CPU20 transfers to the process of step S102.

ステップS102:CPU20の判断部20cは、先ず、瞬き検出処理を行なう。具体的には、判断部20cは、顔認識部20bの認識した目の領域に対して、上述した瞬き検出処理によって、瞬きの度合いを検出する。そして、CPU20は、ステップS103の処理に移行する。   Step S102: The determination unit 20c of the CPU 20 first performs blink detection processing. Specifically, the determination unit 20c detects the degree of blinking for the eye area recognized by the face recognition unit 20b by the blink detection process described above. And CPU20 transfers to the process of step S103.

ステップS103:判断部20cは、瞬きの度合いから、瞼の開閉状態を判断する。すなわち、判断部20cは、瞼を閉じた画像か否かを判断する。瞼を閉じた画像の場合(ステップS103:Yes)、CPU20は、ステップS104の処理に移行する。一方、瞼を開いた画像の場合(ステップS103:No)、CPU20は、修正する必要がないため、図2に示すフローの処理を終了させる。   Step S103: The determination unit 20c determines the open / close state of the kite from the degree of blinking. That is, the determination unit 20c determines whether or not the image is a closed eyelid. In the case of an image with the eyelid closed (step S103: Yes), the CPU 20 proceeds to the process of step S104. On the other hand, in the case of an image with the eyelid opened (step S103: No), the CPU 20 does not need to correct the image, and thus ends the processing of the flow shown in FIG.

ステップS104:CPU20は、記録媒体M1等のメモリを参照し、ステップS104に移行する毎に、前回ステップS104で選択された画像に対して、時系列に1枚前に撮影された画像が有るか否かを判定する。ただし、1番初めにステップS104に移行した場合には、今回撮影された修正対象の撮影画像に対して、1枚前に撮影された画像が有るか否かを判定する。この際、CPU20は、例えば、画像がExif(Exchangeable Image File Format)形式の画像ファイルの場合、ヘッダファイルの撮影日時の情報に基づいて、画像を検索する。   Step S104: The CPU 20 refers to the memory such as the recording medium M1, and whenever there is a transition to Step S104, whether there is an image photographed one time before in time series with respect to the image selected in the previous Step S104. Determine whether or not. However, when the process proceeds to step S104 at the beginning, it is determined whether or not there is an image captured one image before the correction target captured image captured this time. At this time, for example, when the image is an Exif (Exchangeable Image File Format) format image file, the CPU 20 searches for the image based on the shooting date / time information of the header file.

図3(b)は、ステップS104からステップS108の処理を模式的に示している。ここで、1枚前に撮影された画像が有る場合(ステップS104:Yes)、CPU20は、ステップS105の処理に移行する。一方、1枚前に撮影された画像が無い場合(ステップS104:No)、CPU20は、図2に示すフローの処理を終了させる。   FIG. 3B schematically shows the processing from step S104 to step S108. Here, when there is an image photographed immediately before (step S104: Yes), the CPU 20 proceeds to the process of step S105. On the other hand, when there is no image taken immediately before (step S104: No), the CPU 20 ends the processing of the flow shown in FIG.

ステップS105:CPU20の照合部20dは、照合処理を行なう。具体的には、照合部20dは、撮像画像から顔認識部20bが認識した顔と、記録媒体M1に記録されている顔を含む画像とを照合する。そして、照合部20dは、目の領域を除く他の特徴部位のパターンマッチングに基づいて、照合処理を行なう。そして、CPU20は、ステップS106の処理に移行する。   Step S105: The collation unit 20d of the CPU 20 performs collation processing. Specifically, the collation unit 20d collates the face recognized by the face recognition unit 20b from the captured image and an image including the face recorded on the recording medium M1. And the collation part 20d performs a collation process based on the pattern matching of the other characteristic site | parts except the area | region of an eye. And CPU20 transfers to the process of step S106.

ステップS106:ここで、瞼を開いている同一人物の画像を照合できた場合(ステップS106:Yes)、CPU20は、ステップS107の処理に移行する。一方、目の開いている同一人物の画像を照合できなかった場合(ステップS106:No)、ステップS104の処理に戻る。   Step S106: If the image of the same person who has opened the eyelids can be collated (step S106: Yes), the CPU 20 proceeds to the process of step S107. On the other hand, when the images of the same person with open eyes could not be collated (step S106: No), the process returns to step S104.

ステップS107:CPU20の抽出部20eは、抽出処理を行なう。具体的には、抽出部20eは、照合部20dが照合した画像に基づいて、瞼を開いている顔の目の領域を含む抽出領域を抽出する。   Step S107: The extraction unit 20e of the CPU 20 performs an extraction process. Specifically, the extraction unit 20e extracts an extraction region including the eye region of the face with the eyelid open based on the image collated by the collation unit 20d.

ステップS108:CPU20の修正部20hは、修正処理を行なう。具体的には、修正部20hは、先ず、撮影画像に対して顔の目の領域と推定される箇所を抽出領域で置換する修正処理を行なう。ここで、修正部20hは、必要に応じて、拡大縮小処理、傾き補正処理、明るさ補正処理の内で少なくとも1つを選択して修正処理を行なう。   Step S108: The correction unit 20h of the CPU 20 performs a correction process. Specifically, the correction unit 20h first performs a correction process for replacing a portion estimated as a face eye region with an extraction region on a captured image. Here, the correction unit 20h performs correction processing by selecting at least one of enlargement / reduction processing, tilt correction processing, and brightness correction processing as necessary.

(1)拡大縮小処理
修正部20hは、抽出領域を拡大又は縮小することにより、瞼を閉じた画像に適合させて修正処理を行なう。具体的には、図3に示す通り、修正部20hは、一例として、撮影画像の顔の輪郭(第1輪郭)と照合部20dが照合した画像の顔の輪郭(第2輪郭)とが一致するように、第2輪郭を拡大又は縮小する。これにより、抽出領域(目の領域)が、撮影画像の目の領域に対して誤差の許容範囲内で一致することになる。そして、修正部20hは、撮影画像に対して顔の目の領域と推定される箇所を抽出領域で置換する。これにより、修正部20hは、撮影画像の顔のサイズと、照合部20dが照合した画像の顔のサイズとが異なっていても、抽出領域を拡大又は縮小することにより、目の領域のサイズを補正した上で、瞼を閉じた画像から瞼を開いた画像に修正することができる。
(1) Enlarging / Reducing Process The correcting unit 20h performs a correcting process by adapting the image with the eyelid closed by enlarging or reducing the extraction area. Specifically, as illustrated in FIG. 3, for example, the correction unit 20 h matches the facial contour (first contour) of the captured image with the facial contour (second contour) of the image collated by the collating unit 20 d. In this way, the second contour is enlarged or reduced. As a result, the extraction region (eye region) matches the eye region of the captured image within an allowable range of errors. Then, the correction unit 20h replaces the portion estimated as the face eye region with the extracted region in the captured image. As a result, the correction unit 20h increases the size of the eye region by enlarging or reducing the extraction region even if the face size of the captured image is different from the face size of the image collated by the collation unit 20d. After correction, it is possible to correct the image with the eyelid closed from the image with the eyelid closed.

(2)傾き補正処理
図4は、傾き補正処理の流れを模式的に説明する図である。図4(a)は、顔の傾きを例示する図である。本実施形態では、例えば、照合部20dが照合した画像内の顔が、撮影画面内で傾いている場合がある。そこで、CPU20の傾き検出部20fは、顔の傾きを検出する。図4(b)は、顔の傾きの検出方法を例示する図である。傾き検出部20fは、図4(b)に示す通り、照合部20dが照合した画像の輪郭を楕円形とみなして、その楕円形の長軸を中心線(L1)として求める。傾き検出部20fは、画像内のXY座標において、Y軸方向の垂線(L2)と中心線(L1)とがなす角度θを算出する。傾き検出部20fは、角度θが0度であれば、顔の傾きは生じていないと判定する。一方、傾き検出部20fは、角度θが例えば時計回りに45度であれば、顔が傾いていると判定する。ここで、本実施形態では、角度θを傾き補正角度とする。
(2) Inclination Correction Process FIG. 4 is a diagram schematically illustrating the flow of the inclination correction process. FIG. 4A illustrates the inclination of the face. In the present embodiment, for example, the face in the image collated by the collation unit 20d may be inclined in the shooting screen. Therefore, the inclination detection unit 20f of the CPU 20 detects the inclination of the face. FIG. 4B is a diagram illustrating a face inclination detection method. As shown in FIG. 4B, the inclination detection unit 20f regards the contour of the image collated by the collation unit 20d as an ellipse, and obtains the major axis of the ellipse as the center line (L1). The inclination detection unit 20f calculates an angle θ formed by the perpendicular line (L2) in the Y-axis direction and the center line (L1) in the XY coordinates in the image. If the angle θ is 0 degree, the inclination detection unit 20f determines that no face inclination has occurred. On the other hand, the inclination detection unit 20f determines that the face is inclined if the angle θ is 45 degrees clockwise, for example. Here, in the present embodiment, the angle θ is an inclination correction angle.

図4(c)は、傾きの補正を例示する図である。修正部20hは、傾き補正角度に基づいて、傾きを補正した上で、抽出領域を、瞼を閉じた画像に適合させて修正処理を行なう。これにより、修正部20hは、目の領域の傾きを補正した上で、瞼を閉じた画像から瞼を開いた画像に修正することができる。   FIG. 4C is a diagram exemplifying inclination correction. The correction unit 20h corrects the inclination based on the inclination correction angle, and performs the correction process by adapting the extraction region to the image with the eyelids closed. Thereby, the correction unit 20h can correct the inclination of the eye region and correct the image with the eyelid closed to the image with the eyelid closed.

(3)明るさ補正処理
図5は、明るさ補正処理を模式的に説明する図である。図5(a)は、太陽S1による晴天環境下で人物P1を撮影したことを模式的に示している。図5(b)は、照明S2による室内照明下で人物P1を撮影したことを模式的に示している。
(3) Brightness Correction Process FIG. 5 is a diagram schematically illustrating the brightness correction process. FIG. 5A schematically shows that the person P1 is photographed in a clear sky environment by the sun S1. FIG. 5B schematically shows that the person P1 is photographed under room lighting by the lighting S2.

本実施形態では、図5(a)、(b)に示す通り、例えば、撮影画像が晴天環境下で今回撮影され、照合部20dが照合した画像が室内環境下で過去に撮影された場合が起こり得る。この場合、顔の明るさも異なることになる。そこで、輝度解析部20gは、両方の画像の輝度を解析する。抽出部20eは、照合部20dが照合した画像から目を含む領域を抽出する(図5(c)参照)。そして、修正部20hは、抽出領域の目の周辺部分の明るさを、撮影画像の顔の明るさに適合させて修正処理を行なう(図5(d)参照)。これにより、修正部20hは、顔の明るさも考慮して修正処理をすることができる。修正部20hによる修正処理が終了すると、CPU20は、ステップS109の処理に移行する。   In the present embodiment, as shown in FIGS. 5A and 5B, for example, a captured image may be captured this time in a clear sky environment, and an image verified by the verification unit 20d may be captured in the past in an indoor environment. Can happen. In this case, the brightness of the face is also different. Therefore, the luminance analysis unit 20g analyzes the luminance of both images. The extraction unit 20e extracts a region including the eyes from the image collated by the collation unit 20d (see FIG. 5C). Then, the correction unit 20h performs correction processing by adapting the brightness of the peripheral portion of the eye of the extraction region to the brightness of the face of the captured image (see FIG. 5D). Thereby, the correction unit 20h can perform the correction process in consideration of the brightness of the face. When the correction process by the correction unit 20h ends, the CPU 20 proceeds to the process of step S109.

ステップS109:CPU20は、修正処理した撮影画像の良否を判定する。CPU20は、例えば、照合部20dが照合した顔の画像の解像度が、撮影画像と比較して著しく低い場合(所定の閾値以下)等、撮影画像として否と判定し、他の画像を検索することとする。そのため、修正処理した撮影画像の判定結果が否であれば(ステップS109:No)、CPU20は、ステップS104の処理に戻る。一方、修正処理した撮影画像の判定結果が良(OK)であれば(ステップS109:Yes)、CPU20は、ステップS111の処理に移行する。   Step S109: The CPU 20 determines whether the corrected captured image is acceptable. For example, when the resolution of the face image collated by the collation unit 20d is significantly lower than the captured image (below a predetermined threshold value), the CPU 20 determines that the captured image is no and searches for another image. And For this reason, if the determination result of the corrected captured image is negative (step S109: No), the CPU 20 returns to the process of step S104. On the other hand, if the determination result of the corrected captured image is good (OK) (step S109: Yes), the CPU 20 proceeds to the process of step S111.

ステップS110:CPU20は、修正処理した撮影画像を表示モニタ16に表示させる。これは、撮影者に修正処理した撮影画像の良否を判定させるためである。   Step S110: The CPU 20 displays the corrected captured image on the display monitor 16. This is to allow the photographer to determine the quality of the captured image that has been corrected.

ステップS111:CPU20は、修正処理した撮影画像が撮影者にとって良いと判断されるか否かのユーザ入力(選択入力)を受け付ける。修正処理した撮影画像が撮影者にとって良いと判断される旨のユーザ入力を受け付けた場合(ステップS111:Yes)、CPU20は、ステップS112の処理に移行する。一方、修正した撮影画像が撮影者にとって良いと判断されない旨のユーザ入力を受け付けた場合(ステップS111:No)、CPU20は、ステップS113の処理に移行する。   Step S111: The CPU 20 accepts a user input (selection input) as to whether or not the corrected captured image is determined to be good for the photographer. When receiving a user input indicating that the corrected captured image is determined to be good for the photographer (step S111: Yes), the CPU 20 proceeds to the process of step S112. On the other hand, when receiving a user input indicating that the corrected photographed image is not determined to be good for the photographer (step S111: No), the CPU 20 proceeds to the process of step S113.

ステップS112:CPU20は、修正処理された撮影画像の保存処理を行なう。具体的には、CPU20は、記録I/F部17を介して、修正処理された撮影画像を記録媒体M1に記録する。そして、CPU20は、図2に示すフローの処理を終了させる。   Step S112: The CPU 20 performs a saving process for the corrected photographed image. Specifically, the CPU 20 records the corrected captured image on the recording medium M1 via the recording I / F unit 17. Then, the CPU 20 ends the process of the flow shown in FIG.

ステップS113:CPU20は、撮影者から、他の画像を検索するか否かのユーザ入力(選択入力)を受け付ける。他の画像を検索する旨のユーザ入力を受け付けた場合(ステップS113:Yes)、CPU20は、ステップS104の処理に戻る。一方、他の画像を検索しない旨のユーザ入力を受け付けた場合(ステップS113:No)、CPU20は、図2に示すフローの処理を終了させる。   Step S113: The CPU 20 accepts a user input (selection input) as to whether or not to search for another image from the photographer. When receiving a user input for searching for another image (step S113: Yes), the CPU 20 returns to the process of step S104. On the other hand, when the user input indicating that no other image is searched is received (step S113: No), the CPU 20 ends the processing of the flow shown in FIG.

以上より、本実施形態の電子カメラ1は、特許文献1のように、例えば、オペレータに修正する目を選択入力させて、同一人物の目を修正する必要がない。   As described above, the electronic camera 1 according to the present embodiment does not need to correct the eyes of the same person by causing the operator to select and input the eyes to be corrected, as in Patent Document 1, for example.

したがって、電子カメラ1では、手間をかけずに簡単にして、瞼を閉じた画像から瞼を開いた画像に修正できる。   Therefore, in the electronic camera 1, it is possible to easily correct an image with the eyelids closed to an image with the eyelids open without taking time and effort.

つまり、電子カメラ1では、記録媒体M1やフラッシュメモリ15内に撮り貯めた過去の写真(撮影画像)から、同一人物の写真を顔識別処理(顔認証)により探し出す。そして、電子カメラ1では、その探し出した写真から、目を含む領域を抜き出し、色やサイズ(大きさ、角度)を調節し、目を含む領域を置換することにより、撮影者のイメージに近い写真を実現することができる。
(第1変形例)
次に、上記の実施形態の第1変形例について説明する。上記の実施形態では、照合部20dは、記録媒体M1やフラッシュメモリ15に記録されている画像に対して、撮影日時を遡るようにして順次検索した。ここで、第1変形例では、照合部20dは、先ず、データベース15aを検索して照合しても良い。
That is, the electronic camera 1 searches for a photograph of the same person from the past photographs (captured images) taken and stored in the recording medium M1 and the flash memory 15 by face identification processing (face authentication). The electronic camera 1 extracts a region including the eyes from the searched photograph, adjusts the color and size (size, angle), and replaces the region including the eyes, thereby obtaining a photograph close to the photographer's image. Can be realized.
(First modification)
Next, a first modification of the above embodiment will be described. In the above embodiment, the collation unit 20d sequentially searches the images recorded in the recording medium M1 and the flash memory 15 so as to go back to the shooting date and time. Here, in the first modification, the collation unit 20d may first collate by searching the database 15a.

図6は、第1変形例を説明する図である。図6(a)は、撮影画像の一例を示す図である。なお、説明の便宜上、図6(a)の被写体の人物はP1とし、図3(a)に示す同一人物P1の撮影画像より、後に撮影されたこととする。図6(b)は、データベース15aの構成例(情報テーブル)を示す図である。図6(c)は、修正処理後の撮影画像の一例を示す図である。   FIG. 6 is a diagram illustrating a first modification. FIG. 6A is a diagram illustrating an example of a captured image. For convenience of explanation, it is assumed that the person of the subject in FIG. 6A is P1, and is taken after the photographed image of the same person P1 shown in FIG. FIG. 6B is a diagram showing a configuration example (information table) of the database 15a. FIG. 6C is a diagram illustrating an example of a captured image after the correction process.

第1変形例では、図2に示すフローチャートのステップS112の保存処理において、CPU20は、修正処理した撮影画像について、顔認識部20bの特徴抽出処理で抽出した特徴を示す特徴情報(例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等の情報)を人物毎に登録する。さらに、CPU20は、修正処理した撮影画像の保存先のアドレスをデータベースに関連付けておく。図6(b)では、人物(P1、P2、P3)毎にそれぞれ特徴情報A、B、Cが登録されていることを例示している。   In the first modified example, in the storage process in step S112 of the flowchart shown in FIG. 2, the CPU 20 extracts feature information (for example, eyebrows, etc.) indicating the features extracted by the feature extraction process of the face recognition unit 20b with respect to the corrected captured image. (Each eye, nose, lip end point, face outline point, head apex, lower end point of chin, etc.) are registered for each person. Furthermore, the CPU 20 associates the storage destination address of the corrected captured image with the database. FIG. 6B illustrates that feature information A, B, and C are registered for each person (P1, P2, and P3).

これにより、新たな撮影画像(図6(a)参照)が撮影された場合、照合部20dは、データベース15aの特徴情報を参照して、同一被写体の顔を照合する(図6(b)参照)。そして、照合部20dが照合できた場合、抽出部20eは、記録先アドレスを参照して、人物特定した画像から抽出領域を抽出する。さらに、修正部20hは、新たな撮影画像(図6(a)参照)に修正処理を施して、瞼の開いた撮影画像に修正する(図6(c)参照)。   Thereby, when a new photographed image (see FIG. 6A) is photographed, the collation unit 20d refers to the feature information in the database 15a and collates the faces of the same subject (see FIG. 6B). ). Then, when the collation unit 20d has been able to collate, the extraction unit 20e refers to the recording destination address and extracts an extraction region from the person specified image. Furthermore, the correction unit 20h performs a correction process on the new captured image (see FIG. 6A) to correct the captured image with an open eyelid (see FIG. 6C).

したがって、第1変形例では、予め瞼の開いた画像を検索しに行くと共に、データベース15aに登録されている照合用の画像に対しては、顔認識部20bの特徴抽出処理を再度する必要がない分、検索の処理スピードが向上する。
(第2変形例)
次に、上記の実施形態の第2変形例について説明する。上記の実施形態では、撮影画像に一人の人物が存在する場合について例示したが、撮影画像には、複数の人物が存在しても良い。
Therefore, in the first modified example, it is necessary to go to search for an image with the eyelids opened in advance and to perform the feature extraction process of the face recognition unit 20b again on the image for matching registered in the database 15a. As a result, the search processing speed is improved.
(Second modification)
Next, a second modification of the above embodiment will be described. In the above embodiment, the case where one person is present in the photographed image is illustrated, but a plurality of persons may be present in the photographed image.

図7は、第2変形例を説明する図である。図7(a)は、撮影画像の一例を示す。図7(b)は、図7(a)に示す画像に対して修正処理後の撮影画像を示す。
図7(a)では、二人の人物P1、P2が撮影画像に写っている。ここで、顔検出部20aが複数の顔を検出した場合、顔認識部20bと、判断部20cと、照合部20dと、抽出部20eと、修正部20hとは、顔別に処理をそれぞれ行なえば良い。また、必要に応じて、傾き検出部20f、輝度解析部20gも、顔別に処理をそれぞれ行なえば良い。
FIG. 7 is a diagram illustrating a second modification. FIG. 7A shows an example of a captured image. FIG. 7B shows a photographed image after correction processing for the image shown in FIG.
In FIG. 7A, two persons P1 and P2 are shown in the photographed image. Here, when the face detection unit 20a detects a plurality of faces, the face recognition unit 20b, the determination unit 20c, the collation unit 20d, the extraction unit 20e, and the correction unit 20h each perform processing for each face. good. Moreover, the inclination detection unit 20f and the luminance analysis unit 20g may perform processing for each face as necessary.

これにより、第2変形例では、図7(b)に示す通り、複数の人物についても個別に瞼を閉じている顔から瞼を開いている顔に修正することができる。
(補足説明)
(1)上記の実施形態では、本発明の適用可能な撮影装置として、レンズ一体型のコンパクト電子カメラを例示したが、この方式の電子カメラに限られない。本発明の適用可能な撮影装置は、例えば、一眼レフレックスタイプの電子カメラやクイックリターンミラーのないレンズ交換式の電子カメラも含まれる。また、本発明の適用可能な撮影装置は、カメラ機能を備えた携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)も含まれる。
Thereby, in the 2nd modification, as shown in Drawing 7 (b), it can amend about a plurality of persons from the face which closed the eyelid individually to the face which opened the eyelid.
(Supplementary explanation)
(1) In the above embodiment, a lens-integrated compact electronic camera is exemplified as an imaging apparatus to which the present invention can be applied. However, the present invention is not limited to this type of electronic camera. The imaging apparatus to which the present invention can be applied includes, for example, a single-lens reflex type electronic camera and an interchangeable lens type electronic camera without a quick return mirror. The imaging apparatus to which the present invention can be applied also includes a mobile phone having a camera function and a personal digital assistant (PDA).

(2)上記の実施形態では、被写体の顔として人物の顔を例示したが、例えば、ペット等の動物の顔を対象としても良い。この場合、顔検出部20a、顔認識部20bは、公知のペットの顔認識処理を用いて顔検出や特徴抽出処理を行なえば良い。これにより、本発明は、人物の顔に限られず、ペット等の動物にも適用することができる。   (2) In the above embodiment, the face of a person is exemplified as the face of the subject. However, for example, the face of an animal such as a pet may be targeted. In this case, the face detection unit 20a and the face recognition unit 20b may perform face detection and feature extraction processing using a known pet face recognition process. Thereby, this invention is not restricted to a person's face, It can apply also to animals, such as a pet.

(3)上記の実施形態では、瞼を閉じた画像としては、例えば人物P1が完全に瞼を閉じている状態を例示していたが、瞼の開閉度に閾値を設定して、閾値以下の場合、瞼を閉じた画像としても良い。   (3) In the above embodiment, as the image with the heel closed, for example, a state in which the person P1 completely closed the heel is illustrated. In this case, the image may be a closed image.

(4)上記の実施形態では、第1変形例において、CPU20は、修正処理した撮影画像について、顔認識部20bの特徴抽出処理で抽出した特徴情報を人物毎にデータベース15aに登録した。ここで、CPU20は、照合部20dが照合した画像(修正処理の元になる画像)の特徴情報、記録先アドレスをデータベース15aにさらに登録しても良い。   (4) In the above embodiment, in the first modification, the CPU 20 registers the feature information extracted by the feature extraction processing of the face recognition unit 20b in the database 15a for each person for the corrected captured image. Here, the CPU 20 may further register the feature information and the recording destination address of the image collated by the collation unit 20d (image that is the basis of the correction process) in the database 15a.

(5)上記の実施形態では、傾き検出部20fは、図4(b)に示す通り、照合部20dが照合した画像について、顔の傾きを検出したが、撮影画像の顔に対しても同様に傾きを検出しても良い。したがって、修正部20hは、撮影画像の顔が傾いている場合には、その傾きに適合するようにして抽出領域の修正を行なっても良い。これにより、撮影画像の顔が傾いている場合でも手間をかけずに簡単にして、瞼の閉じた画像を瞼の開いた画像に修正できる。   (5) In the above embodiment, the tilt detection unit 20f detects the tilt of the face for the image collated by the collation unit 20d as shown in FIG. 4B, but the same applies to the face of the captured image. The tilt may be detected. Therefore, when the face of the captured image is inclined, the correction unit 20h may correct the extraction region so as to match the inclination. Thereby, even when the face of the photographed image is tilted, it is possible to easily correct an image with a closed eyelid to an image with an open eyelid without trouble.

(6)上記の実施形態において、記録媒体M1は、自動修正モード用プログラムをコンピュータに実行させるための命令が記録されたコンピュータ可読な記録媒体として用いても良い。ここで、自動修正モード用プログラムは、上述した通り、顔検出処理と、顔認識処理と、判断処理と、照合処理と、抽出処理と、修正処理とをコンピュータに実行させることを特徴とする。   (6) In the above-described embodiment, the recording medium M1 may be used as a computer-readable recording medium on which an instruction for causing a computer to execute the automatic correction mode program is recorded. Here, as described above, the automatic correction mode program is characterized by causing the computer to execute face detection processing, face recognition processing, determination processing, collation processing, extraction processing, and correction processing.

(7)上記の実施形態では、自動修正モード用プログラムを電子カメラ1に組み込んで用いたが、自動修正モード用プログラムを例えばパーソナルコンピュータにインストールして、適用しても良い。   (7) In the above embodiment, the automatic correction mode program is incorporated into the electronic camera 1 and used. However, the automatic correction mode program may be installed in a personal computer, for example.

1・・・電子カメラ、11・・・撮像素子、20a・・・顔検出部、20b・・・顔認識部、20c・・・判断部、20d・・・照合部、20e・・・抽出部、20h・・・修正部 DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 11 ... Imaging device, 20a ... Face detection part, 20b ... Face recognition part, 20c ... Judgment part, 20d ... Collation part, 20e ... Extraction part , 20h ... correction part

Claims (7)

被写体の像を撮像し、画像を生成する撮像素子と、
前記画像を解析して前記画像の中から顔の領域を検出する顔検出部と、
前記顔を識別する特徴を前記顔の領域から認識する顔認識部と、
前記顔認識部の認識結果に基づいて、前記顔の領域内の瞼の開閉状態を判断する判断部と、
前記判断部により前記瞼を閉じていると判断された場合、メモリに記録されている他の画像を検索し、同一被写体でかつ前記瞼を開いている顔が存在するか否かを照合する照合部と、
前記照合部が、前記同一被写体でかつ前記瞼を開いている顔を照合した場合、前記瞼を開いている顔の目の領域を少なくとも抽出する抽出部と、
前記抽出部が抽出した抽出領域を、前記瞼を閉じている顔の画像に適合させて修正処理を行なう修正部と、
を備えることを特徴とする撮像装置。
An image sensor that captures an image of a subject and generates an image;
A face detection unit that analyzes the image and detects a face region from the image;
A face recognition unit for recognizing a feature for identifying the face from the face region;
A determination unit that determines an open / close state of a wrinkle in the face region based on a recognition result of the face recognition unit;
When the determination unit determines that the eyelid is closed, another image recorded in the memory is searched to verify whether there is a face that is the same subject and has the eyelid open. And
An extraction unit that extracts at least an eye area of the face with the eyelid open when the matching unit matches the face with the same subject and the eyelid open;
A correction unit that performs correction processing by adapting the extraction region extracted by the extraction unit to an image of a face closing the eyelid;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記修正部は、前記抽出領域を拡大又は縮小することにより、前記瞼を閉じている顔の画像に適合させて修正処理を行なうことを特徴とする撮像装置。
The imaging device according to claim 1,
The imaging device according to claim 1, wherein the correction unit performs a correction process by adapting to an image of a face closing the eyelid by enlarging or reducing the extraction area.
請求項1に記載の撮像装置において、
前記顔の傾きを検出する傾き検出部をさらに備え、
前記傾き検出部は、前記傾きを補正する傾き補正角度を算出し、
前記修正部は、前記傾き補正角度に基づいて、前記抽出領域を、前記瞼を閉じている顔の画像に適合させて修正処理を行なうことを特徴とする撮像装置。
The imaging device according to claim 1,
An inclination detector for detecting the inclination of the face;
The inclination detection unit calculates an inclination correction angle for correcting the inclination,
The correction device performs correction processing by adapting the extraction region to an image of a face with the eyelid closed based on the tilt correction angle.
請求項1に記載の撮像装置において、
前記画像の輝度分布を解析する輝度解析部をさらに備え、
前記修正部は、輝度解析部の解析結果に基づいて、前記抽出領域の明るさを、前記瞼を閉じている顔の明るさに適合させて修正処理を行なうことを特徴とする撮像装置。
The imaging device according to claim 1,
A luminance analysis unit for analyzing the luminance distribution of the image;
The imaging device according to claim 1, wherein the correction unit performs correction processing by adapting the brightness of the extraction region to the brightness of the face closing the eyelid based on the analysis result of the luminance analysis unit.
請求項1から請求項4の何れか1項に記載の撮像装置において、
前記修正部が修正処理した画像と前記特徴を示す特徴情報とを関連付けて登録するデータベースをさらに備え、
前記照合部は、前記判断部により前記瞼を閉じていると判断された場合、前記データベースを検索し、同一被写体でかつ前記瞼を開いている顔が存在するか否かを前記特徴情報に基づいて照合することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
A database that associates and registers the image corrected by the correction unit and the feature information indicating the feature;
When the determination unit determines that the eyelid is closed by the determination unit, the collation unit searches the database and determines whether there is a face that is the same subject and has the eyelid open based on the feature information. An image pickup apparatus characterized by collating them.
請求項1から請求項5の何れか1項に記載の撮像装置において、
前記顔検出部が複数の顔を検出した場合、前記顔認識部と、前記判断部と、前記照合部と、前記抽出部と、前記修正部とは、顔別に処理をそれぞれ行なうことを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
When the face detection unit detects a plurality of faces, the face recognition unit, the determination unit, the collation unit, the extraction unit, and the correction unit perform processing for each face, respectively. An imaging device.
請求項1から請求項6の何れか1項に記載の撮像装置において、
前記顔は、人物の顔であることを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 6,
The imaging apparatus according to claim 1, wherein the face is a human face.
JP2011290243A 2011-12-29 2011-12-29 Imaging apparatus Pending JP2013141104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011290243A JP2013141104A (en) 2011-12-29 2011-12-29 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011290243A JP2013141104A (en) 2011-12-29 2011-12-29 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013141104A true JP2013141104A (en) 2013-07-18

Family

ID=49038188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011290243A Pending JP2013141104A (en) 2011-12-29 2011-12-29 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013141104A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194084A1 (en) * 2014-06-20 2015-12-23 ソニー株式会社 Information processing device, information processing system, and information processing method and program
WO2022034779A1 (en) * 2020-08-11 2022-02-17 オムロン株式会社 Image processing device, and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198062A (en) * 2007-02-15 2008-08-28 Sony Corp Image processor and image processing method
JP2009141811A (en) * 2007-12-07 2009-06-25 Nec Corp Image processor, method, program, recording medium, imaging apparatus and mobile terminal device
JP2010239467A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image selection device, method for selecting image and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198062A (en) * 2007-02-15 2008-08-28 Sony Corp Image processor and image processing method
JP2009141811A (en) * 2007-12-07 2009-06-25 Nec Corp Image processor, method, program, recording medium, imaging apparatus and mobile terminal device
JP2010239467A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image selection device, method for selecting image and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015194084A1 (en) * 2014-06-20 2015-12-23 ソニー株式会社 Information processing device, information processing system, and information processing method and program
CN106664361A (en) * 2014-06-20 2017-05-10 索尼公司 Information processing device, information processing system, and information processing method and program
US10462358B2 (en) 2014-06-20 2019-10-29 Sony Corporation Information processing apparatus, information processing system, and information processing method
CN106664361B (en) * 2014-06-20 2019-12-13 索尼公司 Information processing apparatus, information processing method, and computer-readable storage medium
WO2022034779A1 (en) * 2020-08-11 2022-02-17 オムロン株式会社 Image processing device, and image processing method

Similar Documents

Publication Publication Date Title
US7430369B2 (en) Image capture apparatus and control method therefor
JP4196714B2 (en) Digital camera
JP4218348B2 (en) Imaging device
US8494286B2 (en) Face detection in mid-shot digital images
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
JP5704905B2 (en) Image processing apparatus, image processing method, program, and storage medium
KR100924685B1 (en) Imaging apparatus and control method thereof
JP4911165B2 (en) Imaging apparatus, face detection method, and program
JP5293206B2 (en) Image search apparatus, image search method and program
US8411159B2 (en) Method of detecting specific object region and digital camera
US10348958B2 (en) Image processing apparatus for performing predetermined processing on a captured image
US20100188520A1 (en) Imaging device and storage medium storing program
JP6149854B2 (en) Imaging apparatus, imaging control method, and program
JP5880135B2 (en) Detection apparatus, detection method, and program
JP4360369B2 (en) Electronic camera
JP2007011200A (en) Imaging apparatus
JP6033006B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP2013141104A (en) Imaging apparatus
JP2009010472A (en) Imaging device and program thereof
JP5228927B2 (en) Electronic device, operation control method and program
JP2008172732A (en) Imaging apparatus, control method thereof, and program
JP2017147764A (en) Image processing apparatus, image processing method, and program
JP2005065265A (en) Frame adjustment device, image-taking device, and printing device
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program
JP2012178666A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160301