JP2013141104A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2013141104A JP2013141104A JP2011290243A JP2011290243A JP2013141104A JP 2013141104 A JP2013141104 A JP 2013141104A JP 2011290243 A JP2011290243 A JP 2011290243A JP 2011290243 A JP2011290243 A JP 2011290243A JP 2013141104 A JP2013141104 A JP 2013141104A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- unit
- correction
- eyelid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y02P70/54—
Landscapes
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus.
従来、撮像装置の一種である電子カメラでの撮影では、撮影の瞬間に被写体である人物が瞼を閉じてしまうために、瞼を閉じた人物の撮影画像が生成してしまうことがある。 Conventionally, in photographing with an electronic camera which is a kind of imaging apparatus, a person who is a subject closes his eyelid at the moment of photographing, so that a photographed image of the person who closed the eyelid may be generated.
そこで、目の画像を多数保存するデータベースを用いて、そのデータベースから目の画像を選択し、閉じた瞼の領域を所望の目の画像に修正する方法が提案されている(例えば、特許文献1参照)。 Therefore, a method has been proposed in which a database that stores a large number of eye images is used, eye images are selected from the database, and the closed eyelid region is corrected to a desired eye image (for example, Patent Document 1). reference).
しかしながら、特許文献1の技術では、例えば、オペレータに修正する目を選択入力させて、同一人物の目を修正している。そのため、オペレータが合致する目を判断するのに手間がかかるおそれが生じる。
However, in the technique of
そこで、本発明は、上記事情に鑑み、手間をかけずに簡単にして、瞼を閉じている顔の画像から瞼を開いている顔の画像に修正できる撮像装置を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide an imaging apparatus that can easily and easily correct an image of a face with a closed eyelid to an image of a face with an open eyelid without taking time and effort. .
第1の発明に係る撮像装置は、撮像素子と、顔検出部と、顔認識部と、判断部と、照合部と、抽出部と、修正部とを備える。撮像素子は、被写体の像を撮像し、画像を生成する。顔検出部は、画像を解析して画像の中から顔の領域を検出する。顔認識部は、顔を識別する特徴を顔の領域から認識する。判断部は、顔認識部の認識結果に基づいて、顔の領域内の瞼の開閉状態を判断する。照合部は、判断部により瞼を閉じていると判断された場合、メモリに記録されている他の画像を検索し、同一被写体でかつ瞼を開いている顔が存在するか否かを照合する。抽出部は、照合部が、同一被写体でかつ瞼を開いている顔を照合した場合、瞼を開いている顔の目の領域を少なくとも抽出する。修正部は、抽出部が抽出した抽出領域を、瞼を閉じている顔の画像に適合させて修正処理を行なう。 An imaging apparatus according to a first invention includes an imaging element, a face detection unit, a face recognition unit, a determination unit, a collation unit, an extraction unit, and a correction unit. The imaging element captures an image of a subject and generates an image. The face detection unit analyzes the image and detects a face region from the image. The face recognition unit recognizes a feature for identifying the face from the face area. The determination unit determines the open / close state of the eyelid in the face region based on the recognition result of the face recognition unit. When the determination unit determines that the eyelid is closed, the verification unit searches other images recorded in the memory to verify whether there is a face that is the same subject and has the eyelid open. . The extraction unit extracts at least an eye area of the face with the eyelid open when the matching unit collates faces with the same subject and with the eyelid open. The correction unit performs correction processing by adapting the extraction region extracted by the extraction unit to the face image with the eyelid closed.
第2の発明は、第1の発明において、修正部は、抽出領域を拡大又は縮小することにより、瞼を閉じている顔の画像に適合させて修正処理を行なう。 In a second aspect based on the first aspect, the correction unit performs the correction process by adapting to the face image with the eyelid closed by enlarging or reducing the extraction region.
第3の発明は、第1の発明において、傾き検出部をさらに備える。傾き検出部は、顔の傾きを検出する。傾き検出部は、傾きを補正する傾き補正角度を算出し、修正部は、その傾き補正角度に基づいて、抽出領域を、瞼を閉じている顔の画像に適合させて修正処理を行なう。 In a third aspect based on the first aspect, the apparatus further comprises an inclination detection unit. The tilt detection unit detects the tilt of the face. The inclination detection unit calculates an inclination correction angle for correcting the inclination, and the correction unit performs correction processing by adapting the extraction region to the face image with the eyelid closed based on the inclination correction angle.
第4の発明は、第1の発明において、輝度解析部をさらに備える。輝度解析部は、画像の輝度分布を解析する。修正部は、輝度解析部の解析結果に基づいて、抽出領域の明るさを、瞼を閉じている顔の明るさに適合させて修正処理を行なう。 In a fourth aspect based on the first aspect, the apparatus further comprises a luminance analysis unit. The luminance analysis unit analyzes the luminance distribution of the image. The correction unit performs correction processing by adapting the brightness of the extraction region to the brightness of the face with the eyelid closed based on the analysis result of the luminance analysis unit.
第5の発明は、第1から第4の発明の何れかにおいて、データベースをさらに備える。データベースは、修正部が修正処理した画像と特徴を示す特徴情報とを関連付けて登録する。照合部は、判断部により瞼を閉じていると判断された場合、データベースを検索し、同一被写体でかつ瞼を開いている顔が存在するか否かを特徴情報に基づいて照合する。 A fifth invention further comprises a database according to any one of the first to fourth inventions. The database registers the image corrected by the correction unit and the feature information indicating the feature in association with each other. When the determination unit determines that the eyelid is closed, the verification unit searches the database and verifies whether there is a face that is the same subject and has the eyelid open based on the feature information.
第6の発明は、第1から第5の発明の何れかにおいて、顔検出部が複数の顔を検出した場合、顔認識部と、判断部と、照合部と、抽出部と、修正部とは、顔別に処理をそれぞれ行なう。 In a sixth aspect based on any one of the first to fifth aspects, when the face detection unit detects a plurality of faces, a face recognition unit, a determination unit, a collation unit, an extraction unit, a correction unit, Performs processing for each face.
第7の発明は、第1から第5の発明の何れかにおいて、顔は、人物の顔である。 In a seventh aspect based on any one of the first to fifth aspects, the face is a human face.
本発明は、手間をかけず簡単にして、瞼を閉じている顔の画像から瞼を開いている顔の画像に修正できる撮像装置を提供できる。 INDUSTRIAL APPLICABILITY The present invention can provide an imaging apparatus that can easily and easily correct an image of a face with a closed eyelid to an image of a face with an open eyelid.
以下、図面に基づいて本発明の実施の形態を詳細に説明する。ここでは、本発明の撮像装置の一実施形態である電子カメラを例に取り上げて説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, an electronic camera which is an embodiment of the imaging apparatus of the present invention will be described as an example.
図1は、本実施形態の電子カメラ1の構成例を説明するブロック図である。ここで、本実施形態の電子カメラ1は、瞼を閉じている顔の画像(以下「瞼を閉じた画像」という。)から瞼を開いている顔の画像(以下「瞼を開いた画像」という。)に自動的に修正するモード(以下「自動修正モード」という。)を有する。自動修正モードの具体的な内容については、後述する。なお、瞼を閉じた画像は、慣用的に目を閉じた画像と表現し、瞼を開いた画像は、慣用的に目を開いた画像と表現しても良い。
FIG. 1 is a block diagram illustrating a configuration example of an
電子カメラ1は、図1に示す通り、撮影光学系10と、撮像素子11と、信号処理部12と、RAM(Random Access Memory)13と、画像処理部14と、フラッシュメモリ15と、表示モニタ16と、記録インターフェース部(以下「記録I/F部」という。)17と、操作部18と、レリーズ釦19と、CPU20と、バス28とを備える。
As shown in FIG. 1, the
このうち、信号処理部12、RAM13、画像処理部14、フラッシュメモリ15、記録I/F部17、表示モニタ16及びCPU20は、バス21を介して互いに接続されている。
Among these, the signal processing unit 12, the
撮影光学系10は、ズームレンズと、フォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮影光学系10を1枚のレンズとして図示する。
The photographing
撮像素子11は、被写体の像を撮像し、アナログの画像信号(画像)を生成する。そして、撮像素子11が出力するアナログの画像信号は、信号処理部12に入力される。なお、撮像素子11の撮像面には、R(赤)、G(緑)B(青)の3種類のカラーフィルタが例えばベイヤー配列で配置されている。また、撮像素子11の電荷蓄積時間及び画像信号の読み出しは、タイミングジェネレータ(不図示)によって制御される。 The image sensor 11 captures an image of a subject and generates an analog image signal (image). The analog image signal output from the image sensor 11 is input to the signal processing unit 12. Note that three types of color filters of R (red), G (green), and B (blue) are arranged on the imaging surface of the imaging device 11 in, for example, a Bayer array. Further, the charge accumulation time of the image sensor 11 and the reading of the image signal are controlled by a timing generator (not shown).
ここで、撮像素子11は、電子カメラの撮影モードにおいて、レリーズ釦19の全押し操作に応答して記録用の撮影画像を撮像する。また、撮像素子11は、撮影待機時にも所定間隔毎に構図確認用の画像(スルー画像)を連続的に撮像する。
Here, the imaging device 11 captures a recording image for recording in response to a full pressing operation of the
なお、撮像素子11は、CCD(Charge Coupled Device)型、又は、CMOS(Complementary Metal−Oxide Semiconductor)型のイメージセンサである。 The imaging device 11 is a CCD (Charge Coupled Device) type or CMOS (Complementary Metal-Oxide Semiconductor) type image sensor.
信号処理部12は、撮像素子11が出力する画像信号に対してアナログ信号処理を施すアナログフロントエンド回路(AFE)と、そのAFEでアナログ信号処理が施された画像信号に対して、デジタル信号処理を施すデジタルフロントエンド回路(DFE)とを有する。信号処理部12のAFEは、アナログの画像信号に対して相関二重サンプリングやゲイン調整をした後、アナログの画像信号をデジタルの画像信号に変換する(A/D変換)処理等を行なう。ここで、信号処理部12のAFEは、画像信号のゲインを調整することで、ISO感度に相当する撮像感度を調整できる。 The signal processing unit 12 performs an analog front end circuit (AFE) that performs analog signal processing on an image signal output from the image sensor 11, and performs digital signal processing on the image signal that has been subjected to analog signal processing by the AFE. A digital front-end circuit (DFE). The AFE of the signal processing unit 12 performs correlated double sampling and gain adjustment on the analog image signal, and then performs a process of converting the analog image signal into a digital image signal (A / D conversion). Here, the AFE of the signal processing unit 12 can adjust the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal.
また、信号処理部12のDFEは、A/D変換されたデジタルの画像信号の修正処理等を行なう。この信号処理部12が出力する画像信号は、RGB信号の画像データとしてRAM13に一時的に記録される。RAM13は、画像データを一時的に記録するバッファメモリである。
Further, the DFE of the signal processing unit 12 performs a correction process on the digital image signal after A / D conversion. The image signal output from the signal processing unit 12 is temporarily recorded in the
画像処理部14は、RAM13に記録されている画像データを読み出し、必要に応じて各種の画像処理(例えば、ホワイトバランス処理、色補間処理、階調変換処理、輪郭強調処理等)を施す。
The
フラッシュメモリ15は、電子カメラ1の制御を行なうプログラム等を予め記憶している不揮発性のメモリである。このフラッシュメモリ15には、自動修正モードを実行するための自動修正モード用プログラムが予め記録されている。また、フラッシュメモリ15は、データベース15aを有する。データベース15aには、自動修正モードで使用する情報テーブルを有する。この情報テーブルの内容の詳細については、図6を用いて後述する。
The
表示モニタ16は、例えば液晶表示媒体により構成される。表示モニタ16は、CPU20の指示に応じて各種画像や電子カメラ1の操作メニュー等を表示する。
The display monitor 16 is composed of, for example, a liquid crystal display medium. The display monitor 16 displays various images, an operation menu of the
記録I/F部17には、着脱自在の記録媒体M1を接続するためのコネクタ(不図示)が形成されている。そして、記録I/F部17は、そのコネクタに接続された記録媒体M1にアクセスして画像の記録処理等を行なう。この記録媒体M1は、例えば、不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体M1を示している。
The recording I /
操作部18は、ユーザの操作を受け付ける複数の釦(不図示)を有している。レリーズ釦19は、半押し操作(撮像の準備動作開始)の指示入力と全押し操作(撮像の動作開始)との指示入力とを受け付ける。
The operation unit 18 has a plurality of buttons (not shown) that receive user operations. The
CPU20は、各種演算及び電子カメラ1の制御を行なうプロセッサである。CPU20は、フラッシュメモリ15に予め格納されたシーケンスプログラムを実行することにより、電子カメラ1の各部の制御等を行なう。
The
本実施形態では、フラッシュメモリ15内の自動修正モード用プログラムがCPU20に読み込まれる。そして、CPU20は、自動修正モード用プログラムを実行することによって、顔検出部20aと、顔認識部20bと、判断部20cと、照合部20dと、抽出部20eと、傾き検出部20fと、輝度解析部20gと、修正部20hとしても機能する。
In the present embodiment, the automatic correction mode program in the
顔検出部20aは、画像を解析して画像の中から顔の領域を検出する。具体的には、顔検出部20aは、撮像素子11から出力された記録用の画像データに基づいて色の成分や輝度値を取得する。この場合、顔検出部20aは、肌色成分の領域を特定する等して、顔の領域を検出する。そして、顔検出部20aは、顔領域の画像内の位置情報(位置座標等)を特定する。 The face detection unit 20a analyzes the image and detects a face region from the image. Specifically, the face detection unit 20a acquires color components and luminance values based on the recording image data output from the image sensor 11. In this case, the face detection unit 20a detects the face region by specifying the skin color component region. Then, the face detection unit 20a identifies position information (position coordinates and the like) in the face area image.
顔認識部20bは、顔を識別する特徴を顔の領域から認識する。具体的には、顔認識部20bは、例えば特開2001−16573号公報等に記載された特徴抽出処理によって顔の特徴(特徴部位)を抽出する。特徴部位としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等が挙げられる。そして、顔認識部20bは、顔領域の位置情報を特定する。 The face recognition unit 20b recognizes a feature for identifying a face from the face area. Specifically, the face recognition unit 20b extracts facial features (feature parts) by a feature extraction process described in, for example, Japanese Patent Application Laid-Open No. 2001-16573. Examples of the characteristic part include eyebrow, eye, nose, lip end points, face contour points, head apex, chin lower end point, and the like. Then, the face recognition unit 20b specifies the position information of the face area.
判断部20cは、顔認識部20bの認識結果に基づいて、顔の領域内の瞼の開閉状態を判断する。具体的には、判断部20cは、顔認識部20bの認識した目の領域に対して、例えば、特開2000−235648号公報などに記載された瞬き検出処理によって、瞬きの度合いを検出する。そして、判断部20cは、瞬きの度合いから、瞼の開閉状態を判断する。
The
照合部20dは、判断部20cにより瞼を閉じていると判断された場合、フラッシュメモリ15や記録媒体M1に記録されている他の画像を検索し、同一被写体でかつ瞼を開いている顔が存在するか否かを照合する。照合部20dは、例えば、周知のパターンマッチング処理により照合する。
When the
ただし、瞼を開いている顔と、瞼を閉じている顔とでは、瞼の開閉状態が異なるので、目の付近のパターンマッチングが一致しなくなる。そのため、照合部20dは、目の領域を除く他の特徴部位のパターンマッチングに基づいて、照合処理を行なう。
However, since the open / closed state of the eyelid is different between the face with the eyelid open and the face with the eyelid closed, the pattern matching near the eyes does not match. Therefore, the
抽出部20eは、照合部20dが同一被写体でかつ瞼を開いている顔を照合した場合、瞼を開いている顔の目の領域を少なくとも抽出する。具体的には、抽出部20eは、撮影画像の座標に基づいて、目の領域を抽出領域として抽出する。或いは、抽出部20eは、目を含む領域を抽出領域としても良い。ここで、抽出するとは、例えば、その抽出領域を切り出すことを意味する。つまり、本実施形態では、目だけに限らず、目の領域と合わせて眉毛等、他の特徴部位も抽出領域として修正しても良い。
The extraction unit 20e extracts at least the eye region of the face with the eyelid open when the
傾き検出部20fは、画像を解析して、顔の傾きを検出する。輝度解析部20gは、画像の輝度分布を解析する。修正部20hは、抽出部20eが抽出した抽出領域を、瞼を閉じた画像に適合させて修正処理を行なう。傾き検出部20f、輝度解析部20g及び修正部20hの詳細は、動作の説明の際、後述する。
The
次に、本実施形態の電子カメラ1における自動修正モードにおける動作の一例を説明する。
Next, an example of the operation in the automatic correction mode in the
図2は、自動修正モードの動作の一例を示すフローチャートである。図3は、自動修正モードの処理の流れを模式的に説明する図である。 FIG. 2 is a flowchart showing an example of the operation in the automatic correction mode. FIG. 3 is a diagram schematically illustrating the processing flow in the automatic correction mode.
ここでは、撮影者によりレリーズ釦19の全押し操作がなされ、電子カメラ1が画像を取得したことを前提とする。なお、本実施形態では、説明をわかりやすくするため、今回撮影した画像であって、目の修正処理を行なう画像を撮影画像といい、既に記録媒体M1やフラッシュメモリ15に記録されている撮影画像を単に画像ということがある。図3(a)は、撮影画像の一例を示している。図3(a)では、瞼を閉じた被写体の人物P1が写っている。
Here, it is assumed that the photographer has fully pressed the
そして、図1に示す操作部18が、先ず、自動修正モードの指示入力を受け付けた場合、CPU20は、図2に示すフローの処理を開始させる。なお、説明の便宜上、記録媒体M1には、被写体の顔が写っている画像が既に複数枚記録されていることとする。
When the operation unit 18 illustrated in FIG. 1 first receives an instruction input in the automatic correction mode, the
ステップS101:CPU20の顔検出部20aは、顔検出処理を行なう。さらに、CPU20の顔認識部20bは、認識処理を行なう。具体的には、顔検出部20aは、今回撮影された撮影画像の画像データを解析して、肌色成分の領域を特定する等して、顔の領域を検出する。続いて、顔認識部20bは、顔の領域に対して、特徴抽出処理によって顔の特徴部位を抽出する。そして、CPU20は、ステップS102の処理に移行する。
Step S101: The face detection unit 20a of the
ステップS102:CPU20の判断部20cは、先ず、瞬き検出処理を行なう。具体的には、判断部20cは、顔認識部20bの認識した目の領域に対して、上述した瞬き検出処理によって、瞬きの度合いを検出する。そして、CPU20は、ステップS103の処理に移行する。
Step S102: The
ステップS103:判断部20cは、瞬きの度合いから、瞼の開閉状態を判断する。すなわち、判断部20cは、瞼を閉じた画像か否かを判断する。瞼を閉じた画像の場合(ステップS103:Yes)、CPU20は、ステップS104の処理に移行する。一方、瞼を開いた画像の場合(ステップS103:No)、CPU20は、修正する必要がないため、図2に示すフローの処理を終了させる。
Step S103: The
ステップS104:CPU20は、記録媒体M1等のメモリを参照し、ステップS104に移行する毎に、前回ステップS104で選択された画像に対して、時系列に1枚前に撮影された画像が有るか否かを判定する。ただし、1番初めにステップS104に移行した場合には、今回撮影された修正対象の撮影画像に対して、1枚前に撮影された画像が有るか否かを判定する。この際、CPU20は、例えば、画像がExif(Exchangeable Image File Format)形式の画像ファイルの場合、ヘッダファイルの撮影日時の情報に基づいて、画像を検索する。
Step S104: The
図3(b)は、ステップS104からステップS108の処理を模式的に示している。ここで、1枚前に撮影された画像が有る場合(ステップS104:Yes)、CPU20は、ステップS105の処理に移行する。一方、1枚前に撮影された画像が無い場合(ステップS104:No)、CPU20は、図2に示すフローの処理を終了させる。
FIG. 3B schematically shows the processing from step S104 to step S108. Here, when there is an image photographed immediately before (step S104: Yes), the
ステップS105:CPU20の照合部20dは、照合処理を行なう。具体的には、照合部20dは、撮像画像から顔認識部20bが認識した顔と、記録媒体M1に記録されている顔を含む画像とを照合する。そして、照合部20dは、目の領域を除く他の特徴部位のパターンマッチングに基づいて、照合処理を行なう。そして、CPU20は、ステップS106の処理に移行する。
Step S105: The
ステップS106:ここで、瞼を開いている同一人物の画像を照合できた場合(ステップS106:Yes)、CPU20は、ステップS107の処理に移行する。一方、目の開いている同一人物の画像を照合できなかった場合(ステップS106:No)、ステップS104の処理に戻る。
Step S106: If the image of the same person who has opened the eyelids can be collated (step S106: Yes), the
ステップS107:CPU20の抽出部20eは、抽出処理を行なう。具体的には、抽出部20eは、照合部20dが照合した画像に基づいて、瞼を開いている顔の目の領域を含む抽出領域を抽出する。
Step S107: The extraction unit 20e of the
ステップS108:CPU20の修正部20hは、修正処理を行なう。具体的には、修正部20hは、先ず、撮影画像に対して顔の目の領域と推定される箇所を抽出領域で置換する修正処理を行なう。ここで、修正部20hは、必要に応じて、拡大縮小処理、傾き補正処理、明るさ補正処理の内で少なくとも1つを選択して修正処理を行なう。
Step S108: The
(1)拡大縮小処理
修正部20hは、抽出領域を拡大又は縮小することにより、瞼を閉じた画像に適合させて修正処理を行なう。具体的には、図3に示す通り、修正部20hは、一例として、撮影画像の顔の輪郭(第1輪郭)と照合部20dが照合した画像の顔の輪郭(第2輪郭)とが一致するように、第2輪郭を拡大又は縮小する。これにより、抽出領域(目の領域)が、撮影画像の目の領域に対して誤差の許容範囲内で一致することになる。そして、修正部20hは、撮影画像に対して顔の目の領域と推定される箇所を抽出領域で置換する。これにより、修正部20hは、撮影画像の顔のサイズと、照合部20dが照合した画像の顔のサイズとが異なっていても、抽出領域を拡大又は縮小することにより、目の領域のサイズを補正した上で、瞼を閉じた画像から瞼を開いた画像に修正することができる。
(1) Enlarging / Reducing Process The correcting
(2)傾き補正処理
図4は、傾き補正処理の流れを模式的に説明する図である。図4(a)は、顔の傾きを例示する図である。本実施形態では、例えば、照合部20dが照合した画像内の顔が、撮影画面内で傾いている場合がある。そこで、CPU20の傾き検出部20fは、顔の傾きを検出する。図4(b)は、顔の傾きの検出方法を例示する図である。傾き検出部20fは、図4(b)に示す通り、照合部20dが照合した画像の輪郭を楕円形とみなして、その楕円形の長軸を中心線(L1)として求める。傾き検出部20fは、画像内のXY座標において、Y軸方向の垂線(L2)と中心線(L1)とがなす角度θを算出する。傾き検出部20fは、角度θが0度であれば、顔の傾きは生じていないと判定する。一方、傾き検出部20fは、角度θが例えば時計回りに45度であれば、顔が傾いていると判定する。ここで、本実施形態では、角度θを傾き補正角度とする。
(2) Inclination Correction Process FIG. 4 is a diagram schematically illustrating the flow of the inclination correction process. FIG. 4A illustrates the inclination of the face. In the present embodiment, for example, the face in the image collated by the
図4(c)は、傾きの補正を例示する図である。修正部20hは、傾き補正角度に基づいて、傾きを補正した上で、抽出領域を、瞼を閉じた画像に適合させて修正処理を行なう。これにより、修正部20hは、目の領域の傾きを補正した上で、瞼を閉じた画像から瞼を開いた画像に修正することができる。
FIG. 4C is a diagram exemplifying inclination correction. The
(3)明るさ補正処理
図5は、明るさ補正処理を模式的に説明する図である。図5(a)は、太陽S1による晴天環境下で人物P1を撮影したことを模式的に示している。図5(b)は、照明S2による室内照明下で人物P1を撮影したことを模式的に示している。
(3) Brightness Correction Process FIG. 5 is a diagram schematically illustrating the brightness correction process. FIG. 5A schematically shows that the person P1 is photographed in a clear sky environment by the sun S1. FIG. 5B schematically shows that the person P1 is photographed under room lighting by the lighting S2.
本実施形態では、図5(a)、(b)に示す通り、例えば、撮影画像が晴天環境下で今回撮影され、照合部20dが照合した画像が室内環境下で過去に撮影された場合が起こり得る。この場合、顔の明るさも異なることになる。そこで、輝度解析部20gは、両方の画像の輝度を解析する。抽出部20eは、照合部20dが照合した画像から目を含む領域を抽出する(図5(c)参照)。そして、修正部20hは、抽出領域の目の周辺部分の明るさを、撮影画像の顔の明るさに適合させて修正処理を行なう(図5(d)参照)。これにより、修正部20hは、顔の明るさも考慮して修正処理をすることができる。修正部20hによる修正処理が終了すると、CPU20は、ステップS109の処理に移行する。
In the present embodiment, as shown in FIGS. 5A and 5B, for example, a captured image may be captured this time in a clear sky environment, and an image verified by the
ステップS109:CPU20は、修正処理した撮影画像の良否を判定する。CPU20は、例えば、照合部20dが照合した顔の画像の解像度が、撮影画像と比較して著しく低い場合(所定の閾値以下)等、撮影画像として否と判定し、他の画像を検索することとする。そのため、修正処理した撮影画像の判定結果が否であれば(ステップS109:No)、CPU20は、ステップS104の処理に戻る。一方、修正処理した撮影画像の判定結果が良(OK)であれば(ステップS109:Yes)、CPU20は、ステップS111の処理に移行する。
Step S109: The
ステップS110:CPU20は、修正処理した撮影画像を表示モニタ16に表示させる。これは、撮影者に修正処理した撮影画像の良否を判定させるためである。
Step S110: The
ステップS111:CPU20は、修正処理した撮影画像が撮影者にとって良いと判断されるか否かのユーザ入力(選択入力)を受け付ける。修正処理した撮影画像が撮影者にとって良いと判断される旨のユーザ入力を受け付けた場合(ステップS111:Yes)、CPU20は、ステップS112の処理に移行する。一方、修正した撮影画像が撮影者にとって良いと判断されない旨のユーザ入力を受け付けた場合(ステップS111:No)、CPU20は、ステップS113の処理に移行する。
Step S111: The
ステップS112:CPU20は、修正処理された撮影画像の保存処理を行なう。具体的には、CPU20は、記録I/F部17を介して、修正処理された撮影画像を記録媒体M1に記録する。そして、CPU20は、図2に示すフローの処理を終了させる。
Step S112: The
ステップS113:CPU20は、撮影者から、他の画像を検索するか否かのユーザ入力(選択入力)を受け付ける。他の画像を検索する旨のユーザ入力を受け付けた場合(ステップS113:Yes)、CPU20は、ステップS104の処理に戻る。一方、他の画像を検索しない旨のユーザ入力を受け付けた場合(ステップS113:No)、CPU20は、図2に示すフローの処理を終了させる。
Step S113: The
以上より、本実施形態の電子カメラ1は、特許文献1のように、例えば、オペレータに修正する目を選択入力させて、同一人物の目を修正する必要がない。
As described above, the
したがって、電子カメラ1では、手間をかけずに簡単にして、瞼を閉じた画像から瞼を開いた画像に修正できる。
Therefore, in the
つまり、電子カメラ1では、記録媒体M1やフラッシュメモリ15内に撮り貯めた過去の写真(撮影画像)から、同一人物の写真を顔識別処理(顔認証)により探し出す。そして、電子カメラ1では、その探し出した写真から、目を含む領域を抜き出し、色やサイズ(大きさ、角度)を調節し、目を含む領域を置換することにより、撮影者のイメージに近い写真を実現することができる。
(第1変形例)
次に、上記の実施形態の第1変形例について説明する。上記の実施形態では、照合部20dは、記録媒体M1やフラッシュメモリ15に記録されている画像に対して、撮影日時を遡るようにして順次検索した。ここで、第1変形例では、照合部20dは、先ず、データベース15aを検索して照合しても良い。
That is, the
(First modification)
Next, a first modification of the above embodiment will be described. In the above embodiment, the
図6は、第1変形例を説明する図である。図6(a)は、撮影画像の一例を示す図である。なお、説明の便宜上、図6(a)の被写体の人物はP1とし、図3(a)に示す同一人物P1の撮影画像より、後に撮影されたこととする。図6(b)は、データベース15aの構成例(情報テーブル)を示す図である。図6(c)は、修正処理後の撮影画像の一例を示す図である。 FIG. 6 is a diagram illustrating a first modification. FIG. 6A is a diagram illustrating an example of a captured image. For convenience of explanation, it is assumed that the person of the subject in FIG. 6A is P1, and is taken after the photographed image of the same person P1 shown in FIG. FIG. 6B is a diagram showing a configuration example (information table) of the database 15a. FIG. 6C is a diagram illustrating an example of a captured image after the correction process.
第1変形例では、図2に示すフローチャートのステップS112の保存処理において、CPU20は、修正処理した撮影画像について、顔認識部20bの特徴抽出処理で抽出した特徴を示す特徴情報(例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点等の情報)を人物毎に登録する。さらに、CPU20は、修正処理した撮影画像の保存先のアドレスをデータベースに関連付けておく。図6(b)では、人物(P1、P2、P3)毎にそれぞれ特徴情報A、B、Cが登録されていることを例示している。
In the first modified example, in the storage process in step S112 of the flowchart shown in FIG. 2, the
これにより、新たな撮影画像(図6(a)参照)が撮影された場合、照合部20dは、データベース15aの特徴情報を参照して、同一被写体の顔を照合する(図6(b)参照)。そして、照合部20dが照合できた場合、抽出部20eは、記録先アドレスを参照して、人物特定した画像から抽出領域を抽出する。さらに、修正部20hは、新たな撮影画像(図6(a)参照)に修正処理を施して、瞼の開いた撮影画像に修正する(図6(c)参照)。
Thereby, when a new photographed image (see FIG. 6A) is photographed, the
したがって、第1変形例では、予め瞼の開いた画像を検索しに行くと共に、データベース15aに登録されている照合用の画像に対しては、顔認識部20bの特徴抽出処理を再度する必要がない分、検索の処理スピードが向上する。
(第2変形例)
次に、上記の実施形態の第2変形例について説明する。上記の実施形態では、撮影画像に一人の人物が存在する場合について例示したが、撮影画像には、複数の人物が存在しても良い。
Therefore, in the first modified example, it is necessary to go to search for an image with the eyelids opened in advance and to perform the feature extraction process of the face recognition unit 20b again on the image for matching registered in the database 15a. As a result, the search processing speed is improved.
(Second modification)
Next, a second modification of the above embodiment will be described. In the above embodiment, the case where one person is present in the photographed image is illustrated, but a plurality of persons may be present in the photographed image.
図7は、第2変形例を説明する図である。図7(a)は、撮影画像の一例を示す。図7(b)は、図7(a)に示す画像に対して修正処理後の撮影画像を示す。
図7(a)では、二人の人物P1、P2が撮影画像に写っている。ここで、顔検出部20aが複数の顔を検出した場合、顔認識部20bと、判断部20cと、照合部20dと、抽出部20eと、修正部20hとは、顔別に処理をそれぞれ行なえば良い。また、必要に応じて、傾き検出部20f、輝度解析部20gも、顔別に処理をそれぞれ行なえば良い。
FIG. 7 is a diagram illustrating a second modification. FIG. 7A shows an example of a captured image. FIG. 7B shows a photographed image after correction processing for the image shown in FIG.
In FIG. 7A, two persons P1 and P2 are shown in the photographed image. Here, when the face detection unit 20a detects a plurality of faces, the face recognition unit 20b, the
これにより、第2変形例では、図7(b)に示す通り、複数の人物についても個別に瞼を閉じている顔から瞼を開いている顔に修正することができる。
(補足説明)
(1)上記の実施形態では、本発明の適用可能な撮影装置として、レンズ一体型のコンパクト電子カメラを例示したが、この方式の電子カメラに限られない。本発明の適用可能な撮影装置は、例えば、一眼レフレックスタイプの電子カメラやクイックリターンミラーのないレンズ交換式の電子カメラも含まれる。また、本発明の適用可能な撮影装置は、カメラ機能を備えた携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)も含まれる。
Thereby, in the 2nd modification, as shown in Drawing 7 (b), it can amend about a plurality of persons from the face which closed the eyelid individually to the face which opened the eyelid.
(Supplementary explanation)
(1) In the above embodiment, a lens-integrated compact electronic camera is exemplified as an imaging apparatus to which the present invention can be applied. However, the present invention is not limited to this type of electronic camera. The imaging apparatus to which the present invention can be applied includes, for example, a single-lens reflex type electronic camera and an interchangeable lens type electronic camera without a quick return mirror. The imaging apparatus to which the present invention can be applied also includes a mobile phone having a camera function and a personal digital assistant (PDA).
(2)上記の実施形態では、被写体の顔として人物の顔を例示したが、例えば、ペット等の動物の顔を対象としても良い。この場合、顔検出部20a、顔認識部20bは、公知のペットの顔認識処理を用いて顔検出や特徴抽出処理を行なえば良い。これにより、本発明は、人物の顔に限られず、ペット等の動物にも適用することができる。 (2) In the above embodiment, the face of a person is exemplified as the face of the subject. However, for example, the face of an animal such as a pet may be targeted. In this case, the face detection unit 20a and the face recognition unit 20b may perform face detection and feature extraction processing using a known pet face recognition process. Thereby, this invention is not restricted to a person's face, It can apply also to animals, such as a pet.
(3)上記の実施形態では、瞼を閉じた画像としては、例えば人物P1が完全に瞼を閉じている状態を例示していたが、瞼の開閉度に閾値を設定して、閾値以下の場合、瞼を閉じた画像としても良い。 (3) In the above embodiment, as the image with the heel closed, for example, a state in which the person P1 completely closed the heel is illustrated. In this case, the image may be a closed image.
(4)上記の実施形態では、第1変形例において、CPU20は、修正処理した撮影画像について、顔認識部20bの特徴抽出処理で抽出した特徴情報を人物毎にデータベース15aに登録した。ここで、CPU20は、照合部20dが照合した画像(修正処理の元になる画像)の特徴情報、記録先アドレスをデータベース15aにさらに登録しても良い。
(4) In the above embodiment, in the first modification, the
(5)上記の実施形態では、傾き検出部20fは、図4(b)に示す通り、照合部20dが照合した画像について、顔の傾きを検出したが、撮影画像の顔に対しても同様に傾きを検出しても良い。したがって、修正部20hは、撮影画像の顔が傾いている場合には、その傾きに適合するようにして抽出領域の修正を行なっても良い。これにより、撮影画像の顔が傾いている場合でも手間をかけずに簡単にして、瞼の閉じた画像を瞼の開いた画像に修正できる。
(5) In the above embodiment, the
(6)上記の実施形態において、記録媒体M1は、自動修正モード用プログラムをコンピュータに実行させるための命令が記録されたコンピュータ可読な記録媒体として用いても良い。ここで、自動修正モード用プログラムは、上述した通り、顔検出処理と、顔認識処理と、判断処理と、照合処理と、抽出処理と、修正処理とをコンピュータに実行させることを特徴とする。 (6) In the above-described embodiment, the recording medium M1 may be used as a computer-readable recording medium on which an instruction for causing a computer to execute the automatic correction mode program is recorded. Here, as described above, the automatic correction mode program is characterized by causing the computer to execute face detection processing, face recognition processing, determination processing, collation processing, extraction processing, and correction processing.
(7)上記の実施形態では、自動修正モード用プログラムを電子カメラ1に組み込んで用いたが、自動修正モード用プログラムを例えばパーソナルコンピュータにインストールして、適用しても良い。
(7) In the above embodiment, the automatic correction mode program is incorporated into the
1・・・電子カメラ、11・・・撮像素子、20a・・・顔検出部、20b・・・顔認識部、20c・・・判断部、20d・・・照合部、20e・・・抽出部、20h・・・修正部
DESCRIPTION OF
Claims (7)
前記画像を解析して前記画像の中から顔の領域を検出する顔検出部と、
前記顔を識別する特徴を前記顔の領域から認識する顔認識部と、
前記顔認識部の認識結果に基づいて、前記顔の領域内の瞼の開閉状態を判断する判断部と、
前記判断部により前記瞼を閉じていると判断された場合、メモリに記録されている他の画像を検索し、同一被写体でかつ前記瞼を開いている顔が存在するか否かを照合する照合部と、
前記照合部が、前記同一被写体でかつ前記瞼を開いている顔を照合した場合、前記瞼を開いている顔の目の領域を少なくとも抽出する抽出部と、
前記抽出部が抽出した抽出領域を、前記瞼を閉じている顔の画像に適合させて修正処理を行なう修正部と、
を備えることを特徴とする撮像装置。 An image sensor that captures an image of a subject and generates an image;
A face detection unit that analyzes the image and detects a face region from the image;
A face recognition unit for recognizing a feature for identifying the face from the face region;
A determination unit that determines an open / close state of a wrinkle in the face region based on a recognition result of the face recognition unit;
When the determination unit determines that the eyelid is closed, another image recorded in the memory is searched to verify whether there is a face that is the same subject and has the eyelid open. And
An extraction unit that extracts at least an eye area of the face with the eyelid open when the matching unit matches the face with the same subject and the eyelid open;
A correction unit that performs correction processing by adapting the extraction region extracted by the extraction unit to an image of a face closing the eyelid;
An imaging apparatus comprising:
前記修正部は、前記抽出領域を拡大又は縮小することにより、前記瞼を閉じている顔の画像に適合させて修正処理を行なうことを特徴とする撮像装置。 The imaging device according to claim 1,
The imaging device according to claim 1, wherein the correction unit performs a correction process by adapting to an image of a face closing the eyelid by enlarging or reducing the extraction area.
前記顔の傾きを検出する傾き検出部をさらに備え、
前記傾き検出部は、前記傾きを補正する傾き補正角度を算出し、
前記修正部は、前記傾き補正角度に基づいて、前記抽出領域を、前記瞼を閉じている顔の画像に適合させて修正処理を行なうことを特徴とする撮像装置。 The imaging device according to claim 1,
An inclination detector for detecting the inclination of the face;
The inclination detection unit calculates an inclination correction angle for correcting the inclination,
The correction device performs correction processing by adapting the extraction region to an image of a face with the eyelid closed based on the tilt correction angle.
前記画像の輝度分布を解析する輝度解析部をさらに備え、
前記修正部は、輝度解析部の解析結果に基づいて、前記抽出領域の明るさを、前記瞼を閉じている顔の明るさに適合させて修正処理を行なうことを特徴とする撮像装置。 The imaging device according to claim 1,
A luminance analysis unit for analyzing the luminance distribution of the image;
The imaging device according to claim 1, wherein the correction unit performs correction processing by adapting the brightness of the extraction region to the brightness of the face closing the eyelid based on the analysis result of the luminance analysis unit.
前記修正部が修正処理した画像と前記特徴を示す特徴情報とを関連付けて登録するデータベースをさらに備え、
前記照合部は、前記判断部により前記瞼を閉じていると判断された場合、前記データベースを検索し、同一被写体でかつ前記瞼を開いている顔が存在するか否かを前記特徴情報に基づいて照合することを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 4,
A database that associates and registers the image corrected by the correction unit and the feature information indicating the feature;
When the determination unit determines that the eyelid is closed by the determination unit, the collation unit searches the database and determines whether there is a face that is the same subject and has the eyelid open based on the feature information. An image pickup apparatus characterized by collating them.
前記顔検出部が複数の顔を検出した場合、前記顔認識部と、前記判断部と、前記照合部と、前記抽出部と、前記修正部とは、顔別に処理をそれぞれ行なうことを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 5,
When the face detection unit detects a plurality of faces, the face recognition unit, the determination unit, the collation unit, the extraction unit, and the correction unit perform processing for each face, respectively. An imaging device.
前記顔は、人物の顔であることを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 6,
The imaging apparatus according to claim 1, wherein the face is a human face.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011290243A JP2013141104A (en) | 2011-12-29 | 2011-12-29 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011290243A JP2013141104A (en) | 2011-12-29 | 2011-12-29 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013141104A true JP2013141104A (en) | 2013-07-18 |
Family
ID=49038188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011290243A Pending JP2013141104A (en) | 2011-12-29 | 2011-12-29 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013141104A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194084A1 (en) * | 2014-06-20 | 2015-12-23 | ソニー株式会社 | Information processing device, information processing system, and information processing method and program |
WO2022034779A1 (en) * | 2020-08-11 | 2022-02-17 | オムロン株式会社 | Image processing device, and image processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008198062A (en) * | 2007-02-15 | 2008-08-28 | Sony Corp | Image processor and image processing method |
JP2009141811A (en) * | 2007-12-07 | 2009-06-25 | Nec Corp | Image processor, method, program, recording medium, imaging apparatus and mobile terminal device |
JP2010239467A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Image selection device, method for selecting image and program |
-
2011
- 2011-12-29 JP JP2011290243A patent/JP2013141104A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008198062A (en) * | 2007-02-15 | 2008-08-28 | Sony Corp | Image processor and image processing method |
JP2009141811A (en) * | 2007-12-07 | 2009-06-25 | Nec Corp | Image processor, method, program, recording medium, imaging apparatus and mobile terminal device |
JP2010239467A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Image selection device, method for selecting image and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015194084A1 (en) * | 2014-06-20 | 2015-12-23 | ソニー株式会社 | Information processing device, information processing system, and information processing method and program |
CN106664361A (en) * | 2014-06-20 | 2017-05-10 | 索尼公司 | Information processing device, information processing system, and information processing method and program |
US10462358B2 (en) | 2014-06-20 | 2019-10-29 | Sony Corporation | Information processing apparatus, information processing system, and information processing method |
CN106664361B (en) * | 2014-06-20 | 2019-12-13 | 索尼公司 | Information processing apparatus, information processing method, and computer-readable storage medium |
WO2022034779A1 (en) * | 2020-08-11 | 2022-02-17 | オムロン株式会社 | Image processing device, and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7430369B2 (en) | Image capture apparatus and control method therefor | |
JP4196714B2 (en) | Digital camera | |
JP4218348B2 (en) | Imaging device | |
US8494286B2 (en) | Face detection in mid-shot digital images | |
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
JP5704905B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
KR100924685B1 (en) | Imaging apparatus and control method thereof | |
JP4911165B2 (en) | Imaging apparatus, face detection method, and program | |
JP5293206B2 (en) | Image search apparatus, image search method and program | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
US10348958B2 (en) | Image processing apparatus for performing predetermined processing on a captured image | |
US20100188520A1 (en) | Imaging device and storage medium storing program | |
JP6149854B2 (en) | Imaging apparatus, imaging control method, and program | |
JP5880135B2 (en) | Detection apparatus, detection method, and program | |
JP4360369B2 (en) | Electronic camera | |
JP2007011200A (en) | Imaging apparatus | |
JP6033006B2 (en) | Image processing apparatus, control method thereof, control program, and imaging apparatus | |
JP2013141104A (en) | Imaging apparatus | |
JP2009010472A (en) | Imaging device and program thereof | |
JP5228927B2 (en) | Electronic device, operation control method and program | |
JP2008172732A (en) | Imaging apparatus, control method thereof, and program | |
JP2017147764A (en) | Image processing apparatus, image processing method, and program | |
JP2005065265A (en) | Frame adjustment device, image-taking device, and printing device | |
JP5995610B2 (en) | Subject recognition device and control method therefor, imaging device, display device, and program | |
JP2012178666A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160301 |