JP2009194422A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2009194422A JP2009194422A JP2008030083A JP2008030083A JP2009194422A JP 2009194422 A JP2009194422 A JP 2009194422A JP 2008030083 A JP2008030083 A JP 2008030083A JP 2008030083 A JP2008030083 A JP 2008030083A JP 2009194422 A JP2009194422 A JP 2009194422A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- image
- open
- imaging
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルスチルカメラ等の撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital still camera.
撮像装置を用いて人物を撮影する際、瞬きのタイミングとシャッタタイミングが合わず、眼が閉じた状態で撮影がなされることがある。これを回避するべく被写体が無理に眼を開け続けようとすると、不自然な表情で撮影が行われる可能性も高くなる。故に、被写体に対して開眼を強要することなく、開眼状態の画像を取得できるようにする技術が求められている。 When a person is photographed using an imaging device, the blink timing may not match the shutter timing, and photographing may be performed with the eyes closed. If the subject tries to keep his eyes open to avoid this, the possibility of shooting with an unnatural expression increases. Therefore, there is a need for a technique that enables an eye-open image to be acquired without forcing the subject to open the eye.
そこで本発明は、開眼状態の画像取得に貢献する撮像装置を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an imaging device that contributes to acquiring an image in an open eye state.
本発明に係る第1の撮像装置は、入射した光学像を光電変換することによって撮影画像を表す信号を出力する撮像素子と、前記撮像素子の出力信号に基づいて被写体としての人物の眼の開閉状態を検出する開閉状態検出手段と、前記撮像素子から対象撮影画像を得るための撮影タイミングを制御する撮影制御手段と、前記開閉状態検出手段の検出結果に基づいて、前記眼が継続して閉じている時間長さ又は前記眼が継続して開いている時間長さを計測する時間計測手段と、を備え、前記撮影制御手段は、前記時間計測手段の計測結果に基づいて前記対象撮影画像を得るための撮影タイミングを制御することを特徴とする。 A first imaging device according to the present invention includes an imaging device that outputs a signal representing a captured image by photoelectrically converting an incident optical image, and opening and closing of a human eye as a subject based on an output signal of the imaging device. Based on the detection result of the open / close state detecting means, the eye is continuously closed based on the detection result of the open / close state detecting means for detecting the state, the photographing control means for controlling the photographing timing for obtaining the target photographed image from the image sensor. A time measuring unit that measures a length of time for which the eye is continuously open or a time length for which the eye is continuously open, and the imaging control unit captures the target captured image based on a measurement result of the time measuring unit. The imaging timing for obtaining is controlled.
被写体の実際の閉眼時間や開眼時間を計測し、その計測結果を用いて対象撮影画像の撮影タイミング制御を行うことにより、開眼状態の画像を取得できる可能性が高まる。 By measuring the actual eye-closing time and eye-opening time of the subject and controlling the shooting timing of the target shot image using the measurement result, the possibility of acquiring an eye-opened image increases.
具体的には例えば、第1の撮像装置において、前記撮影制御手段は、設定された規定時間よりも長く前記眼が継続して閉じている状態が観測された後に、前記撮像素子に前記対象撮影画像を得るための撮影を実行させる。 Specifically, for example, in the first imaging device, the imaging control unit may detect the target imaging on the imaging element after observing a state in which the eyes are continuously closed longer than a set specified time. Take a picture to get an image.
これにより、被写体が意図的に行った閉眼と無意識の瞬きによる閉眼とを区別した撮影タイミング制御を行うことが可能となり、被写体の意図に合致した、開眼状態の画像を取得できる可能性が高まる。 As a result, it is possible to perform shooting timing control that distinguishes between the eye closed intentionally by the subject and the eye closed by unconscious blink, and the possibility of acquiring an eye-opened image that matches the intention of the subject increases.
更に具体的には例えば、第1の撮像装置において、前記撮影制御手段は、前記状態の観測後、前記眼の閉じている状態から開いている状態への遷移が観測されたタイミングを基準として、前記撮像素子に前記対象撮影画像を得るための撮影を実行させる。 More specifically, for example, in the first imaging device, the imaging control unit may use the timing when the transition from the closed state to the open state of the eye is observed after the observation of the state as a reference. The imaging device is caused to execute imaging for obtaining the target captured image.
また例えば、前記撮影制御手段は、設定された規定時間よりも長く前記眼が継続して開いている状態が観測された場合、次の、前記眼の閉じている状態から開いている状態への遷移を待ってから、前記撮像素子に前記対象撮影画像を得るための撮影を実行させる。 Further, for example, when the state in which the eyes are continuously open for a longer time than the set specified time is observed, the imaging control unit switches from the closed state of the eyes to the open state. After waiting for the transition, the image sensor is caused to execute imaging for obtaining the target captured image.
人間は眼を長時間開けたままにしておくことができないため、開眼状態が長く続けば続くほど閉眼状態の画像を撮影してしまう確率が高くなると考えられる。そこで、上述の如く、開眼状態が規定時間以上続いていると判断される場合は、次の瞬きを待ってから対象撮影画像の撮影を実行するように制御する。これにより、開眼状態の画像の取得可能性が高まる。 Since humans cannot keep their eyes open for a long time, the longer the eye-open state continues, the higher the probability that an image in the closed-eye state will be taken. Therefore, as described above, when it is determined that the eye-opening state has continued for a predetermined time or longer, control is performed so that the target captured image is captured after waiting for the next blink. As a result, the possibility of acquiring an image in an open eye state increases.
本発明に係る第2の撮像装置は、入射した光学像を光電変換することによって撮影画像を表す信号を出力する撮像素子と、前記撮像素子の出力信号に基づいて被写体としての人物の眼の開閉状態を検出する開閉状態検出手段と、前記撮像素子を用いて連続撮影を実行する撮影制御手段と、前記連続撮影の実行前に前記撮像素子から得られた撮影画像群に対する前記開閉状態検出手段の検出結果に基づいて、前記眼が継続して閉じている時間長さを表す基準閉眼持続時間を計測する時間計測手段と、を備え、前記撮影制御手段は、前記基準閉眼持続時間に基づいて連続撮影における撮影間隔を設定することを特徴とする。 A second imaging device according to the present invention includes an imaging device that outputs a signal representing a captured image by photoelectrically converting an incident optical image, and opening and closing of a human eye as a subject based on the output signal of the imaging device. An open / closed state detecting unit for detecting a state, a shooting control unit for executing continuous shooting using the image sensor, and the open / closed state detecting unit for a captured image group obtained from the image sensor before the continuous shooting is performed. And a time measuring means for measuring a reference closed eye duration indicating the length of time that the eye is continuously closed based on a detection result, and the imaging control means is continuously based on the reference closed eye duration. A shooting interval in shooting is set.
これにより、連続撮影によって得られた撮影画像群中に開眼状態の画像を少なくとも1枚含める、といった撮影タイミング制御が可能となる。 As a result, it is possible to perform shooting timing control such that at least one eye-open image is included in a group of shot images obtained by continuous shooting.
また例えば、第2の撮像装置において、前記時間計測手段は、前記撮影画像群に対する前記開閉状態検出手段の検出結果に基づいて、前記眼が継続して開いている時間長さを表す基準開眼持続時間をも計測し、前記撮影制御手段は、前記基準閉眼持続時間と前記基準開眼持続時間に基づいて前記撮影間隔を設定する。 Further, for example, in the second imaging device, the time measuring unit may be a reference eye opening duration that represents a length of time that the eye is continuously open based on a detection result of the open / closed state detecting unit with respect to the captured image group. The time is also measured, and the photographing control means sets the photographing interval based on the reference eye closing duration and the reference eye opening duration.
これにより、連続撮影によって得られた撮影画像群中に開眼状態の画像が含まれる確率を、更に高めることが可能となる。 As a result, it is possible to further increase the probability that the image of the open eye state is included in the captured image group obtained by continuous shooting.
また、上記の第1又は第2の撮像装置は、前記被写体に複数の人物が含まれる場合、各人物の撮影画像中の位置、各人物の撮影画像中の顔の大きさ、各人物の撮影画像中の顔領域内画像と予め登録された顔画像との対比結果、及び、各人物の撮影画像中の眼の大きさ、の内の少なくとも1つに基づいて、前記複数の人物の内の1人の人物を特定人物として選択し、前記開閉状態検出手段は、前記特定人物の眼の開閉状態を検出する。 In the first or second imaging device, when the subject includes a plurality of persons, the position in the captured image of each person, the size of the face in the captured image of each person, and the capturing of each person Based on at least one of the comparison result between the face area image in the image and the face image registered in advance and the size of the eye in the photographed image of each person, One person is selected as the specific person, and the open / close state detecting means detects the open / closed state of the eyes of the specific person.
本発明に係る第3の撮像装置は、入射した光学像を光電変換することによって撮影画像を表す信号を出力する撮像素子と、前記撮像素子の出力信号に基づいて被写体としての人物の眼の開閉状態を検出する開閉状態検出手段と、前記撮像素子から対象撮影画像を得るための撮影タイミングを制御する撮影制御手段と、を備え、前記撮影制御手段は、前記開閉状態検出手段の検出結果に基づいて前記対象撮影画像を得るための撮影タイミングを制御することを特徴とする。 A third imaging device according to the present invention includes: an imaging device that outputs a signal representing a captured image by photoelectrically converting an incident optical image; and opening and closing of a human eye as a subject based on an output signal of the imaging device An open / closed state detecting unit for detecting a state, and a shooting control unit for controlling a shooting timing for obtaining a target shot image from the image sensor, wherein the shooting control unit is based on a detection result of the open / closed state detecting unit. Then, the photographing timing for obtaining the target photographed image is controlled.
実際の撮影画像から検出した眼の開閉状態に基づいて対象撮影画像の撮影タイミングを制御することにより、開眼状態の画像を取得できる可能性が高まる。 By controlling the shooting timing of the target captured image based on the open / closed state of the eyes detected from the actual captured image, the possibility that an image in the open state can be acquired increases.
具体的には例えば、第3の撮像装置において、前記撮影制御手段は、前記眼の閉じている状態から開いている状態への遷移が観測されたタイミングを基準として、前記撮像素子に前記対象撮影画像を得るための撮影を実行させる。 Specifically, for example, in the third imaging apparatus, the imaging control unit may cause the imaging device to capture the target imaging with reference to a timing at which a transition from the closed state to the open state is observed. Take a picture to get an image.
また例えば、第3の撮像装置において、前記被写体に複数の人物が含まれる場合、前記撮影制御手段は、全ての人物についての前記開閉状態に基づいて又は前記複数の人物中の特定人物についての前記開閉状態に基づいて、前記対象撮影画像を得るための撮影タイミングを制御する。 Also, for example, in the third imaging apparatus, when the subject includes a plurality of persons, the photographing control unit may perform the shooting for the specific person among the plurality of persons based on the open / closed state for all persons. Based on the open / closed state, the photographing timing for obtaining the target photographed image is controlled.
また例えば、第1、第2又は第3の撮像装置に、前記撮影画像中の人物の眼領域を検出する眼領域検出手段を更に設けるようにしてもよい。そして例えば、前記開閉状態検出手段は、前記眼領域内における特徴点を抽出する特徴点抽出手段を有し、抽出された特徴点の個数に基づいて前記眼の開閉状態を検出する。 Further, for example, the first, second, or third imaging device may be further provided with eye region detection means for detecting a human eye region in the captured image. For example, the open / close state detection means includes feature point extraction means for extracting feature points in the eye region, and detects the open / close state of the eyes based on the number of extracted feature points.
これにより、正確な開閉状態検出を行うことが可能となる。 This makes it possible to accurately detect the open / close state.
本発明によれば、開眼状態の画像取得に貢献する撮像装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging device which contributes to the image acquisition of an open eye state can be provided.
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。 The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第4実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。 Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to fourth embodiments will be described later. First, matters that are common to each embodiment or items that are referred to in each embodiment will be described.
図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。図1の撮像装置1は、静止画を撮影及び記録可能なデジタルスチルカメラ、又は、静止画及び動画を撮影及び記録可能なデジタルビデオカメラである。 FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging apparatus 1 in FIG. 1 is a digital still camera that can shoot and record still images, or a digital video camera that can shoot and record still images and moving images.
撮像装置1は、撮像部11と、画像メモリ12と、主制御部13と、シャッタ制御部14と、表示部15と、記録媒体16と、操作部17と、を備えている。操作部17には、シャッタボタン17aが備えられている。 The imaging device 1 includes an imaging unit 11, an image memory 12, a main control unit 13, a shutter control unit 14, a display unit 15, a recording medium 16, and an operation unit 17. The operation unit 17 is provided with a shutter button 17a.
撮像部11は、図示されない光学系及び絞りと、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどから成る撮像素子11aと、光学系や絞りを制御するためのドライバ(不図示)と、を有している。ドライバは、主制御部13からのAF/AE制御信号に基づいて、光学系のズーム倍率や焦点距離、及び、絞りの開度を制御する。撮像素子11aは、光学系及び絞りを介して入射した被写体を表す光学像を光電変換し、該光電変換によって得られた電気信号を出力する。より具体的には、撮像素子11aは、マトリクス状に二次元配列された複数の受光画素を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からのアナログ信号は、撮像装置1内で生成される駆動パルスに従って順次後段回路(後述のAFE)に出力される。以下の説明における「露光」とは、撮像素子11aの露光を意味するものとする。 The imaging unit 11 includes an optical system and a diaphragm (not shown), an imaging element 11a including a CCD (Charge Coupled Devices) and a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and a driver (not shown) for controlling the optical system and the diaphragm. ) And. The driver controls the zoom magnification and focal length of the optical system and the aperture of the diaphragm based on the AF / AE control signal from the main control unit 13. The image sensor 11a photoelectrically converts an optical image representing a subject incident through an optical system and a diaphragm, and outputs an electrical signal obtained by the photoelectric conversion. More specifically, the image pickup device 11a includes a plurality of light receiving pixels that are two-dimensionally arranged in a matrix, and each light receiving pixel stores a signal charge having a charge amount corresponding to an exposure time in each photographing. An analog signal from each light receiving pixel having a magnitude proportional to the amount of the stored signal charge is sequentially output to a subsequent circuit (AFE described later) in accordance with a drive pulse generated in the imaging device 1. In the following description, “exposure” means exposure of the image sensor 11a.
図示されないAFE(Analog Front End)にて、撮像素子11aから出力されたアナログ信号を増幅してデジタル信号に変換した後、得られたデジタル信号は、SDRAM(Synchronous Dynamic Random Access Memory)等にて形成される画像メモリ12に記憶される。撮像部11の撮影によって得られた1枚の全体画像を、以下「フレーム画像」と呼ぶ。画像メモリ12には、フレーム画像を表す、デジタル信号としての画像データが記憶される。 An AFE (Analog Front End) (not shown) amplifies an analog signal output from the image sensor 11a and converts it into a digital signal, and then the obtained digital signal is formed by an SDRAM (Synchronous Dynamic Random Access Memory) or the like. Stored in the image memory 12. One whole image obtained by photographing by the imaging unit 11 is hereinafter referred to as a “frame image”. The image memory 12 stores image data as a digital signal representing a frame image.
主制御部13は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)等から成り、画像処理部21、顔領域検出部22、眼領域検出部23及び開閉状態検出部24を含んで構成される。画像メモリ12に記憶された画像データは画像処理部21に与えられる。画像処理部21は、フレーム画像の画像データに対して適宜必要な処理を施してフレーム画像に応じた映像信号を生成し、その映像信号を表示部15に送ることによりフレーム画像に基づく画像を表示部15上で表示させる。また、画像処理部21は、必要に応じて、フレーム画像の画像データを圧縮し、圧縮後の画像データを記録媒体16に保存する。 The main control unit 13 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and includes an image processing unit 21, a face region detection unit 22, an eye region detection unit 23, and an open / closed state detection. The unit 24 is configured to be included. The image data stored in the image memory 12 is given to the image processing unit 21. The image processing unit 21 appropriately performs necessary processing on the image data of the frame image to generate a video signal corresponding to the frame image, and sends the video signal to the display unit 15 to display an image based on the frame image. Displayed on the unit 15. Further, the image processing unit 21 compresses the image data of the frame image as necessary, and stores the compressed image data in the recording medium 16.
シャッタ制御部14は、主制御部13と協働して撮像部11による撮影のタイミングを制御する。表示部15は、液晶ディスプレイパネル等から形成される表示装置であり、記録媒体16は、SD(Secure Digital)メモリカード等の不揮発性メモリである。操作部17は、外部からの操作を受け付ける。操作部17に対する操作内容は、主制御部13に伝達される。シャッタボタン17aは、静止画の撮影及び記録を指示するためのボタンである。 The shutter control unit 14 controls the timing of shooting by the imaging unit 11 in cooperation with the main control unit 13. The display unit 15 is a display device formed from a liquid crystal display panel or the like, and the recording medium 16 is a nonvolatile memory such as an SD (Secure Digital) memory card. The operation unit 17 receives an operation from the outside. The content of the operation on the operation unit 17 is transmitted to the main control unit 13. The shutter button 17a is a button for instructing to capture and record a still image.
顔領域検出部22、眼領域検出部23及び開閉状態検出部24には、フレーム画像の画像データが画像処理部21を介して与えられる。この際、画像処理部21にて必要な画像処理を施し、その画像処理後の画像データを顔領域検出部22、眼領域検出部23及び開閉状態検出部24に送るようにしてもよい。顔領域検出部22、眼領域検出部23及び開閉状態検出部24に送られる画像データによって表わされる画像(即ち、フレーム画像そのもの、又は、上記の画像処理後のフレーム画像)を、以下「入力画像」と呼ぶ。 Image data of a frame image is given to the face region detection unit 22, the eye region detection unit 23, and the open / close state detection unit 24 through the image processing unit 21. At this time, the image processing unit 21 may perform necessary image processing and send the image data after the image processing to the face region detection unit 22, the eye region detection unit 23, and the open / close state detection unit 24. An image (that is, the frame image itself or the frame image after the above image processing) represented by the image data sent to the face area detection unit 22, the eye area detection unit 23, and the open / closed state detection unit 24 is hereinafter referred to as “input image”. "
顔領域検出部22は、入力画像から人物の顔部分を含む領域である顔領域を検出して抽出し、抽出した顔領域の、入力画像内における位置及び大きさを表す顔領域情報を生成する。顔領域を抽出して顔領域情報を生成する処理を含む、顔領域検出部22によって行われる処理を以下「顔検出処理」と呼ぶ。尚、顔領域は矩形領域であるものとする。但し、顔領域の外形を矩形以外とすることも可能である。顔領域の位置は、例えば、入力画像上における、顔領域の中心の座標値によって規定される。顔領域の大きさは、例えば、入力画像上における、顔領域の水平方向の画素数及び垂直方向の画素数によって規定される。 The face area detection unit 22 detects and extracts a face area, which is an area including a human face portion, from the input image, and generates face area information representing the position and size of the extracted face area in the input image. . The process performed by the face area detection unit 22 including the process of extracting the face area and generating the face area information is hereinafter referred to as “face detection process”. Note that the face area is a rectangular area. However, the outer shape of the face area may be other than a rectangle. The position of the face area is defined by the coordinate value of the center of the face area on the input image, for example. The size of the face area is defined by, for example, the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the face area on the input image.
画像中に含まれる顔を検出する手法として様々な手法が知られており、顔領域検出部22は何れの手法をも採用可能である。例えば、特開2000−105819号公報に記載の手法のように入力画像から肌色領域を抽出することによって顔領域を検出しても良いし、特開2006−211139号公報又は特開2006−72770号公報に記載の手法を用いて顔領域を検出しても良い。 Various methods are known as a method for detecting a face included in an image, and the face region detection unit 22 can employ any method. For example, a face area may be detected by extracting a skin color area from an input image as in the method described in Japanese Patent Application Laid-Open No. 2000-105819, or Japanese Patent Application Laid-Open No. 2006-21111 or Japanese Patent Application Laid-Open No. 2006-72770. The face area may be detected using the method described in the publication.
典型的には例えば、入力画像内に設定された着目領域の画像と所定の画像サイズを有する基準顔画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に顔が含まれているか否か(着目領域が顔領域であるか否か)を検出する。入力画像内において着目領域は一画素ずつ左右方向又は上下方向にずらされる。そして、ずらされた後の着目領域内の画像と基準顔画像とが対比されて、再度、両画像の類似度が判定され、同様の検出が行われる。このように、着目領域は、例えば入力画像の左上から右下方向に向けて1画素ずつずらされながら、更新設定される。また、入力画像を一定割合で縮小し、縮小後の画像に対して、同様の顔検出処理を行う。このような処理を繰り返すことにより、入力画像中から任意の大きさの顔を検出することができる。 Typically, for example, the image of the region of interest set in the input image is compared with a reference face image having a predetermined image size to determine the similarity between both images, and the region of interest is determined based on the similarity. It is detected whether or not a face is included (whether or not the region of interest is a face region). In the input image, the region of interest is shifted one pixel at a time in the horizontal direction or the vertical direction. Then, the image in the region of interest after the shift is compared with the reference face image, the similarity between both images is determined again, and the same detection is performed. In this way, the region of interest is updated and set, for example, while being shifted pixel by pixel from the upper left to the lower right of the input image. In addition, the input image is reduced at a certain rate, and the same face detection process is performed on the reduced image. By repeating such processing, a face of any size can be detected from the input image.
眼領域検出部23は、顔領域情報に基づいて顔領域の位置及び大きさを認識し、その顔領域から眼の部分を含む領域である眼領域を検出して抽出し、抽出した眼領域の、入力画像内における位置及び大きさを表す眼領域情報を生成する。眼領域を抽出して眼領域情報を生成する処理を含む、眼領域検出部23によって行われる処理を以下「眼検出処理」と呼ぶ。眼領域を、1つの顔領域内に存在する2つの眼を含む領域と考えることも可能であるが、今、その2つの眼の内の一方の眼のみを含む領域を眼領域として考えることとする。尚、眼領域は矩形領域であるものとする。但し、眼領域の外形を矩形以外とすることも可能である。眼領域の位置は、例えば、入力画像上における、眼領域の中心の座標値によって規定される。眼領域の大きさは、例えば、入力画像上における、眼領域の水平方向の画素数及び垂直方向の画素数によって規定される。 The eye area detection unit 23 recognizes the position and size of the face area based on the face area information, detects and extracts an eye area that includes an eye part from the face area, and extracts the extracted eye area. The eye region information representing the position and size in the input image is generated. The process performed by the eye area detection unit 23 including the process of extracting the eye area and generating the eye area information is hereinafter referred to as “eye detection process”. Although it is possible to consider an eye area as an area including two eyes existing in one face area, now, an area including only one of the two eyes is considered as an eye area. To do. Note that the eye area is a rectangular area. However, the outer shape of the eye region can be other than a rectangle. The position of the eye region is defined by, for example, the coordinate value of the center of the eye region on the input image. The size of the eye region is defined by, for example, the number of pixels in the horizontal direction and the number of pixels in the vertical direction of the eye region on the input image.
図2に、入力画像の例としての画像200と、その画像200から抽出された顔領域201を示す。符号201が付された破線の内部領域が顔領域である。図3(a)は、顔領域201の拡大図である。符号202が付された破線の内部領域が、眼領域検出部23によって顔領域201から抽出された眼領域である。図3(b)は、眼領域202の拡大図である。 FIG. 2 shows an image 200 as an example of an input image and a face area 201 extracted from the image 200. A broken line inside area denoted by reference numeral 201 is a face area. FIG. 3A is an enlarged view of the face area 201. A broken line internal region denoted by reference numeral 202 is an eye region extracted from the face region 201 by the eye region detection unit 23. FIG. 3B is an enlarged view of the eye region 202.
顔領域から眼領域を抽出する手法として様々な手法が知られており、眼領域検出部23は何れの手法をも採用可能である。例えば、顔領域を検出する際の基準顔画像を基準眼画像に入れ替えて顔領域検出時の処理と同様の処理を行えば良い。即ち例えば、入力画像内に設定された着目領域の画像と所定の画像サイズを有する基準眼画像とを対比して両画像の類似度を判定し、その類似度に基づいて着目領域に眼が含まれているか否か(着目領域が眼領域であるか否か)を検出すればよい。この際、着目領域は顔領域内で走査される。 Various methods are known as a method for extracting an eye region from a face region, and the eye region detection unit 23 can employ any method. For example, the reference face image for detecting the face area may be replaced with the reference eye image, and the same process as that for detecting the face area may be performed. That is, for example, the image of the region of interest set in the input image is compared with the reference eye image having a predetermined image size to determine the similarity between both images, and the eye is included in the region of interest based on the similarity It is only necessary to detect whether or not the target region is the eye region. At this time, the region of interest is scanned within the face region.
開閉状態検出部24は、眼領域情報に基づいて眼領域の位置及び大きさを認識し、その眼領域内に存在する眼の開閉状態を検出する。即ち、その眼が開いている状態(以下、開眼状態という)にあるのか或いは閉じている状態(以下、閉眼状態という)にあるのかを判別する。開閉状態検出部24による、この判別を行うための処理を以下「開閉状態検出処理」と呼ぶ。 The open / close state detection unit 24 recognizes the position and size of the eye region based on the eye region information, and detects the open / closed state of the eye existing in the eye region. That is, it is determined whether the eye is in an open state (hereinafter referred to as an open eye state) or in a closed state (hereinafter referred to as an eye closed state). Processing for performing this determination by the open / close state detection unit 24 is hereinafter referred to as “open / close state detection processing”.
例えば、図4に示すような標準的な瞳孔を表す画像をテンプレートとして予め撮像装置1内に保持しておき、そのテンプレートと入力画像の眼領域内の画像とのテンプレートマッチングを行うことで、眼領域内に瞳孔が存在しているか否かを検出する。そして、瞳孔の存在が検出された時に眼が開いていると判断する一方、瞳孔の存在が検出されなった時に眼が閉じていると判断する。眼が閉じている場合は、眼領域内の何れの位置にテンプレートを配置してテンプレートマッチングを行っても、テンプレートと眼領域内の画像との類似度は所定の基準類似度よりも小さくなる。このような場合、入力画像の眼領域内に瞳孔が存在しないと判断する。逆に、その基準類似度よりも大きな類似度が観測されれば入力画像の眼領域内に瞳孔が存在すると判断する。 For example, an image representing a standard pupil as shown in FIG. 4 is stored in the imaging apparatus 1 in advance as a template, and template matching between the template and an image in the eye area of the input image is performed, thereby It is detected whether or not a pupil is present in the region. Then, it is determined that the eye is open when the presence of the pupil is detected, while it is determined that the eye is closed when the presence of the pupil is not detected. When the eyes are closed, the template is placed at any position in the eye region and the template matching is performed, the similarity between the template and the image in the eye region is smaller than a predetermined reference similarity. In such a case, it is determined that there is no pupil in the eye area of the input image. Conversely, if a similarity greater than the reference similarity is observed, it is determined that a pupil is present in the eye area of the input image.
或いは例えば、特徴点抽出処理を介して眼の開閉状態を検出するようにしてもよい。この方法では、眼が開いている場合には瞳孔内部及び周辺部から多数の特徴点が抽出される一方、眼が閉じている場合には眼の端部のみから特徴点が抽出されるという特性を利用する。この方法を用いる場合、開閉状態検出部24は、まず、入力画像の眼領域内に存在する特徴点を抽出する処理を行う(図5(a)参照)。特徴点とは、水平及び垂直方向における濃淡変化量が大きい画素を意味し、Harrisのコーナ検出器、SUSANのコーナ検出器などの特徴点抽出器(不図示)を用いて、そのような特徴点を自動的に抽出することができる。また、Kanade&Lucasトラッカーと呼ばれる画像追跡方法で利用される特徴点抽出方法を用いて特徴点を抽出するようにしてもよい。 Alternatively, for example, the open / closed state of the eye may be detected through a feature point extraction process. In this method, when the eyes are open, a large number of feature points are extracted from the inside and the periphery of the pupil. On the other hand, when the eyes are closed, the feature points are extracted only from the end portions of the eyes. Is used. When this method is used, the open / close state detection unit 24 first performs a process of extracting feature points existing in the eye area of the input image (see FIG. 5A). The feature point means a pixel having a large amount of change in shading in the horizontal and vertical directions. Such a feature point is obtained by using a feature point extractor (not shown) such as a Harris corner detector or a SUSAN corner detector. Can be automatically extracted. Further, feature points may be extracted using a feature point extraction method used in an image tracking method called Kanade & Lucas tracker.
図5(a)の画像210及び220は、夫々、開眼状態における眼領域の画像及び閉眼状態における眼領域の画像を表している。眼領域画像210及び220内に示された十字状のマークは、眼領域画像210及び220から抽出された特徴点を表している。図5(a)及び後述の図5(b)及び(c)では、眼領域画像210から抽出された複数の特徴点の内の、一部の特徴点に対してのみ符号211を付し、眼領域画像220から抽出された複数の特徴点の内の、一部の特徴点に対してのみ符号221を付している。尚、十字状のマーク及び後述する星形のマークは、説明の便宜を図るために眼領域画像に重畳して示したものであって、実際の画像中にこのようなマークが存在している訳ではない。 Images 210 and 220 in FIG. 5A represent an image of the eye region in the open eye state and an image of the eye region in the closed eye state, respectively. The cross-shaped marks shown in the eye region images 210 and 220 represent feature points extracted from the eye region images 210 and 220. In FIG. 5 (a) and FIGS. 5 (b) and 5 (c) described later, reference numeral 211 is given only to some of the feature points extracted from the eye region image 210, Reference numerals 221 are given only to some of the feature points extracted from the eye region image 220. The cross-shaped mark and the star-shaped mark described later are shown superimposed on the eye region image for convenience of explanation, and such a mark exists in the actual image. Not a translation.
特徴点の抽出後、開閉状態検出部24は、特徴点の抽出結果に基づいて眼領域に存在する眼の2つの端点の位置を検出する。端点とは、顔の左右方向における、眼の端部を意味する。具体的には、眼領域から抽出された複数の特徴点の内、最も顔の左側に位置する特徴点と最も顔の右側に位置する特徴点を眼の両端点として検出する。尚、眼の真の端点からかけ離れた点(こめかみや眉間等)が眼の端点として誤検出されないように、眼領域検出部23は、瞼の端部を含む、なるだけ小さな領域を眼領域として抽出しておくようにする。 After the feature points are extracted, the open / close state detection unit 24 detects the positions of the two end points of the eyes existing in the eye region based on the feature point extraction results. The end point means the end of the eye in the left-right direction of the face. Specifically, a feature point located on the left side of the face and a feature point located on the right side of the face among the plurality of feature points extracted from the eye region are detected as both end points of the eye. Note that the eye area detection unit 23 uses as small an area as possible as the eye area, including the edge of the eyelid, so that a point far from the true end point of the eye (such as the temple or between eyebrows) is not erroneously detected as the end point of the eye. Try to extract.
図5(b)の左側に、複数の特徴点211及び検出された両端点を眼領域画像210に重畳したものを示し、図5(b)の右側に、複数の特徴点221及び検出された両端点を眼領域画像220に重畳したものを示す。図5(b)の眼領域画像210内に示された星型のマーク212及び213が、眼領域画像210についての眼領域の両端点であり、図5(b)の眼領域画像220内に示された星型のマーク222及び223が、眼領域画像220についての眼領域の両端点である。 The left side of FIG. 5B shows a plurality of feature points 211 and detected end points superimposed on the eye region image 210, and the right side of FIG. 5B shows a plurality of feature points 221 and detected. An example in which both end points are superimposed on the eye region image 220 is shown. The star-shaped marks 212 and 213 shown in the eye area image 210 of FIG. 5B are the end points of the eye area for the eye area image 210, and in the eye area image 220 of FIG. 5B. The star-shaped marks 222 and 223 shown are the end points of the eye area for the eye area image 220.
その後、開閉状態検出部24は、眼の各端点を通る2線分を2辺として有する矩形(以下、端点基準矩形という)を眼領域内に設定し、その端点基準矩形内に存在する特徴点の個数を計数する。但し、上記2辺は、矩形を形成する、対向する2辺であるとする。そして、その個数が所定の基準値よりも大きい場合に着目した眼が開いていると判断する一方、そうでない場合は、着目した眼が閉じていると判断する。尚、眼領域の大きさが大きくなれば特徴点の個数も増大する方向に向かうため、上記の基準値を、端点基準矩形の大きさに応じて変化させるようにするとよい(例えば、その大きさに応じて基準値を正規化すればよい)。 After that, the open / close state detection unit 24 sets a rectangle having two line segments passing through each end point of the eye as two sides (hereinafter referred to as an end point reference rectangle) in the eye region, and the feature points existing in the end point reference rectangle Count the number of However, it is assumed that the two sides are two opposite sides that form a rectangle. If the number is larger than a predetermined reference value, it is determined that the focused eye is open, and if not, it is determined that the focused eye is closed. Note that since the number of feature points increases as the size of the eye region increases, the reference value may be changed according to the size of the endpoint reference rectangle (for example, the size thereof). Normalization of the reference value according to
図5(c)の左側に、複数の特徴点211、両端点212及び213並びに端点基準矩形215を眼領域画像210に重畳したものを示し、図5(c)の右側に、複数の特徴点221、両端点222及び223並びに設定された端点基準矩形225を眼領域画像220に重畳したものを示す。 The left side of FIG. 5C shows a plurality of feature points 211, both end points 212 and 213 and the end point reference rectangle 215 superimposed on the eye region image 210, and the right side of FIG. 5C shows a plurality of feature points. 221, both end points 222 and 223 and set end point reference rectangle 225 are superimposed on the eye region image 220.
眼領域画像210に着目して、矩形の設定方法を補足説明しておく。眼領域画像210に設定された端点基準矩形215の左右方向の長さは眼の両端点212及び213の位置にて定まる。端点基準矩形215の上下方向の長さは、例えば、眼の両端点212及び213間の距離に所定係数(例えば、0.5)を乗じた長さとする。また、端点基準矩形215を上下に分ける二等分線(即ち、左右方向に伸びるべき二等分線)は、両端点212及び213を通るものとする。眼領域画像220に対する端点基準矩形225も同様に設定される。 Focusing on the eye area image 210, a rectangular setting method will be supplementarily described. The length in the left-right direction of the end point reference rectangle 215 set in the eye region image 210 is determined by the positions of both end points 212 and 213 of the eye. The length in the vertical direction of the end point reference rectangle 215 is, for example, a length obtained by multiplying the distance between the both end points 212 and 213 of the eye by a predetermined coefficient (for example, 0.5). In addition, a bisector dividing the end point reference rectangle 215 vertically (that is, a bisector to extend in the left-right direction) passes through both end points 212 and 213. The end point reference rectangle 225 for the eye region image 220 is set in the same manner.
このように、特徴点抽出を利用すれば、瞳の色の相違や照明の相違の影響を受けにくい、正確な開閉状態検出を行うことができる。 Thus, by using feature point extraction, it is possible to accurately detect an open / closed state that is not easily affected by differences in pupil color or illumination.
1枚又は複数枚の静止画の撮影及び記録を指示する操作がなされた時、主制御部13は、その操作後の露光によって得られる1枚又は複数枚のフレーム画像を記録媒体16に記録するのであるが、撮像装置1は、開閉状態検出部24等を用いた特徴的な撮影処理を行うことが可能となっている。 When an operation for instructing shooting and recording of one or a plurality of still images is performed, the main control unit 13 records one or a plurality of frame images obtained by the exposure after the operation on the recording medium 16. However, the imaging apparatus 1 can perform a characteristic photographing process using the open / close state detection unit 24 and the like.
この特徴的な撮影処理を行う場合、図6に示すような、準備期間と実撮影期間が設定される。他の動作モードから静止画撮影が可能な動作モードに移行すると、まず、通常期間に遷移する。この後、ユーザが操作部17に対して所定の操作(以下、第1操作という)を行うと準備期間に移行する。準備期間の開始時点は第1操作を行った時点である。準備期間の開始時点をタイミングt1にて表す。その後、規定された条件が満たされると準備期間から実撮影期間に移行する。準備期間の終了時点と実撮影期間の開始時点は一致しており、実撮影期間の開始時点をタイミングtAで表す。実撮影期間において、第1操作に対応して取得されるべきフレーム画像の撮影を行い、その撮影を終えると実撮影期間から通常期間へと遷移する。実撮影期間における撮影によって得られるフレーム画像を、以下「対象画像」と呼ぶ。 When this characteristic shooting process is performed, a preparation period and an actual shooting period are set as shown in FIG. When a transition is made from another operation mode to an operation mode in which still image shooting is possible, first, a transition is made to the normal period. Thereafter, when the user performs a predetermined operation (hereinafter referred to as a first operation) on the operation unit 17, the preparation period starts. The start time of the preparation period is the time when the first operation is performed. The start time of the preparation period is represented by timing t1. After that, when the prescribed conditions are satisfied, the preparation period shifts to the actual shooting period. Beginning of the end and the real shooting period of the preparation period is consistent, represents the start time of the actual recording period at timing t A. In the actual shooting period, a frame image to be acquired corresponding to the first operation is shot, and when the shooting is finished, the transition is made from the actual shooting period to the normal period. A frame image obtained by shooting in the actual shooting period is hereinafter referred to as “target image”.
通常期間及び準備期間において、撮像部11は、主制御部13及びシャッタ制御部14による制御の下、所定のフレーム周期で順次撮影を行い、周期的にフレーム画像を取得する。上述したように、得られた各フレーム画像の画像データは画像メモリ12に記憶される。画像メモリ12は、1枚又は複数枚分のフレーム画像を記憶可能であり、新たなフレーム画像が順次上書き保存されていく。時間の進行と共に、順次、第1、第2、第3、・・・のフレーム画像がこの順番で取得されるものとする。 In the normal period and the preparation period, the imaging unit 11 sequentially captures images at a predetermined frame period under the control of the main control unit 13 and the shutter control unit 14, and periodically acquires frame images. As described above, the obtained image data of each frame image is stored in the image memory 12. The image memory 12 can store one or a plurality of frame images, and new frame images are sequentially overwritten and saved. Assume that the first, second, third,... Frame images are sequentially acquired in this order as time progresses.
準備期間において順次得られる各フレーム画像に対して(厳密には、その各フレーム画像に基づく各入力画像に対して)、顔領域検出部22、眼領域検出部23及び開閉状態検出部24は、上述の顔検出処理、眼検出処理及び開閉状態検出処理を行い、各フレーム画像内における、被写体としての人物の眼の開閉状態を検出する。尚、厳密には、顔領域検出部22、眼領域検出部23及び開閉状態検出部24は、上述の顔検出処理、眼検出処理及び開閉状態検出処理を入力画像に対して行うのであるが、入力画像はフレーム画像に基づく画像であるため、以下の説明では、入力画像とフレーム画像との相違を無視する。また、以下の説明では、各フレーム画像内に、被写体としての人物の顔が含まれている場合を想定する。 For each frame image obtained sequentially in the preparation period (strictly, for each input image based on each frame image), the face area detection unit 22, the eye area detection unit 23, and the open / close state detection unit 24 are: The face detection process, the eye detection process, and the open / closed state detection process described above are performed to detect the open / closed state of the eyes of a person as a subject in each frame image. Strictly speaking, the face area detection unit 22, the eye area detection unit 23, and the open / close state detection unit 24 perform the face detection process, the eye detection process, and the open / close state detection process on the input image. Since the input image is an image based on the frame image, the difference between the input image and the frame image is ignored in the following description. In the following description, it is assumed that each frame image includes a human face as a subject.
上述の特徴的な撮影処理の動作を説明する実施例として、以下に、第1〜第4実施例を説明する。矛盾なき限り、或る実施例に記載した事項は他の実施例にも適用される。 As examples for explaining the operation of the above-described characteristic photographing processing, first to fourth examples will be described below. As long as there is no contradiction, the matters described in one embodiment also apply to other embodiments.
<<第1実施例>>
まず、第1実施例について説明する。図7に、第1実施例に係る撮影処理動作の手順を表すフローチャートを示す。図8は、この動作の時間的な流れを表す概念図である。第1実施例では1枚の対象画像を取得する。
<< First Example >>
First, the first embodiment will be described. FIG. 7 is a flowchart showing the procedure of the photographing processing operation according to the first embodiment. FIG. 8 is a conceptual diagram showing the temporal flow of this operation. In the first embodiment, one target image is acquired.
まず、ステップS11において、主制御部13は、シャッタボタン17aが押下されたか否かを確認し、シャッタボタン17aが押下された場合にステップS12に移行する。第1実施例では、このシャッタボタン17aを押下するという操作が第1操作に相当し、シャッタボタン17aの押下タイミングがタイミングt1である。シャッタボタン17aの押下によって準備期間に移行し、準備期間中に、ステップS12の処理がステップS13に移行するまで繰り返し実行される。 First, in step S11, the main control unit 13 confirms whether or not the shutter button 17a has been pressed. If the shutter button 17a has been pressed, the main control unit 13 proceeds to step S12. In the first embodiment, the operation of pressing the shutter button 17a corresponds to the first operation, and the pressing timing of the shutter button 17a is the timing t1. When the shutter button 17a is pressed, the process proceeds to the preparation period, and during the preparation period, the process of step S12 is repeatedly executed until the process proceeds to step S13.
ステップS12において、開閉状態検出部24は、順次得られるフレーム画像内における人物の眼の開閉状態を検出する。主制御部13は、その検出結果に基づいて、フレーム画像内における人物の眼の状態が閉眼状態から開眼状態へ遷移したか否かを常時監視する。そして、その遷移が確認された時、実撮影期間への移行条件が成立したと判断してステップS13に移行する。その遷移が確認されたタイミングが、第1実施例におけるタイミングtAである(図6参照)。 In step S <b> 12, the open / close state detection unit 24 detects the open / close state of the human eye in the sequentially obtained frame images. Based on the detection result, the main control unit 13 constantly monitors whether or not the human eye state in the frame image has changed from the closed eye state to the open eye state. When the transition is confirmed, it is determined that the condition for shifting to the actual photographing period is satisfied, and the process proceeds to step S13. The timing when the transition is confirmed is the timing t A in the first embodiment (see FIG. 6).
より具体的には例えば(図8参照)、タイミングt1の後、第1、第2、・・・第20のフレーム画像が順次得られて、第1〜第16のフレーム画像における眼の状態が開眼状態であると検出され、且つ、第17〜第19のフレーム画像における眼の状態が閉眼状態であると検出され、且つ、第20のフレーム画像における眼の状態が開眼状態であると検出された場合、第19と第20のフレーム画像の撮影間で眼の状態が閉眼状態から開眼状態へ遷移したと判断する。この遷移が確認されたタイミングがタイミングtAである。 More specifically, for example (see FIG. 8), after the timing t1, the first, second,..., 20th frame images are sequentially obtained, and the eye states in the first to 16th frame images are determined. It is detected that the eye is in an open state, the eye state in the 17th to 19th frame images is detected to be a closed eye state, and the eye state in the 20th frame image is detected to be an open eye state. In this case, it is determined that the eye state has changed from the closed eye state to the open eye state between the 19th and 20th frame images. Time for this transition is confirmed a timing t A.
ステップS13において、主制御部13及びシャッタ制御部14は、タイミングtA後のなるだけ早い時点にて対象画像の撮影を行い(即ち、対象画像を得るための露光を行い)、対象画像の画像データを取得する。タイミングtAから対象画像の露光を開始するのが最も好ましいのであるが、様々な制約上、実際にはタイミングtAから若干遅れて対象画像の露光が開始される。この遅れを、タイムラグという。対象画像の画像データは、一旦、画像メモリ12に保存された後、圧縮処理等の必要な処理を経て、記録媒体16に保存される(ステップS14)。 In step S13, the main control unit 13 and the shutter control unit 14 take the target image at the earliest possible time after the timing t A (that is, perform exposure to obtain the target image), and then image the target image. Get the data. Although it is most preferable to start the exposure of the target image from the timing t A, the exposure of the target image actually starts slightly later than the timing t A due to various restrictions. This delay is called time lag. The image data of the target image is once stored in the image memory 12, and then stored in the recording medium 16 through necessary processing such as compression processing (step S14).
上記の如く、撮影タイミングを制御することによって眼が開いた状態の対象画像を取得することが可能となる。 As described above, it is possible to acquire the target image with the eyes open by controlling the photographing timing.
尚、撮像装置1の撮影領域内に収まる人物が一人であれば、その一人の人物の眼の開閉状態を監視すればよいのであるが、撮影領域内に収まる人物が複数であって各フレーム画像から複数の顔領域が検出された場合は、複数の人物の中から1人の人物を特定人物として選択する。そして、ステップS12において、特定人物についての眼の開閉状態を監視して、その特定人物の眼の閉眼状態から開眼状態への遷移が確認された時、実撮影期間への移行条件が成立したと判断してステップS13に移行するようにすればよい。特定人物を選択するための処理は、主制御部13によって実行される。 Note that if there is only one person within the shooting area of the imaging apparatus 1, it is only necessary to monitor the open / closed state of the eye of that person. When a plurality of face areas are detected from the above, one person is selected as the specific person from the plurality of persons. In step S12, when the eye opening / closing state of the specific person is monitored and the transition from the closed eye state to the open eye state of the specific person is confirmed, the transition condition to the actual photographing period is satisfied. The determination may be made to proceed to step S13. Processing for selecting a specific person is executed by the main control unit 13.
撮影領域内に複数の人物が含まれていることを想定し、特定人物の選択方法を例示する。まず、タイミングt1以降であって且つ準備期間中に得られる或るフレーム画像(以下、判定用フレーム画像という)に着目する。判定用フレーム画像は、典型的には例えば、タイミングt1直後の撮影によって得られるフレーム画像である。尚、タイミングt1の直前に得られるフレーム画像を判定用フレーム画像として取り扱っても良い。そして、判定用フレーム画像から複数の顔領域が抽出された時、以下の第1〜第4の選択方法の何れかを用いて特定人物を選択する。 Assuming that a plurality of persons are included in the shooting area, a method for selecting a specific person will be exemplified. First, attention is paid to a certain frame image (hereinafter referred to as a determination frame image) obtained after the timing t1 and during the preparation period. The determination frame image is typically a frame image obtained by photographing immediately after timing t1, for example. Note that a frame image obtained immediately before the timing t1 may be handled as a determination frame image. When a plurality of face regions are extracted from the determination frame image, a specific person is selected using any of the following first to fourth selection methods.
第1の選択方法では、図9(a)に示す如く、判定用フレーム画像中で最も中央に位置する人物を特定人物として選択する。具体的には、判定用フレーム画像から抽出された顔領域の中心位置と判定用フレーム画像の中心位置との距離(画像上の距離)を顔領域ごとに求め、その距離が最も小さい顔領域に対応する人物を特定人物として選択すればよい。 In the first selection method, as shown in FIG. 9A, the person located at the center in the determination frame image is selected as the specific person. Specifically, the distance (the distance on the image) between the center position of the face area extracted from the determination frame image and the center position of the determination frame image is obtained for each face area, and the distance of the smallest face area is determined. A corresponding person may be selected as a specific person.
第2の選択方法では、図9(b)に示す如く、判定用フレーム画像中で最も大きく顔が表れている人物を特定人物として選択する。換言すれば、被写体距離が最も短い人物を特定人物として選択する。具体的には、判定用フレーム画像から抽出された複数の顔領域の大きさを対比し、最も大きな顔領域に対応する人物を特定人物として選択すればよい。 In the second selection method, as shown in FIG. 9B, the person who has the largest face in the determination frame image is selected as the specific person. In other words, the person with the shortest subject distance is selected as the specific person. Specifically, the size of a plurality of face areas extracted from the determination frame image may be compared, and the person corresponding to the largest face area may be selected as the specific person.
第3の選択方法では、図9(c)に示す如く、撮像装置1に予め登録された人物を特定人物として選択する。第3の選択方法を採用する場合、特定人物として選択されるべき人物の顔を表す顔画像を登録顔画像として撮像装置1内のメモリ(不図示)に予め保存しておく。主制御部13は、判定用フレーム画像から抽出された各顔領域内の画像と登録顔画像を対比することにより、各顔領域内の画像と登録顔画像との類似度を算出する。そして、算出された類似度に基づいて、登録された人物の顔についての顔領域を特定し、その特定された顔領域に対応する人物を特定人物として選択する。 In the third selection method, as shown in FIG. 9C, a person registered in advance in the imaging apparatus 1 is selected as a specific person. When the third selection method is adopted, a face image representing the face of a person to be selected as a specific person is stored in advance in a memory (not shown) in the imaging apparatus 1 as a registered face image. The main control unit 13 calculates the degree of similarity between the image in each face area and the registered face image by comparing the image in each face area extracted from the determination frame image with the registered face image. Then, based on the calculated similarity, the face area for the registered person's face is specified, and the person corresponding to the specified face area is selected as the specified person.
第4の選択方法では、画像中の眼の大きさが小さいと眼の開閉状態の検出精度が劣化することを考慮し、図9(d)に示す如く、判定用フレーム画像中で最も眼の大きさが大きい人物を特定人物として選択する。即ち、判定用フレーム画像から抽出された複数の顔領域についての複数の眼領域の大きさを対比し、最も大きな眼領域に対応する人物を特定人物として選択する。この対比で用いる、眼領域の大きさとは、例えば、眼の上下方向(即ち、上瞼と下瞼を結ぶ方向)における眼領域の長さ(判定フレーム画像上の長さ)である。 In the fourth selection method, considering that the detection accuracy of the open / closed state of the eye deteriorates when the size of the eye in the image is small, as shown in FIG. A person with a large size is selected as a specific person. That is, the size of the plurality of eye regions for the plurality of face regions extracted from the determination frame image is compared, and the person corresponding to the largest eye region is selected as the specific person. The size of the eye region used in this comparison is, for example, the length of the eye region in the vertical direction of the eye (that is, the direction connecting the upper eyelid and the lower eyelid) (the length on the determination frame image).
また、上記の第1〜第4の選択方法の内の2以上の選択方法を組み合わせて特定人物を選択することも可能である。例えば、第1の選択方法の選択にて用いる距離、第2の選択方法の選択にて用いる顔領域の大きさ、第3の選択方法の選択にて用いる類似度、及び、第4の選択方法の選択にて用いる眼領域の大きさを総合的に勘案して特定人物を選択するようにしてもよい。 It is also possible to select a specific person by combining two or more of the first to fourth selection methods described above. For example, the distance used in the selection of the first selection method, the size of the face region used in the selection of the second selection method, the similarity used in the selection of the third selection method, and the fourth selection method The specific person may be selected in consideration of the size of the eye region used in the selection.
また、特定人物を選択することなく、ステップS12において撮影領域内に含まれる各人物の眼の開閉状態を監視しておき、何れかの人物の眼の閉眼状態から開眼状態への遷移が確認された時、実撮影期間への移行条件が成立したと判断してステップS13に移行するようにしてもよい。 In addition, without selecting a specific person, the eye open / closed state of each person included in the imaging region is monitored in step S12, and the transition from the closed eye state to the open eye state of any person's eyes is confirmed. If it is determined that the condition for shifting to the actual shooting period is satisfied, the process may proceed to step S13.
或いは、特定人物を選択することなく、ステップS12において撮影領域内に含まれる各人物の眼の開閉状態を監視しておき、全ての人物の眼が開いていると判断された時に、実撮影期間への移行条件が成立したと判断してステップS13に移行するようにしてもよい。例えば、撮影領域内に3人の人物が含まれている場合を考える。この場合において、タイミングt1以降、2人の眼が開いており且つ残りの1人の眼が閉じているフレーム画像が得られたら、その後は、その眼の閉じている人物の眼に着目し、その着目した眼の閉眼状態から開眼状態への遷移が確認された時に、実撮影期間への移行条件が成立したと判断してステップS13に移行すればよい。 Alternatively, in step S12, the open / closed state of the eyes of each person included in the shooting area is monitored without selecting a specific person, and when it is determined that the eyes of all the persons are open, the actual shooting period It may be determined that the condition for shifting to is satisfied, and the process may proceed to step S13. For example, consider a case where three persons are included in the shooting area. In this case, after the timing t1, when a frame image is obtained in which two eyes are open and the remaining one eye is closed, after that, pay attention to the eyes of the person whose eyes are closed, When the transition of the focused eye from the closed state to the open state is confirmed, it is determined that the condition for shifting to the actual photographing period is satisfied and the process proceeds to step S13.
<<第2実施例>>
次に、第2実施例について説明する。第1実施例によれば、眼の開いている状態で対象画像を取得することができる。しかし、眼が開いていれば必ず被写体の表情が良いという訳ではなく、無意識に行った瞬きの直後に対象画像の撮影を行うのが被写体の意図に合致しているとは限らない。そこで、第2実施例では、被写体の意図的な閉眼を検出し、被写体の意図に沿ったタイミングで対象画像の撮影を実行する。
<< Second Example >>
Next, a second embodiment will be described. According to the first embodiment, the target image can be acquired with the eyes open. However, if the eyes are open, the subject's facial expression is not necessarily good, and taking the target image immediately after an unconscious blink does not always match the intention of the subject. Therefore, in the second embodiment, the intentional closing of the subject is detected, and the target image is shot at a timing according to the intention of the subject.
尚、第2実施例並びに後述の他の実施例の説明文を含む以下の説明文中における「眼」とは、特に断りなき限り、撮影領域内に含まれる人物が一人であってフレーム画像から抽出される顔領域の個数が1である場合は、その顔領域から抽出される眼領域についての眼を指し、撮影領域内に含まれる人物が複数であってフレーム画像から抽出される顔領域の個数が複数である場合は、その複数の人物中の特定人物の顔領域から抽出される眼領域についての眼を指す。特定人物の選択方法として、第1実施例で述べた方法を採用可能である。 It should be noted that “eye” in the following explanation including explanations of the second embodiment and other embodiments described later is one person included in the imaging region and is extracted from the frame image unless otherwise specified. If the number of face areas to be extracted is 1, it refers to the eye of the eye area extracted from the face area, and the number of face areas extracted from the frame image when there are a plurality of persons included in the shooting area Is a plurality of eyes, it indicates an eye for an eye area extracted from the face area of a specific person among the plurality of persons. As a method for selecting a specific person, the method described in the first embodiment can be employed.
図10は、第2実施例に係る撮影処理動作の時間的な流れを表す概念図である。第2実施例では1枚の対象画像を取得する。 FIG. 10 is a conceptual diagram illustrating a temporal flow of the photographing processing operation according to the second embodiment. In the second embodiment, one target image is acquired.
まず、主制御部13は、操作部17に対して第1操作がなされたか否かを検出し、第1操作がなされると準備期間に移行する。上述したように、第1操作がなされたタイミングがタイミングt1である。その後、主制御部13は、タイミングt1以後に得られる各フレーム画像に対する開閉状態検出処理の結果に基づいて眼が継続して閉じている時間長さを計測する。計測された時間長さを、基準閉眼持続時間と呼び、それを記号TXで表す。基準閉眼持続時間TXが求められた時点をタイミングt2とする。 First, the main control unit 13 detects whether or not the first operation has been performed on the operation unit 17, and shifts to a preparation period when the first operation is performed. As described above, the timing when the first operation is performed is the timing t1. Thereafter, the main control unit 13 measures the length of time that the eyes are continuously closed based on the result of the open / closed state detection process for each frame image obtained after the timing t1. The measured time length, referred to as a reference eye closure duration, represent it by the symbol T X. The time point at which the reference closed eye duration T X is obtained is defined as timing t2.
例えば、タイミングt1の後、第1、第2、・・・第15のフレーム画像が順次得られて、第1〜第10のフレーム画像における眼の状態が開眼状態であると検出され、且つ、第11〜第14のフレーム画像における眼の状態が閉眼状態であると検出され、且つ、第15のフレーム画像における眼の状態が開眼状態であると検出された場合、14−11+1=4より、準備期間中のフレーム周期に4を乗じた時間長さが基準閉眼持続時間TXとして求められる。 For example, after the timing t1, first, second,..., Fifteenth frame images are sequentially obtained, and it is detected that the eye state in the first to tenth frame images is an open state, and When it is detected that the eye state in the 11th to 14th frame images is the closed eye state and the eye state in the 15th frame image is detected to be the open eye state, from 14-11 + 1 = 4, The length of time obtained by multiplying the frame period during the preparation period by 4 is obtained as the reference closed eye duration T X.
基準閉眼持続時間TXを求めた後、主制御部13は、タイミングt2以後に得られる各フレーム画像に対する開閉状態検出処理の結果に基づいて、「α・TXで表される時間よりも長い時間継続して眼が閉じている」という条件(以下、第1条件という)が満たされるか否かを監視する。第1条件を満たす閉眼は、被写体の意図的な閉眼であると判断され、第1条件を満たさない閉眼は、被写体の意図しない自然な瞬きによる閉眼であると判断される。そして、この第1条件の充足後の、最初の眼の開くタイミングをタイミングtAとする。ここで、αは1より大きな値を有する所定の係数である。例えば、α=2とする。 After obtaining the reference closed eye duration T X , the main control unit 13 determines that the time is longer than the time represented by α · T X based on the result of the open / closed state detection process for each frame image obtained after timing t2. It is monitored whether or not the condition that the eyes are closed for a long time (hereinafter referred to as the first condition) is satisfied. A closed eye that satisfies the first condition is determined to be an intentional closing of the subject, and a closed eye that does not satisfy the first condition is determined to be a closed eye due to an unintended natural blink of the subject. Then, the first eye opening timing after the first condition is satisfied is set as timing t A. Here, α is a predetermined coefficient having a value larger than 1. For example, α = 2.
主制御部13及びシャッタ制御部14は、タイミングtA後のなるだけ早い時点にて対象画像の撮影を行い、対象画像の画像データを取得する。第1実施例で述べたように、実際にはタイミングtAから所定のタイムラグが経過した後に対象画像の露光が開始される。対象画像の画像データは、一旦、画像メモリ12に保存された後、圧縮処理等の必要な処理を経て、記録媒体16に保存される。 The main control unit 13 and the shutter control unit 14 capture the target image at the earliest possible time after the timing t A and acquire the image data of the target image. As described in the first embodiment, the exposure of the subject image is started after a lapse of a predetermined time lag from the timing t A in practice. The image data of the target image is once stored in the image memory 12 and then stored in the recording medium 16 through necessary processing such as compression processing.
タイミングt2の後、第i、第(i+1)、・・・第(i+30)のフレーム画像が順次得られ、且つ、α・TXが準備期間中のフレーム周期に8を乗じた時間長さである場合を想定して数値例を挙げる(iは自然数)。 After timing t2, i-th, (i + 1),... (I + 30) frame images are sequentially obtained, and α · T X is a time length obtained by multiplying the frame period in the preparation period by 8. A numerical example is given assuming some cases (i is a natural number).
例えば、第i〜第(i+20)のフレーム画像における眼の状態が開眼状態であると検出され、且つ、第(i+21)〜第(i+29)のフレーム画像における眼の状態が閉眼状態であると検出され、且つ、第(i+30)のフレーム画像における眼の状態が開眼状態であると検出された場合は、第(i+21)〜第(i+29)のフレーム画像の撮影期間の合計時間長さは9フレーム周期分であるため、第1条件が満たされる。そして、第(i+30)のフレーム画像において、第1条件充足後の初めての、眼の閉眼状態から開眼状態への遷移が観測される。従って、この場合は、第(i+29)と第(i+30)のフレーム画像の撮影間で眼の状態が閉眼状態から開眼状態へ遷移したと判断し、この遷移が確認されたタイミングをタイミングtAとして対象画像の撮影を行う。 For example, it is detected that the eye state in the i th to (i + 20) th frame images is an open eye state, and the eye state in the (i + 21) th to (i + 29) th frame images is a closed eye state. When the eye state in the (i + 30) th frame image is detected to be an open eye state, the total time length of the imaging periods of the (i + 21) th to (i + 29) th frame images is 9 frames. Since it is the period, the first condition is satisfied. Then, in the (i + 30) th frame image, the first transition from the closed eye state to the open eye state after the first condition is satisfied is observed. Accordingly, in this case, it is determined that the eye state has changed from the closed eye state to the open eye state between the capturing of the (i + 29) and (i + 30) th frame images, and the timing at which this transition is confirmed is the timing t A. Shoot the target image.
これに対して例えば、第i〜第(i+22)のフレーム画像における眼の状態が開眼状態であると検出され、且つ、第(i+23)〜第(i+29)のフレーム画像における眼の状態が閉眼状態であると検出され、且つ、第(i+30)のフレーム画像における眼の状態が開眼状態であると検出された場合は、第(i+23)〜第(i+29)のフレーム画像の撮影期間の合計時間長さは7フレーム周期分であるため、第1条件が満たされない。従って、この場合は、第(i+31)のフレーム画像以降の各フレーム画像に着目して、再度、第1条件の充足又は不充足を判断し、第1条件が満たされるまで同様の処理を繰り返す。 On the other hand, for example, it is detected that the eye state in the i-th to (i + 22) th frame image is an open eye state, and the eye state in the (i + 23) -th (i + 29) th frame image is the closed eye state. And when the eye state in the (i + 30) th frame image is detected to be an open eye state, the total time length of the imaging periods of the (i + 23) th to (i + 29) th frame images Since the length is 7 frame periods, the first condition is not satisfied. Therefore, in this case, paying attention to each frame image after the (i + 31) th frame image, whether the first condition is satisfied or not is determined again, and the same processing is repeated until the first condition is satisfied.
上記の如く、撮影タイミングを制御することによって、被写体が意図的に行った閉眼と無意識の瞬きによる閉眼とを区別することができるため、被写体の意図に合致した、眼が開いた状態の対象画像を取得することが可能となる。 As described above, by controlling the shooting timing, it is possible to distinguish between the closed eye intentionally performed by the subject and the closed eye caused by the unconscious blink. Can be obtained.
尚、上述の例では、タイミングt1以後に得られる各フレーム画像に対する開閉状態検出処理の結果に基づいて基準閉眼持続時間TXを実際に計測しているが、その計測を行うことなく、予め設定した時間を基準閉眼持続時間TXとして用いるようにしてもよい。この場合は、人の瞬きにおける平均的な閉眼持続時間(例えば、0.2秒)を基準閉眼持続時間TXとして予め設定しておく。 In the above-described example, the reference closed eye duration T X is actually measured based on the result of the open / closed state detection process for each frame image obtained after the timing t1, but it is set in advance without performing the measurement. This time may be used as the reference closed eye duration T X. In this case, an average closed eye duration (for example, 0.2 seconds) in a human blink is set in advance as the reference closed eye duration T X.
<<第3実施例>>
次に、第3実施例について説明する。対象画像の撮影待機時に開眼状態が続いている場合、開眼状態の対象画像を何時でも取得可能なようにも思えるが、人間は眼を長時間開けたままにしておくことができないため、開眼状態が長く続けば続くほど閉眼状態の対象画像を撮影してしまう確率が高くなると考えられる。そこで、第3実施例では、対象画像の撮影待機時に開眼状態が一定時間TW以上続いていると判断される場合は、次の瞬きを待ってから対象画像の撮影を実行する。図11は、第3実施例に係る撮影処理動作の時間的な流れを表す概念図である。第3実施例では1枚の対象画像を取得する。
<< Third Example >>
Next, a third embodiment will be described. If the eye-open state continues when shooting the target image, it seems that the target image in the open state can be acquired at any time, but humans cannot keep their eyes open for a long time. It is considered that the longer the duration continues, the higher the probability that the target image in the closed eye state will be shot. Therefore, in the third embodiment, when it is determined that the eye-open state continues for a certain time T W or longer during standby for capturing the target image, the target image is captured after waiting for the next blink. FIG. 11 is a conceptual diagram showing a temporal flow of the photographing processing operation according to the third embodiment. In the third embodiment, one target image is acquired.
まず、主制御部13は、操作部17に対して第1操作がなされたか否かを検出し、第1操作がなされると、撮影待機期間ともいうべき準備期間に移行する。上述したように、第1操作がなされたタイミングがタイミングt1である。その後、主制御部13は、タイミングt1以後に得られる各フレーム画像に対する開閉状態検出処理の結果に基づいて眼が継続して開いている時間長さを計測し、「TWで表される時間よりも長い時間継続して眼が開いている」という条件(以下、第2条件という)が満たされるか否かを監視する。主制御部13は、準備期間において第2条件が充足したと判断される場合は、第2条件の充足後の、最初の眼の開くタイミングをタイミングtAとする。尚、TWは予め設定された正の値を有する。 First, the main control unit 13 detects whether or not the first operation has been performed on the operation unit 17, and when the first operation is performed, the main control unit 13 shifts to a preparation period that can be referred to as an imaging standby period. As described above, the timing when the first operation is performed is the timing t1. Thereafter, the main control unit 13, based on the result of the opening and closing state detection processing for each frame image obtained timing t1 after measuring the length of time that the eye is open continuously, time represented by "T W It is monitored whether or not the condition that the eyes are continuously open for a longer period of time (hereinafter referred to as the second condition) is satisfied. The main control unit 13, when the second condition is determined to be satisfied in the preparation period, after fulfillment of the second condition, and the timing t A the timing of opening of the first eye. Note that TW has a preset positive value.
今、タイミングt1の後、準備期間中においてタイミングt3、t4及びt5がこの順番で訪れるものとし、開閉状態検出処理の結果に基づき、タイミングt3とt5の間において継続して眼が開いていると検出された場合を想定する。そして、タイミングt3とt4間の時間長さが上記の一定時間TWと合致しているものとする。また更に、開閉状態検出処理の結果に基づき、タイミングt5を境にして眼の状態が開眼状態から閉眼状態に遷移したと検出されたものとする。そうすると、タイミングt4に至った時点で第2条件が充足するため、主制御部13は、タイミングt4とタイミングt5との間の期間中、及び、タイミングt5以降であって且つ次の開眼状態が検出されるまでの期間中における、対象画像の撮影を禁止する(つまり、対象画像の露光を行わないようにする)。そして、タイミングt5以降の、最初の眼の開くタイミングをタイミングtAとする。 Now, after the timing t1, the timings t3, t4, and t5 are visited in this order during the preparation period, and the eyes are continuously opened between the timings t3 and t5 based on the result of the open / close state detection process. Assume that it is detected. It is assumed that the time length between timings t3 and t4 matches the above-described fixed time T W. Further, based on the result of the open / close state detection process, it is assumed that the eye state is detected to have transitioned from the open eye state to the closed eye state at timing t5. Then, since the second condition is satisfied when the timing t4 is reached, the main control unit 13 detects the next open eye state during the period between the timing t4 and the timing t5 and after the timing t5. Shooting of the target image is prohibited during the period until it is performed (that is, exposure of the target image is not performed). Then, after the timing t5, the timing of opening of the first eye to the timing t A.
タイミングt1の後、第1、第2、・・・第100のフレーム画像が順次得られ、且つ、TWが準備期間中のフレーム周期に50を乗じた時間長さである場合を想定して数値例を挙げる。例えば、第1〜第10のフレーム画像における眼の状態が閉眼状態であると検出され、且つ、第11〜第90のフレーム画像における眼の状態が開眼状態であると検出され、且つ、第91〜第99のフレーム画像における眼の状態が閉眼状態であると検出され、且つ、第100のフレーム画像における眼の状態が開眼状態であると検出された場合、第11〜第60のフレーム画像の撮影期間の合計時間長さは50フレーム周期分であるため、第60のフレーム画像の取得時点で第2条件が満たされる。このため、その後、第100のフレーム画像に対する開眼状態が検出されるまで、対象画像の撮影は禁止される。そして、第100のフレーム画像において、第2条件充足後の初めての、眼の閉眼状態から開眼状態への遷移が観測される。従って、この場合は、第99と第100のフレーム画像の撮影間で眼の状態が閉眼状態から開眼状態へ遷移したと判断し、この遷移が確認されたタイミングをタイミングtAとして対象画像の撮影を行う。 After timing t1, first, second, ... 100th frame image is sequentially obtained of, and, on the assumption that T W is 50 multiplied by the time length frame period during the preparation Give numerical examples. For example, it is detected that the eye state in the first to tenth frame images is a closed eye state, the eye state in the 11th to 90th frame images is detected to be an open eye state, and the 91st When the eye state in the 99th frame image is detected to be the closed eye state and the eye state in the 100th frame image is detected to be the open eye state, the 11th to 60th frame images Since the total time length of the shooting period is 50 frame periods, the second condition is satisfied at the time of acquisition of the 60th frame image. For this reason, after that, photographing of the target image is prohibited until the open eye state for the 100th frame image is detected. Then, in the 100th frame image, the first transition from the closed eye state to the open eye state after the second condition is satisfied is observed. Therefore, in this case, it is determined that the eye state has transitioned from the closed eye state to the open eye state between the shooting of the 99th and 100th frame images, and the timing at which this transition is confirmed is taken as the timing t A. I do.
主制御部13及びシャッタ制御部14は、タイミングtA後のなるだけ早い時点にて対象画像の撮影を行い、対象画像の画像データを取得する。第1実施例で述べたように、実際にはタイミングtAから所定のタイムラグが経過した後に対象画像の露光が開始される。対象画像の画像データは、一旦、画像メモリ12に保存された後、圧縮処理等の必要な処理を経て、記録媒体16に保存される。 The main control unit 13 and the shutter control unit 14 capture the target image at the earliest possible time after the timing t A and acquire the image data of the target image. As described in the first embodiment, the exposure of the subject image is started after a lapse of a predetermined time lag from the timing t A in practice. The image data of the target image is once stored in the image memory 12 and then stored in the recording medium 16 through necessary processing such as compression processing.
上述のような処理の利用例について説明する。例えば、図1のシャッタボタン17aを2段階の押下操作を可能に形成しておく。撮影者がシャッタボタン17aを軽く押し込むと、シャッタボタン17aは半押しの状態となり、その状態から更にシャッタボタン17aを押し込むとシャッタボタン17aは全押しの状態となる。そして、シャッタボタン17aを半押しにするという操作を第1操作と捉え、半押しの状態が検出された時点をタイミングt1とする。撮影者の操作によってシャッタボタン17aの状態が全押しの状態になると、主制御部13は原則として直ちに準備期間から実撮影期間に移行して対象画像の撮影を行うが、準備期間において上述の第2条件が充足した場合は、例外処理を行う。即ち、図11のタイミング関係を例にとると、タイミングt4以降であって且つタイミングtAに至るまでの期間中にシャッタボタン17aを全押しにする操作があった場合、その全押しの操作の直後に対象画像の撮影を行うのではなく、タイミングtAにて閉眼状態から開眼状態への遷移が観測されてから対象画像の撮影を行うようにする。 A usage example of the above processing will be described. For example, the shutter button 17a in FIG. 1 is formed so that it can be pressed in two stages. When the photographer lightly presses the shutter button 17a, the shutter button 17a is half pressed, and when the shutter button 17a is further pressed from this state, the shutter button 17a is fully pressed. Then, the operation of half-pressing the shutter button 17a is regarded as the first operation, and the time point when the half-pressed state is detected is defined as timing t1. When the shutter button 17a is fully pressed by a photographer's operation, the main control unit 13 immediately shifts from the preparation period to the actual shooting period in principle to shoot the target image. If two conditions are satisfied, exception handling is performed. That is, taking as an example the timing relationship of FIG. 11, when a operation to full-press the shutter button 17a during the period leading up to and the timing t A a timing t4 or later, the operation of pushing the entire Immediately after the target image is not captured, the target image is captured after the transition from the closed eye state to the open eye state is observed at timing t A.
上記の如く、撮影タイミングを制御することによって眼が開いた状態の対象画像を取得することが可能となる。 As described above, it is possible to acquire the target image with the eyes open by controlling the photographing timing.
<<第4実施例>>
次に、第4実施例について説明する。第4実施例では、連続撮影によって複数の対象画像を取得することを想定する。従来より、複数の画像を連続撮影しておき、得られた画像群の中から開眼状態の画像を抽出する手法が提案されている(例えば、特許文献1参照)。この従来手法は、連続撮影によって得られた画像群の中に開眼状態の画像が含まれていることを前提として成り立つ手法であるが、その画像群の中に開眼状態の画像が含まれているとは限らず、撮影タイミング次第では、全画像中における被写体の眼が閉眼状態又は半開状態になる可能性がある。このような問題に対応するべく、第4実施例では、被写体固有の閉眼時間を考慮して連続撮影のタイミング制御を行う。
<< 4th Example >>
Next, a fourth embodiment will be described. In the fourth embodiment, it is assumed that a plurality of target images are acquired by continuous shooting. Conventionally, a technique has been proposed in which a plurality of images are continuously photographed and an eye-open image is extracted from the obtained image group (see, for example, Patent Document 1). This conventional method is based on the premise that an image with an open eye is included in an image group obtained by continuous shooting, but an image with an open eye is included in the image group. However, depending on the shooting timing, there is a possibility that the eyes of the subject in all the images are in a closed or half-open state. In order to cope with such a problem, in the fourth embodiment, the timing control for continuous shooting is performed in consideration of the eye-closing time unique to the subject.
図12は、第4実施例に係る撮影処理動作の時間的な流れを表す概念図である。まず、主制御部13は、操作部17に対して第1操作がなされたか否かを検出し、第1操作がなされると準備期間に移行する。上述したように、第1操作がなされたタイミングがタイミングt1である。その後、主制御部13は、タイミングt1以後に得られる各フレーム画像に対する開閉状態検出処理の結果に基づいて、眼が継続して閉じている時間長さ及び眼が継続して開いている時間長さを計測する。前者の時間長さは、第2実施例でも述べた基準閉眼持続時間TXである。後者の時間長さを、基準開眼持続時間と呼び、それを記号TYで表す。以下、基準閉眼持続時間TXを時間TXと略記し、基準開眼持続時間TYを時間TYと略記する。 FIG. 12 is a conceptual diagram illustrating a temporal flow of the photographing processing operation according to the fourth embodiment. First, the main control unit 13 detects whether or not the first operation has been performed on the operation unit 17, and shifts to a preparation period when the first operation is performed. As described above, the timing when the first operation is performed is the timing t1. After that, the main control unit 13 determines the length of time that the eyes are continuously closed and the length of time that the eyes are continuously opened based on the result of the open / close state detection processing for each frame image obtained after the timing t1. Measure the thickness. The former time length is the reference closed eye duration T X described in the second embodiment. The latter time length is referred to as the reference eye opening duration and is represented by the symbol T Y. Hereinafter, abbreviated as a reference eye closure duration of T X time T X, the reference open-eye duration T Y abbreviated as time T Y.
例えば、タイミングt1の後、第1、第2、・・・第100のフレーム画像が順次得られて、第1〜第10のフレーム画像における眼の状態が開眼状態であると検出され、且つ、第11〜第14のフレーム画像における眼の状態が閉眼状態であると検出され、且つ、第15〜第99フレーム画像における眼の状態が開眼状態であると検出され、且つ、第100フレーム画像における眼の状態が閉眼状態であると検出された場合、14−11+1=4より、準備期間中のフレーム周期に4を乗じた時間長さが時間TXとして計測され、且つ、99−15+1=85より、準備期間中のフレーム周期に85を乗じた時間長さが時間TYとして計測される。尚、図12に示すタイミングt6は、第14と第15のフレーム画像の撮影間における、眼の閉眼状態から開眼状態への遷移タイミングを表している。また、図12にも対応するこの数値例では、時間TXが時間TYよりも先に求められているが、両者の導出タイミングの前後関係は逆にもなりうる。 For example, after timing t1, first, second,..., 100th frame images are sequentially obtained, and it is detected that the eye state in the first to tenth frame images is an open eye state, and It is detected that the eye state in the 11th to 14th frame images is the closed eye state, and the eye state in the 15th to 99th frame images is detected to be the open eye state, and in the 100th frame image When it is detected that the eye state is the closed eye state, the time length obtained by multiplying the frame period during the preparation period by 4 is measured as time T X from 14-11 + 1 = 4, and 99-15 + 1 = 85. more, the time length obtained by multiplying the 85 frame period during the preparation period is measured as the time T Y. Note that the timing t6 shown in FIG. 12 represents the transition timing from the closed eye state to the open eye state between the fourteenth and fifteenth frame images. In the numerical example corresponding to FIG. 12, the time T X is obtained before the time T Y , but the order of the derivation timings of both can be reversed.
時間TX及びTYが求められた後、タイミングtAに至り、実撮影期間に移行する。例えば、時間TX及びTYが求められた後の、最初の眼の開くタイミングをタイミングtAとする。眼の開くタイミングの決定方法は上述の他の実施例で述べた通りである。 After the times T X and T Y are obtained, the timing t A is reached and the actual shooting period starts. For example, the timing at which the first eye opens after the times T X and T Y are obtained is defined as timing t A. The method for determining the eye opening timing is as described in the other embodiments.
主制御部13及びシャッタ制御部14は、タイミングtA後のなるだけ早い時点にて1枚目の対象画像の撮影を行い、1枚目の対象画像の画像データを取得する。第1実施例で述べたように、実際にはタイミングtAから所定のタイムラグが経過した後に1枚目の対象画像の露光が開始される。このタイムラグの存在に起因し、1枚目の対象画像の露光時点で眼が閉じてしまっている可能性がある。図12は、タイミングtA直後に被写体が再度瞬きを行った場合を示している。これを考慮し、1枚目と2枚目の対象画像の撮影間隔を時間TXに基づいて設定するようにする。 The main control unit 13 and the shutter control unit 14 capture the first target image at the earliest possible time after the timing t A and acquire the image data of the first target image. As described in the first embodiment, the exposure of the first sheet of the target image after the elapse of a predetermined time lag from the timing t A is started in practice. Due to the presence of this time lag, the eyes may be closed at the time of exposure of the first target image. FIG. 12 shows a case where the subject blinks again immediately after timing t A. Considering this, the shooting interval between the first and second target images is set based on the time T X.
より詳細にタイミングtA後の撮影動作を説明する。連続撮影される対象画像の枚数をnで表すと、タイミングtA以後、タイミングtA1、tA2、tA3、・・・、tAnがこの順番で訪れ、タイミングtAjにおいてj枚目の対象画像の撮影が行われる。ここで、nは2以上の整数であり、且つ、jはn以下の自然数である。尚、厳密には、タイミングtAjにおいてj枚目の対象画像の露光が開始され、タイミングtAjから露光期間分の時間が経過した時点でj枚目の対象画像の露光が終了するのであるが、時間TXや時間TYに比べて露光期間の時間は十分に短いため、露光期間の存在を無視して考える(露光期間の時間長さをゼロとみなす)。 The shooting operation after timing t A will be described in more detail. When the number of target images to be continuously shot is represented by n, after timing t A , timings t A1 , t A2 , t A3 ,..., T An come in this order, and the j th target at timing t Aj . An image is taken. Here, n is an integer greater than or equal to 2, and j is a natural number less than or equal to n. Incidentally, strictly speaking, the exposure of the j-th target image is started at the timing t Aj, the exposure of the j-th target image at the time of the lapse of time of the exposure period from the timing t Aj is to complete Since the exposure period is sufficiently shorter than the time T X and the time T Y , the existence of the exposure period is ignored (the time length of the exposure period is regarded as zero).
タイミングtAjとtA(j+1)との間の時間長さは、連続撮影されるj枚目及び(j+1)枚目の対象画像の撮影間隔を表している(但し、j<n)。この連続撮影における撮影間隔がβ・TXで表される時間長さと等しくなるように、主制御部13及びシャッタ制御部14は撮像部11を制御する。ここで、βは1より大きな値を有する係数である。着目した被写体固有の閉眼時間はタイミングtA以降も時間TXであると推定される。従って、このように撮影間隔を設定すれば、図12に示す如く仮にタイミングtA直後に被写体が再度瞬きを行って1枚目の対象画像の露光時に眼が閉じていたとしても、2枚目の対象画像の露光時には眼が開いていることが期待される。つまり、2枚の対象画像を取得すれば、開眼状態の対象画像を少なくとも1枚取得できることになる。 The length of time between timings t Aj and t A (j + 1) represents the shooting interval of the j-th and (j + 1) -th target images that are continuously shot (where j <n). . The main control unit 13 and the shutter control unit 14 control the imaging unit 11 so that the shooting interval in the continuous shooting becomes equal to the time length represented by β · T X. Here, β is a coefficient having a value larger than 1. It is estimated that the closed eye time unique to the subject of interest is the time T X after the timing t A. Therefore, if the shooting interval is set in this manner, even if the subject blinks again immediately after timing t A as shown in FIG. 12 and the eyes are closed when the first target image is exposed, the second image is taken. It is expected that the eyes are open when the target image is exposed. That is, if two target images are acquired, at least one target image in an open eye state can be acquired.
但し、係数βの値を大きくとり過ぎると、図13に示す如く、タイミングtA後の1回目及び2回目の瞬きタイミングが、ちょうど1枚目及び2枚目の対象画像の撮影タイミングと重なってしまう、といったことも考えられる。従って、係数βを時間TYに基づいて決定するようにしてもよい。具体的には、β・TXで表される時間長さが時間TXよりも長く且つ時間TYよりも短くなるように係数βの値を設定すればよい。瞬きは概ね均一な瞬き周期にて周期的に行われると考えられるため、このように係数βの値を設定すれば、瞬きの1周期内に少なくとも1枚の対象画像を取得することが可能となる。 However, if the value of the coefficient β is too large, as shown in FIG. 13, the first and second blink timings after the timing t A overlap with the shooting timings of the first and second target images. It can also be considered. Therefore, it may be determined based on the coefficient β to the time T Y. Specifically, the value of the coefficient β may be set so that the time length represented by β · T X is longer than the time T X and shorter than the time T Y. Since blinking is considered to be performed periodically with a substantially uniform blinking period, it is possible to acquire at least one target image within one blinking period by setting the value of the coefficient β in this way. Become.
尚、通常、時間TX(例えば、0.2秒)比べて時間TY(例えば、3秒)は十分に大きい。この特性を利用し、準備期間中における時間TYの計測を省略することも可能である。例えば、通常の瞬きにおいて、眼が継続して開いている時間長さが、眼が継続して閉じている時間長さの少なくとも5倍以上であると仮定できる場合は、開閉状態検出処理の結果を用いることなく、係数βの値を不等式「1<β<5」を満たす範囲内で予め設定しておくことが可能である。このように設定しておくようにしても、実際に計測した時間TYを用いて係数βを設定する場合と略同様の効果を得ることができ、また、時間TYの計測のための時間的制約がなくなる。時間TYの計測を省略する場合は、時間TXが求められた後の、最初の眼の開くタイミングをタイミングtAとして取り扱えばよく、図12のタイミングt6をタイミングtAとして取り扱ってタイミングt6を境に準備期間から実撮影期間に移行することも可能である。 Normally, the time T Y (eg, 3 seconds) is sufficiently longer than the time T X (eg, 0.2 seconds). Utilizing this characteristic, it is also possible to omit the measurement of the time T Y during the preparation period. For example, in a normal blink, when it can be assumed that the length of time that the eyes are continuously open is at least five times the length of time that the eyes are continuously closed, the result of the open / close state detection process The value of the coefficient β can be set in advance within a range satisfying the inequality “1 <β <5”. Even if it is set in this way, substantially the same effect as when the coefficient β is set using the actually measured time T Y can be obtained, and the time for measuring the time T Y can be obtained. There is no longer any restrictions. When omitting the measurement of the time T Y may be handled after it has been determined that the time T X, the timing of opening of the first eye as a timing t A, the timing t6 cover the timing t6 in FIG. 12 as a timing t A It is also possible to shift from the preparation period to the actual shooting period at the boundary.
上述のような連続撮影によって得られたn枚の対象画像の画像データは、順次、一旦画像メモリ12に保存された後、圧縮処理等の必要な処理を経て記録媒体16に保存される。本実施例の如く連続撮影における撮影間隔を制御することによって、眼が開いた状態の対象画像を確実に少なくとも1枚取得することができるようになる。 Image data of n target images obtained by continuous shooting as described above are temporarily stored in the image memory 12 and then stored in the recording medium 16 through necessary processing such as compression processing. By controlling the shooting interval in continuous shooting as in this embodiment, it is possible to reliably acquire at least one target image with the eyes open.
また、上述の例では、時間TX(又は時間TX及びTY)が求められた後の、最初の眼の開くタイミングをタイミングtAとしているが、所定の操作が操作部17に対してなされるのを待機し、その操作がなされたタイミングをタイミングtAとしてもよい。即ち、時間TX(又は時間TX及びTY)が求められた後、主制御部13は、操作部17に対して連続撮影の開始を指示するための操作(以下、第2操作という)がなされるのを待機し、第2操作がなされたタイミングをタイミングtAとして取り扱うようにしてもよい。また或いは、第2操作がなされた後も開閉状態検出処理を行い、その処理の結果に基づき、第2操作がなされた後の、最初の眼の開くタイミングをタイミングtAとして取り扱うようにしてもよい。更に或いは、公知の笑顔認識処理を利用し、時間TX(又は時間TX及びTY)が求められた後であって且つフレーム画像内における顔領域の顔が笑顔であると判断されたタイミングをタイミングtAとして取り扱うようにしてもよい。 In the above example, the first eye opening timing after the time T X (or times T X and T Y ) is obtained is the timing t A , but a predetermined operation is performed on the operation unit 17. It is possible to wait for the operation to be performed, and the timing at which the operation is performed may be a timing t A. That is, after the time T X (or the times T X and T Y ) is obtained, the main control unit 13 performs an operation for instructing the operation unit 17 to start continuous shooting (hereinafter referred to as a second operation). waiting for is made, the timing at which the second operation is performed may be handled as the timing t a. Alternatively, the open / closed state detection process is performed after the second operation is performed, and the first eye opening timing after the second operation is performed as the timing t A based on the result of the process. Good. Further alternatively, a timing at which the face in the face area in the frame image is determined to be a smile after the time T X (or the times T X and T Y ) is obtained using a known smile recognition process. May be handled as the timing t A.
また、上述の第2及び第3実施例では対象画像を1枚だけ取得することを想定したが、第4実施例における連続撮影方法を第2及び第3実施例に適用することも可能である。第4実施例の連続撮影方法を第2又は第3実施例に適用する場合は、準備期間中に時間TX(又は時間TX及びTY)を計測しておき、第2又は第3実施例におけるタイミングtA(図10又は図11のtA)から撮影間隔β・TXにてn枚の対象画像を連続撮影すればよい。この場合も、実際には、タイミングtAから所定のタイムラグを経た後に1枚目の対象画像の撮影が行われる。 In the second and third embodiments, it is assumed that only one target image is acquired. However, the continuous shooting method in the fourth embodiment can be applied to the second and third embodiments. . When the continuous photographing method of the fourth embodiment is applied to the second or third embodiment, the time T X (or times T X and T Y ) is measured during the preparation period, and the second or third embodiment is performed. the timing t a n pieces of the target image in the scanning interval beta · T X from (t a of FIG. 10 or FIG. 11) may be continuously captured in the example. Also in this case, actually, the first target image is taken after a predetermined time lag from the timing t A.
<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈4を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 4 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.
[注釈1]
上述の例では、眼が継続して閉じている時間長さを準備期間中に1回だけ計測して該計測時間を時間TXとしているが、眼が継続して閉じている時間長さを準備期間中に複数回計測して、計測された複数の時間長さの平均を時間TXとして用いるようにしてもよい。同様に、眼が継続して開いている時間長さを準備期間中に複数回計測して、計測された複数の時間長さの平均を時間TYとして用いるようにしてもよい。
[Note 1]
In the above-described example, the length of time that the eyes are continuously closed is measured only once during the preparation period, and the measurement time is set as the time T X. Measurement may be performed a plurality of times during the preparation period, and an average of a plurality of measured time lengths may be used as the time T X. Similarly, the eye is measured a plurality of times during the preparation time length open and duration, may be used an average of a plurality of time lengths measured as the time T Y.
[注釈2]
上述の例では、眼領域を1つの顔領域内に存在する一方の眼のみを含む領域とし、1つの顔領域から1つの眼領域を抽出することとしている。この場合、被写体としての人物が有する片方の眼の開閉状態に基づいて上述の各撮影制御が行われることとなるが、1つの顔領域から2つの眼領域を抽出し、その2つの眼領域の夫々に対して開閉状態検出処理を行うことで被写体の両眼の開閉状態を監視するようにしていもよい。この場合、例えば、開閉状態検出処理によって両眼が共に開いていると検出された場合に被写体としての人物の眼が開眼状態にあると判断し、少なくとも一方の眼が閉じていると検出された場合に被写体としての人物の眼が閉眼状態にあると判断すればよい。また、片方の眼の開閉状態のみを監視するのか又は双方の眼の開閉状態を監視するのかを、自由に変更できるように撮像装置1を形成してもよい。
[Note 2]
In the above example, the eye area is an area including only one eye existing in one face area, and one eye area is extracted from one face area. In this case, each of the above-described imaging controls is performed based on the open / closed state of one eye of a person as a subject, but two eye areas are extracted from one face area, and the two eye areas are extracted. An open / close state detection process may be performed on each to monitor the open / close state of both eyes of the subject. In this case, for example, when it is detected that both eyes are open by the open / closed state detection process, it is determined that the eye of the person as the subject is in the open state, and it is detected that at least one eye is closed. In this case, it may be determined that the eyes of the person as the subject are in the closed state. Further, the imaging device 1 may be formed so that it is possible to freely change whether to monitor only the open / closed state of one eye or whether to monitor the open / closed state of both eyes.
[注釈3]
図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、主制御部13の機能は、ハードウェア、ソフトウェア又はハードウェアとソフトウェアの組み合わせによって実現可能である。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。また、主制御部13にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
[Note 3]
The imaging apparatus 1 in FIG. 1 can be realized by hardware or a combination of hardware and software. In particular, the function of the main control unit 13 can be realized by hardware, software, or a combination of hardware and software. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. Further, all or part of the functions realized by the main control unit 13 are described as a program, and the program is executed on a program execution device (for example, a computer) to realize all or part of the functions. You may make it do.
[注釈4]
例えば、以下のように考えることができる。対象画像の撮影タイミングを制御する撮影制御手段は、主制御部13とシャッタ制御部14によって実現されている。第4実施例では、この撮影制御手段は、撮像素子11aに連続撮影を実行させることで複数の対象画像を取得するようにしている。また、開閉状態検出処理の結果に基づいて時間TX又はTYを計測する時間計測手段は、開閉状態検出部24を含む主制御部13によって実現される。また、特徴点抽出処理を介して眼の開閉状態を検出する場合、開閉状態検出部24は特徴点抽出手段としての機能をも備える。
[Note 4]
For example, it can be considered as follows. The photographing control means for controlling the photographing timing of the target image is realized by the main control unit 13 and the shutter control unit 14. In the fourth embodiment, the photographing control unit acquires a plurality of target images by causing the image sensor 11a to perform continuous photographing. Further, the time measuring means for measuring the time T X or T Y based on the result of the open / close state detection process is realized by the main control unit 13 including the open / close state detection unit 24. In addition, when detecting the open / closed state of the eye through the feature point extraction process, the open / closed state detection unit 24 also has a function as a feature point extracting unit.
1 撮像装置
11 撮像部
11a 撮像素子
12 画像メモリ
13 主制御部
14 シャッタ制御部
17 操作部
17a シャッタボタン
21 画像処理部
22 顔領域検出部
23 眼領域検出部
24 開閉状態検出部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 11a Imaging element 12 Image memory 13 Main control part 14 Shutter control part 17 Operation part 17a Shutter button 21 Image processing part 22 Face area detection part 23 Eye area detection part 24 Opening / closing state detection part
Claims (11)
前記撮像素子の出力信号に基づいて被写体としての人物の眼の開閉状態を検出する開閉状態検出手段と、
前記撮像素子から対象撮影画像を得るための撮影タイミングを制御する撮影制御手段と、
前記開閉状態検出手段の検出結果に基づいて、前記眼が継続して閉じている時間長さ又は前記眼が継続して開いている時間長さを計測する時間計測手段と、を備え、
前記撮影制御手段は、前記時間計測手段の計測結果に基づいて前記対象撮影画像を得るための撮影タイミングを制御する
ことを特徴とする撮像装置。 An image sensor that outputs a signal representing a captured image by photoelectrically converting the incident optical image; and
An open / closed state detecting means for detecting an open / closed state of a human eye as a subject based on an output signal of the image sensor;
Photographing control means for controlling photographing timing for obtaining a target photographed image from the image sensor;
Based on the detection result of the open / closed state detecting means, comprising: a time measuring means for measuring a length of time for which the eye is continuously closed or a time length for which the eye is continuously opened;
The imaging apparatus, wherein the imaging control unit controls imaging timing for obtaining the target captured image based on a measurement result of the time measuring unit.
ことを特徴とする請求項1に記載の撮像装置。 The imaging control unit causes the imaging device to perform imaging for obtaining the target captured image after observing a state in which the eye is continuously closed for longer than a set specified time. The imaging device according to claim 1.
ことを特徴とする請求項2に記載の撮像装置。 The imaging control means performs imaging for obtaining the target captured image on the image sensor with reference to a timing at which a transition from the closed state of the eye to the open state is observed after the observation of the state. The imaging apparatus according to claim 2, wherein the imaging apparatus is executed.
ことを特徴とする請求項1に記載の撮像装置。 The imaging control means waits for the next transition from the closed state of the eye to the open state when the state where the eye is continuously open is observed for longer than a set specified time. The imaging apparatus according to claim 1, wherein the imaging device is caused to perform imaging for obtaining the target captured image.
前記撮像素子の出力信号に基づいて被写体としての人物の眼の開閉状態を検出する開閉状態検出手段と、
前記撮像素子を用いて連続撮影を実行する撮影制御手段と、
前記連続撮影の実行前に前記撮像素子から得られた撮影画像群に対する前記開閉状態検出手段の検出結果に基づいて、前記眼が継続して閉じている時間長さを表す基準閉眼持続時間を計測する時間計測手段と、を備え、
前記撮影制御手段は、前記基準閉眼持続時間に基づいて連続撮影における撮影間隔を設定する
ことを特徴とする撮像装置。 An image sensor that outputs a signal representing a captured image by photoelectrically converting the incident optical image; and
An open / closed state detecting means for detecting an open / closed state of a human eye as a subject based on an output signal of the image sensor;
Photographing control means for performing continuous photographing using the image sensor;
Based on the detection result of the open / close state detection means for the group of captured images obtained from the image sensor before the continuous imaging is performed, a reference eye-closed duration that represents the length of time that the eye is continuously closed is measured. A time measuring means for performing,
The imaging apparatus, wherein the imaging control unit sets an imaging interval in continuous imaging based on the reference closed eye duration.
前記撮影制御手段は、前記基準閉眼持続時間と前記基準開眼持続時間に基づいて前記撮影間隔を設定する
ことを特徴とする請求項5に記載の撮像装置。 The time measuring means also measures a reference eye opening duration representing the length of time that the eye is continuously open based on the detection result of the open / close state detecting means for the captured image group,
The imaging apparatus according to claim 5, wherein the imaging control unit sets the imaging interval based on the reference eye closing duration and the reference eye opening duration.
各人物の撮影画像中の位置、
各人物の撮影画像中の顔の大きさ、
各人物の撮影画像中の顔領域内画像と予め登録された顔画像との対比結果、及び、
各人物の撮影画像中の眼の大きさ、
の内の少なくとも1つに基づいて、前記複数の人物の内の1人の人物を特定人物として選択し、
前記開閉状態検出手段は、前記特定人物の眼の開閉状態を検出する
ことを特徴とする請求項1〜請求項6の何れかに記載の撮像装置。 When the subject includes a plurality of persons,
The position of each person in the captured image,
The size of the face in each person's captured image,
A comparison result between the face area image in the photographed image of each person and the face image registered in advance, and
The size of the eye in each person's captured image,
Selecting one person among the plurality of persons as a specific person based on at least one of
The imaging apparatus according to claim 1, wherein the opening / closing state detecting unit detects an opening / closing state of the eyes of the specific person.
前記撮像素子の出力信号に基づいて被写体としての人物の眼の開閉状態を検出する開閉状態検出手段と、
前記撮像素子から対象撮影画像を得るための撮影タイミングを制御する撮影制御手段と、を備え、
前記撮影制御手段は、前記開閉状態検出手段の検出結果に基づいて前記対象撮影画像を得るための撮影タイミングを制御する
ことを特徴とする撮像装置。 An image sensor that outputs a signal representing a captured image by photoelectrically converting the incident optical image; and
An open / closed state detecting means for detecting an open / closed state of a human eye as a subject based on an output signal of the image sensor;
Photographing control means for controlling a photographing timing for obtaining a target photographed image from the image sensor,
The imaging apparatus, wherein the imaging control unit controls an imaging timing for obtaining the target captured image based on a detection result of the open / close state detection unit.
ことを特徴とする請求項8に記載の撮像装置。 The imaging control unit causes the imaging device to perform imaging for obtaining the target captured image with reference to a timing at which a transition from the closed state to the open state of the eye is observed. The imaging device according to claim 8.
前記撮影制御手段は、全ての人物についての前記開閉状態に基づいて又は前記複数の人物中の特定人物についての前記開閉状態に基づいて、前記対象撮影画像を得るための撮影タイミングを制御する
ことを特徴とする請求項8または請求項9に記載の撮像装置。 When the subject includes a plurality of persons,
The photographing control means controls the photographing timing for obtaining the target photographed image based on the open / closed state for all persons or based on the open / closed state for a specific person among the plurality of persons. The imaging apparatus according to claim 8 or 9, wherein the imaging apparatus is characterized.
前記開閉状態検出手段は、前記眼領域内における特徴点を抽出する特徴点抽出手段を有し、抽出された特徴点の個数に基づいて前記眼の開閉状態を検出する
ことを特徴とする請求項1〜請求項10の何れかに記載の撮像装置。 An eye area detecting means for detecting an eye area of a person in the captured image;
The open / closed state detecting unit includes a feature point extracting unit that extracts feature points in the eye region, and detects the open / closed state of the eye based on the number of extracted feature points. The imaging device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008030083A JP2009194422A (en) | 2008-02-12 | 2008-02-12 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008030083A JP2009194422A (en) | 2008-02-12 | 2008-02-12 | Imaging apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009194422A true JP2009194422A (en) | 2009-08-27 |
Family
ID=41076095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008030083A Pending JP2009194422A (en) | 2008-02-12 | 2008-02-12 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009194422A (en) |
-
2008
- 2008-02-12 JP JP2008030083A patent/JP2009194422A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4639869B2 (en) | Imaging apparatus and timer photographing method | |
CN100581222C (en) | Image taking apparatus and image taking method | |
JP6049448B2 (en) | Subject area tracking device, control method thereof, and program | |
US8520113B2 (en) | Digital photographing apparatus, method of controlling the same, and recording medium storing program to execute the method | |
JP5713055B2 (en) | Imaging apparatus, imaging method, and program | |
JP2006227080A (en) | Electronic camera | |
JP2009100448A (en) | Image taking apparatus and image taking method | |
US20120057067A1 (en) | Digital photographing apparatus and control method thereof | |
TWI477887B (en) | Image processing device, image processing method and recording medium | |
JP2009123081A (en) | Face detection method and photographing apparatus | |
JP2008301162A (en) | Photography device, and photographing method | |
JP2016012846A (en) | Imaging apparatus, and control method and control program of the same | |
JP2009290255A (en) | Imaging apparatus, imaging apparatus control method and computer program | |
JP6087615B2 (en) | Image processing apparatus and control method therefor, imaging apparatus, and display apparatus | |
JP5383308B2 (en) | Image processing device | |
JP2014225763A (en) | Imaging apparatus, control method of the same, program, and storage medium | |
US9661204B2 (en) | Image capturing apparatus and control method thereof | |
JP4871664B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP2007208355A (en) | Photographing device, method, and program | |
JP6975144B2 (en) | Imaging processing device, electronic device, imaging processing method, imaging processing device control program | |
JP2009194422A (en) | Imaging apparatus | |
JP2009267733A (en) | Imaging apparatus and imaging control method | |
JP2008160280A (en) | Imaging apparatus and automatic imaging method | |
JP5424851B2 (en) | Image processing apparatus and image processing method | |
JP2013012993A (en) | Image processing device, imaging device, and image processing program |