JP5412894B2 - Electronic camera and program - Google Patents

Electronic camera and program Download PDF

Info

Publication number
JP5412894B2
JP5412894B2 JP2009059237A JP2009059237A JP5412894B2 JP 5412894 B2 JP5412894 B2 JP 5412894B2 JP 2009059237 A JP2009059237 A JP 2009059237A JP 2009059237 A JP2009059237 A JP 2009059237A JP 5412894 B2 JP5412894 B2 JP 5412894B2
Authority
JP
Japan
Prior art keywords
state
image
open
unit
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009059237A
Other languages
Japanese (ja)
Other versions
JP2010213158A (en
Inventor
享永 千田
幸一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009059237A priority Critical patent/JP5412894B2/en
Publication of JP2010213158A publication Critical patent/JP2010213158A/en
Application granted granted Critical
Publication of JP5412894B2 publication Critical patent/JP5412894B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔検出機能を有する電子カメラ及びプログラムに関する。   The present invention relates to an electronic camera having a face detection function and a program.

従来から、被写体の瞼が閉じた状態や瞼が半分閉じた状態を検出し、警告する電子カメラが知られている(例えば、特許文献1参照)。特許文献1の電子カメラでは、撮影画像における目の領域のパターンが予め定められた目のパターンとマッチングするか否かに基づき、瞼が閉じた状態や瞼が半分閉じた状態であるかを判定する。   2. Description of the Related Art Conventionally, there is known an electronic camera that detects and warns when a subject's eyelid is closed or a state where the eyelid is half-closed (see, for example, Patent Document 1). In the electronic camera of Patent Document 1, it is determined whether the eyelid is in a closed state or a state in which the eyelid is half closed based on whether or not the eye area pattern in the captured image matches a predetermined eye pattern. To do.

特開2006−344166号公報JP 2006-344166 A

しかし、特許文献1の電子カメラでは、被写体の個人差により元々目の細い人物に対して、瞼が半分閉じた状態を過敏に警告してしまうおそれがある。   However, in the electronic camera disclosed in Patent Document 1, there is a possibility that a person with originally thin eyes may be sensitively warned that the eyelid is half closed due to individual differences in subjects.

そこで、本発明は、上記事情に鑑み、被写体の個人差により瞼が半分閉じた状態でないにも拘わらず、誤って瞼が半分閉じた状態と判定してしまうことを防止する電子カメラ及びプログラムを提供することを目的とする。   Therefore, in view of the above circumstances, the present invention provides an electronic camera and a program for preventing an eyelid from being erroneously determined to be in a half-closed state even though the eyelid is not in a half-closed state due to individual differences in subjects. The purpose is to provide.

第1の発明に係る電子カメラは、撮像部と、顔検出部と、顔認識部と、開閉状態検出部と、分類部と、閾値設定部と、判定部と、報知部とを備える。撮像部は、被写体像を撮像し、画像を生成する。顔検出部は、画像の中から顔の領域を検出する。顔認識部は、顔を識別する特徴量を顔の領域から抽出する。開閉状態検出部は、顔の領域における瞼の開閉状態を検出する。分類部は、時間的に連続した所定の数の画像について、少なくとも瞼が最も開いた第1状態の画像及び第1状態より瞼が半分閉じた第2状態の画像を検出し、特徴量に基づいて人物毎に分類して、メモリに記録する。閾値設定部は、第1状態の画像及び第2状態の画像に基づいて、第2状態を示す閾値を人物毎に設定する。判定部は、瞼の開閉状態の判定対象となる画像を同一人物についてメモリに記録された画像のうちの少なくとも第1状態の画像と照合し、閾値に基づいて、判定対象の画像内の瞼が第2状態よりも開いているか否かを判定する。報知部は、判定部の判定結果に基づいて、警告する。 An electronic camera according to a first aspect includes an imaging unit, a face detection unit, a face recognition unit, an open / close state detection unit, a classification unit, a threshold setting unit, a determination unit, and a notification unit. The imaging unit captures a subject image and generates an image. The face detection unit detects a face area from the image. The face recognition unit extracts a feature amount for identifying a face from the face region. The open / close state detection unit detects the open / close state of the eyelid in the face region. The classification unit detects at least a first state image in which wrinkles are most open and a second state image in which wrinkles are half closed from the first state for a predetermined number of images that are temporally continuous, and based on the feature amount And classify by person and record in memory. The threshold setting unit sets a threshold indicating the second state for each person based on the first state image and the second state image . The determination unit checks an image that is a determination target of the open / close state of the bag with at least a first state image of images recorded in the memory for the same person, and based on the threshold value, It is determined whether or not the second state is open. The notification unit warns based on the determination result of the determination unit.

第2の発明に係るプログラムは、コンピュータに撮影した画像の処理を実行させるプログラムであって、顔検出処理と、顔認識処理と、開閉状態検出処理と、分類処理と、判定処理と、報知処理とを有する。顔検出処理は、画像の中から顔の領域を検出する。顔認識処理は、顔を識別する特徴量を顔の領域から抽出する。開閉状態検出処理は、顔の領域における瞼の開閉状態を検出する。分類処理は、時間的に連続した所定の数の画像について、少なくとも瞼が最も開いた第1状態の画像及び第1状態より瞼が半分閉じた第2状態の画像を検出し、特徴量に基づいて人物毎に分類して、メモリに記録する。閾値設定処理は、第1状態の画像及び第2状態の画像に基づいて、第2状態を示す閾値を人物毎に設定する。判定処理は、瞼の開閉状態の判定対象となる画像を同一人物についてメモリに記録された画像のうちの少なくとも第1状態の画像と照合し、閾値に基づいて、判定対象の画像内の瞼が第2状態よりも開いているか否かを判定する。報知処理は、判定処理の判定結果に基づいて、警告する。 A program according to a second invention is a program for causing a computer to execute processing of a captured image, and includes face detection processing, face recognition processing, open / closed state detection processing, classification processing, determination processing, and notification processing. And have. In the face detection process, a face region is detected from an image. In the face recognition process, a feature amount for identifying a face is extracted from a face region. The open / close state detection process detects the open / close state of the eyelid in the face region. The classification process detects at least a first state image in which wrinkles are most open and a second state image in which wrinkles are half closed from the first state for a predetermined number of temporally continuous images, and based on the feature amount And classify by person and record in memory. In the threshold value setting process, a threshold value indicating the second state is set for each person based on the first state image and the second state image . In the determination process, the image to be determined for the open / close state of the bag is checked against at least a first state image among the images recorded in the memory for the same person , and the wrinkle in the determination target image is determined based on the threshold value. It is determined whether or not the second state is open. The notification process warns based on the determination result of the determination process.

本発明の電子カメラによれば、被写体の個人差により瞼が半分閉じた状態でないにも拘わらず、誤って瞼が半分閉じた状態と判定してしまうことを防止することができる。   According to the electronic camera of the present invention, it is possible to prevent the eyelid from being erroneously determined to be in a half-closed state even though the eyelid is not half-closed due to individual differences in subjects.

電子カメラ1の構成を示すブロック図The block diagram which shows the structure of the electronic camera 1 閾値を設定するための画像データを登録する処理の一例を示すフローチャートThe flowchart which shows an example of the process which registers the image data for setting a threshold value 新規人物(人物A)の登録の一例を概念的に説明する図The figure which illustrates notionally an example of registration of a new person (person A) 新規人物(人物B)の登録の一例を概念的に説明する図The figure which illustrates notionally an example of registration of a new person (person B) 瞼の開閉状態検出モードにおける電子カメラ1の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the electronic camera 1 in the open / closed state detection mode of a bag 静止画撮影された画像の一例を示す図The figure which shows an example of the image imaged still image

(第1実施形態)
以下、図面に基づいて本発明の実施の形態を詳細に説明する。なお、第1実施形態で説明する「瞼の開閉状態検出モード」は、被写体である人物の瞼が半分閉じた状態(換言すると、瞼が半分開いた状態)であると、撮影後に警告メッセージでユーザに報知するモードである(詳細は後述する)。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The “open / closed state detection mode” described in the first embodiment is a warning message after shooting when the eyelid of the person who is the subject is in a half-closed state (in other words, in a state where the eyelid is half open). This is a mode for informing the user (details will be described later).

図1は、電子カメラ1の構成を示すブロック図である。図1に示す通り電子カメラ1は、撮影レンズ10と、撮像部11と、画像処理部12と、RAM(Random Access Memory)13と、ROM(Read Only Memory)14と、表示モニタ15と、記録インターフェース(記録I/F)16と、記録媒体17と、レリーズ釦18と、操作部19と、CPU(Central Processing Unit)20とを備える。   FIG. 1 is a block diagram showing the configuration of the electronic camera 1. As shown in FIG. 1, the electronic camera 1 includes a photographing lens 10, an imaging unit 11, an image processing unit 12, a RAM (Random Access Memory) 13, a ROM (Read Only Memory) 14, a display monitor 15, and a recording. An interface (recording I / F) 16, a recording medium 17, a release button 18, an operation unit 19, and a CPU (Central Processing Unit) 20 are provided.

このうち、画像処理部12、RAM13、ROM14、表示モニタ15、記録インターフェース(記録I/F)16及びCPU20は、バス21を介して互いに接続されている。また、レリーズ釦19と操作部18とはCPU20に接続されている。   Among these, the image processing unit 12, the RAM 13, the ROM 14, the display monitor 15, the recording interface (recording I / F) 16, and the CPU 20 are connected to each other via a bus 21. The release button 19 and the operation unit 18 are connected to the CPU 20.

撮影レンズ10は、ズームレンズと、フォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮影レンズ10を1枚のレンズとして図示する。   The photographing lens 10 includes a plurality of lens groups including a zoom lens and a focus lens. For the sake of simplicity, FIG. 1 shows the photographic lens 10 as a single lens.

撮像部11は、レンズ駆動機構、絞り、シャッター機構、撮像素子、AFE(アナログフロントエンド)等からなる。この撮像部11は、撮影レンズ10が結像した被写体像の画像データを生成する。撮像部11は、静止画像(本画像)の撮影時には、記録用の静止画像の画像データを生成する。また、撮像部11は、後述する登録人物用の撮影時には、所定のフレームレートで複数のフレームの画像データを生成する。   The imaging unit 11 includes a lens driving mechanism, a diaphragm, a shutter mechanism, an imaging element, an AFE (analog front end), and the like. The imaging unit 11 generates image data of a subject image formed by the photographing lens 10. The imaging unit 11 generates image data of a still image for recording when a still image (main image) is captured. Further, the imaging unit 11 generates image data of a plurality of frames at a predetermined frame rate at the time of shooting for a registered person, which will be described later.

撮像部11が出力する画像データは、RAM13に一時的に記録される。このRAM13は、フレームメモリとしても機能する。ROM14は、電子カメラ1の制御を行うプログラム等を予め記憶している不揮発性のメモリである。   Image data output by the imaging unit 11 is temporarily recorded in the RAM 13. This RAM 13 also functions as a frame memory. The ROM 14 is a non-volatile memory that stores a program for controlling the electronic camera 1 in advance.

画像処理部12は、RAM13に記録されている画像データを読み出し、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理等)を施す。   The image processing unit 12 reads the image data recorded in the RAM 13 and performs various image processing (gradation conversion processing, contour enhancement processing, white balance processing, etc.).

表示モニタ15は、静止画像、構図確認用のスルー画像及び電子カメラ1の操作メニュー等を表示する。表示モニタ15には、液晶モニタ等を適宜選択して用いることができる。   The display monitor 15 displays a still image, a through image for composition confirmation, an operation menu of the electronic camera 1, and the like. As the display monitor 15, a liquid crystal monitor or the like can be appropriately selected and used.

記録インターフェース(記録I/F)16には、記録媒体17を接続するためのコネクタが形成されている。記録インターフェース(記録I/F)16は、CPU20からの指示により、そのコネクタに接続された記録媒体17にアクセスして画像の記録処理を行う。   A connector for connecting the recording medium 17 is formed on the recording interface (recording I / F) 16. The recording interface (recording I / F) 16 accesses the recording medium 17 connected to the connector according to an instruction from the CPU 20 and performs image recording processing.

操作部18は、例えば、コマンド選択用のコマンドダイヤル、電源ボタン等を有している。そして、操作部18は、電子カメラ1を操作するための指示入力を受け付ける。   The operation unit 18 includes, for example, a command dial for command selection, a power button, and the like. Then, the operation unit 18 receives an instruction input for operating the electronic camera 1.

レリーズ釦19は、半押し操作(撮影前におけるオートフォーカス(AF)や自動露出(AE)等の動作開始の指示入力)と全押し操作(撮像動作開始)との指示入力とを受け付ける。   The release button 19 receives an instruction input for a half-press operation (an instruction input for starting an operation such as autofocus (AF) or automatic exposure (AE) before photographing) and a full-press operation (starting an imaging operation).

CPU20は、電子カメラ1の統括的な制御を行うマイクロプロセッサであり、コンピュータとしての機能を有する。CPU20は、本実施形態のプログラムが実行されることにより、顔検出部20a、顔認識部20b、開閉状態検出部20c、分類部20d、閾値設定部20e、判定部20f及び報知部20gとしても機能する。   The CPU 20 is a microprocessor that performs overall control of the electronic camera 1 and has a function as a computer. The CPU 20 also functions as a face detection unit 20a, a face recognition unit 20b, an open / close state detection unit 20c, a classification unit 20d, a threshold setting unit 20e, a determination unit 20f, and a notification unit 20g by executing the program of the present embodiment. To do.

顔検出部20aは、画像の中から顔の領域を検出する。すなわち、顔検出部20aは、画像データから顔の領域を抽出し、その顔の領域の位置座標、サイズ(範囲)を検出する。なお、顔検出の処理は、公知の技術を用いることにより実現できる。   The face detection unit 20a detects a face area from the image. That is, the face detection unit 20a extracts a face area from the image data, and detects the position coordinates and size (range) of the face area. The face detection process can be realized by using a known technique.

顔認識部20bは、顔を識別する特徴量を顔の領域から抽出する。すなわち、顔認識部20bは、顔検出部20aが検出した顔の領域に対して特徴量抽出処理を行って顔の特徴量を抽出する。具体的には、顔認識部20bは、顔の輪郭の形状、目の形状、口の形状等、人物の表情の特徴が表れる形状を抽出し、これらの形状を示す情報を特徴量とする。顔認識部20bは、この特徴量に基づいて、人物毎の顔を識別することが可能となる。この特徴量抽出処理は、公知の技術を用いることにより実現できる。   The face recognition unit 20b extracts a feature quantity for identifying a face from the face area. That is, the face recognition unit 20b performs a feature amount extraction process on the face area detected by the face detection unit 20a to extract a face feature amount. Specifically, the face recognizing unit 20b extracts shapes that express the features of a person's facial expression, such as the shape of the face outline, the shape of the eyes, and the shape of the mouth, and uses the information indicating these shapes as the feature amount. The face recognition unit 20b can identify a face for each person based on the feature amount. This feature amount extraction process can be realized by using a known technique.

開閉状態検出部20cは、顔の領域から瞼の開閉状態とその開閉の度合いを検出する。この開閉状態の検出処理は、公知の技術を用いることにより実現できる。   The open / close state detection unit 20c detects the open / close state of the eyelid and the degree of open / close from the face region. This open / closed state detection process can be realized by using a known technique.

分類部20dは、瞼が開いた状態から閉じる動作に切り替わる状態(以下、「第1状態」という。)の画像を特徴量に基づいて人物毎に分類し、画像データとしてRAM13の保存領域にメモリに記録する(詳細は後述する)。   The classification unit 20d classifies the images in a state where the eyelids are switched from the opened state to the closing operation (hereinafter referred to as “first state”) for each person based on the feature amount, and stores the image data in the storage area of the RAM 13 as image data. (Details will be described later).

閾値設定部20eは、第1状態より前記瞼が半分閉じた状態(以下、「第2状態」という。)を示す閾値を人物毎に設定する。具体的には、閾値設定部20eは、瞼が完全に閉じた状態を基準として、第1状態までの瞼の開き具合を数値化して評価する。例えば、閾値設定部20eは、人物毎に、瞼が完全に閉じた状態を示す値をゼロとし、第2状態を示す値を0.5とし、第1状態を示す値を1.0として数値化する。これにより、閾値設定部20eは、第2状態を示す値を閾値として人物毎に設定することができる。なお、瞼が完全に閉じた状態を示す値から第2状態を示す値までが閾値以下の状態となる。   The threshold setting unit 20e sets, for each person, a threshold indicating a state in which the eyelid is half closed from the first state (hereinafter referred to as “second state”). Specifically, the threshold setting unit 20e evaluates the degree of opening of the heel up to the first state by using a numerical value to evaluate the state of the heel completely closed. For example, for each person, the threshold setting unit 20e sets the value indicating the state where the heel is completely closed to zero, the value indicating the second state to 0.5, and the value indicating the first state to 1.0. Turn into. Thereby, the threshold setting unit 20e can set a value indicating the second state as a threshold for each person. Note that the state from the value indicating the state where the heel is completely closed to the value indicating the second state is equal to or less than the threshold value.

判定部20fは、瞼の開閉状態の判定対象となる画像を同一人物の第1状態の画像と照合し、閾値に基づいて、判定対象の画像内の瞼が第2状態よりも開いているか否かを判定する。   The determination unit 20f collates the image that is the determination target of the open / close state of the bag with the image of the same person in the first state, and based on the threshold value, whether or not the bag in the determination target image is open more than the second state. Determine whether.

報知部20gは、判定部20fの判定結果に基づいて、判定対象の画像内の瞼が第2状態よりも開いていない場合には、表示モニタ15を介して警告する。   Based on the determination result of the determination unit 20f, the notification unit 20g gives a warning via the display monitor 15 when the wrinkle in the determination target image is not opened in the second state.

次に、第1実施形態における電子カメラ1の動作の一例を説明する。   Next, an example of the operation of the electronic camera 1 in the first embodiment will be described.

第1実施形態では、先ず、瞼の開閉状態検出モードにおいて、閾値を設定するために画像データを登録する処理について説明する。続いて、瞼の開閉状態検出モードにおける電子カメラ1の動作の一例を説明する。なお、本実施形態の瞼の開閉状態検出モードでは、被写体として人物の顔が存在していることを前提として説明をする。   In the first embodiment, first, a process of registering image data for setting a threshold value in the open / closed state detection mode of the bag will be described. Next, an example of the operation of the electronic camera 1 in the bag open / closed state detection mode will be described. Note that the eyelid open / closed state detection mode of the present embodiment will be described on the assumption that a human face exists as a subject.

図2は、閾値を設定するための画像データを人物の顔毎に登録する処理の一例を示すフローチャートである。ここでは、電子カメラ1の電源がオンされた後、操作部18のコマンドダイヤル等で瞼の開閉状態検出モードが選択されると、CPU20は、表示モニタ15に瞼の開閉状態検出モードのメニュー画面を表示させる。この状態で、操作部18のコマンドダイヤル等で瞼の開閉状態検出モードにおける新規人物の登録が選択されると、CPU20は、図2に示すフローチャートを開始させる。   FIG. 2 is a flowchart illustrating an example of processing for registering image data for setting a threshold for each face of a person. Here, after the electronic camera 1 is turned on, if the bag open / closed state detection mode is selected by a command dial or the like of the operation unit 18, the CPU 20 displays the menu screen of the bag open / closed state detection mode on the display monitor 15. Is displayed. In this state, when registration of a new person in the open / closed state detection mode of the bag is selected by the command dial of the operation unit 18, the CPU 20 starts the flowchart shown in FIG. 2.

ステップS101:CPU20は、撮像部11に指示することにより、60fps(フレーム/秒)のフレームレートでスルー画像を撮像させる。このスルー画像は、所定の画像処理が施された後、表示モニタ15に順次表示される。ここで、人間が行う瞬き(瞼が閉じた状態から開動作を開始し、再度、瞼が閉じるまでの時間)は、一般的に約100〜150msecで行われていることが知られている。60fps(フレーム/秒)のスルー画像の場合、人間が行う瞬きは、約6〜9フレーム分に相当する。したがって、後述する開閉状態検出部20cは、60フレームの画像データを解析することにより、第1状態のフレーム、第2状態のフレーム及び瞼が閉じた状態のフレーム等を検出することができる。   Step S101: The CPU 20 instructs the imaging unit 11 to capture a through image at a frame rate of 60 fps (frame / second). The through images are sequentially displayed on the display monitor 15 after being subjected to predetermined image processing. Here, it is known that blinking performed by a human (the time from when the eyelid is opened to the opening operation and again when the eyelid is closed) is generally about 100 to 150 msec. In the case of a through image of 60 fps (frame / second), blinking performed by a human corresponds to about 6 to 9 frames. Therefore, the open / closed state detection unit 20c, which will be described later, can detect a frame in the first state, a frame in the second state, a frame in a state where the eyelid is closed, and the like by analyzing 60 frames of image data.

ステップS102:CPU20の顔検出部20aは、1フレームの画像内に人物の顔が存在するか否かを検出する。なお、顔検出部20aは、全てのフレームについて顔検出処理を行ってもよいが、ここでは、CPU20の演算の負荷を考慮して、例えば、フレームレートが60fps(フレーム/秒)であれば、顔検出部20aは、何フレーム毎に抽出したフレームの画像データに対して、顔検出処理を行う。   Step S102: The face detection unit 20a of the CPU 20 detects whether or not a human face exists in one frame image. Note that the face detection unit 20a may perform face detection processing for all frames, but here, for example, if the frame rate is 60 fps (frames / second) in consideration of the computation load of the CPU 20, The face detection unit 20a performs face detection processing on the image data of frames extracted every frame.

ステップS103:CPU20は、レリーズ釦19を介して、全押し操作の指示入力を受け付けると(ステップS103:Yes)、ステップS104に移行する。一方、全押し操作の指示入力を受け付けないと(ステップS104:No)、ステップS101に戻る。   Step S103: When the CPU 20 receives an instruction input for a full-press operation via the release button 19 (Step S103: Yes), the CPU 20 proceeds to Step S104. On the other hand, if the instruction input of the full press operation is not accepted (step S104: No), the process returns to step S101.

ステップS104:CPU20は、撮像部11が出力した60fps(フレーム/秒)のスルー画像(60フレーム)を、撮影画像として取り込むため、60フレーム分の画像データ(60フレーム)をRAM13に一時的に記録する。画像処理部12は、これらの画像データに対して、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理等)を施す。   Step S104: The CPU 20 temporarily records 60 frames of image data (60 frames) in the RAM 13 in order to capture a 60 fps (frame / second) through image (60 frames) output from the imaging unit 11 as a captured image. To do. The image processing unit 12 performs various types of image processing (gradation conversion processing, contour enhancement processing, white balance processing, etc.) on these image data.

ステップS105:CPU20の顔認識部20bは、RAM13に記録されている画像データに基づいて、顔検出部20aが検出した顔の領域に対して特徴量抽出処理を行う。ここで、顔認識部20bが特徴量を抽出することができなかった場合(ステップS105:No)、CPU20は、特徴量を抽出することができなかったことを示すメッセージを表示モニタ15に表示させた後(ステップS109)、ステップS101に戻る。一方、顔認識部20bが特徴量を抽出することができた場合(ステップS105:Yes)、ステップS106に移行する。   Step S105: The face recognition unit 20b of the CPU 20 performs a feature amount extraction process on the face area detected by the face detection unit 20a based on the image data recorded in the RAM 13. Here, when the face recognition unit 20b cannot extract the feature amount (step S105: No), the CPU 20 causes the display monitor 15 to display a message indicating that the feature amount cannot be extracted. (Step S109), the process returns to Step S101. On the other hand, when the face recognition unit 20b can extract the feature amount (step S105: Yes), the process proceeds to step S106.

ステップS106:CPU20は、表示モニタ15に、今回撮影して得られた人物の画像を登録するか否かのメニュー画面を表示させる。ここで、CPU20は、操作部18を介して、登録しないことを示す指示入力を受け付けると(ステップS106:No)、再度、撮影をし直すことを示すメッセージを表示モニタ15に表示させた後(ステップS109)、ステップS101に戻る。一方、CPU20は、操作部18を介して、登録することを示す指示入力を受け付けると(ステップS106:Yes)、ステップS107に移行する。   Step S106: The CPU 20 causes the display monitor 15 to display a menu screen as to whether or not to register an image of a person obtained by photographing this time. Here, when the CPU 20 receives an instruction input indicating that registration is not to be performed via the operation unit 18 (step S106: No), the CPU 20 displays a message indicating that photographing is performed again on the display monitor 15 ( Step S109) and return to Step S101. On the other hand, when receiving an instruction input indicating registration via the operation unit 18 (step S106: Yes), the CPU 20 proceeds to step S107.

ステップS107:CPU20の開閉状態検出部20cは、RAM13に記録されている画像に含まれる顔の領域を解析して瞼の開閉状態や瞼の開閉の度合いを検出する。   Step S107: The open / close state detection unit 20c of the CPU 20 analyzes the face area included in the image recorded in the RAM 13, and detects the open / close state of the eyelid and the degree of open / close of the eyelid.

具体的には、開閉状態検出部20cは、顔認識部20bが抽出した目の形状を含む瞼の領域を1フレームから60フレームまで順番に解析する。ここで、第1状態は、目の瞳の領域が最も現れることになる。また、瞼が閉じた状態は、瞳が隠れることとなる。そのため、開閉状態検出部20cは、1フレームから60フレームまで瞳の領域の変化を画像データの輝度分布に基づいて解析することにより、第1状態や瞼が閉じた状態といった瞼の開閉状態や瞼の開閉の度合いを検出することができる。   Specifically, the open / close state detection unit 20c sequentially analyzes the eyelid region including the eye shape extracted by the face recognition unit 20b from 1 frame to 60 frames. Here, in the first state, the pupil region of the eye appears most. Further, when the eyelid is closed, the pupil is hidden. For this reason, the open / close state detection unit 20c analyzes changes in the pupil region from the first frame to the 60th frame based on the luminance distribution of the image data, so that the open / close state and the The degree of opening / closing can be detected.

図3は、新規人物(人物A)の登録の一例を概念的に説明する図である。ここで、開閉状態検出部20cは、60フレームの中から、例えば、第1状態のフレーム(図3(a))、第1状態と第2状態との間の状態(図3(b))、第2状態のフレーム(図3(c))及び瞼が閉じた状態のフレーム(図3(d))等を検出することができる。   FIG. 3 is a diagram conceptually illustrating an example of registration of a new person (person A). Here, the open / closed state detection unit 20c has, for example, a frame in the first state (FIG. 3 (a)) and a state between the first state and the second state (FIG. 3 (b)) out of 60 frames. The frame in the second state (FIG. 3C), the frame in the closed state (FIG. 3D), and the like can be detected.

続いて、CPU20の閾値設定部20eは、第1状態(図3(a))に基づいて、第2状態(図3(c))を示す閾値を設定する。次に、CPU20の分類部20dは、RAM13に記録されている第1状態のフレーム(図3(a))に対して、顔認識部20bが抽出した特徴量に基づいて、識別情報(一例として、人物A)を付与する。これにより、人物毎に識別情報が付与される。すなわち、閾値設定部20eは、人物毎に閾値を対応付けることができる。図3を例にすると、第1状態のフレーム(図3(a))の画像が、人物Aを識別する登録画像となる。さらに、閾値設定部20eは、第1状態のフレームに基づいて、第2状態(図3(b))を示す閾値を設定することができる。なお、この識別情報は、操作部18を介して、ユーザ入力により付与してもよい。   Subsequently, the threshold setting unit 20e of the CPU 20 sets a threshold indicating the second state (FIG. 3C) based on the first state (FIG. 3A). Next, the classification unit 20d of the CPU 20 identifies identification information (as an example) based on the feature amount extracted by the face recognition unit 20b with respect to the frame in the first state (FIG. 3A) recorded in the RAM 13. , Person A). Thereby, identification information is provided for each person. That is, the threshold setting unit 20e can associate a threshold for each person. Taking FIG. 3 as an example, the image of the frame in the first state (FIG. 3A) becomes a registered image for identifying the person A. Furthermore, the threshold setting unit 20e can set a threshold indicating the second state (FIG. 3B) based on the frame in the first state. This identification information may be given by user input via the operation unit 18.

ステップS108:分類部20dは、RAM13に一時的記録されている画像データ(例えば、図3(a)〜(d))を、RAM13の保存領域に記録する。そして、この処理ルーチンは、終了する。   Step S108: The classification unit 20d records the image data (for example, FIGS. 3A to 3D) temporarily recorded in the RAM 13 in the storage area of the RAM 13. Then, this processing routine ends.

上述したフローチャートでは、画像データに基づいて人物Aの登録について説明した。次に、他の人物Bの登録について説明する。   In the above-described flowchart, the registration of the person A has been described based on the image data. Next, registration of another person B will be described.

図4は、新規人物(人物B)の登録の一例を概念的に説明する図である。人物Bについても、上述したフローチャートの手順に従って、分類部20dは、RAM13に一時的記録されている画像データ(例えば、図4(a)〜(d))を、RAM13の保存領域に記録する(ステップS108)。このようにして、CPU20は、人物毎に閾値を設定することができる。   FIG. 4 is a diagram conceptually illustrating an example of registration of a new person (person B). Also for the person B, the classification unit 20d records the image data (for example, FIGS. 4A to 4D) temporarily recorded in the RAM 13 in the storage area of the RAM 13 in accordance with the procedure of the above-described flowchart ( Step S108). In this way, the CPU 20 can set a threshold for each person.

なお、上述したフローチャートでは、スルー画像を取得することにより閾値設定部20eが閾値を設定する場合について説明した。例えば、瞼が全開若しくは全開に近い静止画像を1フレーム撮影することにより、閾値設定部20eが閾値を設定するようにしてもよい。この場合、電子カメラ1では、例えば、瞼が全開若しくは全開に近い状態の瞳の大きさから、瞼を半分閉じた瞳の大きさを推定することにより、閾値設定部20eは、第2状態を示す閾値を設定する。   In the above-described flowchart, the case where the threshold setting unit 20e sets a threshold by acquiring a through image has been described. For example, the threshold value setting unit 20e may set the threshold value by taking one frame of a still image in which the wrinkles are fully open or close to full open. In this case, in the electronic camera 1, for example, the threshold setting unit 20e estimates the size of the pupil with the eyelids half-opened from the size of the pupil when the eyelids are fully open or close to full open, so that the threshold setting unit 20e Set the threshold value shown.

次に、瞼の開閉状態検出モードにおける電子カメラ1の動作の一例を説明する。ここでは、操作部18のコマンドダイヤル等で瞼の開閉状態検出モードが選択されると、CPU20は、表示モニタ15に瞼の開閉状態検出モードのメニュー画面を表示させる。この状態で、操作部18のコマンドダイヤル等で瞼の開閉状態検出モードの撮影が選択されると、CPU20は、図5に示すフローチャートを開始させる。   Next, an example of the operation of the electronic camera 1 in the bag open / closed state detection mode will be described. Here, when the eyelid open / closed state detection mode is selected by the command dial of the operation unit 18, the CPU 20 causes the display monitor 15 to display a menu screen of the eyelid open / closed state detection mode. In this state, when shooting in the open / closed state detection mode of the bag is selected with the command dial or the like of the operation unit 18, the CPU 20 starts the flowchart shown in FIG.

図5は、瞼の開閉状態検出モードにおける電子カメラ1の動作の一例を示すフローチャートである。   FIG. 5 is a flowchart showing an example of the operation of the electronic camera 1 in the open / closed state detection mode of the bag.

ステップS201:CPU20は、撮像部11に指示することにより、例えば、60fps(フレーム/秒)のフレームレートでスルー画像を出力させる。   Step S201: The CPU 20 instructs the imaging unit 11 to output a through image at a frame rate of 60 fps (frame / second), for example.

ステップS202:CPU20の顔検出部20aは、1フレームの画像内に人物の顔が存在するか否かを検出する。   Step S202: The face detection unit 20a of the CPU 20 detects whether or not a human face exists in one frame image.

ステップS203:CPU20は、レリーズ釦19を介して、全押し操作の指示入力を受け付けると、ステップS204に移行する。一方、全押し操作の指示入力を受け付けないと(ステップS203:No)、ステップS201に戻る。   Step S203: When the CPU 20 receives an instruction input for a full-press operation via the release button 19, the process proceeds to step S204. On the other hand, if the instruction input for the full-press operation is not accepted (step S203: No), the process returns to step S201.

ステップS204:CPU20は、AE、AF等の撮影準備処理の指示を出し、撮影条件の設定を行わせる。続いて、撮像部11に静止画撮影の指示を出す。すなわち、CPU20は、撮像部11内のタイミングジェネレータを介して、撮像素子及びA/D変換部の各々へ向けて駆動信号を送出し、静止画撮影を行わせる。撮像部11が出力する画像データは、RAM13に一旦記録される。画像処理部12は、静止画撮影された画像データに対して、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理等)を施す。なお、説明の便宜上、図3に示す人物Aを撮影することとする。   Step S204: The CPU 20 issues an instruction for shooting preparation processing such as AE and AF, and sets shooting conditions. Subsequently, the imaging unit 11 is instructed to shoot a still image. That is, the CPU 20 sends a drive signal to each of the image sensor and the A / D converter via the timing generator in the image capturing unit 11 to perform still image shooting. Image data output from the imaging unit 11 is temporarily recorded in the RAM 13. The image processing unit 12 performs various types of image processing (gradation conversion processing, contour enhancement processing, white balance processing, etc.) on the image data obtained by taking a still image. For convenience of explanation, the person A shown in FIG. 3 is taken.

図6は、静止画撮影された画像の一例を示す図である。図6(a)は、表示モニタ15に人物Aの静止画像が表示されている状態を示す。   FIG. 6 is a diagram illustrating an example of a still image captured image. FIG. 6A shows a state in which a still image of the person A is displayed on the display monitor 15.

ステップS205:顔認識部20bは、静止画撮影された画像データに基づいて、顔認識処理を行い、顔の輪郭の形状、目の形状、口の形状等、人物Aの表情の特徴が表れる形状を抽出し、これらの形状を示す情報を特徴量とする。顔認識処理が終了すると、ステップS206に移行する。   Step S205: The face recognizing unit 20b performs face recognition processing based on the image data obtained by taking a still image, and a shape that expresses the facial expression features of the person A, such as the shape of the face contour, the shape of the eyes, the shape of the mouth, etc. And information indicating these shapes is used as a feature amount. When the face recognition process ends, the process proceeds to step S206.

ステップS206:CPU20は、静止画撮影された顔の特徴量に基づいて、同一人物(人物A)の第1状態の画像データをRAM13内で検索する。同一人物の第1状態の画像データが存在した場合(ステップS206:Yes)、ステップS207に移行する。一方、同一人物の第1状態の画像データが存在しない場合(ステップS206:No)、後述するステップS211に移行する。   Step S206: The CPU 20 searches the RAM 13 for the first state image data of the same person (person A) based on the feature amount of the face taken with the still image. If there is image data of the same person in the first state (step S206: Yes), the process proceeds to step S207. On the other hand, when there is no image data of the same person in the first state (step S206: No), the process proceeds to step S211 described later.

ステップS207:CPU20の開閉状態検出部20cは、RAM13に記録されている静止画撮影で取得した画像データに対して瞼の開閉状態の検出処理を行い、瞼の開閉状態を検出する。続いて、CPU20の判定部20fは、静止画撮影された画像を同一人物の第1状態の画像と照合し、閾値に基づいて、静止画像内の瞼が第2状態よりも開いているか否かを判定する。具体的には、判定部20fは、パターンマッチングにより、静止画撮影された画像内における人物Aの瞼の開閉状態を、図3に示す第1状態と比較し、数値化して評価する。この場合、判定部20fは、静止画撮影された画像内における人物Aの顔のサイズが、パターンマッチング用のテンプレート画像のサイズに合うよう正規化する。なお、判定部20fの判定精度をより上げるため、図3(a)から図3(d)の画像を用いて、判定処理を行ってもよい。   Step S207: The open / closed state detection unit 20c of the CPU 20 performs detection processing of the open / close state of the eyelids on the image data acquired by still image shooting recorded in the RAM 13, and detects the open / closed state of the eyelids. Subsequently, the determination unit 20f of the CPU 20 collates the still image captured image with the image of the same person in the first state, and based on the threshold value, whether or not the wrinkles in the still image are opened more than in the second state. Determine. Specifically, the determination unit 20f compares the opening / closing state of the person A's eyelid in the image taken with the still image with the first state shown in FIG. In this case, the determination unit 20f normalizes the size of the face of the person A in the still image captured image so as to match the size of the pattern matching template image. In addition, in order to raise the determination precision of the determination part 20f more, you may perform a determination process using the image of Fig.3 (a) to FIG.3 (d).

ステップS208:判定部20fの判定結果が、静止画撮影された画像内の瞼が第2状態よりも開いている場合(ステップS208:Yes)、ステップS210に移行する。一方、判定部20fの判定結果が、静止画撮影された画像内の瞼が第2状態よりも開いていない場合、(ステップS208:No)、ステップS209に移行する。   Step S208: If the determination result of the determination unit 20f is that the wrinkle in the image taken with the still image is opened more than in the second state (step S208: Yes), the process proceeds to step S210. On the other hand, when the determination result of the determination unit 20f indicates that the wrinkles in the image taken with the still image are not opened more than in the second state (step S208: No), the process proceeds to step S209.

ステップS209:CPU20の報知部20gは、瞼が半分閉じた状態であることを示すメッセージを表示モニタ15に表示させ、ユーザに対して警告をする。これにより、ユーザは、静止画撮影された画像を記録するか否かの判断をすることができる。   Step S209: The notification unit 20g of the CPU 20 displays a message on the display monitor 15 indicating that the bag is half closed, and warns the user. Thereby, the user can determine whether or not to record a still image.

ステップS210:CPU20は、操作部18を介して、静止画撮影された画像を保存する指示入力を受け付けると、画像データを圧縮処理して記録媒体17に記録する。   Step S210: When the CPU 20 receives an instruction input for saving a still image photographed image via the operation unit 18, the CPU 20 compresses the image data and records it on the recording medium 17.

なお、ステップS206で、同一人物の第1状態の画像データが存在しない場合(ステップS206:No)、ステップS211に移行し、判定部20fは、予め設定した所定(標準)の閾値で瞼の開閉状態を判定する。そして、判定部20fが瞼の開閉状態を判定した後、ステップS208に移行する。その後の処理は、上述した通りである。以上で、この処理ルーチンを終了する。   In step S206, when there is no image data of the same person in the first state (step S206: No), the process proceeds to step S211 and the determination unit 20f opens and closes the bag with a predetermined (standard) threshold value set in advance. Determine the state. Then, after the determination unit 20f determines the open / closed state of the bag, the process proceeds to step S208. The subsequent processing is as described above. Thus, this processing routine is finished.

上述した例では、1人の被写体(人物A)に対して説明したが、複数の被写体に対しても、個別に第1状態を登録することにより、判定部20fは、個別に瞼の開閉状態を判定する。   In the example described above, one subject (person A) has been described. However, the determination unit 20f individually registers the first state for a plurality of subjects, so that the determination unit 20f can individually open and close the bag. Determine.

図6(b)は、人物A及び人物Bを撮影した静止画像を示す。この場合、判定部20fは、人物Aについては、図3に示す第1状態に基づいて、図6(b)に示す人物Aの瞼の開閉状態を判定する。一方、人物Bについては、図4に示す第1状態に基づいて、図6(b)に示す人物Bの瞼の開閉状態を判定する。こうすると、判定部20fは、精度良く瞼が半分閉じた状態を判定することができる。つまり、人物Bは、元々目が細い人物であるため、特許文献1の電子カメラでは、誤って瞼が半分閉じた状態と判定してしまうおそれが生じる。しかしながら、本実施形態の判定部20fは、登録している人物に対して、個別に瞼の開閉状態を判定するため、人物Bを誤って瞼が半分閉じた状態と判定しないで済む。   FIG. 6B shows still images obtained by photographing the person A and the person B. In this case, for the person A, the determination unit 20f determines the open / close state of the heel of the person A illustrated in FIG. 6B based on the first state illustrated in FIG. On the other hand, for the person B, based on the first state shown in FIG. 4, the open / close state of the heel of the person B shown in FIG. 6B is determined. In this way, the determination unit 20f can accurately determine a state in which the eyelids are half closed. That is, since the person B is originally a person with thin eyes, the electronic camera of Patent Document 1 may erroneously determine that the eyelid is half closed. However, since the determination unit 20f according to the present embodiment individually determines the open / closed state of the heel for the registered person, it is not necessary to erroneously determine the person B as a state where the heel is half closed.

以上より、本実施形態の電子カメラ1は、被写体の個人差により瞼が半分閉じた状態でないにも拘わらず、誤って瞼が半分閉じた状態と判定してしまうことを防止することができる。   As described above, the electronic camera 1 according to the present embodiment can prevent erroneous determination that the eyelid is half-closed due to individual differences in subjects, even though the eyelid is not half-closed.

なお、図5に示すフローチャートのステップS211に移行する例としては、複数の人物を撮影して、未登録の人物がいた場合が想定される。例えば、被写体として、登録済みの人物A、人物Bと、未登録の人物C(不図示)とを撮影すると、未登録の人物Cについては、ステップS211の処理が行われる。この場合は、人物A及び人物Bについての判定が優先されるようにして、未登録の人物Cが、たとえ、瞼が半分閉じた状態であっても警告をしないようにしてもよい。   Note that, as an example of transition to step S211 in the flowchart illustrated in FIG. 5, a case where a plurality of persons are photographed and an unregistered person exists is assumed. For example, if a registered person A or person B and an unregistered person C (not shown) are photographed as subjects, the process of step S211 is performed for the unregistered person C. In this case, priority may be given to the determination for the person A and the person B, and the unregistered person C may not be warned even if the bag is half closed.

また、本実施形態では、第1状態を瞼が開いた状態から閉じる動作に切り替わる状態とし、第2状態を1状態より瞼が半分閉じた状態とした。この場合、人物Aを例にとると、図3に示すように、瞼を完全に閉じた状態(図3(d))から瞼が半分閉じた状態(図3(c))までの状態が第2状態を示す閾値以下になるので、これらの状態に対して警告をしてもよい。
<実施形態の補足事項>
(1)本実施形態のプログラムは、電子カメラ1に適用したが、電子カメラ1に限られず、例えば、画像再生機能を備えるパーソナルコンピュータ等にインストールして同様の処理を行わせることができる。この場合、パーソナルコンピュータのCPUは、閾値を設定するための画像データと電子カメラ1で撮影された静止画像(本画像)の画像データを読み込む。そして、閾値を設定するための画像データを登録する処理の一例を示すフローチャート(図2)において、パーソナルコンピュータのCPUは、ステップS105以降の処理を行うことで、人物毎に閾値を設定することができる。
Further, in the present embodiment, the first state is a state where the operation is switched from the state where the heel is opened to the closing operation, and the second state is a state where the heel is half closed from the first state. In this case, taking person A as an example, as shown in FIG. 3, the state from the state where the heel is completely closed (FIG. 3 (d)) to the state where the heel is half closed (FIG. 3 (c)). Since it becomes below the threshold value which shows a 2nd state, you may warn about these states.
<Supplementary items of the embodiment>
(1) Although the program of this embodiment was applied to the electronic camera 1, it is not restricted to the electronic camera 1, For example, it can install in a personal computer etc. provided with an image reproduction function, and can perform the same process. In this case, the CPU of the personal computer reads image data for setting a threshold value and image data of a still image (main image) taken by the electronic camera 1. In the flowchart (FIG. 2) showing an example of the process of registering image data for setting a threshold, the CPU of the personal computer can set the threshold for each person by performing the processes after step S105. it can.

また、瞼の開閉状態検出モードにおける電子カメラ1の動作の一例を示すフローチャート(図5)において、パーソナルコンピュータのCPUは、ステップS205以降の処理を行うことで、電子カメラ1で撮影された静止画像に存在する人物に対して、瞼の開閉状態を判定することができる。   Further, in the flowchart (FIG. 5) showing an example of the operation of the electronic camera 1 in the open / closed state detection mode of the bag, the CPU of the personal computer performs the processes in and after step S205, thereby taking a still image taken by the electronic camera 1. It is possible to determine the open / closed state of the bag for the person existing in

(2)本実施形態の報知部20gは、表示モニタ15にメッセージを表示させることで、ユーザに対して警告等を行った。例えば、電子カメラ1にスピーカを設けることで、報知部20gは、音声で警告等を行ってもよい。また、電子カメラ1の背面に、発光ダイオードを設けることで、報知部20gは、発光ダイオードを点灯させて警告等を行ってもよい。   (2) The notification unit 20g of the present embodiment gives a warning or the like to the user by displaying a message on the display monitor 15. For example, by providing a speaker in the electronic camera 1, the notification unit 20g may give a warning or the like by voice. Further, by providing a light emitting diode on the back surface of the electronic camera 1, the notification unit 20g may turn on the light emitting diode to give a warning or the like.

11・・・撮像部、20a・・・顔検出部、20b・・・顔認識部、20c・・・開閉状態検出部、20d・・・分類部、20e・・・閾値設定部、20f・・・判定部、20g・・・報知部 DESCRIPTION OF SYMBOLS 11 ... Imaging part, 20a ... Face detection part, 20b ... Face recognition part, 20c ... Opening / closing state detection part, 20d ... Classification part, 20e ... Threshold setting part, 20f ...・ Determining part, 20g ... notification part

Claims (2)

被写体像を撮像し、画像を生成する撮像部と、
前記画像の中から顔の領域を検出する顔検出部と、
前記顔を識別する特徴量を前記顔の領域から抽出する顔認識部と、
前記顔の領域における瞼の開閉状態を検出する開閉状態検出部と、
時間的に連続した所定の数の前記画像について、少なくとも前記瞼が最も開いた第1状態の画像及び前記第1状態より前記瞼が半分閉じた第2状態の画像を検出し、前記特徴量に基づいて人物毎に分類して、メモリに記録する分類部と、
前記第1状態の画像及び前記第2状態の画像に基づいて、前記第2状態を示す閾値を人物毎に設定する閾値設定部と、
前記瞼の開閉状態の判定対象となる画像を同一人物について前記メモリに記録された画像のうちの少なくとも前記第1状態の画像と照合し、前記閾値に基づいて、前記判定対象の画像内の瞼が前記第2状態よりも開いているか否かを判定する判定部と、
前記判定部の判定結果に基づいて、警告する報知部と、
を備えることを特徴とする電子カメラ。
An imaging unit that captures a subject image and generates an image;
A face detection unit for detecting a face region from the image;
A face recognition unit that extracts a feature amount for identifying the face from the face region;
An open / closed state detector for detecting an open / closed state of the eyelid in the face region;
For a predetermined number of images continuous in time, at least a first state image in which the folds are most open and a second state image in which the folds are half closed from the first state are detected, and the feature amount is detected. A classification unit that classifies each person based on the result and records it in a memory;
A threshold setting unit that sets a threshold value indicating the second state for each person based on the image in the first state and the image in the second state;
The image that is the determination target of the open / close state of the eyelid is collated with at least the image in the first state among the images recorded in the memory for the same person, and the image in the image to be determined is determined based on the threshold value. A determination unit that determines whether or not is open more than the second state;
Based on the determination result of the determination unit, a notification unit for warning,
An electronic camera comprising:
コンピュータに撮影した画像の処理を実行させるプログラムであって、
前記画像の中から顔の領域を検出する顔検出処理と、
前記顔を識別する特徴量を前記顔の領域から抽出する顔認識処理と、
前記顔の領域における瞼の開閉状態を検出する開閉状態検出処理と、
時間的に連続した所定の数の前記画像について、少なくとも前記瞼が最も開いた第1状態の画像及び前記第1状態より前記瞼が半分閉じた第2状態の画像を検出し、前記特徴量に基づいて人物毎に分類して、メモリに記録する分類処理と、
前記第1状態の画像及び前記第2状態の画像に基づいて、前記第2状態を示す閾値を人物毎に設定する閾値設定処理と、
前記瞼の開閉状態の判定対象となる画像を同一人物について前記メモリに記録された画像のうちの少なくとも前記第1状態の画像と照合し、前記閾値に基づいて、前記判定対象の画像内の瞼が前記第2状態よりも開いているか否かを判定する判定処理と、
前記判定処理の判定結果に基づいて、警告する報知処理とをコンピュータに実行させることを特徴とするプログラム。
A program that causes a computer to process a captured image,
A face detection process for detecting a face region from the image;
A face recognition process for extracting a feature amount for identifying the face from the face region;
An open / closed state detection process for detecting an open / closed state of the eyelid in the face region;
For a predetermined number of images continuous in time, at least a first state image in which the folds are most open and a second state image in which the folds are half closed from the first state are detected, and the feature amount is detected. A classification process for classifying each person based on the result and recording it in a memory;
A threshold setting process for setting a threshold value indicating the second state for each person based on the first state image and the second state image ;
The image that is the determination target of the open / close state of the eyelid is collated with at least the image in the first state among the images recorded in the memory for the same person, and the image in the image to be determined is determined based on the threshold value. Determination processing for determining whether or not is open more than the second state;
A program that causes a computer to execute warning processing based on a determination result of the determination processing.
JP2009059237A 2009-03-12 2009-03-12 Electronic camera and program Expired - Fee Related JP5412894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009059237A JP5412894B2 (en) 2009-03-12 2009-03-12 Electronic camera and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009059237A JP5412894B2 (en) 2009-03-12 2009-03-12 Electronic camera and program

Publications (2)

Publication Number Publication Date
JP2010213158A JP2010213158A (en) 2010-09-24
JP5412894B2 true JP5412894B2 (en) 2014-02-12

Family

ID=42972849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009059237A Expired - Fee Related JP5412894B2 (en) 2009-03-12 2009-03-12 Electronic camera and program

Country Status (1)

Country Link
JP (1) JP5412894B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4626425B2 (en) * 2005-07-11 2011-02-09 富士フイルム株式会社 Imaging apparatus, imaging method, and imaging program
JP4898532B2 (en) * 2007-04-13 2012-03-14 富士フイルム株式会社 Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded

Also Published As

Publication number Publication date
JP2010213158A (en) 2010-09-24

Similar Documents

Publication Publication Date Title
US8077215B2 (en) Apparatus for detecting blinking state of eye
JP4196714B2 (en) Digital camera
KR101280920B1 (en) Image recognition apparatus and method
KR101539043B1 (en) Image photography apparatus and method for proposing composition based person
KR101051001B1 (en) Information processing apparatus, eye open / closed degree determination method, recording medium and imaging device
US8314854B2 (en) Apparatus and method for image recognition of facial areas in photographic images from a digital camera
JP4999570B2 (en) Facial expression recognition apparatus and method, and imaging apparatus
JP5195120B2 (en) Digital camera
TW201038063A (en) Digital camera and image capturing method
US8208035B2 (en) Image sensing apparatus, image capturing method, and program related to face detection
KR20100075167A (en) Apparatus and method for capturing digital image using face recognition function
US7084918B2 (en) White eye portraiture system and method
CN103379279A (en) Subject area detection apparatus and method therefor, as well as image pickup apparatus and display apparatus
JP5918996B2 (en) Subject recognition apparatus and dictionary data registration method
JP2010014783A (en) Photographing device
JP2004320285A (en) Digital camera
JP4840978B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
CN108259769B (en) Image processing method, image processing device, storage medium and electronic equipment
JP5383308B2 (en) Image processing device
JP5272797B2 (en) Digital camera
JP5412894B2 (en) Electronic camera and program
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program
JP2008167028A (en) Imaging apparatus
JP2008148262A (en) Imaging apparatus, its control method, program, and storage medium
JP6038242B2 (en) IMAGING DEVICE, IMAGING DEVICE OPERATING METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131028

R150 Certificate of patent or registration of utility model

Ref document number: 5412894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees