JP5173858B2 - Moving image processing apparatus, moving image processing method, program, and storage medium - Google Patents
Moving image processing apparatus, moving image processing method, program, and storage medium Download PDFInfo
- Publication number
- JP5173858B2 JP5173858B2 JP2009005646A JP2009005646A JP5173858B2 JP 5173858 B2 JP5173858 B2 JP 5173858B2 JP 2009005646 A JP2009005646 A JP 2009005646A JP 2009005646 A JP2009005646 A JP 2009005646A JP 5173858 B2 JP5173858 B2 JP 5173858B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- evaluation
- difference value
- facial expression
- expression evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、動画像処理装置、動画像処理方法、プログラム及び記憶媒体に関し、特に、人物の顔を含む動画像データから、特定の表情を含む静止画像を選択することができる動画像処理装置、動画像処理方法、プログラム及び記憶媒体に関する。 The present invention relates to a moving image processing apparatus, a moving image processing method, a program, and a storage medium, and in particular, a moving image processing apparatus capable of selecting a still image including a specific facial expression from moving image data including a human face, The present invention relates to a moving image processing method, a program, and a storage medium.
デジタルカメラの分野では、フレーミングの際に撮影している動画から被写体の人物の顔を検出し、笑顔などの特定の表情を検出した場合に自動的にシャッターを切って静止画像を記録する技術が知られている。 In the field of digital cameras, there is a technology that detects the person's face from the video being shot during framing and automatically releases the shutter when a specific facial expression such as a smile is detected. Are known.
例えば、特許文献1には、撮影された画像から切り出されたそれぞれの部分画像を用いて顔画像を検出する装置が開示されている。この装置は、各部分画像が顔画像である蓋然性を示す指標値を算出し、その指標値が所定の閾値以上である部分画像を顔画像の候補として抽出し、全候補について指標値の閾値判定を行って顔画像を検出する。
For example,
また、特許文献2には、撮影された画像から人物の顔を検出し、検出された顔の表情を評価して表情評価値を算出し、表情評価値が所定のしきい値を超えた場合に画像信号を記録媒体に記録させる装置が開示されている。表情評価値は、例えば笑顔と通常の表情などの異なる表情の間において一方の表情にどれだけ近いかの度合いを示す。 Japanese Patent Application Laid-Open No. 2004-228561 detects a human face from a captured image, evaluates the facial expression of the detected face, calculates a facial expression evaluation value, and the facial expression evaluation value exceeds a predetermined threshold value. Discloses an apparatus for recording an image signal on a recording medium. The facial expression evaluation value indicates the degree of proximity to one facial expression between different facial expressions such as a smile and a normal facial expression.
しかしながら、特許文献1の装置は、画像から人物の顔を検出することはできるが、表情については判定することができず、例えば笑顔等の所定の表情になったときに静止画像を記録するような制御はできない。
However, although the apparatus of
一方、特許文献2の装置は、表情評価値を用いて笑顔等の所定の表情が現れたときに静止画像を記録するように制御することが可能である。しかしながら、特許文献2の装置は、表情評価値がしきい値を超えた時点で画像を記録するため、記録した後に表情評価値がさらに上昇した場合には、より良好な表情の画像が記録できないという問題がある。
On the other hand, the apparatus of
本発明の目的は、入力された動画像データからより表情評価値の高い静止画像を選択することができる動画像処理装置、動画像処理方法、プログラム及び記憶媒体を提供することにある。 An object of the present invention is to provide a moving image processing apparatus, a moving image processing method, a program, and a storage medium that can select a still image having a higher expression evaluation value from input moving image data.
上記目的を達成するために、本発明の動画像処理装置は、動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出部と、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、該表情評価部により高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御部とを備える動画像処理装置において、現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出し、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定部を備え、前記制御部は、前記評価差分値判定部が算出された差分値が所定の基準値より小さいと判定した場合に静止画像データを取得する処理を実行することを特徴とする。 In order to achieve the above object, a moving image processing apparatus according to the present invention includes a face detection unit that detects a human face from a plurality of image frame data constituting moving image data, and a facial expression in which the detected facial expression is a specific expression. A facial expression evaluation unit for calculating a facial expression evaluation value indicating the degree of proximity to the facial expression evaluation unit, and a control unit for executing processing for obtaining still image data when a high facial expression evaluation value is calculated by the facial expression evaluation unit In the moving image processing apparatus, the difference between the expression evaluation value for the image frame data currently being processed and the expression evaluation value for the image frame data at a time point earlier than the image frame data being currently processed is calculated, and the calculated difference value with the evaluation difference value determination unit that determines whether the difference is less than a predetermined reference value, the control unit, the difference value which the evaluation difference value determination unit is calculated smaller than a predetermined reference value And executes the process of acquiring the still image data when it is determined that.
上記目的を達成するために、本発明の動画像処理方法は、動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出ステップと、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価ステップと、該表情評価ステップにより高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御ステップとを備える動画像処理方法において、現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出する算出ステップと、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定ステップとを備え、前記制御ステップでは、前記評価差分値判定ステップで算出された差分値が所定の基準値より小さいと判定された場合に静止画像データを取得する処理を実行することを特徴とする。 In order to achieve the above object, a moving image processing method of the present invention includes a face detection step of detecting a human face from a plurality of image frame data constituting moving image data, and the detected facial expression is a specific expression. A facial expression evaluation step for calculating a facial expression evaluation value indicating the degree of proximity to the facial expression evaluation step, and a control step for executing a process for acquiring still image data when a high facial expression evaluation value is calculated by the facial expression evaluation step In the moving image processing method, a calculation step for calculating a difference value between the expression evaluation value for the image frame data being currently processed and the expression evaluation value for the image frame data at a time point before the image frame data being currently processed difference value is a determining evaluation difference value determination step of determining whether or not smaller than the predetermined reference value, in the control step, the And executes the processing of the difference value calculated by the price difference value determining step obtains the still image data when it is determined that the predetermined reference value smaller.
上記目的を達成するために、本発明のプログラムは、動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出ステップと、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価ステップと、該表情評価ステップにより高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御ステップとを備える動画像処理方法をコンピュータに実行させるプログラムにおいて、現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出する算出ステップと、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定ステップとを備え、前記制御ステップでは、前記評価差分値判定ステップで算出された差分値が所定の基準値より小さいと判定された場合に静止画像データを取得する処理を実行することを特徴とする。 To achieve the above object, the program of the present invention includes a face detection step for detecting a human face from a plurality of image frame data constituting moving image data, and how much the detected facial expression is a specific facial expression. A moving image processing comprising a facial expression evaluation step for calculating a facial expression evaluation value indicating a degree of closeness, and a control step for executing processing for acquiring still image data when a high facial expression evaluation value is calculated by the facial expression evaluation step In a program for causing a computer to execute the method, a calculation step of calculating a difference value between a facial expression evaluation value for the currently processed image frame data and a facial expression evaluation value for the image frame data at a time point before the currently processed image frame data When the calculated difference value is a determining evaluation difference value determination step of determining whether or not smaller than a predetermined reference value For example, in the control step, and executes a process of the evaluation difference value determination difference value calculated in the step to obtain the still image data when it is determined that the predetermined reference value smaller.
本発明によれば、単にしきい値と比較して画像を選択していた従来の技術と比較して、より表情評価値の高い静止画像データを取得することができる。 According to the present invention, still image data having a higher expression evaluation value can be acquired as compared with the conventional technique in which an image is simply selected by comparison with a threshold value.
以下、本発明の実施の形態について図面を参照しながら説明する。まず、本発明の第1の実施の形態に係る動画像処理装置について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, the moving image processing apparatus according to the first embodiment of the present invention will be described.
図1は、本発明の第1の実施の形態に係る動画像処理装置100の構成を概略的に示すブロック図である。図1の動画像処理装置100は、撮影された動画像データを入力として、この動画像データを構成する複数の画像フレームデータから、人物を含み、かつ、その人物の表情が特定の表情、ここでは笑顔である画像フレームデータを検出する。そして、動画像処理装置100は、笑顔の画像データが検出された場合に、静止画像データを取得する処理を実行して記録媒体に記録する機能を有する。
FIG. 1 is a block diagram schematically showing a configuration of a moving
動画像処理装置100は、装置全体を制御するための制御部110と、動画像データ及び静止画像データを入力する撮像部120とを備える。動画像処理装置100は、撮像部120から入力された動画像データを構成する画像フレームデータから人物の笑顔が記録されている画像を検出する笑顔画像検出部130と、撮像部120から入力された静止画像データを符号化する画像符号化部140とを備える。さらに、動画像処理装置100は、符号化された画像データを記録するためのメモリカードやハードディスク等の記録媒体150と、ユーザが操作するためのスイッチ類を備えた操作部160とを備えている。
The moving
制御部110は、ユーザによる操作部160の操作に応じて、撮影部120を制御して画像データを入力し、笑顔画像検出部130や画像符号化部140を制御する。
The
撮像部120は、撮影レンズと、この撮影レンズにより形成される被写体像を検出するCMOSセンサ等の撮像素子から構成され、連続した画像フレームデータのデータとして画像データを出力する。なお、撮像部120は、制御部110からの指示により撮影モードを動画モードと静止画モードとの間で切り替える。動画モードでは、比較的低い解像度で連続的に画像を撮影し、静止画モードでは、比較的高い解像度で単独の画像を撮影する。
The
笑顔画像検出部130は、動画モードで撮影された画像フレームデータから人物の顔を検出する顔検出部131と、検出された顔の表情が特定の表情(この例では笑顔)にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部132とを備える。また、笑顔画像検出部130は、評価差分値判定部133を備えている。評価差分値判定部133は、現在処理中の画像フレームデータに対する表情評価値と現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出し、算出された差分値が所定の条件を満たすか否かを判定する。
The smile
制御部110は、表情評価部132により算出された表情評価値が高い画像フレームデータのうち、評価差分値判定部133が所定の条件を満たすと判定した場合に、静止画像データを取得する処理を実行して記録媒体に記録する機能を備えている。制御部110は、所定の条件を満たすと判定されると、そのタイミングで記録指示を撮像部120及び画像符号化部140に出力する。これにより、撮像部120は静止画モードで画像を撮影し、この画像データが画像符号化部140により静止画像データとして符号化され、記録媒体150に記録される。
The
次に、上記のように構成された動画像処理装置100の動作について説明する。操作部160を操作することによりユーザが動画像処理装置100の電源を投入すると、制御部110は撮像部120を初期化した後、撮像部120を制御して動画モードで撮影を開始させる。撮影した動画像は、図示せぬLCDパネル等の表示部にプレビュー表示される。プレビュー表示の際には、1秒間に一定のフレーム数の表示が行われ、撮影された動画像データは表示後破棄される。
Next, the operation of the moving
ユーザが操作部160を操作して記録開始を指示すると、制御部110は笑顔画像検出部130を初期化した後、撮像部120で撮影した動画像データの画像フレームデータを顔検出部131に入力する(入力ステップ)。
When the user operates the
顔検出部131は、入力された画像フレームデータを解析し、画像フレームデータ(静止画像)中に人物の顔が存在するか否かを判別する(顔検出ステップ)。判別には、特許文献1に記載された手法を用いることができる。そして、顔検出部131は、入力画像フレームデータに顔が存在すると判別した場合には、顔領域を特定し、この顔領域の対象物が人物の顔である確度を示す顔信頼度値を算出する(顔信頼度算出ステップ)。
The
顔検出部131により検出された画像フレームデータ中の顔領域の情報は表情評価部132に入力され、顔領域に対する顔信頼度値は評価差分値判定部133に入力される。表情評価部132は、入力された顔領域の画像に対して笑顔の度合いを示す表情評価値を算出する(表情評価ステップ)。表情評価値の算出には、特許文献2に記載された手法を用いることができる。評価差分値判定部133は、入力された顔信頼度値に基づいてしきい値を調整する(しきい値設定ステップ)。具体的には、顔検出部131により算出された顔信頼度値が大きい場合はしきい値を小さな値に変更し、顔信頼度値が小さい場合はしきい値を大きな値に変更する。
Information on the face area in the image frame data detected by the
表情評価部132により算出された表情評価値は、評価差分値判定部133に入力される。評価差分値判定部133は、入力された表情評価値がしきい値より大きいか否かを判別し、大きい場合には、入力された表情評価値と1つ前の画像フレームデータに対する表情評価値の差分値を算出する(算出ステップ)。そして、算出された差分値が所定の条件を満たすか否かを判定する(評価差分値判定ステップ)。ここでは、例えば、差分値が一定の基準値より小さい場合に所定の条件を満たすものと判定する。評価差分値判定部133は、所定の条件を満たす(差分値が基準値より小さい)と判定した場合には、笑顔検出信号を制御部110へ出力し、所定の条件を満たさない(差分値が基準値より大きい)と判定した場合には、笑顔非検出信号を制御部110へ出力する。一般に、表情の変化は連続的であり、表情評価値が最大値に近づくと、直前の画像フレームデータとの表情評価値の差分値は小さくなると考えられる。そのため、差分値に基づいて静止画データの取得タイミングを決定することにより、表情評価値が最大値に近い静止画像データを取得することができる。評価差分値判定部133の動作の詳細については後述する。
The facial expression evaluation value calculated by the facial
笑顔検出信号が入力されると、制御部110は静止画像データを取得する処理を実行する(制御ステップ)。具体的には、制御部110は、撮影部120を静止画モードに切り替えて画像データを取得し、画像符号化部140に入力する。画像符号化部140は、入力された画像データに対してJPEG圧縮などの静止画像符号化処理を実行する。制御部110は、符号化処理が実行された静止画像データを静止画ファイルとして記録媒体150に記録する。制御部110は、静止画ファイルの記録が終了すると、撮影を終了し、撮影部120のモードを動画モードに切り替えてプレビュー表示を再開させる。
When the smile detection signal is input, the
一方、顔検出部131は、画像フレームデータ中に人物の顔が存在しないと判別した場合には、表情評価部132に顔領域が存在しないことを通知し、表情評価部132は、評価差分値判定部133に顔領域が存在しないことを通知する。評価差分値判定部133は、顔領域が画像フレームデータ中に存在しないため笑顔非検出信号を制御部110に出力する。制御部110は、処理対象の画像フレームデータに対する処理を終了し、次の画像フレームデータに対する処理を開始する。
On the other hand, when the
図2は、図1における評価差分値判定部133の動作を示すフローチャートである。以下、図2のフローチャートを用いて評価差分値判定部133の動作について説明する。図2の処理は、ユーザが笑顔画像の記録を指示した際に、笑顔画像が検出されるまで画像フレームデータ毎に実行される。
FIG. 2 is a flowchart showing the operation of the evaluation difference
評価差分値判定部133は、まず、差分値を求めるために必要な直前の画像フレームデータの表情評価値の保持するための内部変数である評価値保持変数REvを−1に初期化する(ステップS101)。続いて、評価差分値判定部133は、表情評価部132から現在処理中の画像フレームデータに対する表情評価値が入力されているか否かを判別する(ステップS102)。画像フレームデータから顔領域が検出されずに表情評価値が入力されていない場合(ステップS102でNo)には、評価値保持変数REvを−1に初期化し(ステップS111)、制御部110に笑顔非検出信号を出力する(ステップS112)。そして、ステップS102に戻って次の画像フレームデータを処理する。表情評価値が入力されている場合(ステップS102でYes)には、表情評価部132から入力された現在の処理対象の画像フレームデータに関する表情評価値を内部変数である評価値変数Evにセットする(ステップS103)。そして、顔検出部131から入力された顔信頼度値を内部変数である顔信頼度変数Rvにセットする(ステップS104)。
First, the evaluation difference
次に、評価差分値判定部133は、評価値保持変数REvが−1より大きいか否かを判別する(ステップS105)。評価値保持変数REvが−1より大きくない場合(ステップS105でNo)は、変数が初期化されたばかりで、直前の画像フレームデータに関する評価値が保存されておらず、差分値を求めることができない。このため、評価値保持変数REvに評価値変数Evの値をセットし(ステップS113)、制御部110に笑顔非検出信号を出力し(ステップS112)、ステップS102に戻って次の画像フレームデータを処理する。
Next, the evaluation difference
一方、評価値保持変数REvが−1より大きい場合(ステップS105でYes)は、直前の画像フレームデータに関する評価値が保存されていることを意味するため、顔信頼度変数Rvの値に従ってしきい値THvを決定する(ステップS106)。本実施の形態では、以下の表1に示すような対応関係に従い、顔信頼度変数Rvの値に応じて定数THv0、THv1、THv2のいずれかの値がしきい値THvにセットされる。すなわち、顔信頼度変数Rvの値が大きい場合にはしきい値THvは小さくなり、顔信頼度変数Rvの値が小さい場合にはしきい値THvは大きくなる。 On the other hand, if the evaluation value holding variable REv is larger than −1 (Yes in step S105), it means that the evaluation value related to the immediately previous image frame data is stored, and therefore the threshold is set according to the value of the face reliability variable Rv. A value THv is determined (step S106). In the present embodiment, according to the correspondence shown in Table 1 below, any one of the constants THv0, THv1, and THv2 is set as the threshold value THv according to the value of the face reliability variable Rv. That is, the threshold value THv decreases when the value of the face reliability variable Rv is large, and the threshold value THv increases when the value of the face reliability variable Rv is small.
次に、評価差分値判定部133は、評価値保持変数REvの値と評価値変数Evの値との差分をとって差分値変数Dにセットする(ステップS107)。これにより、現在処理中の画像フレームデータの表情評価値と、直前の画像フレームデータの表情評価値との差分値が求められる。
Next, the evaluation difference
そして、評価差分値判定部133は、評価値変数Evの値がしきい値THvを超えているか否かを判別する(ステップS108)。本実施の形態では、評価値変数Evの値がしきい値THvを超えていると判別された場合(ステップS108でYes)に、検出された顔領域の表情が笑顔であると判定する。ステップ206で顔信頼度値に応じてしきい値をセットしており、顔信頼度値が小さい顔領域に対しては笑顔検出のしきい値が大きくなるため、誤検出率を低くすることができる。
Then, the evaluation difference
表情評価値がしきい値より小さい場合(ステップS208でNo)には、顔領域が笑顔ではないと判断され、前記のステップS113,S112を経てステップS102に戻って次の画像フレームデータを処理する。 If the facial expression evaluation value is smaller than the threshold value (No in step S208), it is determined that the face area is not a smile, and the process returns to step S102 through steps S113 and S112 to process the next image frame data. .
笑顔であると判定された場合(ステップS108でYes)、評価差分値判定部133は、差分値変数Dの値が所定の基準値Dcの値より大きいか否かを判別する(ステップS109)。差分値変数Dの値が基準値Dcより小さくない場合(ステップS109でNo)は、表情評価値が十分に高い値に達していないとみなし、前記のステップS113,S112を経てステップS102に戻って次の画像フレームデータを処理する。差分値変数Dの値が基準値Dcより小さい場合(ステップS109でYes)には、表情評価値が十分に高い値に達したとみなし、制御部110に笑顔検出信号を出力して(ステップS110)処理を終了する。
If it is determined that the face is a smile (Yes in step S108), the evaluation difference
図2の処理によれば、表情評価値の差分値に基づいて撮像部120から入力される動画像データから好適な笑顔の画像フレームデータを検出することができる。したがって、その画像フレームデータが検出された時点で静止画像の撮影をすることにより、好適な笑顔の静止画像を撮影することができる。
According to the processing in FIG. 2, it is possible to detect suitable smile image frame data from the moving image data input from the
次に、図2の処理の具体例を図3に基づいて説明する。図3は、図1における評価差分値判定部133の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。図中の折れ線は、表情評価部132から顔画像を含む画像フレームデータ毎に出力される表情評価値を黒丸でプロットしたものであり、撮影された動画像データの中で表情評価値がどのように変化するかを示している。なお、この例では、全ての画像フレームデータに対して顔検出部131からは同一の顔信頼度が出力されているものとする。したがって、しきい値は一定である。
Next, a specific example of the process of FIG. 2 will be described with reference to FIG. FIG. 3 is a graph showing the change of the facial expression evaluation value with time for explaining the operation of the evaluation difference
ユーザが画像の記録を指示すると、笑顔画像検出部130が初期化され、撮像部120から画像フレームデータが順次笑顔画像検出部130に入力される。入力された画像フレームデータは、顔検出部131、表情評価部132での処理を経て、図3に示す表情評価値が順次評価差分値判定部133に入力される。図3に示す最初の表情評価値に対しては、差分値算出の対象となる直前の画像フレームデータが入力されていないため、図2のステップS105でNoと判別され、ステップS112に進み、笑顔非検出信号が出力される。以降、(a)の画像フレームデータまでは順次表情評価値が評価差分値判定部133に入力され、直前の画像フレームデータの表情評価値との差分値を算出するが(ステップS107)、表情評価値がしきい値よりも小さい。このため、ステップS108でNoと判別され、ステップS112に進み、笑顔非検出信号が出力される。(b)の画像フレームデータ以降は表情評価値がしきい値よりも大きくなるため、ステップS108ではYesと判別されてステップS109で表情評価値の差分値と基準値Dcとが比較される。(b)、(c)、(d)の画像フレームデータでは差分値が基準値Dcよりも大きいため、ステップS109で表情評価値が十分に高い値に達していないと判定され、ステップS112で笑顔非検出信号が出力される。(e)の画像フレームデータの処理時に前記差分値が所定の値Dcよりも小さくなるため、ステップS109で表情評価値が十分に高い値に達したと判定され、ステップ210で笑顔検出信号が制御部110に出力されて評価差分値判定部133は処理を終了する。
When the user instructs to record an image, the smile
制御部110は、笑顔検出信号が入力されると静止画の撮影処理を開始する。撮影処理を開始した場合、撮像部120から出力される画像データは顔検出部131には入力されず、画像符号化部140に入力されるため、図3の(e)から後の期間には表情評価値は算出されないが、表情評価値を算出した場合の評価値の例として示している。撮影処理を開始すると、制御部110は撮像部120を制御して絞りの調整、フラッシュの発光、露出時間の制御等を行うため、(e)から後のタイミングで実際の撮影が行われる。このため、(e)から遅れたタイミング、例えば(f)のタイミングで画像データが撮像部120から出力され、表情評価値が大きな画像データを符号化して記録することができる。
When the smile detection signal is input,
次に、本発明の第2の実施の形態に係る動画像処理装置について説明する。本実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用について説明する。 Next, a moving image processing apparatus according to the second embodiment of the present invention will be described. Since the configuration and operation of the present embodiment are basically the same as those of the first embodiment described above, description of the overlapping configuration and operation will be omitted, and different configurations and operations will be described below.
第1の実施形態では、評価値の差分値と比較する基準値Dcを定数としていたが、本実施の形態では、この基準値を直前の画像フレームデータの処理時に算出した表情評価値の差分値に基づいて基準値Dcの値を動的に決定する。第1の実施の形態との相違は、評価差分値判定部133内の処理のみであり、他は図1に示した構成と同一である。
In the first embodiment, the reference value Dc to be compared with the difference value of the evaluation value is a constant. In the present embodiment, this reference value is used as the difference value of the facial expression evaluation value calculated when processing the immediately preceding image frame data. Based on this, the value of the reference value Dc is dynamically determined. The difference from the first embodiment is only the processing in the evaluation difference
図4は、第2の実施の形態に係る動画像処理装置の評価差分値判定部133の作動を示すフローチャートである。図2と同一内容のステップについては詳細な説明は省略する。
FIG. 4 is a flowchart showing the operation of the evaluation difference
評価差分値判定部133は、評価値保持変数REvを−1に初期化し(ステップS201)、1つ前の画像フレームデータの処理時に算出した表情評価値の差分値を保持するための差分値保持変数Dpを0に初期化する(ステップS202)。続いて、評価差分値判定部133は、現在処理中の画像フレームデータに対する表情評価値が入力されているか否かを判別する(ステップS203)。表情評価値が入力されていない場合(ステップS203でNo)には、評価値保持変数REvを−1に初期化し(ステップS214)、差分値保持変数Dpを0に初期化し(ステップS215)、制御部110に笑顔非検出信号を出力する(ステップS216)。そして、ステップS203に戻って次の画像フレームデータを処理する。表情評価値が入力されている場合(ステップS203でYes)には、現在の処理対象の画像フレームデータに関する表情評価値を評価値変数Evにセットする(ステップS204)。そして、顔検出部131から入力された顔信頼度値を顔信頼度変数Rvにセットする(ステップS205)。
The evaluation difference
次に、評価差分値判定部133は、評価値保持変数REvが−1より大きいか否かを判別する(ステップS206)。評価値保持変数REvが−1より大きくない場合(ステップS206でNo)は、評価値保持変数REvに評価値変数Evの値をセットする(ステップS217)。そして、制御部110に笑顔非検出信号を出力し(ステップS216)、ステップS203に戻って次の画像フレームデータを処理する。
Next, the evaluation difference
一方、評価値保持変数REvが−1より大きい場合(ステップS206でYes)は、顔信頼度変数Rvの値に従ってしきい値THvを決定する(ステップS207)。そして、評価値保持変数REvの値と評価値変数Evの値との差分をとって差分値変数Dにセットする(ステップS208)。 On the other hand, when the evaluation value holding variable REv is larger than −1 (Yes in Step S206), the threshold value THv is determined according to the value of the face reliability variable Rv (Step S207). Then, the difference between the value of the evaluation value holding variable REv and the value of the evaluation value variable Ev is taken and set in the difference value variable D (step S208).
そして、評価差分値判定部133は、差分値保持変数Dpの値がセットされているか否か、すなわち、1つ前の画像フレームデータに対して表情評価値の差分値を算出しているか否かを判定する(ステップS209)。1つ前の画像フレームデータに対する表情評価値の差分値が算出されている場合(ステップS209でYes)には、評価値変数Evの値がしきい値THvを超えているか否か、すなわち、表情が笑顔であるか否かを判別する(ステップS210)。そして、笑顔であると判別された場合(ステップS210でYes)には、差分値保持変数Dpの値から基準値Dcの値を算出する。この例では、差分値保持変数Dpの値に一定の割合として1/3をかけた値を基準値Dcとして用いる。
Then, the evaluation difference
基準値Dcを設定した後、評価差分値判定部133は、差分値変数Dの値が設定された基準値Dcの値より小さいか否かを判別する(ステップS212)。差分値変数Dの値が基準値Dcより小さい場合(ステップS212でYes)には、評価差分値判定部133は、表情評価値が十分に高い値に達したとみなし、制御部110に笑顔検出信号を出力して(ステップS213)処理を終了する。
After setting the reference value Dc, the evaluation difference
一方、1つ前の画像フレームデータに対する表情評価値の差分値が算出されていない場合(ステップS209でNo)には、差分値保持変数Dpに差分値変数Dの値をセットする(ステップS218)。その後、評価値保持変数REvに評価値変数Evの値をセットし(ステップS217)、制御部110に笑顔非検出信号を出力し(ステップS216)、ステップS203に戻って次の画像フレームデータを処理する。表情評価値がしきい値より小さい場合(ステップS210でNo)、及び、差分値変数Dの値が設定された基準値Dcの値より大きい場合(ステップS212でNo)にも、ステップS218,S217,S216を実行する。 On the other hand, when the difference value of the facial expression evaluation value for the previous image frame data has not been calculated (No in step S209), the value of the difference value variable D is set to the difference value holding variable Dp (step S218). . Thereafter, the evaluation value variable Ev is set to the evaluation value holding variable REv (step S217), a smile non-detection signal is output to the control unit 110 (step S216), and the process returns to step S203 to process the next image frame data. To do. Also when the facial expression evaluation value is smaller than the threshold value (No in Step S210) and when the value of the difference value variable D is larger than the set reference value Dc (No in Step S212), Steps S218 and S217 are performed. , S216 is executed.
図4の処理によれば、表情評価値の差分値に基づいて撮像部120から入力される動画像データから好適な笑顔の画像フレームデータを検出することができる。したがって、その画像フレームデータが検出された時点で静止画像の撮影をすることにより、好適な笑顔の静止画像を撮影することができる。
According to the processing in FIG. 4, it is possible to detect suitable smile image frame data from the moving image data input from the
次に、図4の処理の具体例を図5に基づいて説明する。図5は、図4に示す第2の実施形態の評価差分値判定部133の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。なお、この例でも、全ての画像フレームデータに対して顔検出部131からは同一の顔信頼度が出力されているものとする。したがって、しきい値は一定である。
Next, a specific example of the process of FIG. 4 will be described with reference to FIG. FIG. 5 is a graph showing changes in facial expression evaluation values over time for explaining the operation of the evaluation difference
ユーザが画像の記録を指示すると、図5に示す表情評価値が順次評価差分値判定部133に入力される。図5に示す最初の表情評価値に対しては、差分値算出の対象となる直前の画像フレームデータが入力されていない。そのため、図4のステップS206でNoと判別され、評価値保持変数に最初の表情評価値がセットされ(ステップS217)、笑顔非検出信号が出力される(ステップS216)。2つめの表情評価値に対しては、直前の表情評価値はセットされているため、ステップS206ではYesと判別されて差分値は計算される(ステップS208)。ただし、直前の表情評価値に対する差分値は設定されていないため、ステップS209でNoと判別され、差分値保持変数Dpに差分値変数Dの値がセットされ(ステップS218)、笑顔非検出信号が出力される(ステップS216)。
When the user instructs image recording, facial expression evaluation values shown in FIG. 5 are sequentially input to the evaluation difference
図5に示す3つめから(a)までの表情評価値に対しては、ステップS206,S209ではYesと判別されるが、しきい値を超えていないためステップS210でNoと判別され、笑顔非検出信号が出力される(ステップS216)。 The facial expression evaluation values from the third to (a) shown in FIG. 5 are determined as Yes in steps S206 and S209, but are not determined in step S210 because the threshold value is not exceeded, and the smile is not determined. A detection signal is output (step S216).
図5の(b)以降の表情評価値はしきい値を超えるため、ステップS210でもYesと判別され、基準値Dcが1つ前の表情評価値に対する差分値に基づいて計算され(ステップS211)、現在の表情評価値の差分値と比較される(ステップS212)。この段階では、1つ前の(a)の表情評価値に対する差分値D(a)に基づいて、Dc=D(a)/3により基準値Dcが求められる。ただし、図5の例では、求められた基準値Dcより(b)の表情評価値に対する差分値D(b)の方が大きいため、ステップS212でNoと判別され、笑顔非検出信号が出力される(ステップS216)。 Since the facial expression evaluation value after (b) in FIG. 5 exceeds the threshold value, it is also determined as Yes in step S210, and the reference value Dc is calculated based on the difference value with respect to the previous facial expression evaluation value (step S211). The difference value of the current facial expression evaluation value is compared (step S212). At this stage, the reference value Dc is obtained by Dc = D (a) / 3 based on the difference value D (a) with respect to the previous facial expression evaluation value (a). However, in the example of FIG. 5, since the difference value D (b) with respect to the facial expression evaluation value of (b) is larger than the determined reference value Dc, it is determined No in step S212, and a smile non-detection signal is output. (Step S216).
以降、(c)の表情評価値については、差分値D(c)が直前の(b)の表情評価値に対する差分値に基づいて計算された基準値Dc=D(b)/3と比較される。また、(d)の表情評価値については、差分値D(d)が直前の(c)の表情評価値に対する差分値に基づいて計算された基準値Dc=D(c)/3と比較される。いずれも、ステップS212でNoと判別され、笑顔非検出信号が出力される(ステップS216)。 Thereafter, for the facial expression evaluation value in (c), the difference value D (c) is compared with the reference value Dc = D (b) / 3 calculated based on the difference value with respect to the previous facial expression evaluation value in (b). The For the facial expression evaluation value of (d), the difference value D (d) is compared with the reference value Dc = D (c) / 3 calculated based on the difference value with respect to the facial expression evaluation value of the previous (c). The In either case, No is determined in step S212, and a smile non-detection signal is output (step S216).
(e)の画像フレームデータの処理時には、差分値D(e)が直前の(d)の表情評価値に対する差分値に基づいて計算された基準値Dc=D(d)/3より小さくなる。このため、ステップS212でYesと判別され、笑顔検出信号が出力され(ステップS213)、評価差分値判定部133は処理を終了する。
At the time of processing the image frame data of (e), the difference value D (e) becomes smaller than the reference value Dc = D (d) / 3 calculated based on the difference value with respect to the immediately preceding facial expression evaluation value of (d). Therefore, Yes is determined in step S212, a smile detection signal is output (step S213), and the evaluation difference
制御部110は、笑顔検出信号が入力されると、撮像部120を制御して絞りの調整、フラッシュの発光、露出時間の制御等を行うため、(e)から後のタイミングで実際の撮影が行われる。このため、(e)から遅れたタイミング、例えば(f)のタイミングで画像データが撮像部120から出力され、表情評価値が大きな画像データを符号化して記録することができる。
When the smile detection signal is input, the
次に、本発明の第3の実施の形態に係る動画像処理装置について説明する。本実施の形態は、その構成、作用が上述した第2の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用について説明する。 Next, a moving image processing apparatus according to the third embodiment of the present invention will be described. Since the configuration and operation of this embodiment are basically the same as those of the second embodiment described above, description of the redundant configuration and operation will be omitted, and different configurations and operations will be described below.
第2の実施形態では、評価値の差分値と比較する基準値Dcを1つ前の画像フレームデータの処理時に算出した表情評価値の差分値に基づいて算出している。これに対して、本実施の形態では、この基準値を直前の複数(この例では3つ)の画像フレームデータの処理時に算出した表情評価値の差分値の平均値に基づいて決定する。第1、第2の実施の形態との相違は、評価差分値判定部133内の処理のみであり、他は図1に示した構成と同一である。
In the second embodiment, the reference value Dc to be compared with the difference value of the evaluation value is calculated based on the difference value of the facial expression evaluation value calculated when processing the previous image frame data. On the other hand, in the present embodiment, this reference value is determined based on the average value of the difference values of the facial expression evaluation values calculated at the time of processing a plurality of previous (three in this example) image frame data. The difference from the first and second embodiments is only the processing in the evaluation difference
図6は、第3の実施の形態に係る動画像処理装置の評価差分値判定部133の作動を示すフローチャートである。図2及び図4と同一内容のステップについては詳細な説明は省略する。
FIG. 6 is a flowchart illustrating the operation of the evaluation difference
評価差分値判定部133は、評価値保持変数REvを−1に初期化する(ステップS301)。続いて、評価差分値判定部133は、1つ前、2つ前、3つ前の画像フレームデータの処理時に算出した表情評価値の差分値を保持するための差分値保持変数Dp1,Dp2,Dp3を0に初期化する(ステップS302,303,304)。さらに、評価差分値判定部133は、現在処理中の画像フレームデータに対する表情評価値が入力されているか否かを判別する(ステップS305)。表情評価値が入力されていない場合(ステップS305でNo)には、評価差分値判定部133は、評価値保持変数REvを−1に初期化し(ステップS316)、差分値保持変数Dp1,Dp2,Dp3を0に初期化する(ステップS317,318,319)。そして、評価差分値判定部133は、制御部110に笑顔非検出信号を出力し(ステップS320)、ステップS305に戻って次の画像フレームデータを処理する。表情評価値が入力されている場合(ステップS305でYes)には、評価差分値判定部133は、現在の処理対象の画像フレームデータに関する表情評価値を評価値変数Evにセットする(ステップS306)。そして、評価差分値判定部133は、顔検出部131から入力された顔信頼度値を顔信頼度変数Rvにセットする(ステップS307)。
The evaluation difference
次に、評価差分値判定部133は、評価値保持変数REvが−1より大きいか否かを判別する(ステップS308)。評価値保持変数REvが−1より大きくない場合(ステップS308でNo)は、評価差分値判定部133は、評価値保持変数REvに評価値変数Evの値をセットする(ステップS321)。そして、評価差分値判定部133は、制御部110に笑顔非検出信号を出力し(ステップS320)、ステップS305に戻って次の画像フレームデータを処理する。
Next, the evaluation difference
一方、評価値保持変数REvが−1より大きい場合(ステップS308でYes)は、顔信頼度変数Rvの値に従ってしきい値THvを決定する(ステップS309)。そして、評価値保持変数REvの値と評価値変数Evの値との差分をとって差分値変数Dにセットする(ステップS310)。 On the other hand, when the evaluation value holding variable REv is larger than −1 (Yes in Step S308), the threshold value THv is determined according to the value of the face reliability variable Rv (Step S309). Then, the difference between the value of the evaluation value holding variable REv and the value of the evaluation value variable Ev is taken and set in the difference value variable D (step S310).
次に、評価差分値判定部133は、差分値保持変数Dp3の値がセットされているか否か、すなわち、3つ前の画像フレームデータに対して表情評価値の差分値を算出しているか否かを判定する(ステップS311)。3つ前の画像フレームデータに対する表情評価値の差分値が算出されている場合(ステップS311でYes)には、評価値変数Evの値がしきい値THvを超えているか否か、すなわち、表情が笑顔であるか否かを判別する(ステップS312)。そして、笑顔であると判別された場合(ステップS312でYes)には、差分値保持変数Dp1,Dp2,Dp3の値から基準値Dcの値を算出する。この例では、差分値保持変数Dp1,Dp2,Dp3の平均値に一定の割合として1/3をかけた値を基準値Dcとして用いる。
Next, the evaluation difference
基準値Dcを設定した後、評価差分値判定部133は、差分値変数Dの値が設定された基準値Dcの値より小さいか否かを判別する(ステップS314)。差分値変数Dの値が基準値Dcより小さい場合(ステップS314でYes)には、評価差分値判定部133は、表情評価値が十分に高い値に達したとみなし、制御部110に笑顔検出信号を出力して(ステップS315)処理を終了する。
After setting the reference value Dc, the evaluation difference
3つ前の画像フレームデータに対する表情評価値の差分値が算出されていない場合(ステップS311でNo)には、差分値保持変数Dp3,Dp2,Dp1にそれぞれ1つ前の差分値Dp2,Dp1,Dの値をセットする(ステップS322,323,324)。そして、評価値保持変数REvに評価値変数Evの値をセットし(ステップS321)、制御部110に笑顔非検出信号を出力し(ステップS320)、ステップS305に戻って次の画像フレームデータを処理する。表情評価値がしきい値より小さい場合(ステップS312でNo)、及び、差分値変数Dの値が設定された基準値Dcの値より大きい場合(ステップS314でNo)にも、ステップS322,323,324,321,320を経てステップS305に戻る。 If the difference value of the facial expression evaluation value for the previous three image frame data has not been calculated (No in step S311), the difference value holding variables Dp3, Dp2, and Dp1 are the first difference value Dp2, Dp1, respectively. The value of D is set (steps S322, 323, 324). Then, the value of the evaluation value variable Ev is set in the evaluation value holding variable REv (step S321), a smile non-detection signal is output to the control unit 110 (step S320), and the process returns to step S305 to process the next image frame data. To do. Steps S322 and 323 are also performed when the facial expression evaluation value is smaller than the threshold value (No in Step S312) and when the value of the difference value variable D is larger than the set reference value Dc (No in Step S314). , 324, 321 and 320, the process returns to step S305.
図6の処理によれば、表情評価値の差分値に基づいて撮像部120から入力される動画像データから好適な笑顔の画像フレームデータを検出することができる。このため、その画像フレームデータが検出された時点で静止画像の撮影をすることにより、好適な笑顔の静止画像を撮影することができる。
According to the processing in FIG. 6, it is possible to detect suitable smile image frame data from the moving image data input from the
次に、図6の処理の具体例を図7に基づいて説明する。図7は、図6に示す第3の実施形態の評価差分値判定部133の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。なお、この例でも、全ての画像フレームデータに対して顔検出部131からは同一の顔信頼度が出力されているものとする。したがって、しきい値は一定である。
Next, a specific example of the process of FIG. 6 will be described with reference to FIG. FIG. 7 is a graph showing changes with time of facial expression evaluation values for explaining the operation of the evaluation difference
ユーザが画像の記録を指示すると、図7に示す表情評価値が順次評価差分値判定部133に入力される。図7に示す最初の表情評価値に対しては、差分値算出の対象となる直前の画像フレームデータが入力されていない。このため、図4のステップS308でNoと判別され、評価値保持変数に最初の表情評価値がセットされ(ステップS321)、笑顔非検出信号が出力される(ステップS320)。2つめの表情評価値に対しては、直前の表情評価値はセットされているため、ステップS308ではYesと判別されて差分値は計算されるが(ステップS310)、3つ前の表情評価値に対する差分値は設定されていない。このため、ステップS311でNoと判別され、差分値保持変数Dp1に差分値変数Dの値がセットされ(ステップS324)、笑顔非検出信号が出力される(ステップS320)。ステップS322,323の時点では、差分値保持変数Dp1,Dp2の値は初期値0のままであるため、これらの処理を終了しても差分値保持変数Dp2,Dp3の値は0である。
When the user instructs image recording, facial expression evaluation values shown in FIG. 7 are sequentially input to the evaluation difference
図7の3つめの表情評価値までは、差分値保持変数Dp3の値が0であるため、ステップS311でNoと判別される。 Since the value of the difference value holding variable Dp3 is 0 up to the third facial expression evaluation value in FIG. 7, it is determined No in step S311.
図7の(a)の表情評価値が入力されると、ステップS308,S311ではYesと判別されるが、しきい値を超えていないためステップS312でNoと判別され、笑顔非検出信号が出力される(ステップS320)。 When the facial expression evaluation value in FIG. 7A is input, Yes is determined in steps S308 and S311, but since the threshold value is not exceeded, No is determined in step S312 and a smile non-detection signal is output. (Step S320).
図7の(b)以降の表情評価値はしきい値を超えるため、ステップS312でもYesと判別され、基準値Dcが直前の3つの表情評価値に対する差分値に基づいて計算され(ステップS313)、現在の表情評価値の差分値と比較される(ステップS314)。この段階では、直前の3つの表情評価値に対する差分値D(a−2),D(a−1),D(a)に基づいて、Dc=(D(a−2)+D(a−1)+D(a))/9により基準値Dcが求められる。ただし、図7の例では、求められた基準値Dcより(b)の表情評価値に対する差分値D(b)の方が大きいため、ステップS314でNoと判別され、笑顔非検出信号が出力される(ステップS320)。 Since the facial expression evaluation value after (b) in FIG. 7 exceeds the threshold value, it is also determined as Yes in step S312, and the reference value Dc is calculated based on the difference value with respect to the previous three facial expression evaluation values (step S313). The current facial expression evaluation value is compared with the difference value (step S314). At this stage, Dc = (D (a−2) + D (a−1) based on the difference values D (a−2), D (a−1), and D (a) with respect to the previous three facial expression evaluation values. ) + D (a)) / 9, the reference value Dc is obtained. However, in the example of FIG. 7, since the difference value D (b) with respect to the facial expression evaluation value of (b) is larger than the obtained reference value Dc, No is determined in step S314, and a smile non-detection signal is output. (Step S320).
以降、(c)の表情評価値については、差分値D(c)が直前の3つの表情評価値に対する差分値に基づいて計算された基準値Dc=(D(a−1)+D(a)+D(b))/9と比較される。また、(d)の表情評価値については、差分値D(d)が直前の3つの表情評価値に対する差分値に基づいて計算された基準値Dc=(D(a)+D(b)+D(c))/9と比較される。いずれも、ステップS314でNoと判別され、笑顔非検出信号が出力される(ステップS320)。 Thereafter, for the facial expression evaluation value of (c), the reference value Dc = (D (a−1) + D (a) where the difference value D (c) is calculated based on the difference values with respect to the previous three facial expression evaluation values. + D (b)) / 9. For the facial expression evaluation value of (d), the difference value D (d) is calculated based on the reference value Dc = (D (a) + D (b) + D () based on the difference values for the previous three facial expression evaluation values. c) Compared with / 9. In either case, No is determined in step S314, and a smile non-detection signal is output (step S320).
(e)の画像フレームデータの処理時には、差分値D(e)が直前の3つの表情評価値に対する差分値に基づいて計算された基準値Dc=(D(b)+D(c)+D(d))/9より小さくなる。このため、ステップS314でYesと判別され、笑顔検出信号が出力され(ステップS315)、評価差分値判定部133は処理を終了する。
At the time of processing the image frame data of (e), the difference value D (e) is a reference value Dc = (D (b) + D (c) + D (d) calculated based on the difference values for the previous three facial expression evaluation values. )) / 9 or less. For this reason, Yes is determined in step S314, a smile detection signal is output (step S315), and the evaluation difference
制御部110は、笑顔検出信号が入力されると、撮像部120を制御して絞りの調整、フラッシュの発光、露出時間の制御等を行うため、(e)から後のタイミングで実際の撮影が行われる。このため、(e)から遅れたタイミング、例えば(f)のタイミングで画像データが撮像部120から出力され、表情評価値が大きな画像データを符号化して記録することができる。
When the smile detection signal is input, the
なお、第1〜第3の実施の形態では、プレビュー表示のための動画撮影と静止画の撮影とで撮影モードが異なることを前提としていたが、これらを区別せず、動画モードで撮影された画像フレームデータの一部をそのまま静止画像データとして利用してもよい。その場合には、笑顔検出信号が入力された時点(e)の画像フレームデータを符号化して記録することも可能である。 In the first to third embodiments, it is assumed that the shooting mode is different between the moving image shooting for preview display and the shooting of the still image. A part of the image frame data may be used as it is as still image data. In that case, it is also possible to encode and record the image frame data at the time (e) when the smile detection signal is input.
次に、本発明の第4の実施の形態に係る動画像処理装置について説明する。本実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用について説明する。 Next, a moving image processing apparatus according to the fourth embodiment of the present invention will be described. Since the configuration and operation of the present embodiment are basically the same as those of the first embodiment described above, description of the overlapping configuration and operation will be omitted, and different configurations and operations will be described below.
第1〜第3の実施の形態の動画像処理装置は、画像フレームデータ中の顔画像が1つである場合を想定したものであるが、第4の実施の形態の動画像処理装置は、画像フレームデータ中に顔画像が複数ある場合を想定したものである。 The moving image processing apparatuses of the first to third embodiments are assumed to have one face image in the image frame data, but the moving image processing apparatuses of the fourth embodiment It is assumed that there are a plurality of face images in the image frame data.
図8は、本発明の第4の実施の形態に係る動画像処理装置100Aの構成を概略的に示すブロック図であり、図9は、図8における評価差分値判定部の詳細な構成を示すブロック図である。装置全体の基本的な構成は図1と同一であるが、笑顔画像検出部170の構成が第1の実施の形態とは異なるため、異なる符号を付している。他の構成は図1と同一であるため、同一符号を付して重複した説明は省略する。
FIG. 8 is a block diagram schematically showing the configuration of a moving
本実施の形態の笑顔画像検出部170は、撮像部120から入力された動画像データから人物の笑顔が記録されている画像フレームデータを検出するものである。笑顔画像検出部170は、画像フレームデータから複数の人物の顔部分の領域を検出する顔検出部171と、顔検出部171で検出された複数の顔領域に対して笑顔の度合いを示す表情評価値をそれぞれ算出するための表情評価部172とを備える。また、笑顔画像検出部170は、評価差分値判定部173を備える。評価差分値判定部173は、現在処理中の画像フレームデータに対する表情評価値と現在処理中の画像フレームデータより前の時点における画像フレームデータに対する表情評価値の差分値を各顔領域について算出し、差分値が所定の条件を満たすか否かを判定する。
The smile
ユーザが操作部160を操作して動画像処理装置100Aの電源を投入すると、制御部110は撮像部120を初期化した後、撮像部120を制御して動画モードで撮影を開始させる。撮影した動画像は、図示せぬ表示部にプレビュー表示される。ユーザが操作部160を操作して記録開始を指示すると、制御部110は笑顔画像検出部170を初期化した後、撮像部120で撮影した動画像データの画像フレームデータを顔検出部171に入力する。
When the user operates the
顔検出部171は、入力された画像フレームデータから複数の顔領域を検出可能であり、入力された画像フレームデータを解析し、画像フレームデータ中に人物の顔が存在するか否かを判定する。また、顔検出部171は、入力画像フレームデータに顔が存在すると判別した場合には、顔領域を特定し、この顔領域の画像が人物の顔である確度を示す顔信頼度値を算出する。複数の顔が存在する場合には、複数の顔領域を特定し、それぞれの顔領域について顔信頼度値を算出する。
The
また、顔検出部171は、検出された顔領域にID番号を付加する機能を有し、連続する画像フレームデータで検出された顔領域に対して同一人物であると判定された顔領域に一意のID番号を付加することができる。連続する画像フレームデータ間で検出される顔領域に対して同一人物であることを特定するには、例えば1つ前の画像フレームデータで検出した顔領域の情報と、現在の画像フレームデータで検出された顔領域の情報とを比較する。比較の結果、画像フレームデータ中での位置、大きさの差異が一定値以下の顔領域を同一人物と判定することができる。
The
顔検出部171により画像フレームデータ中に人物の顔が存在しないと判定された場合、顔検出部171は表情評価部172に顔領域が存在しないことを通知し、表情評価部172は評価差分値判定部173に顔領域が存在しないことを通知する。評価差分値判定部173は、顔領域が画像フレームデータ中に存在しないため笑顔非検出信号を制御部110に出力し、制御部110は当該画像フレームデータに対する処理を終了して次の画像フレームデータに対する処理を開始する。
When the
顔検出部171により画像フレームデータ中に人物の顔が存在すると判定された場合、顔検出部171により検出された画像フレームデータ中の各顔領域の情報と各顔領域のID番号を含む情報とは表情評価部172に入力される。また、各顔領域に対する顔信頼度値は評価差分値判定部173に入力される。表情評価部172は、入力されたそれぞれの顔領域の画像に対して笑顔の度合いを示す表情評価値を算出する。
When the
算出された各顔領域に対する表情評価値および顔信頼度値は、それぞれID番号と関連づけられて評価差分値判定部173に入力される。評価差分値判定部173は、直前の画像フレームデータに含まれる顔領域の表情評価値と、現在処理中の画像フレームデータに含まれる顔領域の表情評価値との差分値を各顔領域毎に算出し、それぞれの顔領域の差分値が所定の条件を満たすか否かを判定する。そして、評価差分値判定部173は、これらの判定を統合して全体として笑顔が検出されたか否かを判定する。
The calculated facial expression evaluation value and face reliability value for each face area are input to the evaluation difference
本実施の形態の評価差分値判定部173は、例えば、図9に示すように3領域の顔画像の表情評価値の差分値をそれぞれ独立して検出できるように、表情評価値と共に入力されるID番号を検出して入力された表情評価値を振り分けるID判別部173aを備える。また、評価差分値判定部173は、ID番号にしたがって振り分けられたそれぞれの表情評価値から差分値を算出して所定の条件を満たすか否かを判定する第1、第2、第3のID別評価差分値判定部173b、173c、173dを備える。また、評価差分値判定部173は、各ID別評価差分値判定部173b,173c,173dから出力される評価差分値を統合して画像全体で好適な表情評価値が得られるタイミングで笑顔検出信号を制御部110へ出力する評価差分値判定統合部173eを備える。
For example, as shown in FIG. 9, the evaluation difference
表情評価部172から入力された各顔領域に対するID番号、表情評価値と、顔検出部171から入力される顔信頼度値とは、ID判別部173aに入力され、ID番号に応じてそれぞれID別評価差分値判定部173b,173c,173dに入力される。
The ID number and the expression evaluation value for each face area input from the
なお、ID番号に対応する顔領域が検出されていない場合は、顔領域が検出されていないことを示す情報が各ID別評価差分値判定部に入力される。また、ID判別部173aは、顔領域が検出されているID番号の個数を示す有効ID数を評価差分値判定統合部173eに出力する。
In addition, when the face area corresponding to the ID number is not detected, information indicating that the face area is not detected is input to each evaluation difference value determining unit for each ID. Further, the
ID別評価差分値判定部173b,173c,173dのそれぞれの動作は、第1の実施の形態の評価差分値判定部133と同様である。すなわち、対応するID番号に対する顔領域の表情評価値の差分値が所定の状態であるか否かを判別し、検出結果を評価差分値判定統合部173eに出力する。評価差分値判定統合部173eでは、各ID別評価差分値判定部からの検出結果および、ID判別部173aから入力された顔領域の個数を用いて、画像データ全体で好適な表情評価値の判別を行い、検出結果として制御部101に出力する。
The operations of the ID-specific evaluation difference
制御部110は、第1の実施の形態におけるのと同様に、評価差分値判定部173の出力に応じて画像符号化部140を制御して画像フレームデータを符号化し、符号化された静止画像データを記録媒体150に記録する。
As in the first embodiment, the
図10は、図9における評価差分値判定統合部173eの作動を示すフローチャートである。以下、図10のフローチャートを用いて評価差分値判定統合部173eの動作について説明する。
FIG. 10 is a flowchart showing the operation of the evaluation difference value
評価差分値判定統合部173eは、処理を開始すると、笑顔が検出された顔領域の数を保持するための顔数変数NUMを0に初期化する(ステップS401)。続いて、評価差分値判定統合部173eは、第1のID別評価差分値判定部173bからID1の顔領域に対する笑顔検出信号が入力されたか否かを判定する(ステップS402)。ID1の顔領域に対する笑顔検出信号が入力された場合(ステップS402でYes)は、笑顔を検出した顔領域の数を示す顔数変数NUMを1カウント増加させ(ステップS403)、笑顔を検出した顔領域の数が1であるか否かを判定する(ステップS404)。笑顔を検出した顔領域の数が1である場合、すなわち処理を開始して最初に笑顔が検出された場合には、内部タイマーをリセットする(ステップS405)。
When the evaluation difference value
評価差分値判定統合部173eは、上記のステップS402〜405と同様の処理を、第2のID別評価差分値判定部173c、第3のID別評価差分値判定部173dについても実行する(ステップS406〜409,S410〜413)。
The evaluation difference value
各ID別評価差分値判定部からの信号に対する処理が終了すると、評価差分値判定統合部173eは、笑顔を検出した顔領域の数を確認する。顔領域の数が0か否かを判別し(ステップS414)、いずれの顔領域に対しても笑顔が検出されていない場合(ステップS414でYes)は、制御部110に笑顔非検出信号を出力し(ステップS417)、ステップS402に戻って次の画像データを処理する。
When the processing on the signal from each evaluation difference value determination unit for each ID is completed, the evaluation difference value
笑顔が検出されていると判別された場合(ステップS414でNo)には、笑顔が検出された顔領域の数と、ID判別部173aより入力された有効ID数が一致するか否かを判別する(ステップS415)。判定の結果、全ての顔領域が笑顔になっていると判定された場合(ステップS415でYes)は、評価差分値判定統合部173eは、制御部110に笑顔検出信号を出力し(ステップS418)、処理を終了する。
If it is determined that a smile is detected (No in step S414), it is determined whether the number of face areas in which a smile is detected matches the number of valid IDs input from the
検出された全ての顔領域が笑顔になっていないと判定された場合(ステップS415でNo)には、内部タイマーの値が所定の値T0vよりも大きくなったか否かを判別する(ステップS416)。タイマー値が所定の値T0vより大きくない場合(ステップS416でNo)には、制御部110に笑顔非検出信号を出力し(ステップS417)、ステップS402に戻って次の画像フレームデータの処理を行う。所定の値T0vよりも大きい場合(ステップS416でYes)には、制御部110に笑顔検出信号を出力して処理を終了する。
If it is determined that all the detected face areas are not smiling (No in step S415), it is determined whether or not the value of the internal timer is greater than a predetermined value T0v (step S416). . If the timer value is not greater than the predetermined value T0v (No in step S416), a smile non-detection signal is output to the control unit 110 (step S417), and the process returns to step S402 to process the next image frame data. . If it is larger than the predetermined value T0v (Yes in step S416), a smile detection signal is output to the
図10の処理によれば、次の場合に、所定の期間経過後、静止画像の取得を制御部110に指示することができる。すなわち、画像フレームデータに含まれる顔領域の表情評価値の差分値が全て所定の条件を満たした場合、あるいは、最初に1つの顔領域で差分値が所定の条件を満たした後、所定の期間内に他の顔に対する差分値が所定の条件を満たさなかった場合である。
According to the processing of FIG. 10, in the following case, the
以下、本実施の形態に係る動画像処理装置100Aの処理の具体例を図11及び図12に基づいて説明する。図11及び図12は、画像フレームデータ毎に表情評価部132から出力される表情評価値の変化を3つの顔画像領域のそれぞれについてのプロットしたグラフである。図中の折れ線は、実線がID1の顔画像の表情評価値、点線がID2の顔画像の表情評価値、二点鎖線がID3の顔画像の表情評価値の変化を示す。
Hereinafter, a specific example of processing of the moving
図11は、3つの顔領域に入る3人が互いに近いタイミングで笑顔になっている例における表情評価値の変化を示すグラフである。第1のID別評価差分値判定部173bは、(a)の時点で表情評価値の差分値が所定の基準値より小さくなったことを検出して評価差分値判定統合部173eに笑顔検出信号を出力する。評価差分値判定統合部173eは、ID1に対する笑顔検出信号を受信し、図10のステップS405でタイマーをリセットする。
FIG. 11 is a graph showing changes in facial expression evaluation values in an example in which three people entering three face areas are smiling at a timing close to each other. The first ID-specific evaluation difference
その後、評価差分値判定統合部173eは、図11中の(b)、(c)のタイミングでID2およびID3に対する笑顔検出信号を受信する。評価差分値判定統合部173eは、(a)のタイミングでリセットしたタイマー値がTOvの値よりも大きくなる前に、検出されている全ての顔領域に対する笑顔検出信号が入力されたことをステップS415で検出する。そして、評価差分値判定統合部173eは、制御部110に笑顔検出信号を出力する(ステップS418)。制御部110は、(c)のタイミングで笑顔検出信号を受信して撮影処理を開始し、(c)からΔt遅れたタイミングで撮像部120から出力される画像データを取得することにより、全ての顔領域に対する表情評価値が大きな画像データを符号化して記録できる。
Thereafter, the evaluation difference value
図12は、3つの顔領域に入る3人のうち1人だけが笑顔になっている例における表情評価値の変化を示すグラフである。第1のID別評価差分値判定部173bは、(a)の時点で表情評価値の差分値が所定の基準値より小さくなったことを検出して評価差分値判定統合部173eに笑顔検出信号を出力する。評価差分値判定統合部173eは、ID1に対する笑顔検出信号を受信し、図10のステップS405でタイマーをリセットする。
FIG. 12 is a graph showing changes in facial expression evaluation values in an example in which only one person out of the three face areas is smiling. The first ID-specific evaluation difference
評価差分値判定統合部173eは、図11中の(a)のタイミングからTOvの時間が経過した(a’)のタイミングまで他の顔領域に対する笑顔検出信号を受信しないため、図10のステップS416でタイマー値がTOvの値より大きくなったことを検出する。評価差分値判定統合部173eは、(a’)のタイミングで制御部110に笑顔検出信号を出力する(ステップS418)。制御部110は、(a’)のタイミングで笑顔検出信号を受信して撮影処理を開始し、(a’)からΔt遅れたタイミングで撮像部120から出力される画像データを取得する。これにより、ID1の顔領域の表情評価値が小さくなる前に画像データを符号化して記録することができる。
Since the evaluation difference value
また、本発明の目的は、以下の処理を実行することによって達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。 The object of the present invention is achieved by executing the following processing. That is, a storage medium that records a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. This is the process of reading the code.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.
また、プログラムコードを供給するための記憶媒体としては、次のものを用いることができる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROM等である。または、プログラムコードをネットワークを介してダウンロードしてもよい。 Moreover, the following can be used as a storage medium for supplying the program code. For example, floppy (registered trademark) disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic tape, nonvolatile memory card, ROM or the like. Alternatively, the program code may be downloaded via a network.
また、コンピュータが読み出したプログラムコードを実行することにより、上記実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。 Further, the present invention includes a case where the function of the above-described embodiment is realized by executing the program code read by the computer. In addition, an OS (operating system) running on the computer performs part or all of the actual processing based on an instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.
更に、前述した実施形態の機能が以下の処理によって実現される場合も本発明に含まれる。即ち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う場合である。 Furthermore, a case where the functions of the above-described embodiment are realized by the following processing is also included in the present invention. That is, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現する場合も含まれる。 Further, the present invention includes a case where the functions of the above-described embodiments are realized by executing the program code read by the computer. In addition, there is a case where the OS running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing.
この場合、上記プログラムは、該プログラムを記憶した記憶媒体から直接、又はインターネット、商用ネットワーク、若しくはローカルエリアネットワーク等に接続された不図示の他のコンピュータやデータベース等からダウンロードすることにより供給される。 In this case, the program is supplied by downloading directly from a storage medium storing the program or from another computer or database (not shown) connected to the Internet, a commercial network, a local area network, or the like.
100 動画像処理装置
110 制御部
120 動画像復号部
130 笑顔検出部
131 顔検出部
132 表情評価部
133 評価差分値判定部
140 画像符号化部
150 記録媒体
160 操作部
100 moving
Claims (13)
現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出し、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定部を備え、前記制御部は、前記評価差分値判定部が算出された差分値が所定の基準値より小さいと判定した場合に静止画像データを取得する処理を実行することを特徴とする動画像処理装置。 A face detection unit that detects a human face from a plurality of image frame data constituting moving image data, and a facial expression evaluation that calculates a degree of expression evaluation indicating how close the detected facial expression is to a specific facial expression A moving image processing apparatus comprising: a control unit that executes a process of acquiring still image data when a high facial expression evaluation value is calculated by the facial expression evaluation unit;
A difference value between the expression evaluation value for the currently processed image frame data and the expression evaluation value for the image frame data at a time point earlier than the currently processed image frame data is calculated, and the calculated difference value is a predetermined reference value An evaluation difference value determination unit that determines whether or not the difference is smaller , and the control unit acquires still image data when the evaluation difference value determination unit determines that the calculated difference value is smaller than a predetermined reference value A moving image processing apparatus characterized in that the processing is performed.
現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出する算出ステップと、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定ステップとを備え、前記制御ステップでは、前記評価差分値判定ステップで算出された差分値が所定の基準値より小さいと判定された場合に静止画像データを取得する処理を実行することを特徴とする動画像処理方法。 Face detection step for detecting a human face from a plurality of image frame data constituting moving image data, and facial expression evaluation for calculating a facial expression evaluation value indicating how close the detected facial expression is to a specific facial expression In a moving image processing method comprising: a step; and a control step of executing processing for acquiring still image data when a high facial expression evaluation value is calculated by the facial expression evaluation step ,
A calculation step for calculating a difference value between the expression evaluation value for the image frame data being currently processed and the expression evaluation value for the image frame data at a time point before the image frame data being currently processed; and the calculated difference value is predetermined. of a determining evaluation difference value determination step of determining whether or not the reference value is smaller than, and in the control step, when the difference value calculated by the evaluation difference value determination step determines a predetermined reference value smaller than A moving image processing method characterized by executing processing for acquiring still image data.
現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出する算出ステップと、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定ステップとを備え、前記制御ステップでは、前記評価差分値判定ステップで算出された差分値が所定の基準値より小さいと判定された場合に静止画像データを取得する処理を実行することを特徴とするプログラム。 Face detection step for detecting a human face from a plurality of image frame data constituting moving image data, and facial expression evaluation for calculating a facial expression evaluation value indicating how close the detected facial expression is to a specific facial expression In a program for causing a computer to execute a moving image processing method comprising: a step; and a control step of executing a process of acquiring still image data when a high facial expression evaluation value is calculated in the facial expression evaluation step ,
A calculation step for calculating a difference value between the expression evaluation value for the image frame data being currently processed and the expression evaluation value for the image frame data at a time point before the image frame data being currently processed; and the calculated difference value is predetermined. of a determining evaluation difference value determination step of determining whether or not the reference value is smaller than, and in the control step, when the difference value calculated by the evaluation difference value determination step determines a predetermined reference value smaller than A program for executing processing for acquiring still image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009005646A JP5173858B2 (en) | 2009-01-14 | 2009-01-14 | Moving image processing apparatus, moving image processing method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009005646A JP5173858B2 (en) | 2009-01-14 | 2009-01-14 | Moving image processing apparatus, moving image processing method, program, and storage medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010166212A JP2010166212A (en) | 2010-07-29 |
JP2010166212A5 JP2010166212A5 (en) | 2012-03-01 |
JP5173858B2 true JP5173858B2 (en) | 2013-04-03 |
Family
ID=42582055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009005646A Expired - Fee Related JP5173858B2 (en) | 2009-01-14 | 2009-01-14 | Moving image processing apparatus, moving image processing method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5173858B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI556194B (en) * | 2012-06-29 | 2016-11-01 | 希科母股份有限公司 | Object detection device, object detection method and computer program for object detection |
WO2022012299A1 (en) | 2020-07-14 | 2022-01-20 | 海信视像科技股份有限公司 | Display device and person recognition and presentation method |
CN111818378B (en) * | 2020-07-14 | 2022-04-01 | 海信视像科技股份有限公司 | Display device and person identification display method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4240108B2 (en) * | 2006-10-31 | 2009-03-18 | ソニー株式会社 | Image storage device, imaging device, image storage method, and program |
JP4898475B2 (en) * | 2007-02-05 | 2012-03-14 | 富士フイルム株式会社 | Imaging control apparatus, imaging apparatus, and imaging control method |
-
2009
- 2009-01-14 JP JP2009005646A patent/JP5173858B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010166212A (en) | 2010-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4961965B2 (en) | Subject tracking program, subject tracking device, and camera | |
US8199213B2 (en) | Method for selecting desirable images from among a plurality of images and apparatus thereof | |
US9402033B2 (en) | Image sensing apparatus and control method therefor | |
JP4757173B2 (en) | Imaging apparatus, control method thereof, and program | |
JP5631106B2 (en) | Image processing apparatus, control method thereof, program, and imaging apparatus | |
US8004573B2 (en) | Imaging apparatus, imaged picture recording method, and storage medium storing computer program | |
US20090080716A1 (en) | Image recognition device for performing image recognition including object identification on each of input images | |
JP2008054295A (en) | System for and method of photographing, and computer program | |
JP5289993B2 (en) | TRACKING DEVICE AND TRACKING METHOD | |
JP5173858B2 (en) | Moving image processing apparatus, moving image processing method, program, and storage medium | |
JP2011030089A (en) | Image processing apparatus and program | |
JP2016208268A (en) | Imaging apparatus, control method therefor and program | |
JP2012231327A (en) | Imaging apparatus, imaging method, and program | |
JP5267136B2 (en) | Electronic camera | |
JP5279520B2 (en) | Moving image processing apparatus, moving image processing method, program, and storage medium | |
JP2007215086A (en) | Camera capable of taking moving picture | |
JP5093031B2 (en) | Imaging apparatus and program | |
JP2007104200A (en) | Imaging apparatus | |
JP5843618B2 (en) | Image processing apparatus, control method thereof, and program | |
JP5264426B2 (en) | Imaging apparatus, control method therefor, and program | |
JP2008160280A (en) | Imaging apparatus and automatic imaging method | |
JP6038242B2 (en) | IMAGING DEVICE, IMAGING DEVICE OPERATING METHOD, AND PROGRAM | |
JP5779367B2 (en) | Imaging apparatus, imaging control method, and imaging control program | |
JP5918998B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP2010021607A (en) | Video camera, recording method of video camera and recording program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121227 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5173858 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160111 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |