JP5173858B2 - Moving image processing apparatus, moving image processing method, program, and storage medium - Google Patents

Moving image processing apparatus, moving image processing method, program, and storage medium Download PDF

Info

Publication number
JP5173858B2
JP5173858B2 JP2009005646A JP2009005646A JP5173858B2 JP 5173858 B2 JP5173858 B2 JP 5173858B2 JP 2009005646 A JP2009005646 A JP 2009005646A JP 2009005646 A JP2009005646 A JP 2009005646A JP 5173858 B2 JP5173858 B2 JP 5173858B2
Authority
JP
Japan
Prior art keywords
value
evaluation
difference value
facial expression
expression evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009005646A
Other languages
Japanese (ja)
Other versions
JP2010166212A (en
JP2010166212A5 (en
Inventor
慎二 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009005646A priority Critical patent/JP5173858B2/en
Publication of JP2010166212A publication Critical patent/JP2010166212A/en
Publication of JP2010166212A5 publication Critical patent/JP2010166212A5/ja
Application granted granted Critical
Publication of JP5173858B2 publication Critical patent/JP5173858B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画像処理装置、動画像処理方法、プログラム及び記憶媒体に関し、特に、人物の顔を含む動画像データから、特定の表情を含む静止画像を選択することができる動画像処理装置、動画像処理方法、プログラム及び記憶媒体に関する。   The present invention relates to a moving image processing apparatus, a moving image processing method, a program, and a storage medium, and in particular, a moving image processing apparatus capable of selecting a still image including a specific facial expression from moving image data including a human face, The present invention relates to a moving image processing method, a program, and a storage medium.

デジタルカメラの分野では、フレーミングの際に撮影している動画から被写体の人物の顔を検出し、笑顔などの特定の表情を検出した場合に自動的にシャッターを切って静止画像を記録する技術が知られている。   In the field of digital cameras, there is a technology that detects the person's face from the video being shot during framing and automatically releases the shutter when a specific facial expression such as a smile is detected. Are known.

例えば、特許文献1には、撮影された画像から切り出されたそれぞれの部分画像を用いて顔画像を検出する装置が開示されている。この装置は、各部分画像が顔画像である蓋然性を示す指標値を算出し、その指標値が所定の閾値以上である部分画像を顔画像の候補として抽出し、全候補について指標値の閾値判定を行って顔画像を検出する。   For example, Patent Document 1 discloses an apparatus that detects a face image using each partial image cut out from a captured image. This apparatus calculates an index value indicating the probability that each partial image is a face image, extracts partial images whose index value is equal to or greater than a predetermined threshold as face image candidates, and determines threshold values of index values for all candidates. To detect a face image.

また、特許文献2には、撮影された画像から人物の顔を検出し、検出された顔の表情を評価して表情評価値を算出し、表情評価値が所定のしきい値を超えた場合に画像信号を記録媒体に記録させる装置が開示されている。表情評価値は、例えば笑顔と通常の表情などの異なる表情の間において一方の表情にどれだけ近いかの度合いを示す。   Japanese Patent Application Laid-Open No. 2004-228561 detects a human face from a captured image, evaluates the facial expression of the detected face, calculates a facial expression evaluation value, and the facial expression evaluation value exceeds a predetermined threshold value. Discloses an apparatus for recording an image signal on a recording medium. The facial expression evaluation value indicates the degree of proximity to one facial expression between different facial expressions such as a smile and a normal facial expression.

特開2007−108990号公報JP 2007-108990 A 特開2008−042319号公報JP 2008-042319 A

しかしながら、特許文献1の装置は、画像から人物の顔を検出することはできるが、表情については判定することができず、例えば笑顔等の所定の表情になったときに静止画像を記録するような制御はできない。   However, although the apparatus of Patent Document 1 can detect a human face from an image, it cannot determine a facial expression and records a still image when a predetermined facial expression such as a smile is obtained. Control is impossible.

一方、特許文献2の装置は、表情評価値を用いて笑顔等の所定の表情が現れたときに静止画像を記録するように制御することが可能である。しかしながら、特許文献2の装置は、表情評価値がしきい値を超えた時点で画像を記録するため、記録した後に表情評価値がさらに上昇した場合には、より良好な表情の画像が記録できないという問題がある。   On the other hand, the apparatus of Patent Document 2 can be controlled to record a still image when a predetermined facial expression such as a smile appears using the facial expression evaluation value. However, since the device of Patent Document 2 records an image when the facial expression evaluation value exceeds a threshold value, if the facial expression evaluation value further increases after recording, an image with a better facial expression cannot be recorded. There is a problem.

本発明の目的は、入力された動画像データからより表情評価値の高い静止画像を選択することができる動画像処理装置、動画像処理方法、プログラム及び記憶媒体を提供することにある。   An object of the present invention is to provide a moving image processing apparatus, a moving image processing method, a program, and a storage medium that can select a still image having a higher expression evaluation value from input moving image data.

上記目的を達成するために、本発明の動画像処理装置は、動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出部と、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、該表情評価部により高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御部とを備える動画像処理装置において、現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出し、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定部を備え、前記制御部は、前記評価差分値判定部が算出された差分値が所定の基準値より小さいと判定した場合に静止画像データを取得する処理を実行することを特徴とする。 In order to achieve the above object, a moving image processing apparatus according to the present invention includes a face detection unit that detects a human face from a plurality of image frame data constituting moving image data, and a facial expression in which the detected facial expression is a specific expression. A facial expression evaluation unit for calculating a facial expression evaluation value indicating the degree of proximity to the facial expression evaluation unit, and a control unit for executing processing for obtaining still image data when a high facial expression evaluation value is calculated by the facial expression evaluation unit In the moving image processing apparatus, the difference between the expression evaluation value for the image frame data currently being processed and the expression evaluation value for the image frame data at a time point earlier than the image frame data being currently processed is calculated, and the calculated difference value with the evaluation difference value determination unit that determines whether the difference is less than a predetermined reference value, the control unit, the difference value which the evaluation difference value determination unit is calculated smaller than a predetermined reference value And executes the process of acquiring the still image data when it is determined that.

上記目的を達成するために、本発明の動画像処理方法は、動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出ステップと、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価ステップと、該表情評価ステップにより高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御ステップとを備える動画像処理方法において、現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出する算出ステップと、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定ステップとを備え、前記制御ステップでは、前記評価差分値判定ステップで算出された差分値が所定の基準値より小さいと判定された場合に静止画像データを取得する処理を実行することを特徴とする。 In order to achieve the above object, a moving image processing method of the present invention includes a face detection step of detecting a human face from a plurality of image frame data constituting moving image data, and the detected facial expression is a specific expression. A facial expression evaluation step for calculating a facial expression evaluation value indicating the degree of proximity to the facial expression evaluation step, and a control step for executing a process for acquiring still image data when a high facial expression evaluation value is calculated by the facial expression evaluation step In the moving image processing method, a calculation step for calculating a difference value between the expression evaluation value for the image frame data being currently processed and the expression evaluation value for the image frame data at a time point before the image frame data being currently processed difference value is a determining evaluation difference value determination step of determining whether or not smaller than the predetermined reference value, in the control step, the And executes the processing of the difference value calculated by the price difference value determining step obtains the still image data when it is determined that the predetermined reference value smaller.

上記目的を達成するために、本発明のプログラムは、動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出ステップと、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価ステップと、該表情評価ステップにより高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御ステップとを備える動画像処理方法をコンピュータに実行させるプログラムにおいて、現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出する算出ステップと、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定ステップとを備え、前記制御ステップでは、前記評価差分値判定ステップで算出された差分値が所定の基準値より小さいと判定された場合に静止画像データを取得する処理を実行することを特徴とする。 To achieve the above object, the program of the present invention includes a face detection step for detecting a human face from a plurality of image frame data constituting moving image data, and how much the detected facial expression is a specific facial expression. A moving image processing comprising a facial expression evaluation step for calculating a facial expression evaluation value indicating a degree of closeness, and a control step for executing processing for acquiring still image data when a high facial expression evaluation value is calculated by the facial expression evaluation step In a program for causing a computer to execute the method, a calculation step of calculating a difference value between a facial expression evaluation value for the currently processed image frame data and a facial expression evaluation value for the image frame data at a time point before the currently processed image frame data When the calculated difference value is a determining evaluation difference value determination step of determining whether or not smaller than a predetermined reference value For example, in the control step, and executes a process of the evaluation difference value determination difference value calculated in the step to obtain the still image data when it is determined that the predetermined reference value smaller.

本発明によれば、単にしきい値と比較して画像を選択していた従来の技術と比較して、より表情評価値の高い静止画像データを取得することができる。   According to the present invention, still image data having a higher expression evaluation value can be acquired as compared with the conventional technique in which an image is simply selected by comparison with a threshold value.

本発明の第1の実施の形態に係る動画像処理装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of a moving image processing apparatus according to a first embodiment of the present invention. 図1における評価差分値判定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the evaluation difference value determination part in FIG. 図1における評価差分値判定部の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。It is a graph which shows the change with time of the facial expression evaluation value for demonstrating the effect | action of the evaluation difference value determination part in FIG. 本発明の第2の実施の形態に係る動画像処理装置の評価差分値判定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the evaluation difference value determination part of the moving image processing device which concerns on the 2nd Embodiment of this invention. 第2の実施の形態の評価差分値判定部の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。It is a graph which shows the change with time of the facial expression evaluation value for demonstrating the effect | action of the evaluation difference value determination part of 2nd Embodiment. 本発明の第3の実施の形態に係る動画像処理装置の評価差分値判定部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the evaluation difference value determination part of the moving image processing device which concerns on the 3rd Embodiment of this invention. 第3の実施の形態の評価差分値判定部の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。It is a graph which shows the change with time of the facial expression evaluation value for demonstrating the effect | action of the evaluation difference value determination part of 3rd Embodiment. 本発明の第4の実施の形態に係る動画像処理装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the moving image processing apparatus which concerns on the 4th Embodiment of this invention. 図8における評価差分値判定部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the evaluation difference value determination part in FIG. 図9における評価差分値統合部の処理を示すフローチャートである。It is a flowchart which shows the process of the evaluation difference value integration part in FIG. 図8の動画像処理装置の処理の具体例を説明するため、画像フレームデータ毎に表情評価部から出力される表情評価値の変化を3つの顔画像領域のそれぞれについてのプロットしたグラフであり、3つの顔領域に入る3人が互いに近いタイミングで笑顔になっている例を示す。FIG. 9 is a graph in which changes in facial expression evaluation values output from the facial expression evaluation unit for each image frame data are plotted for each of the three facial image regions in order to explain a specific example of processing of the moving image processing apparatus in FIG. An example is shown in which three people entering three face areas are smiling at a timing close to each other. 図8の動画像処理装置の処理の具体例を説明するため、画像フレームデータ毎に表情評価部から出力される表情評価値の変化を3つの顔画像領域のそれぞれについてのプロットしたグラフであり、3つの顔領域に入る3人のうち1人が笑顔になっている例を示す。FIG. 9 is a graph in which changes in facial expression evaluation values output from the facial expression evaluation unit for each image frame data are plotted for each of the three facial image regions in order to explain a specific example of processing of the moving image processing apparatus in FIG. An example is shown in which one of three people in three face areas is smiling.

以下、本発明の実施の形態について図面を参照しながら説明する。まず、本発明の第1の実施の形態に係る動画像処理装置について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, the moving image processing apparatus according to the first embodiment of the present invention will be described.

図1は、本発明の第1の実施の形態に係る動画像処理装置100の構成を概略的に示すブロック図である。図1の動画像処理装置100は、撮影された動画像データを入力として、この動画像データを構成する複数の画像フレームデータから、人物を含み、かつ、その人物の表情が特定の表情、ここでは笑顔である画像フレームデータを検出する。そして、動画像処理装置100は、笑顔の画像データが検出された場合に、静止画像データを取得する処理を実行して記録媒体に記録する機能を有する。   FIG. 1 is a block diagram schematically showing a configuration of a moving image processing apparatus 100 according to the first embodiment of the present invention. The moving image processing apparatus 100 in FIG. 1 receives the captured moving image data, includes a person from a plurality of image frame data constituting the moving image data, and the expression of the person is a specific expression, Then, image frame data indicating a smile is detected. The moving image processing apparatus 100 has a function of executing a process of acquiring still image data and recording it on a recording medium when smile image data is detected.

動画像処理装置100は、装置全体を制御するための制御部110と、動画像データ及び静止画像データを入力する撮像部120とを備える。動画像処理装置100は、撮像部120から入力された動画像データを構成する画像フレームデータから人物の笑顔が記録されている画像を検出する笑顔画像検出部130と、撮像部120から入力された静止画像データを符号化する画像符号化部140とを備える。さらに、動画像処理装置100は、符号化された画像データを記録するためのメモリカードやハードディスク等の記録媒体150と、ユーザが操作するためのスイッチ類を備えた操作部160とを備えている。   The moving image processing apparatus 100 includes a control unit 110 for controlling the entire apparatus, and an imaging unit 120 for inputting moving image data and still image data. The moving image processing apparatus 100 includes a smile image detection unit 130 that detects an image in which a person's smile is recorded from image frame data constituting the moving image data input from the imaging unit 120, and a smile image detection unit 130 that is input from the imaging unit 120. And an image encoding unit 140 that encodes still image data. Furthermore, the moving image processing apparatus 100 includes a recording medium 150 such as a memory card or a hard disk for recording the encoded image data, and an operation unit 160 including switches for the user to operate. .

制御部110は、ユーザによる操作部160の操作に応じて、撮影部120を制御して画像データを入力し、笑顔画像検出部130や画像符号化部140を制御する。   The control unit 110 controls the photographing unit 120 to input image data in accordance with the operation of the operation unit 160 by the user, and controls the smile image detection unit 130 and the image encoding unit 140.

撮像部120は、撮影レンズと、この撮影レンズにより形成される被写体像を検出するCMOSセンサ等の撮像素子から構成され、連続した画像フレームデータのデータとして画像データを出力する。なお、撮像部120は、制御部110からの指示により撮影モードを動画モードと静止画モードとの間で切り替える。動画モードでは、比較的低い解像度で連続的に画像を撮影し、静止画モードでは、比較的高い解像度で単独の画像を撮影する。   The imaging unit 120 includes an imaging lens and an imaging element such as a CMOS sensor that detects a subject image formed by the imaging lens, and outputs image data as continuous image frame data. Note that the imaging unit 120 switches the shooting mode between the moving image mode and the still image mode according to an instruction from the control unit 110. In the moving image mode, images are continuously captured at a relatively low resolution, and in the still image mode, a single image is captured at a relatively high resolution.

笑顔画像検出部130は、動画モードで撮影された画像フレームデータから人物の顔を検出する顔検出部131と、検出された顔の表情が特定の表情(この例では笑顔)にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部132とを備える。また、笑顔画像検出部130は、評価差分値判定部133を備えている。評価差分値判定部133は、現在処理中の画像フレームデータに対する表情評価値と現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出し、算出された差分値が所定の条件を満たすか否かを判定する。   The smile image detection unit 130 detects a person's face from the image frame data captured in the moving image mode, and how close the detected facial expression is to a specific expression (smile in this example). An expression evaluation unit 132 that calculates an expression evaluation value indicating the degree of the expression. The smile image detection unit 130 includes an evaluation difference value determination unit 133. The evaluation difference value determination unit 133 calculates a difference value between the expression evaluation value for the image frame data currently being processed and the expression evaluation value for the image frame data at a time point before the image frame data currently being processed. It is determined whether or not the difference value satisfies a predetermined condition.

制御部110は、表情評価部132により算出された表情評価値が高い画像フレームデータのうち、評価差分値判定部133が所定の条件を満たすと判定した場合に、静止画像データを取得する処理を実行して記録媒体に記録する機能を備えている。制御部110は、所定の条件を満たすと判定されると、そのタイミングで記録指示を撮像部120及び画像符号化部140に出力する。これにより、撮像部120は静止画モードで画像を撮影し、この画像データが画像符号化部140により静止画像データとして符号化され、記録媒体150に記録される。   The control unit 110 performs processing for acquiring still image data when the evaluation difference value determination unit 133 determines that a predetermined condition is satisfied among the image frame data having a high expression evaluation value calculated by the expression evaluation unit 132. It has a function of executing and recording on a recording medium. When it is determined that the predetermined condition is satisfied, the control unit 110 outputs a recording instruction to the imaging unit 120 and the image encoding unit 140 at that timing. As a result, the imaging unit 120 captures an image in the still image mode, and the image data is encoded as still image data by the image encoding unit 140 and recorded on the recording medium 150.

次に、上記のように構成された動画像処理装置100の動作について説明する。操作部160を操作することによりユーザが動画像処理装置100の電源を投入すると、制御部110は撮像部120を初期化した後、撮像部120を制御して動画モードで撮影を開始させる。撮影した動画像は、図示せぬLCDパネル等の表示部にプレビュー表示される。プレビュー表示の際には、1秒間に一定のフレーム数の表示が行われ、撮影された動画像データは表示後破棄される。   Next, the operation of the moving image processing apparatus 100 configured as described above will be described. When the user turns on the moving image processing apparatus 100 by operating the operation unit 160, the control unit 110 initializes the imaging unit 120 and then controls the imaging unit 120 to start shooting in the moving image mode. The captured moving image is previewed on a display unit such as an LCD panel (not shown). In preview display, a fixed number of frames are displayed per second, and the captured moving image data is discarded after being displayed.

ユーザが操作部160を操作して記録開始を指示すると、制御部110は笑顔画像検出部130を初期化した後、撮像部120で撮影した動画像データの画像フレームデータを顔検出部131に入力する(入力ステップ)。   When the user operates the operation unit 160 to instruct the start of recording, the control unit 110 initializes the smile image detection unit 130 and then inputs image frame data of moving image data captured by the imaging unit 120 to the face detection unit 131. (Input step).

顔検出部131は、入力された画像フレームデータを解析し、画像フレームデータ(静止画像)中に人物の顔が存在するか否かを判別する(顔検出ステップ)。判別には、特許文献1に記載された手法を用いることができる。そして、顔検出部131は、入力画像フレームデータに顔が存在すると判別した場合には、顔領域を特定し、この顔領域の対象物が人物の顔である確度を示す顔信頼度値を算出する(顔信頼度算出ステップ)。   The face detection unit 131 analyzes the input image frame data and determines whether or not a human face exists in the image frame data (still image) (face detection step). The method described in Patent Document 1 can be used for the determination. When the face detection unit 131 determines that a face exists in the input image frame data, the face detection unit 131 identifies the face area, and calculates a face reliability value indicating the probability that the object in the face area is a human face. (Face reliability calculation step).

顔検出部131により検出された画像フレームデータ中の顔領域の情報は表情評価部132に入力され、顔領域に対する顔信頼度値は評価差分値判定部133に入力される。表情評価部132は、入力された顔領域の画像に対して笑顔の度合いを示す表情評価値を算出する(表情評価ステップ)。表情評価値の算出には、特許文献2に記載された手法を用いることができる。評価差分値判定部133は、入力された顔信頼度値に基づいてしきい値を調整する(しきい値設定ステップ)。具体的には、顔検出部131により算出された顔信頼度値が大きい場合はしきい値を小さな値に変更し、顔信頼度値が小さい場合はしきい値を大きな値に変更する。   Information on the face area in the image frame data detected by the face detection unit 131 is input to the expression evaluation unit 132, and a face reliability value for the face region is input to the evaluation difference value determination unit 133. The facial expression evaluation unit 132 calculates a facial expression evaluation value indicating the degree of smile on the input face area image (facial expression evaluation step). The method described in Patent Document 2 can be used for calculating the facial expression evaluation value. The evaluation difference value determination unit 133 adjusts the threshold based on the input face reliability value (threshold setting step). Specifically, when the face reliability value calculated by the face detection unit 131 is large, the threshold value is changed to a small value, and when the face reliability value is small, the threshold value is changed to a large value.

表情評価部132により算出された表情評価値は、評価差分値判定部133に入力される。評価差分値判定部133は、入力された表情評価値がしきい値より大きいか否かを判別し、大きい場合には、入力された表情評価値と1つ前の画像フレームデータに対する表情評価値の差分値を算出する(算出ステップ)。そして、算出された差分値が所定の条件を満たすか否かを判定する(評価差分値判定ステップ)。ここでは、例えば、差分値が一定の基準値より小さい場合に所定の条件を満たすものと判定する。評価差分値判定部133は、所定の条件を満たす(差分値が基準値より小さい)と判定した場合には、笑顔検出信号を制御部110へ出力し、所定の条件を満たさない(差分値が基準値より大きい)と判定した場合には、笑顔非検出信号を制御部110へ出力する。一般に、表情の変化は連続的であり、表情評価値が最大値に近づくと、直前の画像フレームデータとの表情評価値の差分値は小さくなると考えられる。そのため、差分値に基づいて静止画データの取得タイミングを決定することにより、表情評価値が最大値に近い静止画像データを取得することができる。評価差分値判定部133の動作の詳細については後述する。   The facial expression evaluation value calculated by the facial expression evaluation unit 132 is input to the evaluation difference value determination unit 133. The evaluation difference value determination unit 133 determines whether or not the input facial expression evaluation value is larger than a threshold value, and if so, the input facial expression evaluation value and the facial expression evaluation value for the previous image frame data Is calculated (calculation step). Then, it is determined whether or not the calculated difference value satisfies a predetermined condition (evaluation difference value determination step). Here, for example, when the difference value is smaller than a certain reference value, it is determined that a predetermined condition is satisfied. When the evaluation difference value determination unit 133 determines that the predetermined condition is satisfied (the difference value is smaller than the reference value), the evaluation difference value determination unit 133 outputs a smile detection signal to the control unit 110 and does not satisfy the predetermined condition (the difference value is If it is determined that it is greater than the reference value, a smile non-detection signal is output to the control unit 110. In general, the change in facial expression is continuous, and when the facial expression evaluation value approaches the maximum value, the difference value of the facial expression evaluation value from the immediately preceding image frame data is considered to be small. Therefore, by determining the acquisition timing of still image data based on the difference value, still image data with a facial expression evaluation value close to the maximum value can be acquired. Details of the operation of the evaluation difference value determination unit 133 will be described later.

笑顔検出信号が入力されると、制御部110は静止画像データを取得する処理を実行する(制御ステップ)。具体的には、制御部110は、撮影部120を静止画モードに切り替えて画像データを取得し、画像符号化部140に入力する。画像符号化部140は、入力された画像データに対してJPEG圧縮などの静止画像符号化処理を実行する。制御部110は、符号化処理が実行された静止画像データを静止画ファイルとして記録媒体150に記録する。制御部110は、静止画ファイルの記録が終了すると、撮影を終了し、撮影部120のモードを動画モードに切り替えてプレビュー表示を再開させる。   When the smile detection signal is input, the control unit 110 executes processing for acquiring still image data (control step). Specifically, the control unit 110 switches the photographing unit 120 to the still image mode, acquires image data, and inputs the image data to the image encoding unit 140. The image encoding unit 140 performs still image encoding processing such as JPEG compression on the input image data. The control unit 110 records the still image data subjected to the encoding process on the recording medium 150 as a still image file. When the recording of the still image file is completed, the control unit 110 ends the shooting, switches the mode of the shooting unit 120 to the moving image mode, and restarts the preview display.

一方、顔検出部131は、画像フレームデータ中に人物の顔が存在しないと判別した場合には、表情評価部132に顔領域が存在しないことを通知し、表情評価部132は、評価差分値判定部133に顔領域が存在しないことを通知する。評価差分値判定部133は、顔領域が画像フレームデータ中に存在しないため笑顔非検出信号を制御部110に出力する。制御部110は、処理対象の画像フレームデータに対する処理を終了し、次の画像フレームデータに対する処理を開始する。   On the other hand, when the face detection unit 131 determines that the face of the person does not exist in the image frame data, the face detection unit 131 notifies the expression evaluation unit 132 that there is no face area, and the expression evaluation unit 132 determines the evaluation difference value. The determination unit 133 is notified that no face area exists. The evaluation difference value determination unit 133 outputs a smile non-detection signal to the control unit 110 because the face area does not exist in the image frame data. The control unit 110 ends the process for the image frame data to be processed, and starts the process for the next image frame data.

図2は、図1における評価差分値判定部133の動作を示すフローチャートである。以下、図2のフローチャートを用いて評価差分値判定部133の動作について説明する。図2の処理は、ユーザが笑顔画像の記録を指示した際に、笑顔画像が検出されるまで画像フレームデータ毎に実行される。   FIG. 2 is a flowchart showing the operation of the evaluation difference value determination unit 133 in FIG. Hereinafter, the operation of the evaluation difference value determination unit 133 will be described using the flowchart of FIG. The process of FIG. 2 is executed for each image frame data until a smile image is detected when the user instructs to record a smile image.

評価差分値判定部133は、まず、差分値を求めるために必要な直前の画像フレームデータの表情評価値の保持するための内部変数である評価値保持変数REvを−1に初期化する(ステップS101)。続いて、評価差分値判定部133は、表情評価部132から現在処理中の画像フレームデータに対する表情評価値が入力されているか否かを判別する(ステップS102)。画像フレームデータから顔領域が検出されずに表情評価値が入力されていない場合(ステップS102でNo)には、評価値保持変数REvを−1に初期化し(ステップS111)、制御部110に笑顔非検出信号を出力する(ステップS112)。そして、ステップS102に戻って次の画像フレームデータを処理する。表情評価値が入力されている場合(ステップS102でYes)には、表情評価部132から入力された現在の処理対象の画像フレームデータに関する表情評価値を内部変数である評価値変数Evにセットする(ステップS103)。そして、顔検出部131から入力された顔信頼度値を内部変数である顔信頼度変数Rvにセットする(ステップS104)。   First, the evaluation difference value determination unit 133 initializes an evaluation value holding variable REv, which is an internal variable for holding the facial expression evaluation value of the immediately preceding image frame data necessary for obtaining the difference value, to −1 (Step S1). S101). Subsequently, the evaluation difference value determination unit 133 determines whether or not the facial expression evaluation value for the image frame data currently being processed is input from the facial expression evaluation unit 132 (step S102). If no facial area is detected from the image frame data and no facial expression evaluation value is input (No in step S102), the evaluation value holding variable REv is initialized to −1 (step S111), and the controller 110 smiles. A non-detection signal is output (step S112). Then, the process returns to step S102 to process the next image frame data. When the facial expression evaluation value is input (Yes in step S102), the facial expression evaluation value related to the current image frame data to be processed input from the facial expression evaluation unit 132 is set in the evaluation value variable Ev that is an internal variable. (Step S103). Then, the face reliability value input from the face detection unit 131 is set to a face reliability variable Rv that is an internal variable (step S104).

次に、評価差分値判定部133は、評価値保持変数REvが−1より大きいか否かを判別する(ステップS105)。評価値保持変数REvが−1より大きくない場合(ステップS105でNo)は、変数が初期化されたばかりで、直前の画像フレームデータに関する評価値が保存されておらず、差分値を求めることができない。このため、評価値保持変数REvに評価値変数Evの値をセットし(ステップS113)、制御部110に笑顔非検出信号を出力し(ステップS112)、ステップS102に戻って次の画像フレームデータを処理する。   Next, the evaluation difference value determination unit 133 determines whether or not the evaluation value holding variable REv is larger than −1 (step S105). When the evaluation value holding variable REv is not larger than −1 (No in step S105), the variable has just been initialized, the evaluation value relating to the immediately preceding image frame data is not stored, and the difference value cannot be obtained. . Therefore, the value of the evaluation value variable Ev is set in the evaluation value holding variable REv (step S113), a smile non-detection signal is output to the control unit 110 (step S112), and the next image frame data is returned to step S102. Process.

一方、評価値保持変数REvが−1より大きい場合(ステップS105でYes)は、直前の画像フレームデータに関する評価値が保存されていることを意味するため、顔信頼度変数Rvの値に従ってしきい値THvを決定する(ステップS106)。本実施の形態では、以下の表1に示すような対応関係に従い、顔信頼度変数Rvの値に応じて定数THv0、THv1、THv2のいずれかの値がしきい値THvにセットされる。すなわち、顔信頼度変数Rvの値が大きい場合にはしきい値THvは小さくなり、顔信頼度変数Rvの値が小さい場合にはしきい値THvは大きくなる。   On the other hand, if the evaluation value holding variable REv is larger than −1 (Yes in step S105), it means that the evaluation value related to the immediately previous image frame data is stored, and therefore the threshold is set according to the value of the face reliability variable Rv. A value THv is determined (step S106). In the present embodiment, according to the correspondence shown in Table 1 below, any one of the constants THv0, THv1, and THv2 is set as the threshold value THv according to the value of the face reliability variable Rv. That is, the threshold value THv decreases when the value of the face reliability variable Rv is large, and the threshold value THv increases when the value of the face reliability variable Rv is small.

Figure 0005173858
Figure 0005173858

次に、評価差分値判定部133は、評価値保持変数REvの値と評価値変数Evの値との差分をとって差分値変数Dにセットする(ステップS107)。これにより、現在処理中の画像フレームデータの表情評価値と、直前の画像フレームデータの表情評価値との差分値が求められる。   Next, the evaluation difference value determination unit 133 takes the difference between the value of the evaluation value holding variable REv and the value of the evaluation value variable Ev, and sets it in the difference value variable D (step S107). As a result, a difference value between the expression evaluation value of the image frame data currently being processed and the expression evaluation value of the immediately previous image frame data is obtained.

そして、評価差分値判定部133は、評価値変数Evの値がしきい値THvを超えているか否かを判別する(ステップS108)。本実施の形態では、評価値変数Evの値がしきい値THvを超えていると判別された場合(ステップS108でYes)に、検出された顔領域の表情が笑顔であると判定する。ステップ206で顔信頼度値に応じてしきい値をセットしており、顔信頼度値が小さい顔領域に対しては笑顔検出のしきい値が大きくなるため、誤検出率を低くすることができる。   Then, the evaluation difference value determination unit 133 determines whether or not the value of the evaluation value variable Ev exceeds the threshold value THv (step S108). In the present embodiment, when it is determined that the value of the evaluation value variable Ev exceeds the threshold value THv (Yes in step S108), it is determined that the detected facial area expression is a smile. In step 206, a threshold value is set in accordance with the face reliability value. Since a threshold value for smile detection is increased for a face region having a small face reliability value, the false detection rate may be lowered. it can.

表情評価値がしきい値より小さい場合(ステップS208でNo)には、顔領域が笑顔ではないと判断され、前記のステップS113,S112を経てステップS102に戻って次の画像フレームデータを処理する。   If the facial expression evaluation value is smaller than the threshold value (No in step S208), it is determined that the face area is not a smile, and the process returns to step S102 through steps S113 and S112 to process the next image frame data. .

笑顔であると判定された場合(ステップS108でYes)、評価差分値判定部133は、差分値変数Dの値が所定の基準値Dcの値より大きいか否かを判別する(ステップS109)。差分値変数Dの値が基準値Dcより小さくない場合(ステップS109でNo)は、表情評価値が十分に高い値に達していないとみなし、前記のステップS113,S112を経てステップS102に戻って次の画像フレームデータを処理する。差分値変数Dの値が基準値Dcより小さい場合(ステップS109でYes)には、表情評価値が十分に高い値に達したとみなし、制御部110に笑顔検出信号を出力して(ステップS110)処理を終了する。   If it is determined that the face is a smile (Yes in step S108), the evaluation difference value determination unit 133 determines whether or not the value of the difference value variable D is greater than a predetermined reference value Dc (step S109). When the value of the difference value variable D is not smaller than the reference value Dc (No in Step S109), it is considered that the facial expression evaluation value has not reached a sufficiently high value, and the process returns to Step S102 through Steps S113 and S112. Process next image frame data. If the value of the difference value variable D is smaller than the reference value Dc (Yes in step S109), it is considered that the facial expression evaluation value has reached a sufficiently high value, and a smile detection signal is output to the control unit 110 (step S110). ) End the process.

図2の処理によれば、表情評価値の差分値に基づいて撮像部120から入力される動画像データから好適な笑顔の画像フレームデータを検出することができる。したがって、その画像フレームデータが検出された時点で静止画像の撮影をすることにより、好適な笑顔の静止画像を撮影することができる。   According to the processing in FIG. 2, it is possible to detect suitable smile image frame data from the moving image data input from the imaging unit 120 based on the difference value of the facial expression evaluation values. Therefore, by taking a still image at the time when the image frame data is detected, a still image with a suitable smile can be taken.

次に、図2の処理の具体例を図3に基づいて説明する。図3は、図1における評価差分値判定部133の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。図中の折れ線は、表情評価部132から顔画像を含む画像フレームデータ毎に出力される表情評価値を黒丸でプロットしたものであり、撮影された動画像データの中で表情評価値がどのように変化するかを示している。なお、この例では、全ての画像フレームデータに対して顔検出部131からは同一の顔信頼度が出力されているものとする。したがって、しきい値は一定である。   Next, a specific example of the process of FIG. 2 will be described with reference to FIG. FIG. 3 is a graph showing the change of the facial expression evaluation value with time for explaining the operation of the evaluation difference value determination unit 133 in FIG. The polygonal line in the figure is a plot of facial expression evaluation values output for each image frame data including a face image from the facial expression evaluation unit 132 with black circles. What is the facial expression evaluation value in the captured moving image data? Shows how it changes. In this example, it is assumed that the same face reliability is output from the face detection unit 131 for all image frame data. Therefore, the threshold value is constant.

ユーザが画像の記録を指示すると、笑顔画像検出部130が初期化され、撮像部120から画像フレームデータが順次笑顔画像検出部130に入力される。入力された画像フレームデータは、顔検出部131、表情評価部132での処理を経て、図3に示す表情評価値が順次評価差分値判定部133に入力される。図3に示す最初の表情評価値に対しては、差分値算出の対象となる直前の画像フレームデータが入力されていないため、図2のステップS105でNoと判別され、ステップS112に進み、笑顔非検出信号が出力される。以降、(a)の画像フレームデータまでは順次表情評価値が評価差分値判定部133に入力され、直前の画像フレームデータの表情評価値との差分値を算出するが(ステップS107)、表情評価値がしきい値よりも小さい。このため、ステップS108でNoと判別され、ステップS112に進み、笑顔非検出信号が出力される。(b)の画像フレームデータ以降は表情評価値がしきい値よりも大きくなるため、ステップS108ではYesと判別されてステップS109で表情評価値の差分値と基準値Dcとが比較される。(b)、(c)、(d)の画像フレームデータでは差分値が基準値Dcよりも大きいため、ステップS109で表情評価値が十分に高い値に達していないと判定され、ステップS112で笑顔非検出信号が出力される。(e)の画像フレームデータの処理時に前記差分値が所定の値Dcよりも小さくなるため、ステップS109で表情評価値が十分に高い値に達したと判定され、ステップ210で笑顔検出信号が制御部110に出力されて評価差分値判定部133は処理を終了する。   When the user instructs to record an image, the smile image detection unit 130 is initialized, and image frame data is sequentially input from the imaging unit 120 to the smile image detection unit 130. The input image frame data undergoes processing in the face detection unit 131 and the facial expression evaluation unit 132, and the facial expression evaluation values shown in FIG. 3 are sequentially input to the evaluation difference value determination unit 133. For the first facial expression evaluation value shown in FIG. 3, since the image frame data immediately before the difference value calculation target is not input, it is determined No in step S105 of FIG. 2, and the process proceeds to step S112 to smile. A non-detection signal is output. Thereafter, the facial expression evaluation value is sequentially input to the evaluation difference value determination unit 133 up to the image frame data of (a), and the difference value with the facial expression evaluation value of the immediately previous image frame data is calculated (step S107). The value is less than the threshold value. For this reason, it is determined No in step S108, and the process proceeds to step S112, where a smile non-detection signal is output. Since the facial expression evaluation value after the image frame data of (b) is larger than the threshold value, it is determined Yes in step S108, and the difference value of the facial expression evaluation value is compared with the reference value Dc in step S109. In the image frame data of (b), (c), and (d), the difference value is larger than the reference value Dc. Therefore, it is determined in step S109 that the facial expression evaluation value has not reached a sufficiently high value, and the smile is determined in step S112. A non-detection signal is output. Since the difference value becomes smaller than the predetermined value Dc during the processing of the image frame data in (e), it is determined in step S109 that the facial expression evaluation value has reached a sufficiently high value, and the smile detection signal is controlled in step 210. The evaluation difference value determination unit 133 is output to the unit 110 and ends the process.

制御部110は、笑顔検出信号が入力されると静止画の撮影処理を開始する。撮影処理を開始した場合、撮像部120から出力される画像データは顔検出部131には入力されず、画像符号化部140に入力されるため、図3の(e)から後の期間には表情評価値は算出されないが、表情評価値を算出した場合の評価値の例として示している。撮影処理を開始すると、制御部110は撮像部120を制御して絞りの調整、フラッシュの発光、露出時間の制御等を行うため、(e)から後のタイミングで実際の撮影が行われる。このため、(e)から遅れたタイミング、例えば(f)のタイミングで画像データが撮像部120から出力され、表情評価値が大きな画像データを符号化して記録することができる。   When the smile detection signal is input, control unit 110 starts still image shooting processing. When the imaging process is started, the image data output from the imaging unit 120 is not input to the face detection unit 131 but is input to the image encoding unit 140. Therefore, in the period after (e) in FIG. Although the facial expression evaluation value is not calculated, it is shown as an example of the evaluation value when the facial expression evaluation value is calculated. When the shooting process is started, the control unit 110 controls the imaging unit 120 to adjust the aperture, emit the flash, control the exposure time, and the like, so that actual shooting is performed at a timing after (e). Therefore, the image data is output from the imaging unit 120 at a timing delayed from (e), for example, the timing (f), and image data having a large expression evaluation value can be encoded and recorded.

次に、本発明の第2の実施の形態に係る動画像処理装置について説明する。本実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用について説明する。   Next, a moving image processing apparatus according to the second embodiment of the present invention will be described. Since the configuration and operation of the present embodiment are basically the same as those of the first embodiment described above, description of the overlapping configuration and operation will be omitted, and different configurations and operations will be described below.

第1の実施形態では、評価値の差分値と比較する基準値Dcを定数としていたが、本実施の形態では、この基準値を直前の画像フレームデータの処理時に算出した表情評価値の差分値に基づいて基準値Dcの値を動的に決定する。第1の実施の形態との相違は、評価差分値判定部133内の処理のみであり、他は図1に示した構成と同一である。   In the first embodiment, the reference value Dc to be compared with the difference value of the evaluation value is a constant. In the present embodiment, this reference value is used as the difference value of the facial expression evaluation value calculated when processing the immediately preceding image frame data. Based on this, the value of the reference value Dc is dynamically determined. The difference from the first embodiment is only the processing in the evaluation difference value determination unit 133, and the rest is the same as the configuration shown in FIG.

図4は、第2の実施の形態に係る動画像処理装置の評価差分値判定部133の作動を示すフローチャートである。図2と同一内容のステップについては詳細な説明は省略する。   FIG. 4 is a flowchart showing the operation of the evaluation difference value determination unit 133 of the moving image processing apparatus according to the second embodiment. Detailed description of steps having the same contents as in FIG. 2 is omitted.

評価差分値判定部133は、評価値保持変数REvを−1に初期化し(ステップS201)、1つ前の画像フレームデータの処理時に算出した表情評価値の差分値を保持するための差分値保持変数Dpを0に初期化する(ステップS202)。続いて、評価差分値判定部133は、現在処理中の画像フレームデータに対する表情評価値が入力されているか否かを判別する(ステップS203)。表情評価値が入力されていない場合(ステップS203でNo)には、評価値保持変数REvを−1に初期化し(ステップS214)、差分値保持変数Dpを0に初期化し(ステップS215)、制御部110に笑顔非検出信号を出力する(ステップS216)。そして、ステップS203に戻って次の画像フレームデータを処理する。表情評価値が入力されている場合(ステップS203でYes)には、現在の処理対象の画像フレームデータに関する表情評価値を評価値変数Evにセットする(ステップS204)。そして、顔検出部131から入力された顔信頼度値を顔信頼度変数Rvにセットする(ステップS205)。   The evaluation difference value determination unit 133 initializes the evaluation value holding variable REv to −1 (step S201), and holds a difference value for holding the difference value of the facial expression evaluation value calculated when processing the previous image frame data. The variable Dp is initialized to 0 (step S202). Subsequently, the evaluation difference value determination unit 133 determines whether a facial expression evaluation value for the image frame data currently being processed is input (step S203). When the facial expression evaluation value is not input (No in step S203), the evaluation value holding variable REv is initialized to −1 (step S214), the difference value holding variable Dp is initialized to 0 (step S215), and control is performed. A smile non-detection signal is output to unit 110 (step S216). Then, the process returns to step S203 to process the next image frame data. If a facial expression evaluation value has been input (Yes in step S203), the facial expression evaluation value relating to the current image frame data to be processed is set in the evaluation value variable Ev (step S204). Then, the face reliability value input from the face detection unit 131 is set in the face reliability variable Rv (step S205).

次に、評価差分値判定部133は、評価値保持変数REvが−1より大きいか否かを判別する(ステップS206)。評価値保持変数REvが−1より大きくない場合(ステップS206でNo)は、評価値保持変数REvに評価値変数Evの値をセットする(ステップS217)。そして、制御部110に笑顔非検出信号を出力し(ステップS216)、ステップS203に戻って次の画像フレームデータを処理する。   Next, the evaluation difference value determination unit 133 determines whether or not the evaluation value holding variable REv is larger than −1 (step S206). When the evaluation value holding variable REv is not larger than −1 (No in Step S206), the value of the evaluation value variable Ev is set in the evaluation value holding variable REv (Step S217). Then, a smile non-detection signal is output to the control unit 110 (step S216), and the process returns to step S203 to process the next image frame data.

一方、評価値保持変数REvが−1より大きい場合(ステップS206でYes)は、顔信頼度変数Rvの値に従ってしきい値THvを決定する(ステップS207)。そして、評価値保持変数REvの値と評価値変数Evの値との差分をとって差分値変数Dにセットする(ステップS208)。   On the other hand, when the evaluation value holding variable REv is larger than −1 (Yes in Step S206), the threshold value THv is determined according to the value of the face reliability variable Rv (Step S207). Then, the difference between the value of the evaluation value holding variable REv and the value of the evaluation value variable Ev is taken and set in the difference value variable D (step S208).

そして、評価差分値判定部133は、差分値保持変数Dpの値がセットされているか否か、すなわち、1つ前の画像フレームデータに対して表情評価値の差分値を算出しているか否かを判定する(ステップS209)。1つ前の画像フレームデータに対する表情評価値の差分値が算出されている場合(ステップS209でYes)には、評価値変数Evの値がしきい値THvを超えているか否か、すなわち、表情が笑顔であるか否かを判別する(ステップS210)。そして、笑顔であると判別された場合(ステップS210でYes)には、差分値保持変数Dpの値から基準値Dcの値を算出する。この例では、差分値保持変数Dpの値に一定の割合として1/3をかけた値を基準値Dcとして用いる。   Then, the evaluation difference value determination unit 133 determines whether or not the value of the difference value holding variable Dp is set, that is, whether or not the difference value of the facial expression evaluation value is calculated for the previous image frame data. Is determined (step S209). When the difference value of the facial expression evaluation value with respect to the previous image frame data is calculated (Yes in step S209), whether or not the value of the evaluation value variable Ev exceeds the threshold value THv, that is, the facial expression Whether or not is a smile is determined (step S210). If it is determined that the user is smiling (Yes in step S210), the reference value Dc is calculated from the value of the difference value holding variable Dp. In this example, a value obtained by multiplying the value of the difference value holding variable Dp by 1/3 as a constant ratio is used as the reference value Dc.

基準値Dcを設定した後、評価差分値判定部133は、差分値変数Dの値が設定された基準値Dcの値より小さいか否かを判別する(ステップS212)。差分値変数Dの値が基準値Dcより小さい場合(ステップS212でYes)には、評価差分値判定部133は、表情評価値が十分に高い値に達したとみなし、制御部110に笑顔検出信号を出力して(ステップS213)処理を終了する。   After setting the reference value Dc, the evaluation difference value determination unit 133 determines whether or not the value of the difference value variable D is smaller than the set reference value Dc (step S212). When the value of the difference value variable D is smaller than the reference value Dc (Yes in step S212), the evaluation difference value determination unit 133 considers that the facial expression evaluation value has reached a sufficiently high value, and detects a smile to the control unit 110. A signal is output (step S213), and the process ends.

一方、1つ前の画像フレームデータに対する表情評価値の差分値が算出されていない場合(ステップS209でNo)には、差分値保持変数Dpに差分値変数Dの値をセットする(ステップS218)。その後、評価値保持変数REvに評価値変数Evの値をセットし(ステップS217)、制御部110に笑顔非検出信号を出力し(ステップS216)、ステップS203に戻って次の画像フレームデータを処理する。表情評価値がしきい値より小さい場合(ステップS210でNo)、及び、差分値変数Dの値が設定された基準値Dcの値より大きい場合(ステップS212でNo)にも、ステップS218,S217,S216を実行する。   On the other hand, when the difference value of the facial expression evaluation value for the previous image frame data has not been calculated (No in step S209), the value of the difference value variable D is set to the difference value holding variable Dp (step S218). . Thereafter, the evaluation value variable Ev is set to the evaluation value holding variable REv (step S217), a smile non-detection signal is output to the control unit 110 (step S216), and the process returns to step S203 to process the next image frame data. To do. Also when the facial expression evaluation value is smaller than the threshold value (No in Step S210) and when the value of the difference value variable D is larger than the set reference value Dc (No in Step S212), Steps S218 and S217 are performed. , S216 is executed.

図4の処理によれば、表情評価値の差分値に基づいて撮像部120から入力される動画像データから好適な笑顔の画像フレームデータを検出することができる。したがって、その画像フレームデータが検出された時点で静止画像の撮影をすることにより、好適な笑顔の静止画像を撮影することができる。   According to the processing in FIG. 4, it is possible to detect suitable smile image frame data from the moving image data input from the imaging unit 120 based on the difference value of the facial expression evaluation values. Therefore, by taking a still image at the time when the image frame data is detected, a still image with a suitable smile can be taken.

次に、図4の処理の具体例を図5に基づいて説明する。図5は、図4に示す第2の実施形態の評価差分値判定部133の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。なお、この例でも、全ての画像フレームデータに対して顔検出部131からは同一の顔信頼度が出力されているものとする。したがって、しきい値は一定である。   Next, a specific example of the process of FIG. 4 will be described with reference to FIG. FIG. 5 is a graph showing changes in facial expression evaluation values over time for explaining the operation of the evaluation difference value determination unit 133 of the second embodiment shown in FIG. In this example as well, it is assumed that the same face reliability is output from the face detection unit 131 for all image frame data. Therefore, the threshold value is constant.

ユーザが画像の記録を指示すると、図5に示す表情評価値が順次評価差分値判定部133に入力される。図5に示す最初の表情評価値に対しては、差分値算出の対象となる直前の画像フレームデータが入力されていない。そのため、図4のステップS206でNoと判別され、評価値保持変数に最初の表情評価値がセットされ(ステップS217)、笑顔非検出信号が出力される(ステップS216)。2つめの表情評価値に対しては、直前の表情評価値はセットされているため、ステップS206ではYesと判別されて差分値は計算される(ステップS208)。ただし、直前の表情評価値に対する差分値は設定されていないため、ステップS209でNoと判別され、差分値保持変数Dpに差分値変数Dの値がセットされ(ステップS218)、笑顔非検出信号が出力される(ステップS216)。   When the user instructs image recording, facial expression evaluation values shown in FIG. 5 are sequentially input to the evaluation difference value determination unit 133. For the first facial expression evaluation value shown in FIG. 5, the image frame data immediately before the difference value calculation target is not input. Therefore, No is determined in step S206 in FIG. 4, the first facial expression evaluation value is set in the evaluation value holding variable (step S217), and a smile non-detection signal is output (step S216). Since the previous facial expression evaluation value is set for the second facial expression evaluation value, it is determined as Yes in step S206, and the difference value is calculated (step S208). However, since the difference value with respect to the immediately preceding facial expression evaluation value is not set, it is determined No in step S209, the value of the difference value variable D is set to the difference value holding variable Dp (step S218), and the smile non-detection signal is set. It is output (step S216).

図5に示す3つめから(a)までの表情評価値に対しては、ステップS206,S209ではYesと判別されるが、しきい値を超えていないためステップS210でNoと判別され、笑顔非検出信号が出力される(ステップS216)。   The facial expression evaluation values from the third to (a) shown in FIG. 5 are determined as Yes in steps S206 and S209, but are not determined in step S210 because the threshold value is not exceeded, and the smile is not determined. A detection signal is output (step S216).

図5の(b)以降の表情評価値はしきい値を超えるため、ステップS210でもYesと判別され、基準値Dcが1つ前の表情評価値に対する差分値に基づいて計算され(ステップS211)、現在の表情評価値の差分値と比較される(ステップS212)。この段階では、1つ前の(a)の表情評価値に対する差分値D(a)に基づいて、Dc=D(a)/3により基準値Dcが求められる。ただし、図5の例では、求められた基準値Dcより(b)の表情評価値に対する差分値D(b)の方が大きいため、ステップS212でNoと判別され、笑顔非検出信号が出力される(ステップS216)。   Since the facial expression evaluation value after (b) in FIG. 5 exceeds the threshold value, it is also determined as Yes in step S210, and the reference value Dc is calculated based on the difference value with respect to the previous facial expression evaluation value (step S211). The difference value of the current facial expression evaluation value is compared (step S212). At this stage, the reference value Dc is obtained by Dc = D (a) / 3 based on the difference value D (a) with respect to the previous facial expression evaluation value (a). However, in the example of FIG. 5, since the difference value D (b) with respect to the facial expression evaluation value of (b) is larger than the determined reference value Dc, it is determined No in step S212, and a smile non-detection signal is output. (Step S216).

以降、(c)の表情評価値については、差分値D(c)が直前の(b)の表情評価値に対する差分値に基づいて計算された基準値Dc=D(b)/3と比較される。また、(d)の表情評価値については、差分値D(d)が直前の(c)の表情評価値に対する差分値に基づいて計算された基準値Dc=D(c)/3と比較される。いずれも、ステップS212でNoと判別され、笑顔非検出信号が出力される(ステップS216)。   Thereafter, for the facial expression evaluation value in (c), the difference value D (c) is compared with the reference value Dc = D (b) / 3 calculated based on the difference value with respect to the previous facial expression evaluation value in (b). The For the facial expression evaluation value of (d), the difference value D (d) is compared with the reference value Dc = D (c) / 3 calculated based on the difference value with respect to the facial expression evaluation value of the previous (c). The In either case, No is determined in step S212, and a smile non-detection signal is output (step S216).

(e)の画像フレームデータの処理時には、差分値D(e)が直前の(d)の表情評価値に対する差分値に基づいて計算された基準値Dc=D(d)/3より小さくなる。このため、ステップS212でYesと判別され、笑顔検出信号が出力され(ステップS213)、評価差分値判定部133は処理を終了する。   At the time of processing the image frame data of (e), the difference value D (e) becomes smaller than the reference value Dc = D (d) / 3 calculated based on the difference value with respect to the immediately preceding facial expression evaluation value of (d). Therefore, Yes is determined in step S212, a smile detection signal is output (step S213), and the evaluation difference value determination unit 133 ends the process.

制御部110は、笑顔検出信号が入力されると、撮像部120を制御して絞りの調整、フラッシュの発光、露出時間の制御等を行うため、(e)から後のタイミングで実際の撮影が行われる。このため、(e)から遅れたタイミング、例えば(f)のタイミングで画像データが撮像部120から出力され、表情評価値が大きな画像データを符号化して記録することができる。   When the smile detection signal is input, the control unit 110 controls the image capturing unit 120 to adjust the aperture, emit the flash, control the exposure time, and the like, so that actual shooting is performed at a timing after (e). Done. Therefore, the image data is output from the imaging unit 120 at a timing delayed from (e), for example, the timing (f), and image data having a large expression evaluation value can be encoded and recorded.

次に、本発明の第3の実施の形態に係る動画像処理装置について説明する。本実施の形態は、その構成、作用が上述した第2の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用について説明する。   Next, a moving image processing apparatus according to the third embodiment of the present invention will be described. Since the configuration and operation of this embodiment are basically the same as those of the second embodiment described above, description of the redundant configuration and operation will be omitted, and different configurations and operations will be described below.

第2の実施形態では、評価値の差分値と比較する基準値Dcを1つ前の画像フレームデータの処理時に算出した表情評価値の差分値に基づいて算出している。これに対して、本実施の形態では、この基準値を直前の複数(この例では3つ)の画像フレームデータの処理時に算出した表情評価値の差分値の平均値に基づいて決定する。第1、第2の実施の形態との相違は、評価差分値判定部133内の処理のみであり、他は図1に示した構成と同一である。   In the second embodiment, the reference value Dc to be compared with the difference value of the evaluation value is calculated based on the difference value of the facial expression evaluation value calculated when processing the previous image frame data. On the other hand, in the present embodiment, this reference value is determined based on the average value of the difference values of the facial expression evaluation values calculated at the time of processing a plurality of previous (three in this example) image frame data. The difference from the first and second embodiments is only the processing in the evaluation difference value determination unit 133, and the other configuration is the same as that shown in FIG.

図6は、第3の実施の形態に係る動画像処理装置の評価差分値判定部133の作動を示すフローチャートである。図2及び図4と同一内容のステップについては詳細な説明は省略する。   FIG. 6 is a flowchart illustrating the operation of the evaluation difference value determination unit 133 of the moving image processing apparatus according to the third embodiment. Detailed description of steps having the same contents as those in FIGS. 2 and 4 is omitted.

評価差分値判定部133は、評価値保持変数REvを−1に初期化する(ステップS301)。続いて、評価差分値判定部133は、1つ前、2つ前、3つ前の画像フレームデータの処理時に算出した表情評価値の差分値を保持するための差分値保持変数Dp1,Dp2,Dp3を0に初期化する(ステップS302,303,304)。さらに、評価差分値判定部133は、現在処理中の画像フレームデータに対する表情評価値が入力されているか否かを判別する(ステップS305)。表情評価値が入力されていない場合(ステップS305でNo)には、評価差分値判定部133は、評価値保持変数REvを−1に初期化し(ステップS316)、差分値保持変数Dp1,Dp2,Dp3を0に初期化する(ステップS317,318,319)。そして、評価差分値判定部133は、制御部110に笑顔非検出信号を出力し(ステップS320)、ステップS305に戻って次の画像フレームデータを処理する。表情評価値が入力されている場合(ステップS305でYes)には、評価差分値判定部133は、現在の処理対象の画像フレームデータに関する表情評価値を評価値変数Evにセットする(ステップS306)。そして、評価差分値判定部133は、顔検出部131から入力された顔信頼度値を顔信頼度変数Rvにセットする(ステップS307)。   The evaluation difference value determination unit 133 initializes the evaluation value holding variable REv to −1 (step S301). Subsequently, the evaluation difference value determination unit 133 stores difference value holding variables Dp1, Dp2, and Dp2 for holding the difference values of the facial expression evaluation values calculated when processing the previous, second, and third previous image frame data. Dp3 is initialized to 0 (steps S302, 303, and 304). Furthermore, the evaluation difference value determination unit 133 determines whether or not a facial expression evaluation value for the image frame data currently being processed is input (step S305). When the facial expression evaluation value is not input (No in step S305), the evaluation difference value determination unit 133 initializes the evaluation value holding variable REv to −1 (step S316), and the difference value holding variables Dp1, Dp2, Dp3 is initialized to 0 (steps S317, 318, and 319). Then, the evaluation difference value determination unit 133 outputs a smile non-detection signal to the control unit 110 (step S320), returns to step S305, and processes the next image frame data. When the facial expression evaluation value is input (Yes in step S305), the evaluation difference value determination unit 133 sets the facial expression evaluation value related to the current image frame data to be processed in the evaluation value variable Ev (step S306). . Then, the evaluation difference value determination unit 133 sets the face reliability value input from the face detection unit 131 to the face reliability variable Rv (step S307).

次に、評価差分値判定部133は、評価値保持変数REvが−1より大きいか否かを判別する(ステップS308)。評価値保持変数REvが−1より大きくない場合(ステップS308でNo)は、評価差分値判定部133は、評価値保持変数REvに評価値変数Evの値をセットする(ステップS321)。そして、評価差分値判定部133は、制御部110に笑顔非検出信号を出力し(ステップS320)、ステップS305に戻って次の画像フレームデータを処理する。   Next, the evaluation difference value determination unit 133 determines whether or not the evaluation value holding variable REv is larger than −1 (step S308). When the evaluation value holding variable REv is not larger than −1 (No in Step S308), the evaluation difference value determining unit 133 sets the value of the evaluation value variable Ev in the evaluation value holding variable REv (Step S321). Then, the evaluation difference value determination unit 133 outputs a smile non-detection signal to the control unit 110 (step S320), returns to step S305, and processes the next image frame data.

一方、評価値保持変数REvが−1より大きい場合(ステップS308でYes)は、顔信頼度変数Rvの値に従ってしきい値THvを決定する(ステップS309)。そして、評価値保持変数REvの値と評価値変数Evの値との差分をとって差分値変数Dにセットする(ステップS310)。   On the other hand, when the evaluation value holding variable REv is larger than −1 (Yes in Step S308), the threshold value THv is determined according to the value of the face reliability variable Rv (Step S309). Then, the difference between the value of the evaluation value holding variable REv and the value of the evaluation value variable Ev is taken and set in the difference value variable D (step S310).

次に、評価差分値判定部133は、差分値保持変数Dp3の値がセットされているか否か、すなわち、3つ前の画像フレームデータに対して表情評価値の差分値を算出しているか否かを判定する(ステップS311)。3つ前の画像フレームデータに対する表情評価値の差分値が算出されている場合(ステップS311でYes)には、評価値変数Evの値がしきい値THvを超えているか否か、すなわち、表情が笑顔であるか否かを判別する(ステップS312)。そして、笑顔であると判別された場合(ステップS312でYes)には、差分値保持変数Dp1,Dp2,Dp3の値から基準値Dcの値を算出する。この例では、差分値保持変数Dp1,Dp2,Dp3の平均値に一定の割合として1/3をかけた値を基準値Dcとして用いる。   Next, the evaluation difference value determination unit 133 determines whether or not the value of the difference value holding variable Dp3 is set, that is, whether or not the difference value of the facial expression evaluation value is calculated for the previous three image frame data. Is determined (step S311). If the difference value of the facial expression evaluation value with respect to the previous three image frame data has been calculated (Yes in step S311), whether or not the value of the evaluation value variable Ev exceeds the threshold value THv, that is, the facial expression Whether or not is a smile is determined (step S312). If it is determined that the user is smiling (Yes in step S312), the value of the reference value Dc is calculated from the values of the difference value holding variables Dp1, Dp2, and Dp3. In this example, a value obtained by multiplying the average value of the difference value holding variables Dp1, Dp2, and Dp3 by 1/3 as a constant ratio is used as the reference value Dc.

基準値Dcを設定した後、評価差分値判定部133は、差分値変数Dの値が設定された基準値Dcの値より小さいか否かを判別する(ステップS314)。差分値変数Dの値が基準値Dcより小さい場合(ステップS314でYes)には、評価差分値判定部133は、表情評価値が十分に高い値に達したとみなし、制御部110に笑顔検出信号を出力して(ステップS315)処理を終了する。   After setting the reference value Dc, the evaluation difference value determination unit 133 determines whether or not the value of the difference value variable D is smaller than the set reference value Dc (step S314). If the value of the difference value variable D is smaller than the reference value Dc (Yes in step S314), the evaluation difference value determination unit 133 considers that the facial expression evaluation value has reached a sufficiently high value, and detects a smile to the control unit 110. A signal is output (step S315), and the process ends.

3つ前の画像フレームデータに対する表情評価値の差分値が算出されていない場合(ステップS311でNo)には、差分値保持変数Dp3,Dp2,Dp1にそれぞれ1つ前の差分値Dp2,Dp1,Dの値をセットする(ステップS322,323,324)。そして、評価値保持変数REvに評価値変数Evの値をセットし(ステップS321)、制御部110に笑顔非検出信号を出力し(ステップS320)、ステップS305に戻って次の画像フレームデータを処理する。表情評価値がしきい値より小さい場合(ステップS312でNo)、及び、差分値変数Dの値が設定された基準値Dcの値より大きい場合(ステップS314でNo)にも、ステップS322,323,324,321,320を経てステップS305に戻る。   If the difference value of the facial expression evaluation value for the previous three image frame data has not been calculated (No in step S311), the difference value holding variables Dp3, Dp2, and Dp1 are the first difference value Dp2, Dp1, respectively. The value of D is set (steps S322, 323, 324). Then, the value of the evaluation value variable Ev is set in the evaluation value holding variable REv (step S321), a smile non-detection signal is output to the control unit 110 (step S320), and the process returns to step S305 to process the next image frame data. To do. Steps S322 and 323 are also performed when the facial expression evaluation value is smaller than the threshold value (No in Step S312) and when the value of the difference value variable D is larger than the set reference value Dc (No in Step S314). , 324, 321 and 320, the process returns to step S305.

図6の処理によれば、表情評価値の差分値に基づいて撮像部120から入力される動画像データから好適な笑顔の画像フレームデータを検出することができる。このため、その画像フレームデータが検出された時点で静止画像の撮影をすることにより、好適な笑顔の静止画像を撮影することができる。   According to the processing in FIG. 6, it is possible to detect suitable smile image frame data from the moving image data input from the imaging unit 120 based on the difference value of the facial expression evaluation values. For this reason, a still image with a suitable smile can be taken by taking a still image when the image frame data is detected.

次に、図6の処理の具体例を図7に基づいて説明する。図7は、図6に示す第3の実施形態の評価差分値判定部133の作用を説明するための表情評価値の時間に伴う変化を示すグラフである。なお、この例でも、全ての画像フレームデータに対して顔検出部131からは同一の顔信頼度が出力されているものとする。したがって、しきい値は一定である。   Next, a specific example of the process of FIG. 6 will be described with reference to FIG. FIG. 7 is a graph showing changes with time of facial expression evaluation values for explaining the operation of the evaluation difference value determination unit 133 of the third embodiment shown in FIG. In this example as well, it is assumed that the same face reliability is output from the face detection unit 131 for all image frame data. Therefore, the threshold value is constant.

ユーザが画像の記録を指示すると、図7に示す表情評価値が順次評価差分値判定部133に入力される。図7に示す最初の表情評価値に対しては、差分値算出の対象となる直前の画像フレームデータが入力されていない。このため、図4のステップS308でNoと判別され、評価値保持変数に最初の表情評価値がセットされ(ステップS321)、笑顔非検出信号が出力される(ステップS320)。2つめの表情評価値に対しては、直前の表情評価値はセットされているため、ステップS308ではYesと判別されて差分値は計算されるが(ステップS310)、3つ前の表情評価値に対する差分値は設定されていない。このため、ステップS311でNoと判別され、差分値保持変数Dp1に差分値変数Dの値がセットされ(ステップS324)、笑顔非検出信号が出力される(ステップS320)。ステップS322,323の時点では、差分値保持変数Dp1,Dp2の値は初期値0のままであるため、これらの処理を終了しても差分値保持変数Dp2,Dp3の値は0である。   When the user instructs image recording, facial expression evaluation values shown in FIG. 7 are sequentially input to the evaluation difference value determination unit 133. For the first facial expression evaluation value shown in FIG. 7, the image frame data immediately before the difference value calculation target is not input. Therefore, No is determined in step S308 of FIG. 4, the first facial expression evaluation value is set in the evaluation value holding variable (step S321), and a smile non-detection signal is output (step S320). Since the previous facial expression evaluation value is set for the second facial expression evaluation value, it is determined Yes in step S308, and the difference value is calculated (step S310). The difference value for is not set. For this reason, it is determined No in step S311, the value of the difference value variable D is set in the difference value holding variable Dp1 (step S324), and a smile non-detection signal is output (step S320). At the time of steps S322 and 323, the values of the difference value holding variables Dp1 and Dp2 remain at the initial value 0. Therefore, even if these processes are finished, the values of the difference value holding variables Dp2 and Dp3 are 0.

図7の3つめの表情評価値までは、差分値保持変数Dp3の値が0であるため、ステップS311でNoと判別される。   Since the value of the difference value holding variable Dp3 is 0 up to the third facial expression evaluation value in FIG. 7, it is determined No in step S311.

図7の(a)の表情評価値が入力されると、ステップS308,S311ではYesと判別されるが、しきい値を超えていないためステップS312でNoと判別され、笑顔非検出信号が出力される(ステップS320)。   When the facial expression evaluation value in FIG. 7A is input, Yes is determined in steps S308 and S311, but since the threshold value is not exceeded, No is determined in step S312 and a smile non-detection signal is output. (Step S320).

図7の(b)以降の表情評価値はしきい値を超えるため、ステップS312でもYesと判別され、基準値Dcが直前の3つの表情評価値に対する差分値に基づいて計算され(ステップS313)、現在の表情評価値の差分値と比較される(ステップS314)。この段階では、直前の3つの表情評価値に対する差分値D(a−2),D(a−1),D(a)に基づいて、Dc=(D(a−2)+D(a−1)+D(a))/9により基準値Dcが求められる。ただし、図7の例では、求められた基準値Dcより(b)の表情評価値に対する差分値D(b)の方が大きいため、ステップS314でNoと判別され、笑顔非検出信号が出力される(ステップS320)。   Since the facial expression evaluation value after (b) in FIG. 7 exceeds the threshold value, it is also determined as Yes in step S312, and the reference value Dc is calculated based on the difference value with respect to the previous three facial expression evaluation values (step S313). The current facial expression evaluation value is compared with the difference value (step S314). At this stage, Dc = (D (a−2) + D (a−1) based on the difference values D (a−2), D (a−1), and D (a) with respect to the previous three facial expression evaluation values. ) + D (a)) / 9, the reference value Dc is obtained. However, in the example of FIG. 7, since the difference value D (b) with respect to the facial expression evaluation value of (b) is larger than the obtained reference value Dc, No is determined in step S314, and a smile non-detection signal is output. (Step S320).

以降、(c)の表情評価値については、差分値D(c)が直前の3つの表情評価値に対する差分値に基づいて計算された基準値Dc=(D(a−1)+D(a)+D(b))/9と比較される。また、(d)の表情評価値については、差分値D(d)が直前の3つの表情評価値に対する差分値に基づいて計算された基準値Dc=(D(a)+D(b)+D(c))/9と比較される。いずれも、ステップS314でNoと判別され、笑顔非検出信号が出力される(ステップS320)。   Thereafter, for the facial expression evaluation value of (c), the reference value Dc = (D (a−1) + D (a) where the difference value D (c) is calculated based on the difference values with respect to the previous three facial expression evaluation values. + D (b)) / 9. For the facial expression evaluation value of (d), the difference value D (d) is calculated based on the reference value Dc = (D (a) + D (b) + D () based on the difference values for the previous three facial expression evaluation values. c) Compared with / 9. In either case, No is determined in step S314, and a smile non-detection signal is output (step S320).

(e)の画像フレームデータの処理時には、差分値D(e)が直前の3つの表情評価値に対する差分値に基づいて計算された基準値Dc=(D(b)+D(c)+D(d))/9より小さくなる。このため、ステップS314でYesと判別され、笑顔検出信号が出力され(ステップS315)、評価差分値判定部133は処理を終了する。   At the time of processing the image frame data of (e), the difference value D (e) is a reference value Dc = (D (b) + D (c) + D (d) calculated based on the difference values for the previous three facial expression evaluation values. )) / 9 or less. For this reason, Yes is determined in step S314, a smile detection signal is output (step S315), and the evaluation difference value determination unit 133 ends the process.

制御部110は、笑顔検出信号が入力されると、撮像部120を制御して絞りの調整、フラッシュの発光、露出時間の制御等を行うため、(e)から後のタイミングで実際の撮影が行われる。このため、(e)から遅れたタイミング、例えば(f)のタイミングで画像データが撮像部120から出力され、表情評価値が大きな画像データを符号化して記録することができる。   When the smile detection signal is input, the control unit 110 controls the image capturing unit 120 to adjust the aperture, emit the flash, control the exposure time, and the like, so that actual shooting is performed at a timing after (e). Done. Therefore, the image data is output from the imaging unit 120 at a timing delayed from (e), for example, the timing (f), and image data having a large expression evaluation value can be encoded and recorded.

なお、第1〜第3の実施の形態では、プレビュー表示のための動画撮影と静止画の撮影とで撮影モードが異なることを前提としていたが、これらを区別せず、動画モードで撮影された画像フレームデータの一部をそのまま静止画像データとして利用してもよい。その場合には、笑顔検出信号が入力された時点(e)の画像フレームデータを符号化して記録することも可能である。   In the first to third embodiments, it is assumed that the shooting mode is different between the moving image shooting for preview display and the shooting of the still image. A part of the image frame data may be used as it is as still image data. In that case, it is also possible to encode and record the image frame data at the time (e) when the smile detection signal is input.

次に、本発明の第4の実施の形態に係る動画像処理装置について説明する。本実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用について説明する。   Next, a moving image processing apparatus according to the fourth embodiment of the present invention will be described. Since the configuration and operation of the present embodiment are basically the same as those of the first embodiment described above, description of the overlapping configuration and operation will be omitted, and different configurations and operations will be described below.

第1〜第3の実施の形態の動画像処理装置は、画像フレームデータ中の顔画像が1つである場合を想定したものであるが、第4の実施の形態の動画像処理装置は、画像フレームデータ中に顔画像が複数ある場合を想定したものである。   The moving image processing apparatuses of the first to third embodiments are assumed to have one face image in the image frame data, but the moving image processing apparatuses of the fourth embodiment It is assumed that there are a plurality of face images in the image frame data.

図8は、本発明の第4の実施の形態に係る動画像処理装置100Aの構成を概略的に示すブロック図であり、図9は、図8における評価差分値判定部の詳細な構成を示すブロック図である。装置全体の基本的な構成は図1と同一であるが、笑顔画像検出部170の構成が第1の実施の形態とは異なるため、異なる符号を付している。他の構成は図1と同一であるため、同一符号を付して重複した説明は省略する。   FIG. 8 is a block diagram schematically showing the configuration of a moving image processing apparatus 100A according to the fourth embodiment of the present invention, and FIG. 9 shows the detailed configuration of the evaluation difference value determination unit in FIG. It is a block diagram. Although the basic configuration of the entire apparatus is the same as that in FIG. 1, the configuration of the smile image detection unit 170 is different from that of the first embodiment, and therefore, different reference numerals are given. Since other configurations are the same as those in FIG. 1, the same reference numerals are given and redundant descriptions are omitted.

本実施の形態の笑顔画像検出部170は、撮像部120から入力された動画像データから人物の笑顔が記録されている画像フレームデータを検出するものである。笑顔画像検出部170は、画像フレームデータから複数の人物の顔部分の領域を検出する顔検出部171と、顔検出部171で検出された複数の顔領域に対して笑顔の度合いを示す表情評価値をそれぞれ算出するための表情評価部172とを備える。また、笑顔画像検出部170は、評価差分値判定部173を備える。評価差分値判定部173は、現在処理中の画像フレームデータに対する表情評価値と現在処理中の画像フレームデータより前の時点における画像フレームデータに対する表情評価値の差分値を各顔領域について算出し、差分値が所定の条件を満たすか否かを判定する。   The smile image detection unit 170 of the present embodiment detects image frame data in which a person's smile is recorded from the moving image data input from the imaging unit 120. The smile image detection unit 170 detects a region of a plurality of human face portions from the image frame data, and a facial expression evaluation indicating the degree of smile with respect to the plurality of face regions detected by the face detection unit 171. A facial expression evaluation unit 172 for calculating the respective values. The smile image detection unit 170 includes an evaluation difference value determination unit 173. The evaluation difference value determination unit 173 calculates, for each face region, a difference value between the facial expression evaluation value for the currently processed image frame data and the facial expression evaluation value for the image frame data at a time point before the currently processed image frame data. It is determined whether or not the difference value satisfies a predetermined condition.

ユーザが操作部160を操作して動画像処理装置100Aの電源を投入すると、制御部110は撮像部120を初期化した後、撮像部120を制御して動画モードで撮影を開始させる。撮影した動画像は、図示せぬ表示部にプレビュー表示される。ユーザが操作部160を操作して記録開始を指示すると、制御部110は笑顔画像検出部170を初期化した後、撮像部120で撮影した動画像データの画像フレームデータを顔検出部171に入力する。   When the user operates the operation unit 160 to turn on the power of the moving image processing apparatus 100A, the control unit 110 initializes the imaging unit 120 and then controls the imaging unit 120 to start shooting in the moving image mode. The captured moving image is previewed on a display unit (not shown). When the user operates the operation unit 160 to start recording, the control unit 110 initializes the smiley image detection unit 170 and then inputs image frame data of moving image data captured by the imaging unit 120 to the face detection unit 171. To do.

顔検出部171は、入力された画像フレームデータから複数の顔領域を検出可能であり、入力された画像フレームデータを解析し、画像フレームデータ中に人物の顔が存在するか否かを判定する。また、顔検出部171は、入力画像フレームデータに顔が存在すると判別した場合には、顔領域を特定し、この顔領域の画像が人物の顔である確度を示す顔信頼度値を算出する。複数の顔が存在する場合には、複数の顔領域を特定し、それぞれの顔領域について顔信頼度値を算出する。   The face detection unit 171 can detect a plurality of face regions from the input image frame data, analyzes the input image frame data, and determines whether a human face exists in the image frame data. . If the face detection unit 171 determines that there is a face in the input image frame data, the face detection unit 171 identifies the face area and calculates a face reliability value indicating the probability that the image in the face area is a human face. . When there are a plurality of faces, a plurality of face areas are specified, and a face reliability value is calculated for each face area.

また、顔検出部171は、検出された顔領域にID番号を付加する機能を有し、連続する画像フレームデータで検出された顔領域に対して同一人物であると判定された顔領域に一意のID番号を付加することができる。連続する画像フレームデータ間で検出される顔領域に対して同一人物であることを特定するには、例えば1つ前の画像フレームデータで検出した顔領域の情報と、現在の画像フレームデータで検出された顔領域の情報とを比較する。比較の結果、画像フレームデータ中での位置、大きさの差異が一定値以下の顔領域を同一人物と判定することができる。   The face detection unit 171 has a function of adding an ID number to the detected face area, and is unique to the face area determined to be the same person as the face area detected from the continuous image frame data. ID numbers can be added. In order to identify the same person for the face area detected between successive image frame data, for example, the face area information detected in the previous image frame data and the current image frame data are detected. Compared with the information of the face area thus made. As a result of the comparison, it is possible to determine that face areas whose position and size differences in the image frame data are not more than a certain value are the same person.

顔検出部171により画像フレームデータ中に人物の顔が存在しないと判定された場合、顔検出部171は表情評価部172に顔領域が存在しないことを通知し、表情評価部172は評価差分値判定部173に顔領域が存在しないことを通知する。評価差分値判定部173は、顔領域が画像フレームデータ中に存在しないため笑顔非検出信号を制御部110に出力し、制御部110は当該画像フレームデータに対する処理を終了して次の画像フレームデータに対する処理を開始する。   When the face detection unit 171 determines that a human face does not exist in the image frame data, the face detection unit 171 notifies the expression evaluation unit 172 that there is no face area, and the expression evaluation unit 172 evaluates the evaluation difference value. The determination unit 173 is notified that there is no face area. The evaluation difference value determination unit 173 outputs a smile non-detection signal to the control unit 110 because the face area does not exist in the image frame data, and the control unit 110 ends the processing for the image frame data and performs the next image frame data. The process for is started.

顔検出部171により画像フレームデータ中に人物の顔が存在すると判定された場合、顔検出部171により検出された画像フレームデータ中の各顔領域の情報と各顔領域のID番号を含む情報とは表情評価部172に入力される。また、各顔領域に対する顔信頼度値は評価差分値判定部173に入力される。表情評価部172は、入力されたそれぞれの顔領域の画像に対して笑顔の度合いを示す表情評価値を算出する。   When the face detection unit 171 determines that a human face is present in the image frame data, information on each face region in the image frame data detected by the face detection unit 171 and information including an ID number of each face region Is input to the facial expression evaluation unit 172. Further, the face reliability value for each face area is input to the evaluation difference value determination unit 173. The facial expression evaluation unit 172 calculates a facial expression evaluation value indicating the degree of smile for each input face area image.

算出された各顔領域に対する表情評価値および顔信頼度値は、それぞれID番号と関連づけられて評価差分値判定部173に入力される。評価差分値判定部173は、直前の画像フレームデータに含まれる顔領域の表情評価値と、現在処理中の画像フレームデータに含まれる顔領域の表情評価値との差分値を各顔領域毎に算出し、それぞれの顔領域の差分値が所定の条件を満たすか否かを判定する。そして、評価差分値判定部173は、これらの判定を統合して全体として笑顔が検出されたか否かを判定する。   The calculated facial expression evaluation value and face reliability value for each face area are input to the evaluation difference value determination unit 173 in association with the ID number. The evaluation difference value determination unit 173 calculates, for each face area, the difference value between the expression evaluation value of the face area included in the immediately previous image frame data and the expression evaluation value of the face area included in the image frame data currently being processed. It is calculated and it is determined whether or not the difference value of each face area satisfies a predetermined condition. Then, the evaluation difference value determination unit 173 determines whether or not a smile is detected as a whole by integrating these determinations.

本実施の形態の評価差分値判定部173は、例えば、図9に示すように3領域の顔画像の表情評価値の差分値をそれぞれ独立して検出できるように、表情評価値と共に入力されるID番号を検出して入力された表情評価値を振り分けるID判別部173aを備える。また、評価差分値判定部173は、ID番号にしたがって振り分けられたそれぞれの表情評価値から差分値を算出して所定の条件を満たすか否かを判定する第1、第2、第3のID別評価差分値判定部173b、173c、173dを備える。また、評価差分値判定部173は、各ID別評価差分値判定部173b,173c,173dから出力される評価差分値を統合して画像全体で好適な表情評価値が得られるタイミングで笑顔検出信号を制御部110へ出力する評価差分値判定統合部173eを備える。   For example, as shown in FIG. 9, the evaluation difference value determination unit 173 of the present embodiment is input together with the facial expression evaluation value so that the differential value of the facial expression evaluation values of the three face images can be detected independently. An ID discriminating unit 173a for detecting the ID number and distributing the input facial expression evaluation value is provided. The evaluation difference value determination unit 173 calculates the difference value from each facial expression evaluation value distributed according to the ID number, and determines whether or not a predetermined condition is satisfied. Another evaluation difference value determination unit 173b, 173c, 173d is provided. Also, the evaluation difference value determination unit 173 integrates the evaluation difference values output from the ID-specific evaluation difference value determination units 173b, 173c, and 173d to obtain a smile detection signal at a timing at which a suitable facial expression evaluation value is obtained for the entire image. Is provided to an evaluation difference value determination integration unit 173e.

表情評価部172から入力された各顔領域に対するID番号、表情評価値と、顔検出部171から入力される顔信頼度値とは、ID判別部173aに入力され、ID番号に応じてそれぞれID別評価差分値判定部173b,173c,173dに入力される。   The ID number and the expression evaluation value for each face area input from the expression evaluation unit 172 and the face reliability value input from the face detection unit 171 are input to the ID determination unit 173a, and each ID is determined according to the ID number. It is input to the separate evaluation difference value determination units 173b, 173c, 173d.

なお、ID番号に対応する顔領域が検出されていない場合は、顔領域が検出されていないことを示す情報が各ID別評価差分値判定部に入力される。また、ID判別部173aは、顔領域が検出されているID番号の個数を示す有効ID数を評価差分値判定統合部173eに出力する。   In addition, when the face area corresponding to the ID number is not detected, information indicating that the face area is not detected is input to each evaluation difference value determining unit for each ID. Further, the ID determination unit 173a outputs the number of valid IDs indicating the number of ID numbers in which face areas are detected to the evaluation difference value determination integration unit 173e.

ID別評価差分値判定部173b,173c,173dのそれぞれの動作は、第1の実施の形態の評価差分値判定部133と同様である。すなわち、対応するID番号に対する顔領域の表情評価値の差分値が所定の状態であるか否かを判別し、検出結果を評価差分値判定統合部173eに出力する。評価差分値判定統合部173eでは、各ID別評価差分値判定部からの検出結果および、ID判別部173aから入力された顔領域の個数を用いて、画像データ全体で好適な表情評価値の判別を行い、検出結果として制御部101に出力する。   The operations of the ID-specific evaluation difference value determination units 173b, 173c, and 173d are the same as those of the evaluation difference value determination unit 133 according to the first embodiment. That is, it is determined whether or not the difference value of the facial area facial expression evaluation value for the corresponding ID number is in a predetermined state, and the detection result is output to the evaluation difference value determination integration unit 173e. The evaluation difference value determination integration unit 173e uses the detection result from each ID evaluation difference value determination unit and the number of face areas input from the ID determination unit 173a to determine a suitable facial expression evaluation value for the entire image data. And outputs the detection result to the control unit 101.

制御部110は、第1の実施の形態におけるのと同様に、評価差分値判定部173の出力に応じて画像符号化部140を制御して画像フレームデータを符号化し、符号化された静止画像データを記録媒体150に記録する。   As in the first embodiment, the control unit 110 controls the image encoding unit 140 according to the output of the evaluation difference value determination unit 173 to encode the image frame data, and the encoded still image Data is recorded on the recording medium 150.

図10は、図9における評価差分値判定統合部173eの作動を示すフローチャートである。以下、図10のフローチャートを用いて評価差分値判定統合部173eの動作について説明する。   FIG. 10 is a flowchart showing the operation of the evaluation difference value determination integration unit 173e in FIG. Hereinafter, the operation of the evaluation difference value determination integration unit 173e will be described using the flowchart of FIG.

評価差分値判定統合部173eは、処理を開始すると、笑顔が検出された顔領域の数を保持するための顔数変数NUMを0に初期化する(ステップS401)。続いて、評価差分値判定統合部173eは、第1のID別評価差分値判定部173bからID1の顔領域に対する笑顔検出信号が入力されたか否かを判定する(ステップS402)。ID1の顔領域に対する笑顔検出信号が入力された場合(ステップS402でYes)は、笑顔を検出した顔領域の数を示す顔数変数NUMを1カウント増加させ(ステップS403)、笑顔を検出した顔領域の数が1であるか否かを判定する(ステップS404)。笑顔を検出した顔領域の数が1である場合、すなわち処理を開始して最初に笑顔が検出された場合には、内部タイマーをリセットする(ステップS405)。   When the evaluation difference value determination integration unit 173e starts the process, the evaluation difference value determination integration unit 173e initializes a face number variable NUM for holding the number of face regions in which a smile is detected to 0 (step S401). Subsequently, the evaluation difference value determination integration unit 173e determines whether or not a smile detection signal for the face area of ID1 is input from the first ID-specific evaluation difference value determination unit 173b (step S402). When the smile detection signal for the face area of ID1 is input (Yes in step S402), the face number variable NUM indicating the number of face areas where the smile is detected is incremented by 1 (step S403), and the face where the smile is detected It is determined whether or not the number of areas is 1 (step S404). If the number of face areas in which a smile is detected is 1, that is, if a smile is detected for the first time after starting the process, the internal timer is reset (step S405).

評価差分値判定統合部173eは、上記のステップS402〜405と同様の処理を、第2のID別評価差分値判定部173c、第3のID別評価差分値判定部173dについても実行する(ステップS406〜409,S410〜413)。   The evaluation difference value determination integration unit 173e executes the same processing as the above-described steps S402 to 405 also for the second ID-specific evaluation difference value determination unit 173c and the third ID-specific evaluation difference value determination unit 173d (step). S406-409, S410-413).

各ID別評価差分値判定部からの信号に対する処理が終了すると、評価差分値判定統合部173eは、笑顔を検出した顔領域の数を確認する。顔領域の数が0か否かを判別し(ステップS414)、いずれの顔領域に対しても笑顔が検出されていない場合(ステップS414でYes)は、制御部110に笑顔非検出信号を出力し(ステップS417)、ステップS402に戻って次の画像データを処理する。   When the processing on the signal from each evaluation difference value determination unit for each ID is completed, the evaluation difference value determination integration unit 173e confirms the number of face regions in which a smile is detected. It is determined whether or not the number of face areas is 0 (step S414). If no smile is detected for any face area (Yes in step S414), a smile non-detection signal is output to the control unit 110. Then, the process returns to step S402 to process the next image data.

笑顔が検出されていると判別された場合(ステップS414でNo)には、笑顔が検出された顔領域の数と、ID判別部173aより入力された有効ID数が一致するか否かを判別する(ステップS415)。判定の結果、全ての顔領域が笑顔になっていると判定された場合(ステップS415でYes)は、評価差分値判定統合部173eは、制御部110に笑顔検出信号を出力し(ステップS418)、処理を終了する。   If it is determined that a smile is detected (No in step S414), it is determined whether the number of face areas in which a smile is detected matches the number of valid IDs input from the ID determination unit 173a. (Step S415). As a result of the determination, if it is determined that all the face areas are smiling (Yes in step S415), the evaluation difference value determination integrating unit 173e outputs a smile detection signal to the control unit 110 (step S418). The process is terminated.

検出された全ての顔領域が笑顔になっていないと判定された場合(ステップS415でNo)には、内部タイマーの値が所定の値T0vよりも大きくなったか否かを判別する(ステップS416)。タイマー値が所定の値T0vより大きくない場合(ステップS416でNo)には、制御部110に笑顔非検出信号を出力し(ステップS417)、ステップS402に戻って次の画像フレームデータの処理を行う。所定の値T0vよりも大きい場合(ステップS416でYes)には、制御部110に笑顔検出信号を出力して処理を終了する。   If it is determined that all the detected face areas are not smiling (No in step S415), it is determined whether or not the value of the internal timer is greater than a predetermined value T0v (step S416). . If the timer value is not greater than the predetermined value T0v (No in step S416), a smile non-detection signal is output to the control unit 110 (step S417), and the process returns to step S402 to process the next image frame data. . If it is larger than the predetermined value T0v (Yes in step S416), a smile detection signal is output to the control unit 110, and the process ends.

図10の処理によれば、次の場合に、所定の期間経過後、静止画像の取得を制御部110に指示することができる。すなわち、画像フレームデータに含まれる顔領域の表情評価値の差分値が全て所定の条件を満たした場合、あるいは、最初に1つの顔領域で差分値が所定の条件を満たした後、所定の期間内に他の顔に対する差分値が所定の条件を満たさなかった場合である。   According to the processing of FIG. 10, in the following case, the control unit 110 can be instructed to acquire a still image after a predetermined period has elapsed. That is, when the difference values of the facial expression evaluation values of the face area included in the image frame data all satisfy a predetermined condition, or after the difference value first satisfies a predetermined condition in one face area, a predetermined period This is a case where a difference value for another face does not satisfy a predetermined condition.

以下、本実施の形態に係る動画像処理装置100Aの処理の具体例を図11及び図12に基づいて説明する。図11及び図12は、画像フレームデータ毎に表情評価部132から出力される表情評価値の変化を3つの顔画像領域のそれぞれについてのプロットしたグラフである。図中の折れ線は、実線がID1の顔画像の表情評価値、点線がID2の顔画像の表情評価値、二点鎖線がID3の顔画像の表情評価値の変化を示す。   Hereinafter, a specific example of processing of the moving image processing apparatus 100A according to the present embodiment will be described with reference to FIGS. 11 and 12 are graphs in which changes in facial expression evaluation values output from the facial expression evaluation unit 132 for each image frame data are plotted for each of the three facial image regions. In the figure, the broken line indicates the change in facial expression evaluation value of the face image with ID1, the facial expression evaluation value of the face image with ID2 in the solid line, and the facial expression evaluation value of the face image with ID2 in the dashed line.

図11は、3つの顔領域に入る3人が互いに近いタイミングで笑顔になっている例における表情評価値の変化を示すグラフである。第1のID別評価差分値判定部173bは、(a)の時点で表情評価値の差分値が所定の基準値より小さくなったことを検出して評価差分値判定統合部173eに笑顔検出信号を出力する。評価差分値判定統合部173eは、ID1に対する笑顔検出信号を受信し、図10のステップS405でタイマーをリセットする。   FIG. 11 is a graph showing changes in facial expression evaluation values in an example in which three people entering three face areas are smiling at a timing close to each other. The first ID-specific evaluation difference value determination unit 173b detects that the difference value of the facial expression evaluation value is smaller than a predetermined reference value at the time point (a), and sends a smile detection signal to the evaluation difference value determination integration unit 173e. Is output. The evaluation difference value determination integration unit 173e receives the smile detection signal for ID1, and resets the timer in step S405 of FIG.

その後、評価差分値判定統合部173eは、図11中の(b)、(c)のタイミングでID2およびID3に対する笑顔検出信号を受信する。評価差分値判定統合部173eは、(a)のタイミングでリセットしたタイマー値がTOvの値よりも大きくなる前に、検出されている全ての顔領域に対する笑顔検出信号が入力されたことをステップS415で検出する。そして、評価差分値判定統合部173eは、制御部110に笑顔検出信号を出力する(ステップS418)。制御部110は、(c)のタイミングで笑顔検出信号を受信して撮影処理を開始し、(c)からΔt遅れたタイミングで撮像部120から出力される画像データを取得することにより、全ての顔領域に対する表情評価値が大きな画像データを符号化して記録できる。   Thereafter, the evaluation difference value determination integration unit 173e receives smile detection signals for ID2 and ID3 at the timings (b) and (c) in FIG. The evaluation difference value determination integration unit 173e determines that smile detection signals for all detected face areas have been input before the timer value reset at the timing of (a) becomes larger than the value of TOv (step S415). Detect with. Then, the evaluation difference value determination integration unit 173e outputs a smile detection signal to the control unit 110 (step S418). The control unit 110 receives the smile detection signal at the timing (c), starts the imaging process, and acquires image data output from the imaging unit 120 at a timing delayed by Δt from (c), thereby Image data having a large facial expression evaluation value for the face area can be encoded and recorded.

図12は、3つの顔領域に入る3人のうち1人だけが笑顔になっている例における表情評価値の変化を示すグラフである。第1のID別評価差分値判定部173bは、(a)の時点で表情評価値の差分値が所定の基準値より小さくなったことを検出して評価差分値判定統合部173eに笑顔検出信号を出力する。評価差分値判定統合部173eは、ID1に対する笑顔検出信号を受信し、図10のステップS405でタイマーをリセットする。   FIG. 12 is a graph showing changes in facial expression evaluation values in an example in which only one person out of the three face areas is smiling. The first ID-specific evaluation difference value determination unit 173b detects that the difference value of the facial expression evaluation value is smaller than a predetermined reference value at the time point (a), and sends a smile detection signal to the evaluation difference value determination integration unit 173e. Is output. The evaluation difference value determination integration unit 173e receives the smile detection signal for ID1, and resets the timer in step S405 of FIG.

評価差分値判定統合部173eは、図11中の(a)のタイミングからTOvの時間が経過した(a’)のタイミングまで他の顔領域に対する笑顔検出信号を受信しないため、図10のステップS416でタイマー値がTOvの値より大きくなったことを検出する。評価差分値判定統合部173eは、(a’)のタイミングで制御部110に笑顔検出信号を出力する(ステップS418)。制御部110は、(a’)のタイミングで笑顔検出信号を受信して撮影処理を開始し、(a’)からΔt遅れたタイミングで撮像部120から出力される画像データを取得する。これにより、ID1の顔領域の表情評価値が小さくなる前に画像データを符号化して記録することができる。   Since the evaluation difference value determination integration unit 173e does not receive the smile detection signal for the other face area from the timing (a) in FIG. 11 to the timing (a ′) when the time of TOv has elapsed, step S416 in FIG. It detects that the timer value has become larger than the value of TOv. The evaluation difference value determination integration unit 173e outputs a smile detection signal to the control unit 110 at the timing (a ′) (step S418). The control unit 110 receives the smile detection signal at the timing (a ′) and starts the imaging process, and acquires image data output from the imaging unit 120 at a timing delayed by Δt from (a ′). As a result, the image data can be encoded and recorded before the facial expression evaluation value of the ID1 face area becomes small.

また、本発明の目的は、以下の処理を実行することによって達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。   The object of the present invention is achieved by executing the following processing. That is, a storage medium that records a program code of software that realizes the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus is stored in the storage medium. This is the process of reading the code.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code and the storage medium storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、次のものを用いることができる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROM等である。または、プログラムコードをネットワークを介してダウンロードしてもよい。   Moreover, the following can be used as a storage medium for supplying the program code. For example, floppy (registered trademark) disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic tape, nonvolatile memory card, ROM or the like. Alternatively, the program code may be downloaded via a network.

また、コンピュータが読み出したプログラムコードを実行することにより、上記実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   Further, the present invention includes a case where the function of the above-described embodiment is realized by executing the program code read by the computer. In addition, an OS (operating system) running on the computer performs part or all of the actual processing based on an instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.

更に、前述した実施形態の機能が以下の処理によって実現される場合も本発明に含まれる。即ち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う場合である。  Furthermore, a case where the functions of the above-described embodiment are realized by the following processing is also included in the present invention. That is, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現する場合も含まれる。   Further, the present invention includes a case where the functions of the above-described embodiments are realized by executing the program code read by the computer. In addition, there is a case where the OS running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing.

この場合、上記プログラムは、該プログラムを記憶した記憶媒体から直接、又はインターネット、商用ネットワーク、若しくはローカルエリアネットワーク等に接続された不図示の他のコンピュータやデータベース等からダウンロードすることにより供給される。   In this case, the program is supplied by downloading directly from a storage medium storing the program or from another computer or database (not shown) connected to the Internet, a commercial network, a local area network, or the like.

100 動画像処理装置
110 制御部
120 動画像復号部
130 笑顔検出部
131 顔検出部
132 表情評価部
133 評価差分値判定部
140 画像符号化部
150 記録媒体
160 操作部
100 moving image processing apparatus 110 control unit 120 moving image decoding unit 130 smile detection unit 131 face detection unit 132 facial expression evaluation unit 133 evaluation difference value determination unit 140 image encoding unit 150 recording medium 160 operation unit

Claims (13)

動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出部と、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価部と、該表情評価部により高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御部とを備える動画像処理装置において、
現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出し、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定部を備え、前記制御部は、前記評価差分値判定部が算出された差分値が所定の基準値より小さいと判定した場合に静止画像データを取得する処理を実行することを特徴とする動画像処理装置。
A face detection unit that detects a human face from a plurality of image frame data constituting moving image data, and a facial expression evaluation that calculates a degree of expression evaluation indicating how close the detected facial expression is to a specific facial expression A moving image processing apparatus comprising: a control unit that executes a process of acquiring still image data when a high facial expression evaluation value is calculated by the facial expression evaluation unit;
A difference value between the expression evaluation value for the currently processed image frame data and the expression evaluation value for the image frame data at a time point earlier than the currently processed image frame data is calculated, and the calculated difference value is a predetermined reference value An evaluation difference value determination unit that determines whether or not the difference is smaller , and the control unit acquires still image data when the evaluation difference value determination unit determines that the calculated difference value is smaller than a predetermined reference value A moving image processing apparatus characterized in that the processing is performed.
前記動画像データを入力する撮像部と、該撮像部により入力された画像データを静止画像データとして記録する記録媒体とを備え、前記制御部は、前記評価差分値判定部が算出された差分値が所定の基準値より小さいと判定した場合に前記撮像部により撮影された画像データを前記記録媒体に記録することを特徴とする請求項1記載の動画像処理装置。 An imaging unit that inputs the moving image data; and a recording medium that records the image data input by the imaging unit as still image data; and the control unit calculates the difference value calculated by the evaluation difference value determination unit. 2. The moving image processing apparatus according to claim 1, wherein when it is determined that the image data is smaller than a predetermined reference value, the image data captured by the imaging unit is recorded on the recording medium. 前記所定の基準値は、定数であることを特徴とする請求項1または2に記載の動画像処理装置。 The predetermined reference value, moving image processing apparatus according to claim 1 or 2, characterized in that a constant. 前記所定の基準値は、直前算出された差分値に対して一定の割合となる値であることを特徴とする請求項1または2に記載の動画像処理装置。 The predetermined reference value, moving image processing apparatus according to claim 1 or 2, characterized in that a value which is a certain percentage of the calculated difference value immediately before. 前記所定の基準値は、直前に算出した複数の差分値の平均値に対して一定の割合となる値であることを特徴とする請求項1または2に記載の動画像処理装置。 The predetermined reference value, moving image processing apparatus according to claim 1 or 2, characterized in that a value which is a certain percentage of the average of a plurality of difference values calculated immediately before. 前記評価差分値判定部は、所定のしきい値を超えた表情評価値について差分値を算出することを特徴とする請求項1乃至5のいずれかに記載の動画像処理装置。 The evaluation difference value determination unit, a moving image processing apparatus according to any one of claims 1 to 5, characterized in that to calculate the difference values for the facial expression evaluation value exceeds a predetermined threshold. 前記顔検出部は、対象物が人物の顔であるか否かの信頼度を示す顔信頼度値を算出し、前記評価差分値判定部は、前記顔信頼度値が小さくなるにしたがって前記しきい値を大きな値に変更することを特徴とする請求項6記載の動画像処理装置。   The face detection unit calculates a face reliability value indicating the reliability of whether or not the object is a person's face, and the evaluation difference value determination unit performs the above described step as the face reliability value decreases. 7. The moving image processing apparatus according to claim 6, wherein the threshold value is changed to a large value. 1つの画像フレームデータに複数の顔が含まれる場合、前記顔検出部は、複数の顔を検出し、前記表情評価部は、検出した複数の顔に対してそれぞれの表情評価値を算出し、前記評価差分値判定部は、前記複数の表情評価値からそれぞれの顔に対する差分値を算出して判定することを特徴とする請求項1乃至7のいずれか1項に記載の動画像処理装置。   When a plurality of faces are included in one image frame data, the face detection unit detects a plurality of faces, and the expression evaluation unit calculates respective expression evaluation values for the detected plurality of faces, The moving image processing apparatus according to claim 1, wherein the evaluation difference value determination unit calculates and determines a difference value for each face from the plurality of facial expression evaluation values. 前記制御部は、前記評価差分値判定部が前記顔検出部により検出された複数の顔の表情評価値から算出された全ての差分値が所定の基準値より小さいと判定したときに、静止画像データを取得する処理を実行することを特徴とする請求項8記載の動画像処理装置。 When the control unit determines that all the difference values calculated from the facial expression evaluation values of the plurality of faces detected by the face detection unit are smaller than a predetermined reference value , the still image 9. The moving image processing apparatus according to claim 8, wherein processing for acquiring data is executed. 前記制御部は、前記評価差分値判定部が前記顔検出部により検出された複数の顔のうち1つの顔に対する差分値が所定の基準値より小さいと判定された後、所定の期間内に他の顔に対する差分値が所定の基準値より小さいと判定されなかった場合に、所定の期間経過後に静止画像データを取得する処理を実行することを特徴とする請求項9記載の動画像処理装置。 The control unit determines that the difference value for one of the plurality of faces detected by the face detection unit is smaller than a predetermined reference value after the evaluation difference value determination unit is within a predetermined period. 10. The moving image processing apparatus according to claim 9, wherein when it is determined that the difference value with respect to the face is smaller than a predetermined reference value, a process of acquiring still image data is performed after a predetermined period of time. 動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出ステップと、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価ステップと、該表情評価ステップにより高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御ステップとを備える動画像処理方法において、
現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出する算出ステップと、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定ステップとを備え、前記制御ステップでは、前記評価差分値判定ステップで算出された差分値が所定の基準値より小さいと判定された場合に静止画像データを取得する処理を実行することを特徴とする動画像処理方法。
Face detection step for detecting a human face from a plurality of image frame data constituting moving image data, and facial expression evaluation for calculating a facial expression evaluation value indicating how close the detected facial expression is to a specific facial expression In a moving image processing method comprising: a step; and a control step of executing processing for acquiring still image data when a high facial expression evaluation value is calculated by the facial expression evaluation step ,
A calculation step for calculating a difference value between the expression evaluation value for the image frame data being currently processed and the expression evaluation value for the image frame data at a time point before the image frame data being currently processed; and the calculated difference value is predetermined. of a determining evaluation difference value determination step of determining whether or not the reference value is smaller than, and in the control step, when the difference value calculated by the evaluation difference value determination step determines a predetermined reference value smaller than A moving image processing method characterized by executing processing for acquiring still image data.
動画像データを構成する複数の画像フレームデータから人物の顔を検出する顔検出ステップと、検出された顔の表情が特定の表情にどれだけ近いかの度合いを示す表情評価値を算出する表情評価ステップと、該表情評価ステップにより高い表情評価値が算出された際に静止画像データを取得する処理を実行する制御ステップとを備える動画像処理方法をコンピュータに実行させるプログラムにおいて、
現在処理中の画像フレームデータに対する表情評価値と前記現在処理中の画像フレームデータよりも前の時点における画像フレームデータに対する表情評価値の差分値を算出する算出ステップと、算出された差分値が所定の基準値より小さいか否かを判定する評価差分値判定ステップとを備え、前記制御ステップでは、前記評価差分値判定ステップで算出された差分値が所定の基準値より小さいと判定された場合に静止画像データを取得する処理を実行することを特徴とするプログラム。
Face detection step for detecting a human face from a plurality of image frame data constituting moving image data, and facial expression evaluation for calculating a facial expression evaluation value indicating how close the detected facial expression is to a specific facial expression In a program for causing a computer to execute a moving image processing method comprising: a step; and a control step of executing a process of acquiring still image data when a high facial expression evaluation value is calculated in the facial expression evaluation step ,
A calculation step for calculating a difference value between the expression evaluation value for the image frame data being currently processed and the expression evaluation value for the image frame data at a time point before the image frame data being currently processed; and the calculated difference value is predetermined. of a determining evaluation difference value determination step of determining whether or not the reference value is smaller than, and in the control step, when the difference value calculated by the evaluation difference value determination step determines a predetermined reference value smaller than A program for executing processing for acquiring still image data.
請求項12に記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 12.
JP2009005646A 2009-01-14 2009-01-14 Moving image processing apparatus, moving image processing method, program, and storage medium Expired - Fee Related JP5173858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009005646A JP5173858B2 (en) 2009-01-14 2009-01-14 Moving image processing apparatus, moving image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009005646A JP5173858B2 (en) 2009-01-14 2009-01-14 Moving image processing apparatus, moving image processing method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2010166212A JP2010166212A (en) 2010-07-29
JP2010166212A5 JP2010166212A5 (en) 2012-03-01
JP5173858B2 true JP5173858B2 (en) 2013-04-03

Family

ID=42582055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009005646A Expired - Fee Related JP5173858B2 (en) 2009-01-14 2009-01-14 Moving image processing apparatus, moving image processing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5173858B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI556194B (en) * 2012-06-29 2016-11-01 希科母股份有限公司 Object detection device, object detection method and computer program for object detection
WO2022012299A1 (en) 2020-07-14 2022-01-20 海信视像科技股份有限公司 Display device and person recognition and presentation method
CN111818378B (en) * 2020-07-14 2022-04-01 海信视像科技股份有限公司 Display device and person identification display method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4240108B2 (en) * 2006-10-31 2009-03-18 ソニー株式会社 Image storage device, imaging device, image storage method, and program
JP4898475B2 (en) * 2007-02-05 2012-03-14 富士フイルム株式会社 Imaging control apparatus, imaging apparatus, and imaging control method

Also Published As

Publication number Publication date
JP2010166212A (en) 2010-07-29

Similar Documents

Publication Publication Date Title
JP4961965B2 (en) Subject tracking program, subject tracking device, and camera
US8199213B2 (en) Method for selecting desirable images from among a plurality of images and apparatus thereof
US9402033B2 (en) Image sensing apparatus and control method therefor
JP4757173B2 (en) Imaging apparatus, control method thereof, and program
JP5631106B2 (en) Image processing apparatus, control method thereof, program, and imaging apparatus
US8004573B2 (en) Imaging apparatus, imaged picture recording method, and storage medium storing computer program
US20090080716A1 (en) Image recognition device for performing image recognition including object identification on each of input images
JP2008054295A (en) System for and method of photographing, and computer program
JP5289993B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP5173858B2 (en) Moving image processing apparatus, moving image processing method, program, and storage medium
JP2011030089A (en) Image processing apparatus and program
JP2016208268A (en) Imaging apparatus, control method therefor and program
JP2012231327A (en) Imaging apparatus, imaging method, and program
JP5267136B2 (en) Electronic camera
JP5279520B2 (en) Moving image processing apparatus, moving image processing method, program, and storage medium
JP2007215086A (en) Camera capable of taking moving picture
JP5093031B2 (en) Imaging apparatus and program
JP2007104200A (en) Imaging apparatus
JP5843618B2 (en) Image processing apparatus, control method thereof, and program
JP5264426B2 (en) Imaging apparatus, control method therefor, and program
JP2008160280A (en) Imaging apparatus and automatic imaging method
JP6038242B2 (en) IMAGING DEVICE, IMAGING DEVICE OPERATING METHOD, AND PROGRAM
JP5779367B2 (en) Imaging apparatus, imaging control method, and imaging control program
JP5918998B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP2010021607A (en) Video camera, recording method of video camera and recording program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121227

R151 Written notification of patent or utility model registration

Ref document number: 5173858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees