JP4612806B2 - Image processing apparatus, image processing method, and imaging apparatus - Google Patents
Image processing apparatus, image processing method, and imaging apparatus Download PDFInfo
- Publication number
- JP4612806B2 JP4612806B2 JP2004167589A JP2004167589A JP4612806B2 JP 4612806 B2 JP4612806 B2 JP 4612806B2 JP 2004167589 A JP2004167589 A JP 2004167589A JP 2004167589 A JP2004167589 A JP 2004167589A JP 4612806 B2 JP4612806 B2 JP 4612806B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- facial expression
- feature amount
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、入力画像中の顔の表情を判別する技術に関するものである。 The present invention relates to a technique for discriminating facial expressions in an input image.
従来の表情認識装置の一つとして表情から情緒を判定する技術が開示されている(例えば特許文献1を参照)。情緒とは一般的に怒り、悲しみなど感情を表すものであり、上記技術によると、顔面の各特徴から関連規則に基づき所定の表情要素を抽出して、この所定の表情要素から表情要素情報を抽出している。ここで、表情要素は眼の開閉、眉の動き、前額の動き、唇の上下、唇の開閉、下唇の上下を示しており、これら表情要素は眉の動きに関しては左眉の傾きや右眉の傾きなどの表情要素情報から構成されている。 As one of conventional facial expression recognition devices, a technique for determining emotion from facial expressions is disclosed (for example, see Patent Document 1). Emotion generally expresses emotions such as anger and sadness. According to the above technique, a predetermined facial expression element is extracted from each feature of the face based on related rules, and facial expression element information is extracted from the predetermined facial expression element. Extracting. Here, facial expression elements indicate eye opening / closing, eyebrow movement, forehead movement, lip up / down, lip opening / closing, and lower lip up / down. It consists of facial expression element information such as the tilt of the right eyebrow.
次に、得られた表情要素を構成する表情要素情報から所定の表情要素定量化規則に基づき、表情要素を定量化した表情要素コードを算出する。さらに、情緒カテゴリ毎に決められた所定の表情要素コードから所定の情緒変換式で情緒カテゴリ毎に情緒量を算出する。そして、情緒カテゴリの中で情緒量の最大値を情緒と判定を行う方法がある。
顔面の各特徴の形状や長さは個人によって大きな差を持っている。例えば、真顔である無表情画像において、すでに眼尻が下がっている人や元々眼が細い人など画像1枚からの主観的視点からは一見喜びであるように見えるが本人にとっては真顔である場合がある。さらに、顔画像は常に顔サイズや顔の向きが一定というわけではなく、顔がサイズ変動した場合や顔が回転した場合には表情を認識するために必要な特徴量を顔のサイズ変動や顔の回転変動に応じて正規化することが必要になる。 The shape and length of each facial feature varies greatly from person to person. For example, in an expressionless image that is a true face, it looks like a joy from a subjective point of view from a single image, such as a person with already lowered eyes or a person with narrow eyes, but it is a true face for the person himself / herself There is. Furthermore, the face size and orientation of the face image are not always constant, and if the face size changes or the face rotates, the features necessary for recognizing facial expressions are the face size changes and the face orientation. It is necessary to normalize according to the rotation fluctuation of the.
また、入力画像に表情場面や真顔画像である無表情場面の他に、会話場面である非表情場面を含めた日常場面を想定した時系列画像を入力画像とした場合、例えば、驚きの表情に類似した会話場面での発音「お」や喜びの表情に類似した発音「い」「え」など非表情場面を表情場面と誤判定する場合がある。 If the input image is a time-series image that assumes daily scenes including non-facial scenes that are conversational scenes in addition to facial expressions and faceless scenes that are face-to-face images, for example, surprised facial expressions. There are cases where non-facial scenes such as pronunciations “O” in similar conversation scenes and pronunciations “i” and “e” similar to joyful expressions are misjudged as facial expressions.
本発明は以上の問題に鑑みてなされたものであり、個人差や表情場面などにロバストな、画像中の顔の表情をより正確に判断する技術を提供することを目的とする。また、顔のサイズが変動した場合や顔が回転した場合においても正確に表情を判断する技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for more accurately determining facial expressions in an image, which is robust to individual differences and facial expressions. It is another object of the present invention to provide a technique for accurately determining a facial expression even when the face size changes or the face rotates.
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.
即ち、顔を含む連続するフレームの画像を入力する入力手段と、
前記連続するフレームの各フレームの画像中の顔における予め設定された部位群の夫々について特徴量を求める第1の特徴量計算手段と、
予め設定された表情の顔を含む画像における当該顔の前記予め設定された部位群の夫々について特徴量を求める第2の特徴量計算手段と、
前記第1の特徴量計算手段が求めた特徴量と、前記第2の特徴量計算手段が求めた特徴量との差分または比に基づいて、前記予め設定された部位群の夫々の特徴量の変化量を求める変化量計算手段と、
前記予め設定された部位群の夫々について前記変化量計算手段が求めた変化量に基づいて、前記予め設定された部位群の夫々について得点を計算する得点計算手段と、
前記得点計算手段が前記予め設定された部位群の夫々について計算した得点の分布と、各表情毎に計算した、前記予め設定された部位群の夫々に対する得点の分布と、を比較することで、前記入力手段が入力した画像中の顔の表情を判断する第1の判断手段と、
連続したpフレームの夫々の画像中の顔の表情が第1の表情であると前記第1の判断手段が判断してから、当該判断後、連続したqフレームの夫々の画像中の顔の表情が前記第1の表情とは異なる第2の表情であると前記第1の判断手段が判断するまでの各フレームの画像中の顔の表情を、第1の表情として判断する第2の判断手段と
を備えることを特徴とする。
That is, input means for inputting images of successive frames including a face;
First feature amount calculation means for obtaining a feature amount for each of a predetermined group of parts in the face in the image of each frame of the continuous frames ;
A second feature amount calculating means for obtaining a feature amount for each of the preset part groups of the face in an image including a face of a preset facial expression;
Based on the difference or ratio between the feature quantity obtained by the first feature quantity calculation means and the feature quantity obtained by the second feature quantity calculation means, the respective feature quantities of the preset part group A change amount calculating means for obtaining a change amount;
Score calculating means for calculating a score for each of the preset part groups, based on the amount of change obtained by the change amount calculating means for each of the preset part groups;
By comparing the score distribution calculated for each of the preset group of parts by the score calculation means with the distribution of scores for each of the preset group of parts calculated for each facial expression, First determination means for determining facial expressions in the image input by the input means ;
After the first determination means determines that the facial expression in each image of consecutive p frames is the first expression, the facial expression in each image of consecutive q frames is determined after the determination. Second determination means for determining the facial expression in the image of each frame until the first determination means determines that the second expression is different from the first expression. characterized in that it comprises and.
本発明の構成により、個人差や表情場面などにロバストな、画像中の顔の表情をより正確に判断することができる。さらに、顔のサイズが変動した場合や顔が回転した倍でも画像中の顔の表情をより正確に判断することができる。 With the configuration of the present invention, it is possible to more accurately determine a facial expression in an image that is robust to individual differences and facial expressions. Furthermore, the facial expression in the image can be more accurately determined when the size of the face changes or when the face is rotated.
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
[第1の実施形態]
図23は、本実施形態に係る画像処理装置の基本構成を示す図である。
[First Embodiment]
FIG. 23 is a diagram illustrating a basic configuration of the image processing apparatus according to the present embodiment.
2301はCPUで、RAM2302やROM2303に記憶されているプログラムやデータを用いて本装置全体の制御を行うと共に、後述の表情判別処理も行う。
2302はRAMで、外部記憶装置307や記憶媒体ドライブ装置2308からロードされたプログラムやデータを記憶するためのエリアを備えると共に、CPU2301が各種の処理を行うために必要なエリアも備える。
A
2303はROMで、ブートプログラム等の各種のプログラムやデータを格納する。
2304、2305は夫々キーボード、マウスで、各種の指示をCPU2301に入力することができる。
2306は表示装置で、CRTや液晶画面などにより構成されており、画像や文字などの各種の情報を表示することができる。
A
2307は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)や後述の表情判別処理に係るプログラム、そして各種のデータを保存する。そしてこれらプログラムやデータは、CPU2301からの指示によりRAM2302に読み出される。
2308は記憶媒体ドライブ装置で、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み取って、外部記憶装置2307やRAM2302に出力するものである。なお、後述の表情判別処理に係るプログラムやデータなどはこの記憶媒体に記録しておき、必要に応じてCPU2301の制御によりRAM2302に読み出されるようにしても良い。
2309はI/Fで、外部装置と本装置を接続するためのもので、外部装置とのデータ通信はこのI/Fを介して行われる。
2310は上記各部を繋ぐバスである。
図1は本実施形態に係る画像処理装置の機能構成を示すブロック図である。 FIG. 1 is a block diagram showing a functional configuration of the image processing apparatus according to the present embodiment.
画像処理装置の機能構成は、時系列に連続して複数の画像を入力する画像入力部100と、画像入力部100によって入力された画像(入力画像)から表情を判別するために必要な特徴量を抽出する特徴量計算部101と、あらかじめ用意しておいた真顔(無表情)の参照顔から表情を認識するために必要な参照特徴を抽出し保持しておく参照特徴保持部102と、特徴量算出部101で抽出された特徴量と参照特徴保持部102で保持されている特徴量の差分量を計算することで参照顔からの顔面の各特徴量の変化量を算出する特徴量変化量算出部103と、特徴量変化量算出部103で抽出された各特徴の変化量から各特徴ごとに得点を算出する得点算出部104と、得点算出部104で算出された得点の総和から入力画像における顔の表情の判定を行う表情判定部105から構成される。
The functional configuration of the image processing apparatus includes an
なお、図1に示した各部はハードウェアにより構成しても良いが、本実施形態では画像入力部100,特徴量抽出部101,特徴量変化量算出部103,得点算出部104,表情判定部105の各部はプログラムにより構成し、このプログラムはRAM2302に記憶されており、これをCPU2301が実行することで、各部の機能を実現するものとする。また、参照特徴保持部102はRAM2302内の所定のエリアとするが、外部記憶装置2307内のエリアとしても良い。
1 may be configured by hardware. However, in this embodiment, the
以下に、図1に示した各部についてより詳細に説明する。 Below, each part shown in FIG. 1 is demonstrated in detail.
画像入力部100は、ビデオカメラ等から得られた動画像を1フレーム毎に切り出した時系列の顔画像を入力画像として入力する。即ち図23の構成によると、各フレームの画像のデータはI/F2309に接続されたビデオカメラなどから、このI/F2309を介して逐次RAM2302に出力される。
The
特徴量抽出部101は図2に示すように、眼と口と鼻位置抽出部110、エッジ画像生成部111、顔面の各特徴エッジ抽出部112、顔面の特徴点抽出部113、表情特徴量抽出部114で構成される。図2は特徴量抽出部101の機能構成を示すブロック図である。
As shown in FIG. 2, the feature
以下、図2に示した各部について、より詳細に説明する。 Hereafter, each part shown in FIG. 2 is demonstrated in detail.
眼と口と鼻位置抽出部110は、画像入力部100で入力された画像(入力画像)から顔面の所定部位、即ち、眼や口や鼻の位置(入力画像中の位置)を決定する。眼や口の位置を決定する方法は、例えば、眼と口と鼻のそれぞれのテンプレートを用意し、テンプレートマッチングを行うことにより眼と口と鼻の候補を抽出し、更にその抽出後、テンプレートマッチングにより得られた眼と口と鼻の候補の空間的な配置関係と色情報である肌色情報を用いることにより眼と口と鼻位置の検出を行う方法など用いることができる。検出した眼と口の位置データは後段の顔面の各特徴エッジ抽出部112に出力される。
The eye, mouth, and nose
次に、画像入力部100で得られた入力画像からエッジ画像生成部111でエッジ抽出し、抽出されたエッジをエッジ膨張処理を加えた後で細線化処理を行うことによってエッジ画像を生成する。例えば、エッジ抽出にはSobelフィルタによるエッジ抽出、エッジ膨張処理には8近傍膨張処理、細線化処理にはHilditchの細線化処理を使用することができる。ここでエッジ膨張処理と細線化処理は、エッジを膨張させることにより分裂しているエッジを連結し、細線化処理を行うことで、後述するエッジ走査と特徴点抽出を円滑に行うことを目的としている。生成したエッジ画像は後段の顔面の各特徴エッジ抽出部112に出力する。
Next, an edge image is extracted from the input image obtained by the
顔面の各特徴エッジ抽出部112では、眼と口位置抽出部110で検出した眼と口の位置データとエッジ画像生成部111によるエッジ画像を用いて、図3に示すようなエッジ画像における眼領域、頬領域、口領域を決定する。
Each facial feature
眼領域は領域内に眉毛と眼のエッジのみが含まれるように設定し、頬領域は頬のエッジと鼻のエッジのみが含まれるように領域を設定し、口領域は上唇エッジ、歯エッジ、下唇エッジのみが含まれるように領域指定を行う。 The eye area is set so that only the eyebrows and the eye edge are included in the area, the cheek area is set so that only the cheek edge and the nose edge are included, and the mouth area is the upper lip edge, the tooth edge, Specify the area so that only the lower lip edge is included.
ここで、これらの領域の設定処理の一例について説明する。 Here, an example of setting processing of these areas will be described.
目領域の縦幅は、テンプレートマッチングと空間配置関係から求められた左目位置検出結果と右目位置検出結果の中点から上に左右目位置検出間距離の0.5倍、下に左右目位置検出間距離の0.3倍の領域を目の縦方向領域とする。 The vertical width of the eye area is 0.5 times the distance between the left and right eye position detection from the middle point of the left eye position detection result and the right eye position detection result obtained from the template matching and the spatial arrangement relationship, and the left eye position detection is below A region having a distance of 0.3 times the distance is defined as a vertical region of the eyes.
目領域の横幅は、テンプレートマッチングと空間配置関係から求められた左目位置検出結果と右目位置検出結果の中点から左右それぞれに左右目位置検出間距離の領域を目の横方向領域とする。 Regarding the lateral width of the eye region, the region of the distance between the left and right eye positions detected from the middle point of the left eye position detection result and the right eye position detection result obtained from the template matching and the spatial arrangement relationship is set as the lateral region of the eye.
つまり、目領域の縦方向の辺の長さは左右目位置検出間距離の0.8倍、横方向の辺の長さは左右目位置検出間距離の2倍となる。 That is, the length of the side of the eye region in the vertical direction is 0.8 times the distance between the left and right eye position detection, and the length of the side in the horizontal direction is twice the distance between the left and right eye position detection.
口領域の縦幅は、テンプレートマッチングと空間配置関係から求められた口位置検出結果の位置より上に鼻位置検出と口検出位置間距離の0.75倍、下に左目位置検出結果と右目位置検出結果の中点と、口位置検出結果との距離の0.25倍の領域を縦方向領域とする。口領域の横幅は、テンプレートマッチングと空間配置関係から求められた口位置検出結果の位置より左右それぞれ左右目位置検出間距離の0.8倍を目の横方向領域とする。 The vertical width of the mouth area is 0.75 times the distance between the nose position detection and the mouth detection position above the position of the mouth position detection result obtained from the template matching and the spatial arrangement relationship, and below the left eye position detection result and the right eye position. An area that is 0.25 times the distance between the midpoint of the detection result and the mouth position detection result is defined as a vertical area. The lateral width of the mouth area is 0.8 times the distance between the left and right eye positions detected from the position of the mouth position detection result obtained from the template matching and the spatial arrangement relationship.
頬領域の縦幅は、テンプレートマッチングと空間配置関係から求められた左目位置検出結果と右目位置検出結果の中点と口位置検出結果との中点(顔の中心付近の点となる)から上下それぞれ左目位置検出結果と右目位置検出結果の中点と、口位置検出結果との距離の0.25倍の領域を縦方向領域とする。 The vertical width of the cheek area is above and below the midpoint of the left eye position detection result, right eye position detection result, and mouth position detection result obtained from template matching and spatial layout (the point near the center of the face) An area that is 0.25 times the distance between the midpoint of the left eye position detection result and the right eye position detection result and the mouth position detection result is defined as the vertical direction area.
頬領域の横幅は、テンプレートマッチングと空間配置関係から求められた左目位置検出結果と右目位置検出結果の中点と口位置検出結果との中点(顔の中心付近の点となる)から左右それぞれ左右目位置検出間距離の0.6倍の領域を頬の横領域とする。 The width of the cheek area is determined from the midpoint of the left eye position detection result, the right eye position detection result, and the mouth position detection result obtained from the template matching and the spatial arrangement relationship. An area that is 0.6 times the distance between the left and right eye position detection is defined as a lateral area of the cheek.
つまり、頬領域の縦方向の辺の長さは、左目位置検出結果と右目位置検出結果の中点と、口位置検出結果との距離の0.5倍、横方向の辺の長さは左右目位置検出間距離の1.2倍となる。 That is, the vertical side length of the cheek region is 0.5 times the distance between the midpoint of the left eye position detection result and the right eye position detection result and the mouth position detection result, and the horizontal side length is left and right. This is 1.2 times the distance between eye position detection.
以上の領域の設定処理によって、図3に示すように、眼領域内では上から1本目のエッジ120とエッジ121が眉毛のエッジとして、2本目のエッジ122とエッジ123が眼のエッジとして判定され、口領域内では口を閉じている場合には図3に示すように上から1本目のエッジ126が上唇エッジ、2本目のエッジ127が下唇エッジとして判定され、口を開けている場合には上から1本目のエッジが上唇エッジ、2本目のエッジが歯のエッジ、3本目のエッジが下唇エッジとして判定される。
With the above region setting process, as shown in FIG. 3, the
以上の判定結果は、以上の3つの領域(眼領域、頬領域、口領域)の夫々が眼領域、頬領域、口領域の何れであるかを示すデータ、そして各領域の位置とサイズのデータとして顔面の各特徴エッジ抽出部112によって生成され、顔面の特徴点抽出部113にエッジ画像と共に出力される。
The above determination results are data indicating whether each of the above three regions (eye region, cheek region, mouth region) is an eye region, cheek region, or mouth region, and data on the position and size of each region. Are generated by the feature
顔面の特徴点抽出部113は、顔面の各特徴エッジ抽出部112から入力した上記各種データを用いて、エッジ画像における眼領域、頬領域、口領域内のエッジを走査することによって、後述の各特徴点を検出する。
The facial feature
図4は、顔面の特徴点抽出部113が検出する各特徴点を示す図である。同図に示すように、各特徴点とは、各エッジの端点、エッジ上における端点間の中点であり、これらは例えばエッジを構成する画素の値(ここではエッジを構成する画素の値を1,エッジを構成していない画素の値を0とする)を参照して、横方向の座標位置の最大値、最小値を求めることでエッジの端点を求めることが出来、エッジ上における端点間の中点は、エッジ上において単純に端点間の中点の横方向の座標値を取る位置とすることで求めることができる。
FIG. 4 is a diagram illustrating each feature point detected by the feature
顔面の特徴点抽出部113はこれらの端点の位置情報を特徴点情報として求め、眼の特徴点情報(眼領域における各エッジの特徴点の位置情報)、口の特徴点情報(口領域における各エッジの特徴点の位置情報)を夫々後段の表情特徴量抽出部114にエッジ画像と共に出力する。
The facial feature
なお、特徴点に関しては目・口・鼻の位置検出同様に目や口や鼻の端点位置を算出するテンプレートなどを用いてもよくエッジ走査による特徴点抽出に限定されるわけではない。 As for the feature points, a template for calculating the positions of the end points of the eyes, mouth, and nose may be used in the same manner as the eye / mouth / nose position detection, and the feature points are not limited to feature point extraction by edge scanning.
表情特徴量抽出部114は顔面の特徴点抽出部113で得られた各特徴点情報から、表情判別に必要な「額周りのエッジ密度」、「眉毛エッジの形状」、「左右眉毛エッジ間の距離」、「眉毛エッジと眼のエッジ間の距離」、「眼の端点と口端点の距離」、「眼の線エッジの長さ」、「眼の線エッジの形状」、「頬周りのエッジ密度」、「口の線エッジの長さ」、「口の線エッジの形状」等の特徴量を算出する。
The facial expression feature
ここで、「眼の端点と口の端点の距離」とは、図4の特徴点136(右眼の右端点)の座標位置から特徴点147(唇の右端点)の座標位置までの縦方向の距離、同様に特徴点141(左眼の左端点)の座標位置から特徴点149(唇の左端点)の座標位置までの縦方向の距離である。 Here, the “distance between the end point of the eye and the end point of the mouth” is the vertical direction from the coordinate position of the feature point 136 (right end point of the right eye) in FIG. 4 to the coordinate position of the feature point 147 (right end point of the lips). Similarly, the distance in the vertical direction from the coordinate position of the feature point 141 (left end point of the left eye) to the coordinate position of the feature point 149 (left end point of the lips).
また、「眼の線エッジの長さ」とは、図4の特徴点136(右眼の右端点)の座標位置から特徴点138(右眼の左端点)の座標位置までの横方向の距離、又は特徴点139(左眼の右端点)の座標位置から特徴点141(左眼の左端点)の座標位置までの横方向の距離である。 Further, “the length of the eye line edge” is the distance in the horizontal direction from the coordinate position of the feature point 136 (right end point of the right eye) in FIG. 4 to the coordinate position of the feature point 138 (left end point of the right eye). Or the distance in the horizontal direction from the coordinate position of the feature point 139 (the right end point of the left eye) to the coordinate position of the feature point 141 (the left end point of the left eye).
また、「眼の線エッジの形状」とは、図5に示すように、特徴点136(右眼の右端点)と特徴点137(右眼の中点)により規定される線分(直線)150、特徴点137(右眼の中点)と特徴点138(右眼の左端点)により規定される線分(直線)151を算出し、この算出された2本の直線150と直線151の傾きから形状を判定している。
Further, as shown in FIG. 5, the “shape of the eye line edge” is a line segment (straight line) defined by the feature point 136 (right end point of the right eye) and the feature point 137 (midpoint of the right eye). 150, a line segment (straight line) 151 defined by the feature point 137 (the middle point of the right eye) and the feature point 138 (the left end point of the right eye) is calculated, and the two
この処理は左目の線エッジの形状を求める処理についても同様で、用いる特徴点が異なるだけである。即ち、特徴点139(左眼の右端点)と特徴点140(左眼の中点)とで規定される線分の傾き、特徴点140(左眼の中点)と特徴点141(左眼の左端点)とで規定される線分の傾きを求め、これにより同様に判定する。 This process is the same as the process for obtaining the shape of the line edge of the left eye, and only the feature points used are different. That is, the slope of the line segment defined by the feature point 139 (the right end point of the left eye) and the feature point 140 (the midpoint of the left eye), the feature point 140 (the midpoint of the left eye), and the feature point 141 (the left eye) Is determined in the same manner.
また、「頬周りのエッジ密度」は、上記頬の領域において、エッジを構成する画素の数を表すものである。これは頬の筋肉が持ち上がることによって「しわ」が生じ、これにより長さ、太さの異なる様々なエッジが発生するので、これらのエッジの量として、これらのエッジを構成する画素の数(画素値が1である画素の数)をカウントし、頬の領域を構成する画像数で割り算することにより密度を求めることができる。 Further, “edge density around cheek” represents the number of pixels constituting the edge in the cheek area. This is because wrinkles are generated when the muscles of the cheeks are lifted. As a result, various edges having different lengths and thicknesses are generated. As the amount of these edges, the number of pixels constituting these edges (pixels) The number of pixels having a value of 1) is counted, and the density can be obtained by dividing by the number of images constituting the cheek region.
また、「口線エッジの長さ」とは、口領域においてすべてのエッジを走査し、エッジを構成する画素のうちで横方向の座標位置が最も小さい画素が特徴点147(口の右端点)、最も大きい画素が特徴点149(口の左端点)とした場合には、特徴点147(口の右端点)の座標位置から特徴点149(口の左端点)の座標位置までの距離を示すものである。 Also, “the length of the mouth edge” means that all edges are scanned in the mouth area, and the pixel having the smallest horizontal coordinate position among the pixels constituting the edge is the feature point 147 (the right end point of the mouth). When the largest pixel is the feature point 149 (the left end point of the mouth), the distance from the coordinate position of the feature point 147 (the right end point of the mouth) to the coordinate position of the feature point 149 (the left end point of the mouth) is indicated. Is.
なお上述のように、特徴量を求めるために端点間の距離や、2つの端点で規定される線分の傾き、エッジ密度を求めているのであるが、この処理は換言すると、各部位のエッジの長さや形状などの特徴量を求めていることになる。従って、以下ではこれらエッジの長さや形状を総称して「エッジの特徴量」と呼称する場合がある。 In addition, as described above, the distance between the end points, the slope of the line segment defined by the two end points, and the edge density are obtained in order to obtain the feature amount. Thus, the feature amount such as the length and shape of the image is obtained. Therefore, hereinafter, the length and shape of these edges may be collectively referred to as “edge feature amounts”.
以上のようにして、特徴量抽出部101は、入力画像から各特徴量を求めることができる。
As described above, the feature
図1に戻って、参照特徴保持部102には、表情判別処理を行う前に、予め真顔である無表情の画像から、特徴量抽出部101で行われる上記特徴量検出処理によって検出された、この無表情の顔における特徴量が保持されている。
Returning to FIG. 1, the reference
よって、以下説明する処理では、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した特徴量が、この参照特徴保持部102が保持する特徴量からどの程度変化しているかを求め、この変化量に応じて入力画像中における顔の表情の判別を行う。従って、参照特徴保持部102が保持する特徴量を以下、「参照特徴量」と呼称する場合がある。
Therefore, in the process described below, how much the feature quantity detected by the feature
まず、特徴量変化量算出部103は、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した特徴量と、参照特徴保持部102が保持する特徴量との差分を計算する。例えば、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した「眼の端点と口の端点の距離」と、参照特徴保持部102が保持する「眼の端点と口の端点の距離」との差分を計算し、特徴量の変化量する。このような差分計算を各特徴量毎に求めることは、換言すれば、各部位の特徴量の変化を求めることになる。
First, the feature amount change
なお、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した特徴量と、参照特徴保持部102が保持する特徴量との差分を計算する際には当然、同じ特徴におけるもの同士で差分を取るので(例えば、特徴量抽出部101が入力画像のエッジ画像から上記特徴量検出処理によって検出した「眼の端点と口の端点の距離」と、参照特徴保持部102が保持する「眼の端点と口の端点の距離」との差分計算)、それぞれの特徴量は関係付けられている必要があるが、この手法については特に限定するものではない。
When calculating the difference between the feature amount detected by the feature amount detection process from the edge image of the input image by the feature
なお、この参照特徴量はユーザ毎に大きく異なる場合もあり、その場合、あるユーザにはこの参照特徴量が合致するものであっても、他のユーザには合致しない場合がある。従って、参照特徴保持部102に複数のユーザの参照特徴量を格納させておいても良い。その場合、上記画像入力部100から画像を入力する前段で、誰の顔の画像を入力するのかを示す情報を予め入力しておき、特徴量変化量算出部103が処理を行う際に、この情報を元に参照特徴量を決定すれば、ユーザ毎の参照特徴量を用いて上記差分を計算することができ、後述する表情判別処理の精度をより一層上げることができる。
Note that this reference feature amount may be greatly different for each user. In this case, even if this reference feature amount matches a certain user, it may not match another user. Accordingly, the reference
また、この参照特徴保持部102にはユーザ毎の参照特徴量の代わりに、平均的な顔における無表情の画像から、特徴量抽出部101で行われる上記特徴量検出処理によって検出された、この無表情の顔における特徴量が保持されていてもよい。
Further, the reference
このようにして、特徴量変化量算出部103によって求められた、各部位の特徴量の変化を示す、各変化量のデータは、後段の得点算出部104に出力される。
In this way, the data of each change amount indicating the change in the feature amount of each part obtained by the feature amount change
得点算出部104は、各特徴量の変化量と、予め求められ、メモリ(例えばRAM2302)が保持する「重み」とに基づいて、得点の算出を行う。重みについては、予め各部位毎に変化量の個人差などに対する分析を行っており、この分析結果に応じて各特徴量毎に適切な重みを設定する。
The
例えば、眼のエッジの長さなど比較的変化量が小さい特徴やしわなど変化量に個人差がある特徴は重み付けを小さくし、眼と口の端点距離など変化量に個人差が出にくい特徴は重み付けを大きくとることである。 For example, features with relatively small changes, such as the length of the edge of the eye, and features with individual differences in the amount of change, such as wrinkles, are weighted less. It is to take a large weight.
図6は例として変化量に個人差が存在する特徴である眼のエッジの長さの変化量から得点を算出するために参照するグラフである。 FIG. 6 is a graph that is referred to in order to calculate a score from the amount of change in eye edge length, which is a feature in which there is an individual difference in the amount of change.
横軸が特徴量変化量(以下、参照顔での特徴量で正規化した値)、縦軸が得点を表しており、例えば、眼のエッジの長さの変化量が0.4であるとするとグラフから得点は50点と算出される。眼のエッジの長さの変化量が1.2である場合でも変化量が0.3の場合と同じように得点が50点と算出され、個人差により変化量が大きく異なった場合でも得点差が小さくなるよう重み付けを行っている。 The horizontal axis represents a feature amount change amount (hereinafter, a value normalized by the feature amount in the reference face), and the vertical axis represents a score. For example, the amount of change in the length of the eye edge is 0.4. Then, the score is calculated as 50 points from the graph. Even when the amount of change in the length of the eye edge is 1.2, the score is calculated as 50 points in the same way as when the amount of change is 0.3, and even if the amount of change varies greatly depending on individual differences, Is weighted so as to be small.
図7は変化量の個人差がない特徴である眼と口の端点距離の長さの変化量から得点を算出するために参照するグラフである。 FIG. 7 is a graph that is referred to in order to calculate a score from the amount of change in the length of the distance between the end points of the eyes and the mouth, which is a feature that does not cause individual differences in the amount of change.
図6と同様に、横軸が特徴量変化量、縦軸が得点を表しており、例えば、眼と口の端点距離の長さの変化量が1.1である場合にはグラフから50点が算出され、眼と口の端点距離の長さの変化量が1.3である場合にはグラフから55点が算出される。つまり、個人差により変化量が大きく異なった場合には得点差が大きくなるように重み付けを行っている。 As in FIG. 6, the horizontal axis represents the amount of change in the feature amount, and the vertical axis represents the score. For example, when the amount of change in the length of the end point distance between the eyes and the mouth is 1.1, 50 points are obtained from the graph. Is calculated, and 55 points are calculated from the graph when the amount of change in the length of the end point distance between the eyes and the mouth is 1.3. That is, weighting is performed so that the score difference becomes large when the amount of change greatly varies depending on individual differences.
即ち、「重み」は、得点算出部104が得点を算出する際の変化量区分幅と得点幅の比に対応するのである。このように特徴量毎に重みを設定するという工程を行うことで特徴量変化量の個人差を吸収させ、さらに、表情判別は1つの特徴のみに依存しないので、誤検出や未検出を減少させ、表情判別(認識)率を向上させることができる。
That is, the “weight” corresponds to the ratio between the change amount segment width and the score width when the
なお、RAM2302には図5,6に示したグラフのデータ、即ち、特徴量の変化量と得点との対応関係を示すデータが保持されており、これを用いて得点を算出する。
The
得点算出部104が求めた各特徴量毎の得点のデータは、各得点がどの特徴量に対するものであるかを示すデータと共に後段の表情判定部105に出力される。
The score data for each feature amount obtained by the
RAM2302には、表情判別処理を行う前に、予め各表情において、得点算出部104による上記処理によって求めた各特徴量毎の得点のデータが保持されている。
The
従って表情判定部105は、
1 各特徴量毎の得点の総和値と所定の閾値との比較処理
2 各特徴量毎の得点の分布と、各表情毎の各特徴量毎の得点の分布とを比較する処理
を行うことで、表情の判別を行う。
Therefore, the facial
1 Comparing processing of the total value of scores for each feature amount and a
例えば、喜びの表情を示す表情は
1 眼尻が下がる
2 頬の筋肉が持ち上がる
3 口の端が持ち上がる
などの特徴が見られるため、算出される得点の分布は図9に示すように、「眼の端点と口端点の距離」、「頬周りのエッジ密度」、「口の線エッジの長さ」の得点が非常に高く、続いて「眼の線エッジの長さ」、「眼の線エッジの形状」の得点も他の特徴量に比べて高い得点となり、喜び表情に特有な得点分布となる。この特有な得点分布は他の表情に関しても同様なことが言える。図9は、喜びの表情に対する、得点の分布を示す図である。
For example, the expression of joy is as follows: 1 The bottom of the eye is lowered 2 The muscles of the cheeks are lifted 3 The edge of the mouth is lifted, and the distribution of the calculated scores is as shown in FIG. Score of “distance between mouth end point”, “edge density around cheek”, and “line edge length of mouth” are very high, followed by “line edge length of eye”, “line edge of eye” The score of “shape” is also higher than other features, and the score distribution is unique to joyful expressions. This unique score distribution is the same for other facial expressions. FIG. 9 is a diagram showing the distribution of scores for the expression of joy.
従って、表情判定部105は、得点算出部104が求めた各特徴量の得点による分布の形状が、どの表情に特有の得点分布の形状に最も近いかを特定し、最も近い形状の得点分布が示す表情が、判定結果として出力すべき表情となる。
Therefore, the facial
ここで、形状が最も近い得点分布を探す方法としては、例えば、分布の形状を混合ガウシアン近似してパラメトリックにモデル化し、求めた得点分布と各表情毎に設けられた得点分布との類似度判別を、パラメータ空間内の距離の大小を判定することにより求める。そして、求めた得点分布とより類似度の高い得点分布(より距離の小さい得点分布)が示す表情を、判定の候補とする。 Here, as a method of finding the score distribution with the closest shape, for example, the distribution shape is approximated to a mixed Gaussian and parametrically modeled, and similarity determination between the obtained score distribution and the score distribution provided for each facial expression is performed. Is determined by determining the magnitude of the distance in the parameter space. Then, the facial expression indicated by the score distribution (score distribution with a smaller distance) having a higher degree of similarity to the obtained score distribution is set as a candidate for determination.
次に、得点算出部104が求めた各特徴量の得点の総和が閾値以上であるか否かを判定する処理を行う。この比較処理は、表情場面に類似した非表情場面を表情場面と正確に判定するためにより有効な処理である。従ってこの総和値が所定の閾値以上である場合には上記候補を、最終的に判定した表情として判別する。一方、この総和値が所定の閾値よりも小さい場合には上記候補は破棄し、入力画像における顔は無表情、もしくは非表情であると判定する。
Next, a process of determining whether or not the total score of each feature amount obtained by the
また、上記得点分布の形状の比較処理において、上記類似度がある値以下である場合にはこの時点で入力画像における顔は無表情、もしくは非表情であると判定し、得点算出部104が求めた各特徴量の得点の総和値と閾値との比較処理を行わないで処理を終了するようにしても良い。
In the comparison processing of the shape of the score distribution, if the similarity is not more than a certain value, it is determined that the face in the input image is no expression or no expression at this time, and the
図8は、得点算出部104が求めた各特徴量毎の得点を用いて、入力画像における顔の表情が「特定の表情」であるか否かを判定する場合の判定処理のフローチャートである。
FIG. 8 is a flowchart of a determination process when it is determined whether or not the facial expression in the input image is a “specific expression” using the score for each feature amount obtained by the
まず、表情判定部105は、得点算出部104が求めた各特徴量の得点による分布の形状が、特定の表情に特有の得点分布の形状と近いか否かを判断する(ステップS801)。これは例えば、求めた得点分布と特定の表情の得点分布との類似度が所定値以上である場合には、「得点算出部104が求めた各特徴量の得点による分布の形状が、特定の表情に特有の得点分布の形状と近い」と判定する。
First, the facial
近いと判定された場合には処理をステップS802に進め、次に、得点算出部104が求めた各特徴量の得点の総和値が所定の閾値以上であるか否かの判定処理を行う(ステップS802)。そして閾値以上であると判定された場合には、入力画像における顔の表情は上記「特定の表情」であると判定し、その判定結果を出力する。
If it is determined that the points are close, the process proceeds to step S802. Next, a determination process is performed to determine whether or not the total value of the scores of the respective feature values obtained by the
一方、ステップS801で近くないと判定された場合、ステップS802で上記総和値が閾値よりも小さいと判定された場合には処理をステップS804に進め、入力画像が非表情画像である、若しくは無表情画像であるという旨を示すデータを出力する(ステップS804)。 On the other hand, if it is determined in step S801 that it is not close, or if it is determined in step S802 that the total value is smaller than the threshold value, the process proceeds to step S804, and the input image is a non-expression image or no expression. Data indicating that the image is an image is output (step S804).
なお、本実施形態では表情判別処理として、各特徴量毎の得点の総和値と所定の閾値との比較処理、及び各特徴量毎の得点の分布と、各表情毎の各特徴量毎の得点の分布とを比較する処理の両方を行っていたが、これに限定されるものではなく、何れか一方の比較処理を行うのみとしても良い。 In the present embodiment, as facial expression discrimination processing, the comparison between the total value of scores for each feature amount and a predetermined threshold, the distribution of scores for each feature amount, and the score for each feature amount for each facial expression However, the present invention is not limited to this, and only one of the comparison processes may be performed.
以上の処理により、本実施形態によれば、得点分布の比較処理、及び得点の総和値との比較処理を行うので、入力画像における顔の表情がどの表情であるかをより正確に判別できる。また、入力画像における顔の表情が特定の表情であるか否かを判別することもできる。 With the above processing, according to the present embodiment, the comparison processing of score distribution and the comparison processing with the total value of the scores are performed, so it is possible to more accurately determine which facial expression is the facial expression in the input image. It is also possible to determine whether the facial expression in the input image is a specific facial expression.
[第2の実施形態]
図10は本実施形態に係る画像処理装置の機能構成を示すブロック図である。図1と同じ部分については同じ番号を付けており、その説明は省略する。なお本実施形態に係る画像処理装置の基本構成については、第1の実施形態と同じ、即ち図23に示したものと同じである。
[Second Embodiment]
FIG. 10 is a block diagram showing a functional configuration of the image processing apparatus according to the present embodiment. The same parts as those in FIG. 1 are given the same numbers, and the description thereof is omitted. The basic configuration of the image processing apparatus according to this embodiment is the same as that of the first embodiment, that is, the same as that shown in FIG.
以下、本実施形態に係る画像処理装置について説明する。上述のように、本実施形態に係る画像処理装置の機能構成において、第1の実施形態に係る画像処理装置の機能構成と異なる点は、表情判定部165である。従って以下ではこの表情判定部165について詳細に説明する。
The image processing apparatus according to this embodiment will be described below. As described above, the functional configuration of the image processing apparatus according to the present embodiment is different from the functional configuration of the image processing apparatus according to the first embodiment in the facial
図11は表情判定部165の機能構成を示すブロック図である。同図に示すように、表情判定部165は表情可能性判定部170と、表情確定部171から成る。
FIG. 11 is a block diagram illustrating a functional configuration of the facial
表情可能性判定部170は、得点算出部104から得られた各特徴量の得点から成る得点分布と各得点の総和値とを用いて第1の実施形態と同様の表情判定処理を行い、その判定結果を「表情の可能性判定結果」とする。例えば、喜びの表情であるか否かの判定を行う場合、得点算出部104で得られた得点の分布と総和値から「喜びの表情である」と判定を行うのではなくて、「喜びの表情である可能性がある」と判定を行う。
The facial expression
この可能性判定は、例えば、非表情場面である会話場面での発音「い」と「え」の顔面の各特徴変化と、喜び場面の顔面の各特徴変化はほぼ全く同じ特徴変化であるので、これら会話場面である非表情場面と喜び場面とを区別するために行うものである。 This possibility determination is made, for example, because each feature change of the pronunciation “I” and “E” in the conversation scene which is a non-expression scene is almost the same feature change as each feature change of the face of the joy scene. This is done to distinguish these non-facial scenes and joyful scenes.
次に、表情確定部171は、表情可能性判定部170で得られた表情可能性判定結果を用いて、ある特定の表情画像であるという判定を行う。図12は横軸を時系列画像の夫々固有に付けた画像番号、縦軸を得点の総和と閾値ライン182との差とし、真顔である無表情場面から喜び表情場面に変化した場合の得点総和と閾値ライン182との差を表した図である。
Next, the facial
図13は横軸を時系列画像の画像番号、縦軸を得点の総和と閾値ライン183との差とし、非表情場面である会話場面の得点総和と閾値ライン183との差を表した図である。 In FIG. 13, the horizontal axis represents the image number of the time-series image, the vertical axis represents the difference between the sum of the scores and the threshold line 183, and the difference between the score sum of the conversation scene that is a non-facial expression scene and the threshold line 183 is shown. is there.
図12の無表情場面から喜び表情場面に変化する場合を参照すると、初期過程から中間過程における得点変化は変動が大きいが、中間過程を過ぎた後は得点変動が緩やかになり、最終的には得点はほぼ一定になっている。つまり、無表情場面から喜び表情場面に変化する初期過程から中間過程では顔面の眼や口などの各部位は急激な変動を起こすが、中間過程から喜びになる過程間は眼や口の各特徴の変動は緩やかとなり最終的には変動しなくなることを示している。 Referring to the case of changing from an expressionless scene to a joyful expression scene in FIG. 12, the score change from the initial process to the intermediate process varies greatly, but after passing the intermediate process, the score change becomes gradual. The score is almost constant. In other words, each part of the face such as the eyes and mouth of the face changes suddenly from the initial process to the joyful expression scene from the expressionless scene to the joyful expression scene. This shows that the fluctuations in the figure are gradual and will eventually cease.
この顔面の各特徴の変動特性は他の表情に対しても同様なことが言える。逆に図13の非表情場面である会話場面を参照すると、眼や口の顔の各特徴変化が喜びとほぼ同じである発音「い」の会話場面では、得点が閾値ラインを超える画像が存在する。しかし、発音「い」の会話場面では喜び表情場面とは異なり、顔面の各特徴は常に急激な変動を起こしているため、例え得点が閾値ライン以上になったとしても、すぐに得点が閾値ライン以下になるような傾向が見られる。 It can be said that the variation characteristic of each feature of the face is the same for other facial expressions. Conversely, referring to the conversation scene that is a non-facial expression scene in FIG. 13, there is an image whose score exceeds the threshold line in the conversation scene of pronunciation “I” in which each feature change of the face of the eyes and mouth is almost the same as pleasure. To do. However, unlike the joy expression scene in the conversation scene of pronunciation “I”, each feature of the face is constantly changing rapidly, so even if the score exceeds the threshold line, the score immediately becomes the threshold line. There is a tendency to become as follows.
よって、表情可能性判定部170において表情の可能性判定を行い、この表情可能性判定結果の連続性から表情確定部171で表情を確定させる工程を行うことで会話場面と表情場面をより正確に判別できる。
Therefore, the possibility of facial expression is determined by the expression
なお、人間による顔表情の認知に関する視覚心理研究においても表情表出における顔面の動き、特に速度が表情からの感情カテゴリー判断を左右する要因となっていることはM.Kamachi,V.Bruce,S.Mukaida,J.Gyoba,S.Yoshikawa,and S.Akamatsu,”Dynamic prope rties influence the perception of facial expression,”Perception,vol.30,pp.875−887,July 2001でも明らかになっている。 In the visual psychological research on the recognition of facial expressions by humans, it has been found that the movement of the face, especially the speed, is a factor that determines the emotion category judgment from the facial expression. Kamachi, V .; Bruce, S.M. Mukaida, J. et al. Gyoba, S .; Yoshikawa, and S.J. Akamatsu, "Dynamic properties influencing the perception of facial expression," Perception, vol. 30, pp. 875-887, July 2001.
次に、表情可能性判定部170、表情確定部が行う処理についてより詳細に説明する。
Next, processing performed by the facial expression
先ずある入力画像(mフレーム目の画像)について可能性判定部170が「第1の表情である」と判定したとする。この判定結果は表情確定部171に可能性判定結果として出力される。表情確定部171はこの判定結果をすぐには出力せずにその代わりに、可能性判定部170が第1の表情であると判定した回数をカウントする。なお、このカウントは可能性判定部170が第1の表情とは異なる第2の表情である判定をすると、0にリセットされる。
First, it is assumed that the
ここで表情確定部171がこの表情の判定結果(第1の表情であるという判定結果)をすぐに出力しないのは、これは上述の通り、ここで判断した表情はまだ上記様々な要因により不明瞭なものである可能性があることに起因するからである。
The facial
可能性判定部170はこの後も(m+1)フレーム目の入力画像、(m+2)フレーム目の入力画像、、、というように夫々の入力画像に対する表情判定処理を行うのであるが、表情確定部171によるカウント値がnに達した場合、即ち、可能性判定部170がmフレーム目から連続してnフレーム分全て「第1の表情である」と判定すると、表情確定部171はこの時点が「第1の表情の開始時」であること、即ち(m+n)フレーム目が開始フレームであることを示すデータをRAM2302に記録し、この時点以降、可能性判定部170が第1の表情とは異なる第2の表情である判定をした時点までを喜びの表情とする。
The
図12を用いた上記説明のように、表情場面では一定期間得点総和と閾値との差が変化しなくなる、即ち、一定期間同じ表情が続く。逆に、一定期間同じ表情が続かない場合には図13を用いた上記説明のように、非表情場面である会話場面の可能がある。 As described above with reference to FIG. 12, in the facial expression scene, the difference between the score total for a certain period and the threshold value does not change, that is, the same expression continues for a certain period. Conversely, if the same facial expression does not continue for a certain period, there is a possibility of a conversation scene that is a non-facial scene as described above with reference to FIG.
従って、可能性判定部170が行う上記処理によって、一定期間(ここではnフレーム分)同じ表情の可能性を判定すれば、初めてその表情を最終的な判断結果として出力するので、このような非表情場面である会話場面等による表情判定処理に外乱となる要素を取り除くことが出来、より正確な表情判定処理を行うことができる。
Therefore, when the
図14は、表情確定部171が行う、画像入力部100から連続して入力される画像において、喜びの表情の開始時を決定する処理のフローチャートである。
FIG. 14 is a flowchart of processing performed by the facial
まず、可能性判定部170による可能性判定結果が喜びであることを示すものである場合には(ステップS190)、処理をステップS191に進め、表情確定部171によるカウントの値がp(図14ではp=4とする)に達した場合(ステップS191)、即ち、可能性判定部170による可能性判定結果がpフレーム連続して喜びと判定された場合に、この時点を「喜び開始」と判断し、この旨を示すデータ(例えば現在のフレーム番号データ、及び喜び開始を示すフラグデータ)をRAM2302に記録する(ステップS192)。
First, when the possibility determination result by the
以上の処理によって、喜びの表情の開始時(開始フレーム)を特定することができる。 Through the above processing, the start time (start frame) of the expression of joy can be specified.
図15は、表情確定部171が行う、画像入力部100から連続して入力される画像において、喜びの表情の終了時を決定する処理のフローチャートである。
FIG. 15 is a flowchart of processing performed by the facial
先ず、表情確定部171はステップS192においてRAM2302に記録された上記フラグデータを参照し、現在、喜びの表情を開始して、且つ終了していないかを判断する(ステップS200)。後述するが、喜びの表情が終了したらこのデータはその旨に書き換えられるので、このデータを参照することで、現在喜びの表情が終了しているのか否かを判定することができる。
First, the facial
まだ喜びの表情が終了していない場合には処理をステップS201に進め、表情可能性部170で喜びである可能性がないとq(図15ではq=3とする)フレーム連続して判定された場合(表情確定部171によるカウントがqフレーム連続0である場合)、この時点を「喜び終了」と判断し、上記フラグデータを「喜びが終了したことを示すデータ」に書き換えてRAM2302に記録する(ステップS202)。
If the expression of joy has not ended yet, the process proceeds to step S201, and the
しかし、ステップS201において、表情可能性部170で喜びである可能性がないとqフレーム連続して判定されていない場合(表情確定部171によるカウントがqフレーム連続0ではない場合)、最終的な表情判定結果として、入力画像中の顔の表情を「喜んでる」と判定し、上記データは操作しない。
However, in step S201, if it is not determined that there is no possibility that the
そして喜びの表情の終了後、表情確定部171は、開始時から終了時までの各フレームにおける表情を「喜び」と判定する。
After the expression of joy ends, the
このように、表情開始画像と表情終了画像を決定し、その間の画像をすべて表情画像と判定を行うことで、その間の画像に対しての表情判断処理の誤判定などの発生を抑制することが出来、全体として表情判断処理の精度を上げることができる。 In this way, the expression start image and the expression end image are determined, and all the images between them are determined to be expression images, thereby suppressing the occurrence of misjudgment in the expression determination process for the images in between. As a whole, the accuracy of facial expression determination processing can be improved.
なお、本実施形態では「喜び」の表情を判断するための処理を例にとって説明したが、この表情が「喜び」以外であってもその処理内容は基本的には同じであることは明白である。 In this embodiment, the processing for determining the expression of “joy” has been described as an example. However, even if this expression is other than “joy”, the processing contents are basically the same. is there.
[第3の実施形態]
図16は本実施形態に係る画像処理装置の機能構成を示すブロック図である。図1とほぼ同じ動作を行う部分については同じ番号を付けており、その説明は省略する。なお本実施形態に係る画像処理装置の基本構成については、第1の実施形態と同じ、即ち図23に示したものと同じである。
[Third Embodiment]
FIG. 16 is a block diagram illustrating a functional configuration of the image processing apparatus according to the present embodiment. Parts that perform substantially the same operations as in FIG. 1 are given the same numbers, and descriptions thereof are omitted. The basic configuration of the image processing apparatus according to this embodiment is the same as that of the first embodiment, that is, the same as that shown in FIG.
本実施形態に係る画像処理装置は、入力画像中の顔の表情が何であるかの候補を1つ以上入力しておき、入力画像中の顔の表情がこの入力した1つ以上の何れであるかを判定するものである。 The image processing apparatus according to the present embodiment inputs one or more candidates for what the facial expression in the input image is, and the facial expression in the input image is any one of the input ones or more. It is to determine whether.
以下、本実施形態に係る画像処理装置についてより詳細に説明する。上述のように、本実施形態に係る画像処理装置の機能構成において、第1の実施形態に係る画像処理装置の機能構成と異なる点は、表情選択部211、特徴量抽出部212、表情判定部216である。従って以下ではこの表情選択部211、特徴量抽出部212、表情判定部216について詳細に説明する。
Hereinafter, the image processing apparatus according to the present embodiment will be described in more detail. As described above, the functional configuration of the image processing apparatus according to the present embodiment differs from the functional configuration of the image processing apparatus according to the first embodiment in that the facial
表情選択部211は、1つ以上の表情の候補を入力するためのものである。入力には例えば表示装置2306の表示画面上に表示される、複数の表情を選択するためのGUI上で、1つ以上の表情をキーボード2304やマウス2305を用いて選択するようにしても良い。なお選択した結果はコード(例えば番号)として特徴量抽出部212、特徴量変化量算出部103に出力される。
The facial
特徴量抽出部212は、画像入力部100から入力された画像における顔から、表情選択部211で選択された表情を認識するための特徴量を求める処理を行う。
The feature
表情判定部216は、画像入力部100から入力された画像における顔が、表情選択部211で選択された表情の何れであるかを判別する処理を行う。
The facial expression determination unit 216 performs a process of determining which face in the image input from the
図17は特徴量抽出部212の機能構成を示すブロック図である。なお、同図において図2と同じ部分については同じ番号を付けており、その説明は省略する。以下、図17に示した各部について説明する。
FIG. 17 is a block diagram illustrating a functional configuration of the feature
各表情毎の特徴量抽出部224は、顔面の特徴点抽出部113で得られた特徴点情報を用いて、表情選択部211が選択した表情に応じた特徴量を算出する。
The feature
図18は表情選択部211が選択した各表情(表情1,表情2,表情3)に応じた特徴量を示す図である。例えば同図によると、表情1を認識するためには特徴1乃至4を算出する必要があるし、表情3を認識するためには特徴2乃至5を算出する必要がある。
FIG. 18 is a diagram showing feature amounts corresponding to the facial expressions (
例えば、表情選択部211で喜び表情を選択したと仮定すると、喜び表情に必要な特徴は眼と口の端点距離、眼のエッジの長さ、眼のエッジの傾き、口エッジの長さ、口エッジの傾き、頬周りのエッジ密度の6特徴であるというように表情別に個別の特徴量が必要となる。
For example, assuming that the joy expression is selected by the
このような、各表情を認識するために必要な特徴量を示すテーブル(図18に例示するような対応関係を示すテーブル)、即ち、表情選択部211から入力される表情を示すコードと、この表情を認識するためにはどのような特徴量を求めるのかを示すデータとが対応付けられたテーブルはRAM2302に予め記録されているものとする。
Such a table (characteristic table shown in FIG. 18) indicating the feature amount necessary for recognizing each facial expression, that is, a code indicating the facial expression input from the facial
上述の通り、表情選択部211からは選択した表情に応じたコードが入力されるので、特徴量抽出部212は、このテーブルを参照することで、このコードに応じた表情を認識するための特徴量を特定することができ、その結果、表情選択部211が選択した表情に応じた特徴量を算出することができる。
As described above, since the code corresponding to the selected facial expression is input from the facial
図16に戻って、次に後段の特徴量変化量算出部103は第1の実施形態と同様に特徴量抽出部212による特徴量と、参照特徴保持部102が保持する特徴量との差分を計算する。
Returning to FIG. 16, the subsequent feature amount change
なお、特徴量抽出部212が算出する特徴量は、表情によってその数や種類が異なる。従って本実施形態に係る特徴量変化量算出部103は、表情選択部211が選択した表情を認識するために必要な特徴量を参照特徴保持部102から読み出して用いる。表情選択部211が選択した表情を認識するために必要な特徴量の特定は、特徴量抽出部212が用いた上記テーブルを参照すれば特定することができる。
Note that the number and type of feature amounts calculated by the feature
例えば、喜び表情に必要な特徴は眼と口の端点距離、眼のエッジの長さ、眼のエッジの傾き、口エッジの長さ、口エッジの傾き、頬周りのエッジ密度の6特徴であるので、この6特徴と同様の特徴を参照特徴保持部102から読み出し、用いる。
For example, the features necessary for a joyful expression are the following six features: eye-to-mouth end point distance, eye edge length, eye edge tilt, mouth edge length, mouth edge tilt, cheek edge density. Therefore, features similar to these six features are read from the reference
特徴量変化量算出部103からは各特徴量の変化量が出力されるので、得点算出部104は第1の実施形態と同様の処理を行う。本実施形態では表情選択部211によって複数の表情が選択されている場合があるので、選択された夫々の表情毎に、第1の実施形態と同様の得点算出処理を行い、表情毎に各特徴量毎の得点を算出する。
Since the feature amount change
図19は各表情毎に、各変化量に基づいて得点を算出する様子を示す模式図である。 FIG. 19 is a schematic diagram showing how a score is calculated for each facial expression based on each change amount.
そして表情判定部105は、表情選択部211によって複数された表情毎に得点の総和値を求める。この夫々の表情毎の総和値において、最も高い値を示す表情が、入力画像における顔の表情とすることができる。
The facial
例えば、喜び、悲しみ、怒り、驚き、嫌悪、恐怖の表情のうちで喜び表情が最も高い得点総和ならば、表情は喜び表情であると判定されるということである。 For example, if a joy expression is the highest score sum among joy, sadness, anger, surprise, disgust, and fear, the expression is determined to be a joy expression.
[第4の実施形態]
本実施形態に係る画像処理装置は、入力画像中の顔の表情を判定した場合に、更に、表情場面での表情の度合いを判定する。本実施形態に係る画像処理装置の基本構成、機能構成については第1乃至3の何れの実施形態のものを適用しても良い。
[Fourth Embodiment]
The image processing apparatus according to the present embodiment further determines the degree of facial expression in the facial expression scene when the facial expression in the input image is determined. The basic configuration and functional configuration of the image processing apparatus according to this embodiment may be the same as those of any of the first to third embodiments.
まず、表情の度合いを判定する方法では、表情判定部においてある特定の表情であると判定された入力画像に対して、得点算出部で算出された得点変化の推移もしくは得点総和を参照する。 First, in the method of determining the degree of facial expression, the transition of the score change or the total score calculated by the score calculation unit is referred to for an input image determined to be a specific facial expression by the facial expression determination unit.
もし、得点算出部で算出された得点総和が得点の総和の閾値と比較して閾値との差が小さいならば、喜びの度合いは小さいと判定される。逆に、得点算出部で算出された得点の総和が閾値と比較して閾値との差が大きいならば、喜びの度合いが大きいと判定される。この方法は、喜びの表情以外の他の表情に対しても同様に表情の度合いを判定できる。 If the total score calculated by the score calculation unit is smaller than the threshold of the total score, the degree of joy is determined to be small. On the other hand, if the sum of the scores calculated by the score calculation unit is large compared to the threshold value, the degree of pleasure is determined to be large. This method can determine the degree of facial expression in the same way for facial expressions other than joyful facial expressions.
[第5の実施形態]
また、上記実施形態において、得点算出部で算出された眼の形状の得点から眼をつぶっているか否かの判定を行うこともできる。
[Fifth Embodiment]
Moreover, in the said embodiment, it can also be determined whether the eye is closed from the score of the eye shape calculated by the score calculation part.
図21は参照顔の眼のエッジ、即ち、眼を開いている場合の眼のエッジを示した図であり、図22は眼をつぶった場合の眼のエッジを示した図である。 FIG. 21 is a diagram showing the eye edges of the reference face, that is, the eye edges when the eyes are open, and FIG. 22 is a diagram showing the eye edges when the eyes are closed.
特徴量抽出部で抽出された眼をつぶった場合の眼のエッジ316の長さは参照画像の眼のエッジ304の長さと比べて全く変化しない。
The length of the
しかし、図21の眼を開いている場合の眼のエッジ304の特徴点305と306を結んで得られる直線308の傾きと、図22の眼をつぶった場合の眼のエッジ316の特徴点310と311を結んで得られる直線313の傾きを比べると、眼を開いた状態から眼をつぶった状態に変化した場合には直線の傾きの変化量が負となっている。
However, the inclination of the
また、図21の眼を開いている場合の眼のエッジ304の特徴点306と307から得られる直線309の傾きと、図22の眼をつぶった場合の眼のエッジ316の特徴点311と312から得られる直線314の傾きを比べると、眼を開いた状態から眼をつぶった状態に変化した場合には直線の傾きの変化量が正となっている。
Further, the inclination of the
そこで、眼のエッジの長さが全く変化せず、眼のエッジから得られる上述した左右2本の直線の傾きの変化量の絶対値が参照画像の眼のエッジに対して、それぞれある所定値以上で、一方が負かつ他方が正の変化をした場合には眼をつぶっている可能性が高いと判定することができ、直線の傾きの変化量に応じて極端に得点算出部で得られる得点を小さくしている。 Therefore, the length of the eye edge does not change at all, and the absolute value of the change amount of the inclination of the two right and left straight lines obtained from the eye edge is a predetermined value with respect to the eye edge of the reference image. As described above, when one side is negative and the other side is positive, it can be determined that there is a high possibility that the eyes are closed, and the score calculation unit can obtain extremely according to the amount of change in the slope of the straight line. The score is reduced.
図20は、得点算出部で算出された眼の形状の得点から眼をつぶっているか否かの判定処理のフローチャートである。この処理は表情判定部で行われるものである。 FIG. 20 is a flowchart of a process for determining whether or not the eyes are closed from the score of the eye shape calculated by the score calculation unit. This process is performed by the facial expression determination unit.
上述のように、目の形状に対する得点が閾値以下であるか否かを判断し、閾値以下であれば目をつぶっている、否であれば目をつぶっていないと判定する。 As described above, it is determined whether or not the score for the eye shape is equal to or less than a threshold value. If the score is equal to or less than the threshold value, it is determined that the eyes are closed.
[第6の実施形態]
図24は本実施形態に係る画像処理装置の機能構成を示すブロック図である。図1とほぼ同じ動作を行う部分については同じ番号を付けており、その説明は省略する。なお本実施形態に係る画像処理装置の基本構成については、第1の実施形態と同じ、即ち図23に示したものと同じである。
[Sixth Embodiment]
FIG. 24 is a block diagram showing a functional configuration of the image processing apparatus according to the present embodiment. Parts that perform substantially the same operations as in FIG. The basic configuration of the image processing apparatus according to this embodiment is the same as that of the first embodiment, that is, the same as that shown in FIG.
特徴量抽出部701は図25に示す如く、鼻と眼と口位置算出部710、エッジ画像生成部711、顔面の各特徴エッジ抽出部712、顔面の特徴点抽出部713、表情特徴量抽出部714から構成される。図25は、特徴量抽出部701の機能構成を示すブロック図である。
As shown in FIG. 25, the feature
正規化特徴変化量計算部703は、特徴量抽出部701から得られる夫々の特徴量と参照特徴保持部702から得られる夫々の特徴量の比を算出する。なお、正規化特徴変化量算出部703で算出される夫々の特徴変化量は笑顔を検出すると仮定した場合には「眼と口の端点距離」、「眼のエッジの長さ」、「眼のエッジの傾き」、「口エッジの長さ」、「口エッジの傾き」である。さらに、顔のサイズ変動や顔の回転変動に応じて各特徴量を正規化する。
The normalized feature change
正規化特徴変化量算出部703で得られたそれぞれの特徴変化量の正規化方法について説明する。図26は、画像における顔中の目、鼻の重心位置を示す図である。同図において720,721はそれぞれ右目、左目の重心位置、722は花の重心位置を示す。特徴量抽出部701の鼻と眼と口位置検出部710で鼻・眼・口のそれぞれのテンプレートを用いることによって検出された鼻の重心位置722、眼の重心位置720、721から、図28に示す如く、右目位置と顔位置水平方向距離730、左目位置と顔位置水平方向距離731、左右眼の垂直方向の座標平均と顔位置との垂直方向距離732を算出する。
A method for normalizing each feature variation obtained by the normalized
右目位置と顔位置水平方向距離730、左目位置と顔位置水平方向距離731、左右眼の垂直方向の座標平均と顔位置との垂直方向距離732の比a:b:cは、顔サイズが変動した場合には図29に示す如く、右目位置と顔位置水平方向距離733、左目位置と顔位置水平方向距離734、左右眼の垂直方向の座標平均と顔位置との垂直方向距離735のそれぞれの比a1:b1:c1とほとんど変化はないが、サイズ変動しない場合の右目位置と顔位置水平方向距離730とサイズ変動した場合の右目位置と顔位置水平方向距離733の比a:a1は顔サイズ変動に応じて変化する。なお、右目位置と顔位置水平方向距離730、左目位置と顔位置水平方向距離731、左右眼の垂直方向の座標平均と顔位置との垂直方向距離732を算出する際には図27に示す如く、鼻と眼の重心位置以外に眼の端点位置(723、724)や左右それぞれの鼻腔位置や左右鼻腔位置の重心(725)を用いても良い。眼の端点を算出する方法は、例えばエッジを走査する方法や眼の端点検出用のテンプレートを用いる方法や、鼻腔位置に関しても鼻腔検出用テンプレートを用いて左右の鼻腔の重心やそれぞれ左右鼻腔位置を用いる方法がある。変動を判定するための特徴間距離も左右の目頭間距離など他の特徴を用いても良い。
The right eye position and face position
さらに、図30に示す如く、左右眼の垂直方向の座標平均と顔位置との垂直方向距離738と図28の顔が回転しない場合の左右眼の垂直方向の座標平均と顔位置との垂直方向距離732との比c:c2は顔の上下回転によって比が変化する。
Further, as shown in FIG. 30, the vertical coordinate 738 between the vertical average of the left and right eyes and the
また、図31に示す如く、右目位置と顔位置水平方向距離739と左目位置と顔位置水平方向距離740の比a3:b3は図28の顔が左右回転しない場合の右目位置と顔位置水平方向距離730と左目位置と顔位置水平方向距離731の比a:bと比べると比が変化する。
Further, as shown in FIG. 31, the ratio a3: b3 of the right eye position / face position
また、顔の左右回転した場合には、図32に示す参照画像(無表情時の画像)の右眼端点間距離d1と左眼端点間距離e1の比g1(=d1/e1)と、図33に示す入力画像(笑顔時の画像)の右眼端点間距離d2と左眼端点間距離e2の比g2=(d2/e2)の比g2/g1を用いることもできる。 When the face is rotated left and right, the ratio g1 (= d1 / e1) of the distance d1 between the right eye end points and the distance e1 between the left eye end points of the reference image (image without expression) shown in FIG. The ratio g2 = (d2 / e2) of the distance d2 between the right eye end points and the distance e2 between the left eye end points of the input image (image when smiling) shown in FIG. 33 can also be used.
図34はサイズ変動、左右回転変動、上下回転変動を判定する処理のフローチャートである。同図のフローチャートを用いてサイズ変動、左右回転変動、上下回転変動を判定する処理について説明するのであるが、その際に図28を「変動していない状態で眼と鼻の位置間を直線で結んだ図」、図35を「サイズ変動、左右回転変動ないしは上下変動した後の眼と鼻の位置間を直線で結んだ図」として用いるものとする。 FIG. 34 is a flowchart of processing for determining size variation, left-right rotation variation, and vertical rotation variation. The process of determining size variation, left-right rotation variation, and vertical rotation variation will be described with reference to the flowchart of FIG. 28. In this case, FIG. FIG. 35 and FIG. 35 are used as “a diagram in which the positions of the eyes and nose after a size variation, left-right rotation variation, or vertical variation are connected by a straight line”.
まず、ステップS770において、a:b:cとa4:b4:c4の比が同じであるかの判定を行う。この「同じである」という判定は、「全く同じ」であることに限定するものではなく、「両者の比の差がある許容範囲内」であれば「同じである」と判断しても良い。 First, in step S770, it is determined whether the ratio of a: b: c and a4: b4: c4 is the same. This determination of “same” is not limited to “exactly the same”, but may be determined to be “same” as long as “the difference between the two ratios is within an allowable range”. .
ステップS770の判定処理でa:b:cとa4:b4:c4の比が同じであると判断した場合には処理をステップS771に進め、「変化なし、もしくはサイズ変動のみである」と判断し、更に処理をステップS772に進め、a/a4が1であるか否かを判断する。 If it is determined in the determination process in step S770 that the ratio of a: b: c and a4: b4: c4 is the same, the process proceeds to step S771, and “no change or only size variation” is determined. Further, the process proceeds to step S772, and it is determined whether or not a / a4 is 1.
a/a4が1である場合には処理をステップS773に進め、「サイズ変動かつ回転変動がない」と判断する。一方、ステップS772でa/a4が1ではないと判断した場合には処理をステップS774に進め、「サイズ変動のみ」と判断する。 If a / a4 is 1, the process proceeds to step S773, and it is determined that “there is no size variation and no rotation variation”. On the other hand, if it is determined in step S772 that a / a4 is not 1, the process proceeds to step S774, and “size variation only” is determined.
一方、ステップS770における判断処理で、a:b:cとa4:b4:c4の比が同じではないと判定された場合には処理をステップS775に進め、「上下回転、左右回転、上下回転かつサイズ変動、左右回転かつサイズ変動、上下回転かつ左右回転、上下回転かつ左右回転かつサイズ変動の何れかである」と判断する。 On the other hand, if it is determined in the determination process in step S770 that the ratio of a: b: c and a4: b4: c4 is not the same, the process proceeds to step S775, and “up and down rotation, left and right rotation, up and down rotation and It is determined that any one of size fluctuation, left-right rotation and size fluctuation, up-down rotation and left-right rotation, up-down rotation, left-right rotation, and size fluctuation ”.
そして処理をステップS776に進め、a:bとa4:b4の比が同じであるか否かを判定し(ここでの「同じである」という判断についてもステップS770におけるものと同じである)、同じであると判断した場合には処理をステップS777に進め、「上下回転、上下回転かつサイズ変動の何れか」と判断する。そして処理をステップS778に進め、a/a4が1であるか否かを判断する。a/a4が1ではないと判断した場合には処理をステップS779に進め、「上下回転かつサイズ変動である」と判断する。一方、a/a4が1であると判断された場合には、処理をステップS780に進め、「上下回転のみである」と判定する。 Then, the process proceeds to step S776, and it is determined whether or not the ratio of a: b and a4: b4 is the same (this is also the same as that in step S770). If it is determined that they are the same, the process proceeds to step S777, and it is determined that “any of vertical rotation, vertical rotation, and size variation”. Then, the process proceeds to step S778 to determine whether or not a / a4 is 1. If it is determined that a / a4 is not 1, the process proceeds to step S779, where it is determined that “up / down rotation and size variation”. On the other hand, if it is determined that a / a4 is 1, the process proceeds to step S780, where it is determined that “only vertical rotation”.
一方、ステップS776において、a:bとa4:b4の比が同じではないと判断された場合には処理をステップS781に進め、ステップS778と同様にa/a4が1であるか否かを判断する。 On the other hand, if it is determined in step S776 that the ratio of a: b and a4: b4 is not the same, the process proceeds to step S781, and it is determined whether a / a4 is 1 as in step S778. To do.
そしてa/a4が1である場合には処理をステップS782に進め、「左右回転、上下回転かつ左右回転の何れかである」と判断する。そして処理をステップS783に進め、c/c3が1であるか否かを判断する。c/c3が1ではないと判断された場合には処理をステップS784に進め、「上下回転かつ左右回転である」と判断し、一方、c/c3が1であると判断した場合には処理をステップS785に進め、「左右回転である」と判定する。 If a / a4 is 1, the process advances to step S782, and it is determined that “any of left-right rotation, vertical rotation, and left-right rotation” is set. Then, the process proceeds to step S783, and it is determined whether c / c3 is 1. If it is determined that c / c3 is not 1, the process proceeds to step S784, where “up / down and left / right rotation” is determined. On the other hand, when c / c3 is determined to be 1, The process proceeds to step S785, and it is determined that the rotation is “left-right rotation”.
一方、ステップS781において、a/a4が1ではないと判断した場合には処理をステップS786に進め、「左右回転かつサイズ変動、上下回転かつ左右回転かつサイズ変動の何れかである」と判断する。そして処理をステップS787に進め、(a4/b4)/(a/b)が1よりも大きいか否かを判断する。 On the other hand, if it is determined in step S781 that a / a4 is not 1, the process proceeds to step S786, and it is determined that "one of left and right rotation and size variation, vertical rotation and left and right rotation and size variation". . Then, the process proceeds to step S787, and it is determined whether (a4 / b4) / (a / b) is larger than 1.
そして(a4/b4)/(a/b)が1よりも大きい場合には処理をステップS788に進め、「左回転」と判定する。そして処理をステップS789に進め、a:cとa4:c4の比が同じ(「同じである」の基準はステップS770と同じ)であるか否かを判断し、同じである場合には処理をステップS790に進め、「左右回転かつサイズ変動である」と判断する。一方、a:cとa4:c4の比が同じでない場合には処理を処理をステップS793に進め、「上下回転かつ左右回転かつサイズ変動である」と判断する。 If (a4 / b4) / (a / b) is greater than 1, the process advances to step S788 to determine “left rotation”. Then, the process proceeds to step S789, where it is determined whether or not the ratio of a: c and a4: c4 is the same (the criterion of “same” is the same as that of step S770). Proceeding to step S790, it is determined that “rotation left and right and size variation”. On the other hand, if the ratio of a: c and a4: c4 is not the same, the process proceeds to step S793, and it is determined that “the rotation is up / down, left / right, and size variation”.
一方、ステップS787において(a4/b4)/(a/b)が1以下であると判断した場合には処理をステップS791に進め、「右回転」と判定する。そして処理をステップS792に進め、b:cとb4:c4の比が同じ(「同じである」の基準はステップS770と同じ)であるか否かを判断する。そして同じである場合には処理をステップS790に進め、「左右回転かつサイズ変動である」と判断する。一方、b:cとb4:c4の比が同じではない場合には処理をステップS793に進め、「上下回転かつ左右回転かつサイズ変動である」と判断する。それぞれのステップで用いられている比などは、フローチャートに書かれているものに限定されるわけではない。例えば、ステップS772、ステップS778、ステップS781ではb/b4や(a+b)/(a4+b4)などを用いても良い。 On the other hand, if it is determined in step S787 that (a4 / b4) / (a / b) is 1 or less, the process proceeds to step S791, and “right rotation” is determined. Then, the process proceeds to step S792, and it is determined whether or not the ratio of b: c and b4: c4 is the same (the criterion of “same” is the same as that of step S770). If they are the same, the process proceeds to step S790, and it is determined that “rotate left and right and change size”. On the other hand, if the ratio of b: c and b4: c4 is not the same, the process proceeds to step S793, and it is determined that “there is vertical rotation, left-right rotation, and size variation”. The ratio used in each step is not limited to that described in the flowchart. For example, b / b4, (a + b) / (a4 + b4), or the like may be used in steps S772, S778, and S781.
以上の処理によって、顔のサイズ変動や顔の回転変動した場合の判別が可能となる。さらに、これらの変動が判別された場合には正規化特徴変化量算出部703で得られる夫々の特徴変化量を正規化することによって顔のサイズが変動した場合や顔が回転した場合においても表情の認識が可能となる。
By the above processing, it is possible to determine when the face size changes or the face rotation changes. Further, when these variations are determined, the facial expression changes even when the face size changes or the face rotates by normalizing each feature change amount obtained by the normalized feature change
特徴量正規化方法は、例えば、サイズ変動のみである場合については、図28と図29を用いて説明すると、入力画像から得られるすべての特徴変化量を1/(a1/a)倍すれば良い。なお、1/(a1/a)ではなくて1(1b/b)、1/((a1+b1)/(a+b))、1/(c1/c)やそれ以外の特徴を用いても良い。また、図36に示すように、上下回転かつサイズ変動した場合には、上下回転が影響を与える目の端点と口の端点距離を(a5/c5)/(a/c)倍した後ですべての特徴量を1/(a1/a)倍すれば良い。上下回転した場合においても同様に(a5/c5)/(a/c)を用いることに限定するわけではない。このようにして顔のサイズ変動、上下左右回転変動を判定し、特徴変化量を正規化することによって顔のサイズが変動した場合や顔が上下左右回転変動した場合でも表情の認識が可能である。 For example, when the feature amount normalizing method is only a size variation, it will be described with reference to FIGS. 28 and 29. All feature change amounts obtained from the input image are multiplied by 1 / (a1 / a). good. Instead of 1 / (a1 / a), 1 (1b / b), 1 / ((a1 + b1) / (a + b)), 1 / (c1 / c) or other features may be used. In addition, as shown in FIG. 36, when the vertical rotation and size change occur, the distance between the end point of the eye and the end point of the mouth, which is affected by the vertical rotation, is multiplied by (a5 / c5) / (a / c). May be multiplied by 1 / (a1 / a). Similarly, when it is rotated up and down, it is not limited to using (a5 / c5) / (a / c). In this way, it is possible to recognize facial expression even when the face size changes or the face changes up and down, left and right by normalizing the feature change amount by determining the face size fluctuation and vertical and horizontal rotation fluctuation. .
図37は、左右眼及び鼻の位置検出から上下・左右回転変動、サイズ変動に応じて各特徴量を正規化し、表情判定する処理のフローチャートである。 FIG. 37 is a flowchart of processing for determining facial expressions by normalizing each feature amount in accordance with vertical / horizontal rotation fluctuations and size fluctuations from detection of left and right eye and nose positions.
ステップS870で左右眼の重心座標と鼻の重心座標を検出した後、ステップS871で左右・上下回転変動またはサイズ変動の判定を行い、もし、左右・上下回転変動がない場合にはステップS872で特徴変化量正規化必要ないと判定され、参照特徴量との比を算出することにより特徴量の変化量を算出し、ステップS873で各特徴毎の得点算出を行い、ステップS874で各特徴量変化量から算出された得点総和を算出する。一方、ステップS871で左右・上下回転変動またはサイズ変動がありと判定された場合、ステップS875で各特徴量正規化必要ありと判定され、各特徴量を参照特徴量との比を算出することにより特徴量の変化量を算出し、上下・左右回転変動またはサイズ変動に応じて特徴量の変化量を正規化した後、ステップS873で各特徴量変化量毎の得点算出を行い、ステップS874で各特徴量変化量から算出された得点総和を算出する。 After detecting the center-of-gravity coordinates of the left and right eyes and the center of gravity of the nose in step S870, the left-right / vertical rotation variation or size variation is determined in step S871, and if there is no left-right / vertical rotation variation, the feature is determined in step S872. It is determined that change amount normalization is not necessary, and a change amount of the feature amount is calculated by calculating a ratio with the reference feature amount. In step S873, a score is calculated for each feature, and each feature amount change amount is determined in step S874. The total score calculated from is calculated. On the other hand, if it is determined in step S871 that there is left / right / vertical rotation variation or size variation, it is determined in step S875 that each feature amount needs to be normalized, and by calculating the ratio of each feature amount to the reference feature amount, After calculating the change amount of the feature amount and normalizing the change amount of the feature amount according to the vertical / horizontal rotation variation or the size variation, the score is calculated for each feature amount change amount in step S873, and in step S874, The total score calculated from the feature amount change amount is calculated.
そして算出された得点の総和から、ステップS876で入力画像における顔の表情の判定を第1の実施形態と同様にして行う。 Then, in step S876, the facial expression in the input image is determined from the calculated total score in the same manner as in the first embodiment.
[第7の実施形態]
図38は本実施形態に係る撮像装置の機能構成を示すブロック図である。本実施形態に係る撮像装置は同図に示す如く、撮像部820、画像処理部821、画像2次記憶部822から構成されている。
[Seventh Embodiment]
FIG. 38 is a block diagram illustrating a functional configuration of the imaging apparatus according to the present embodiment. As shown in the figure, the imaging apparatus according to the present embodiment includes an
図39は、撮像部820の機能構成を示す図で、撮像部820は大まかには同図に示す如く、結像光学系830、固体撮像素子831、映像信号処理832、画像1次記憶部833により構成されている。
FIG. 39 is a diagram showing a functional configuration of the
結像光学系830は例えばレンズであって、周知の通り後段の固体撮像素子831に対して外界の光を結像させる。固体撮像素子831は例えばCCDであって、周知の通り結像光学系830により結蔵された像を電気信号に変換し、結果として撮像画像を電気信号として後段の映像信号処理回路832に出力され、映像信号処理部832はこの電気信号に対してA/D変換を施し、ディジタル信号として後段の画像1次記憶部833に出力する。すなわち、画像1次記憶部833には、撮像画像のデータが出力される。画像1次記憶部833は例えばフラッシュメモリなどの記憶媒体で構成されており、この撮像画像のデータを記憶する。
The imaging
図40は画像処理部821の機能構成を示すブロック図である。画像処理部821は、上記画像1次記憶部833に記憶されている撮像画像データを読み出し、後段の特徴量抽出部842に出力する画像入力部840、後述する表情情報を入力し、後段の特徴量抽出部842に出力する表情情報入力部841、特徴量抽出部842、参照特徴保持部843、特徴量抽出部842による特徴量の比を算出することで変化量算出を行う変化量計算部844、回転・上下変動またはサイズ変動に応じて変化量計算部844で算出された各特徴の変化量を正規化する変化量正規化部845、変化量正規化部845で正規化された各特徴の変化量から各変化量毎に得点算出を行う得点算出部846、表情判定部847により構成されている。同図に示した各部は特に説明がない限りは、上記実施形態において同じ名前の部分と同じ機能を有するものである。
FIG. 40 is a block diagram illustrating a functional configuration of the
なお、表情情報入力部841では撮影したい表情を撮影者が選択することにより撮影表情情報が入力される。つまり、撮影者が笑顔を撮影したい場合には笑顔撮影モードを選択する。これにより笑顔のみを撮影するようにする。よって、この表情情報とは、選択された表情を示す情報である。なお、選択する表情は1つに限定するものではなく、複数であっても良い。
The facial expression
図41は、特徴量抽出部842の機能構成を示すブロック図である。特徴量抽出部842は同図に示す如く、鼻と眼と口位置検出部850、エッジ画像生成部851、顔面の各特徴エッジ抽出部852、顔面の特徴点抽出部853、表情特徴量抽出部854により構成されている。各部の機能については図25に示した各部と同じであるのでその説明は省略する。
FIG. 41 is a block diagram showing a functional configuration of the feature
画像処理部821における画像入力部840は、画像1次記憶部833に記憶されている撮像画像のデータを読み出し、後段の特徴量抽出部842に出力する。特徴量抽出部842は、表情情報入力部841から入力された表情情報に基づいて、撮影者の選択による撮影したい表情の特徴量を抽出する。例えば、撮影者が笑顔を撮影したい場合には笑顔認識に必要な特徴量を抽出するということである。
The
更に、変化量計算部844は、抽出した各特徴量と、参照特徴保持部843が保持する各特徴量との比を算出することによって各特徴量の変化量を算出し、変化量正規化845では変化量計算部844で得られた各特徴変化量の比を顔のサイズ変動や顔の回転変動に応じて正規化する。そして、得点算出部846で各特徴毎の重みと各特徴毎の変化量に応じて得点算出を行う。
Further, the change
図42は表情判定部846の機能構成を示すブロック図である。表情可能性判定部860は、第2の実施形態と同様に得点算出部846で算出された各特徴毎の得点総和の閾値処理により表情情報入力部841で得られた表情の可能性判定を行い、表情確定部861は、この表情可能性判定結果の連続性から表情情報入力部847で得られた表情であると確定している。もし、表情情報入力部847で得られた表情である場合には撮影部820で得られた画像データを画像2次記憶部822に記憶する。
FIG. 42 is a block diagram illustrating a functional configuration of the facial
このようにすることで、撮影者が意図した表情の画像のみを記録することができる。 In this way, only an image with a facial expression intended by the photographer can be recorded.
なお、画像処理部821の機能構成はこれに限定されるものではなく、上記各実施形態における表情認識処理を行うべく構成された装置(もしくはプログラム)を適用しても良い。
The functional configuration of the
[第8の実施形態]
図43は本実施形態に係る撮像装置の機能構成を示すブロック図である。図38と同じ部分については同じ番号を付けており、その説明を省略する。本実施形態に係る撮像装置は、第7の実施形態に係る撮像装置に更に画像表示部873を付加した構成を備える。
[Eighth Embodiment]
FIG. 43 is a block diagram illustrating a functional configuration of the imaging apparatus according to the present embodiment. The same parts as those in FIG. 38 are denoted by the same reference numerals, and the description thereof is omitted. The imaging apparatus according to the present embodiment has a configuration in which an
画像表示部873は液晶画面などにより構成されており、画像2次記憶部822に記録された画像を表示する。なお、画像表示部873に表示する画像は、画像処理部871で撮影者により選択された画像のみを表示する場合でも良い。また、画像表示部873に表示した画像を撮影者が画像2次記憶部872に記憶するか削除するか選択することも可能であり、そのためには例えば画像表示部873をタッチパネル形式の液晶画面により構成し、この表示画面に画像表示部873に表示した画像を撮影者が画像2次記憶部872に記憶するか削除するか選択する為のメニューを表示し、その何れかを撮影者が表示画面上で選択できるようにしても良い。
The
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
An object of the present invention is to supply a recording medium (or storage medium) that records software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer of the system or apparatus (or CPU or MPU). Needless to say, this can also be achieved by reading and executing the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (11)
前記連続するフレームの各フレームの画像中の顔における予め設定された部位群の夫々について特徴量を求める第1の特徴量計算手段と、
予め設定された表情の顔を含む画像における当該顔の前記予め設定された部位群の夫々について特徴量を求める第2の特徴量計算手段と、
前記第1の特徴量計算手段が求めた特徴量と、前記第2の特徴量計算手段が求めた特徴量との差分または比に基づいて、前記予め設定された部位群の夫々の特徴量の変化量を求める変化量計算手段と、
前記予め設定された部位群の夫々について前記変化量計算手段が求めた変化量に基づいて、前記予め設定された部位群の夫々について得点を計算する得点計算手段と、
前記得点計算手段が前記予め設定された部位群の夫々について計算した得点の分布と、各表情毎に計算した、前記予め設定された部位群の夫々に対する得点の分布と、を比較することで、前記入力手段が入力した画像中の顔の表情を判断する第1の判断手段と、
連続したpフレームの夫々の画像中の顔の表情が第1の表情であると前記第1の判断手段が判断してから、当該判断後、連続したqフレームの夫々の画像中の顔の表情が前記第1の表情とは異なる第2の表情であると前記第1の判断手段が判断するまでの各フレームの画像中の顔の表情を、第1の表情として判断する第2の判断手段と
を備えることを特徴とする画像処理装置。 Input means for inputting images of successive frames including a face;
First feature amount calculation means for obtaining a feature amount for each of a predetermined group of parts in the face in the image of each frame of the continuous frames ;
A second feature amount calculating means for obtaining a feature amount for each of the preset part groups of the face in an image including a face of a preset facial expression;
Based on the difference or ratio between the feature quantity obtained by the first feature quantity calculation means and the feature quantity obtained by the second feature quantity calculation means, the respective feature quantities of the preset part group A change amount calculating means for obtaining a change amount;
Score calculating means for calculating a score for each of the preset part groups, based on the amount of change obtained by the change amount calculating means for each of the preset part groups;
By comparing the score distribution calculated for each of the preset group of parts by the score calculation means with the distribution of scores for each of the preset group of parts calculated for each facial expression, First determination means for determining facial expressions in the image input by the input means ;
After the first determination means determines that the facial expression in each image of consecutive p frames is the first expression, the facial expression in each image of consecutive q frames is determined after the determination. Second determination means for determining the facial expression in the image of each frame until the first determination means determines that the second expression is different from the first expression. the image processing apparatus characterized in that it comprises and.
前記得点計算手段が、前記予め設定された部位群の夫々について前記正規化された変化量に基づいて、前記予め設定された部位群の夫々について得点を計算することを特徴とする請求項1に記載の画像処理装置。The score calculation means calculates a score for each of the preset group of parts based on the normalized variation for each of the preset group of parts. The image processing apparatus described.
前記第1の特徴量計算手段によって得られる眼領域の重心位置、眼の端点位置、鼻領域の重心位置、左右鼻腔の重心位置、左右それぞれの鼻腔位置の少なくとも1つを用いて両目間水平方向距離、眼・鼻間水平及び垂直方向距離と、前記第2の特徴量計算手段によって得られる眼領域の重心位置、眼の端点位置、鼻領域の重心位置、左右鼻腔の重心位置、左右鼻腔位置の少なくとも1つを用いて得られる両目間水平方向距離、眼・鼻間水平及び垂直方向距離を算出し、
前記第1,2の特徴量計算手段によって得られる両目間水平及び垂直方向距離比、眼・鼻間水平及び垂直方向距離の比の少なくとも1つを用いることによって、前記変化量計算手段によって算出された前記予め設定された部位群の夫々の特徴量の変化量の正規化を行うことを特徴とする請求項2に記載の画像処理装置。 The change amount calculating means includes:
Horizontal direction between both eyes using at least one of the center-of-gravity position of the eye region, the end-point position of the eye, the center-of-gravity position of the nose region, the center-of-gravity position of the left and right nostrils, and the right and left nostril positions obtained by the first feature amount calculation means Distance, eye-to-nose horizontal and vertical distances, and the center-of-gravity position of the eye region obtained by the second feature amount calculation means, the end point position of the eye, the center-of-gravity position of the nose region, the center-of-gravity position of the left and right nostrils, Calculating the horizontal distance between eyes, the horizontal distance between eyes and nose, and the vertical distance obtained using at least one of
Calculated by the change amount calculation means by using at least one of the ratio between the horizontal and vertical distances between both eyes and the ratio between the horizontal and vertical distances between the eyes and the nose obtained by the first and second feature amount calculation means. The image processing apparatus according to claim 2 , wherein normalization of a change amount of each feature amount of the preset part group is performed.
当該判断結果を更に参照して、前記入力手段が入力した画像中の顔の表情を判断することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 The first determination means further obtains the sum of the scores calculated by the score calculation means for each of the preset group of parts, and whether or not the value of the obtained sum is equal to or greater than a preset value. In response to determining whether the image input by the input means is a facial expression scene,
With further reference to the determination result, the image processing apparatus according to any one of claims 1 to 4, characterized in that to determine the expression of the face in the image by the input means inputs.
前記変化量計算手段は、前記予め設定された部位群の夫々について、エッジの長さの変化量、端点間の距離の変化量、2つの端点による線分の傾きの変化量のうち1つ以上を用いて特徴量の変化量を求めることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。 The first and second feature amount calculating means obtains an edge on the image for each of the preset group of parts, and further finds an end point at the edge of each of the obtained preset parts,
The change amount calculation means includes at least one of a change amount of an edge length, a change amount of a distance between end points, and a change amount of a slope of a line segment by two end points for each of the preset part groups. the image processing apparatus according to any one of claims 1 to 5, wherein the determination of the amount of change in feature amount using the.
前記画像処理装置が有する入力手段が、顔を含む連続するフレームの画像を入力する入力工程と、
前記画像処理装置が有する第1の特徴量計算手段が、前記連続するフレームの各フレームの画像中の顔における予め設定された部位群の夫々について特徴量を求める第1の特徴量計算工程と、
前記画像処理装置が有する第2の特徴量計算手段が、予め設定された表情の顔を含む画像における当該顔の前記予め設定された部位群の夫々について特徴量を求める第2の特徴量計算工程と、
前記画像処理装置が有する変化量計算手段が、前記第1の特徴量計算工程で求めた特徴量と、前記第2の特徴量計算工程で求めた特徴量との差分または比に基づいて、前記予め設定された部位群の夫々の特徴量の変化量を求める変化量計算工程と、
前記画像処理装置が有する得点計算手段が、前記予め設定された部位群の夫々について前記変化量計算工程で求めた変化量に基づいて、前記予め設定された部位群の夫々について得点を計算する得点計算工程と、
前記画像処理装置が有する第1の判断手段が、前記得点計算工程で前記予め設定された部位群の夫々について計算した得点の分布と、各表情毎に計算した、前記予め設定された部位群の夫々に対する得点の分布と、を比較することで、前記入力工程で入力した画像中の顔の表情を判断する第1の判断工程と、
前記画像処理装置が有する第2の判断手段が、連続したpフレームの夫々の画像中の顔の表情が第1の表情であると前記第1の判断工程で判断してから、当該判断後、連続したqフレームの夫々の画像中の顔の表情が前記第1の表情とは異なる第2の表情であると前記第1の判断工程で判断するまでの各フレームの画像中の顔の表情を、第1の表情として判断する第2の判断工程と
を備えることを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
An input step in which the input means of the image processing apparatus inputs an image of successive frames including a face;
A first feature amount calculating step in which a first feature amount calculating means included in the image processing device calculates a feature amount for each of a predetermined group of parts in a face in an image of each frame of the continuous frames ;
A second feature amount calculating step in which a second feature amount calculating means included in the image processing apparatus calculates a feature amount for each of the predetermined group of parts of the face in an image including a face with a predetermined facial expression; When,
Based on the difference or ratio between the feature amount obtained in the first feature amount calculation step and the feature amount obtained in the second feature amount calculation step, the change amount calculation means included in the image processing apparatus A change amount calculating step for obtaining a change amount of each feature amount of a predetermined group of parts;
The score calculating means of the image processing apparatus calculates a score for each of the preset part groups based on the change amount obtained in the change amount calculating step for each of the preset part groups. Calculation process;
The first determination means of the image processing apparatus includes the distribution of the score calculated for each of the preset part groups in the score calculation step, and the preset part group calculated for each facial expression. A first determination step of determining the facial expression in the image input in the input step by comparing the distribution of the scores for each of them ;
The second determination means of the image processing apparatus determines in the first determination step that the facial expression in each image of consecutive p frames is the first expression, and after the determination, The facial expression in each frame image until it is determined in the first determination step that the facial expression in each image of consecutive q frames is a second expression different from the first expression. And a second determination step of determining as the first facial expression .
前記入力手段に入力される前記連続するフレームの画像を撮像する撮像手段と、
前記第1の判断手段で所定の表情であると判定された顔を含む画像を記憶する記憶手段と
を備えることを特徴とする撮像装置。 An image processing apparatus according to claim 1;
Imaging means for capturing images of the continuous frames input to the input means ;
An image pickup apparatus comprising: storage means for storing an image including a face determined to be a predetermined facial expression by the first determination means.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004167589A JP4612806B2 (en) | 2003-07-18 | 2004-06-04 | Image processing apparatus, image processing method, and imaging apparatus |
EP15151440.3A EP2955662B1 (en) | 2003-07-18 | 2004-07-16 | Image processing device, imaging device, image processing method |
CN200480024042.3A CN1839410B (en) | 2003-07-18 | 2004-07-16 | Image processor, imaging apparatus and image processing method |
EP04747673.4A EP1650711B1 (en) | 2003-07-18 | 2004-07-16 | Image processing device, imaging device, image processing method |
EP18157708.1A EP3358501B1 (en) | 2003-07-18 | 2004-07-16 | Image processing device, imaging device, image processing method |
PCT/JP2004/010208 WO2005008593A1 (en) | 2003-07-18 | 2004-07-16 | Image processing device, imaging device, image processing method |
US11/330,138 US8515136B2 (en) | 2003-07-18 | 2006-01-12 | Image processing device, image device, image processing method |
US13/944,038 US8942436B2 (en) | 2003-07-18 | 2013-07-17 | Image processing device, imaging device, image processing method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003199358 | 2003-07-18 | ||
JP2004167589A JP4612806B2 (en) | 2003-07-18 | 2004-06-04 | Image processing apparatus, image processing method, and imaging apparatus |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2005056388A JP2005056388A (en) | 2005-03-03 |
JP2005056388A5 JP2005056388A5 (en) | 2010-04-15 |
JP4612806B2 true JP4612806B2 (en) | 2011-01-12 |
Family
ID=34379748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004167589A Expired - Fee Related JP4612806B2 (en) | 2003-07-18 | 2004-06-04 | Image processing apparatus, image processing method, and imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4612806B2 (en) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041988A (en) | 2005-08-05 | 2007-02-15 | Sony Corp | Information processing device, method and program |
JP2007067560A (en) * | 2005-08-29 | 2007-03-15 | Canon Inc | Imaging apparatus and its control method, computer program and recording medium |
US8542928B2 (en) | 2005-09-26 | 2013-09-24 | Canon Kabushiki Kaisha | Information processing apparatus and control method therefor |
JP4799104B2 (en) * | 2005-09-26 | 2011-10-26 | キヤノン株式会社 | Information processing apparatus and control method therefor, computer program, and storage medium |
JP4799105B2 (en) * | 2005-09-26 | 2011-10-26 | キヤノン株式会社 | Information processing apparatus and control method therefor, computer program, and storage medium |
JPWO2007043712A1 (en) * | 2005-10-14 | 2009-04-23 | 国立大学法人 長崎大学 | Emotion evaluation method and emotion display method, and program, recording medium and system therefor |
JP4631696B2 (en) * | 2005-12-20 | 2011-02-16 | 富士ゼロックス株式会社 | Image processing apparatus, image processing method, and computer program |
JP4845755B2 (en) | 2007-01-30 | 2011-12-28 | キヤノン株式会社 | Image processing apparatus, image processing method, program, and storage medium |
JP4789825B2 (en) * | 2007-02-20 | 2011-10-12 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP4999570B2 (en) | 2007-06-18 | 2012-08-15 | キヤノン株式会社 | Facial expression recognition apparatus and method, and imaging apparatus |
JP4974788B2 (en) | 2007-06-29 | 2012-07-11 | キヤノン株式会社 | Image processing apparatus, image processing method, program, and storage medium |
JP4891163B2 (en) * | 2007-07-04 | 2012-03-07 | キヤノン株式会社 | Image processing apparatus, image processing method, and image processing program |
JP4720810B2 (en) | 2007-09-28 | 2011-07-13 | 富士フイルム株式会社 | Image processing apparatus, imaging apparatus, image processing method, and image processing program |
JP5092663B2 (en) * | 2007-10-03 | 2012-12-05 | 日産自動車株式会社 | Vehicle control device |
JP5239396B2 (en) | 2008-02-28 | 2013-07-17 | セイコーエプソン株式会社 | Image output method, image output apparatus, and image output program |
JP4914398B2 (en) | 2008-04-09 | 2012-04-11 | キヤノン株式会社 | Facial expression recognition device, imaging device, method and program |
JP5153434B2 (en) * | 2008-04-22 | 2013-02-27 | キヤノン株式会社 | Information processing apparatus and information processing method |
JP5028338B2 (en) * | 2008-06-06 | 2012-09-19 | 日立オムロンターミナルソリューションズ株式会社 | Face orientation detection unit and face orientation detection method |
JP5386880B2 (en) * | 2008-08-04 | 2014-01-15 | 日本電気株式会社 | Imaging device, mobile phone terminal, imaging method, program, and recording medium |
JP5397481B2 (en) | 2009-12-18 | 2014-01-22 | 富士通株式会社 | Image sorting apparatus and image sorting method |
JP2012022579A (en) * | 2010-07-15 | 2012-02-02 | Fujitsu Ltd | Face direction detector, face direction detection program and face direction detection method |
JP5641813B2 (en) | 2010-08-17 | 2014-12-17 | キヤノン株式会社 | Imaging apparatus and imaging method, image processing apparatus and image processing method |
WO2012036669A1 (en) * | 2010-09-13 | 2012-03-22 | Hewlett-Packard Development Company, L.P. | Smile detection systems and methods |
JP2013021434A (en) * | 2011-07-08 | 2013-01-31 | Nec Saitama Ltd | Imaging apparatus, imaging control method, and program |
JP6467965B2 (en) * | 2015-02-13 | 2019-02-13 | オムロン株式会社 | Emotion estimation device and emotion estimation method |
KR101787255B1 (en) * | 2016-05-11 | 2017-11-15 | 이화여자대학교 산학협력단 | Facial expression recognition method based on ratio of facial ladnmark's distance |
CN107193571A (en) * | 2017-05-31 | 2017-09-22 | 广东欧珀移动通信有限公司 | Method, mobile terminal and storage medium that interface is pushed |
JP6642523B2 (en) | 2017-06-19 | 2020-02-05 | カシオ計算機株式会社 | Facial expression judging device, facial expression judging method and program |
CN108830786B (en) * | 2018-06-12 | 2022-05-10 | 北京世纪好未来教育科技有限公司 | Computer readable storage medium, video substitution and synthesis method and system |
JP6563580B1 (en) * | 2018-10-16 | 2019-08-21 | 株式会社アンビリアル | Communication system and program |
JP7211210B2 (en) | 2019-03-29 | 2023-01-24 | コニカミノルタ株式会社 | image forming device |
KR102422778B1 (en) * | 2019-12-30 | 2022-07-20 | 주식회사 하이퍼커넥트 | Landmark data decomposition device, method and computer readable recording medium thereof |
KR102611931B1 (en) * | 2021-04-30 | 2023-12-08 | 선문대학교 산학협력단 | Apparatus and method for expand the facial contour of the face index image |
CN114463826B (en) * | 2022-04-12 | 2022-08-12 | 合肥的卢深视科技有限公司 | Facial expression recognition method, electronic device and storage medium |
-
2004
- 2004-06-04 JP JP2004167589A patent/JP4612806B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005056388A (en) | 2005-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4612806B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
EP1650711B1 (en) | Image processing device, imaging device, image processing method | |
JP4845755B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP4974788B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
JP4999570B2 (en) | Facial expression recognition apparatus and method, and imaging apparatus | |
JP5629803B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP4590401B2 (en) | Face image creating apparatus, face image creating method, program, and recording medium recording the program | |
Lewis et al. | Lip feature extraction using red exclusion | |
JP2002175538A (en) | Device and method for portrait generation, recording medium with portrait generating program recorded thereon, terminal for communication, and communication method by terminal for communication | |
JP2007213378A (en) | Method for detecting face of specific expression, imaging control method, device and program | |
JP2003216955A (en) | Method and device for gesture recognition, dialogue device, and recording medium with gesture recognition program recorded thereon | |
KR101265466B1 (en) | Emotion recognition apparatus using facial expression, emotion recognition method using the same, and recording medium thereof | |
KR101187600B1 (en) | Speech Recognition Device and Speech Recognition Method using 3D Real-time Lip Feature Point based on Stereo Camera | |
JP2005293539A (en) | Facial expression recognizing device | |
CN110110603A (en) | A kind of multi-modal labiomaney method based on facial physiologic information | |
EP4344199A1 (en) | Speech and image synchronization measurement method and apparatus, and model training method and apparatus | |
JPH08287216A (en) | In-face position recognizing method | |
KR101756919B1 (en) | Device and method for face recognition | |
JP2767814B2 (en) | Face image detection method and apparatus | |
JP4541806B2 (en) | Object identification device and method, and program | |
KR20240101253A (en) | Gender recognition apparatus using deep learning and method thereof | |
CN115601816A (en) | Micro-expression detection method based on anchor-free hierarchical saliency detector in long video | |
Patel et al. | Validation and performance evaluation of an automated visual feature extraction algorithm | |
KR20030081539A (en) | System and method for extracting constituent element of face | |
JPH11306316A (en) | Method and device for finger language recognition and record medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070604 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070604 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070604 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100720 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101012 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101016 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131022 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4612806 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |