JP6244643B2 - 表情推定装置、制御方法、制御プログラム、および記録媒体 - Google Patents

表情推定装置、制御方法、制御プログラム、および記録媒体 Download PDF

Info

Publication number
JP6244643B2
JP6244643B2 JP2013084868A JP2013084868A JP6244643B2 JP 6244643 B2 JP6244643 B2 JP 6244643B2 JP 2013084868 A JP2013084868 A JP 2013084868A JP 2013084868 A JP2013084868 A JP 2013084868A JP 6244643 B2 JP6244643 B2 JP 6244643B2
Authority
JP
Japan
Prior art keywords
facial expression
person
motion
score
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013084868A
Other languages
English (en)
Other versions
JP2014206903A (ja
Inventor
達哉 村上
達哉 村上
昂志 太田
昂志 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2013084868A priority Critical patent/JP6244643B2/ja
Priority to EP14158067.0A priority patent/EP2793167B1/en
Priority to KR1020140032601A priority patent/KR101574884B1/ko
Priority to CN201410106662.7A priority patent/CN104095641B/zh
Priority to US14/228,108 priority patent/US9256953B2/en
Publication of JP2014206903A publication Critical patent/JP2014206903A/ja
Application granted granted Critical
Publication of JP6244643B2 publication Critical patent/JP6244643B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、画像中の人物の表情を推定する技術に関する。
近年、画像解析の技術の進歩により、画像から人物の顔部分を特定したり、その顔の表情を推定したりすることが可能になっている。例えば、下記の特許文献1には、動画コンテンツから顔を検出し、検出された顔の表情を認識すると共に、顔が検出された人物の動きの有無・大小、および人物が発した声の有無・大小から、上記人物の感情を判定することが記載されている。また、下記の特許文献2には、画像情報に含まれる人物像の表情および身体動作を検出し、この表情および身体動作と、センサで取得した音声情報および生体情報に基づいてユーザの心身状況を検出することが記載されている。
特開2010−066844号公報(2010年3月25日公開) 特開2005−237561号公報(2005年9月8日公開)
画像に基づく表情推定では、画像中の人物の感情とは異なる表情を推定してしまう誤推定が生じることがある。例えば、嫌悪の表情と怒りの表情とは類似しているので、画像中の人物が嫌悪を感じている場合に怒りの表情であると推定したり、怒りを感じている場合に嫌悪の表情であると推定したりすることがある。このため、表情推定の精度を向上させ、上記のような誤推定ができるだけ生じないようにすることが望まれる。
しかしながら、上述のような従来技術では、画像中の人物の表情推定の精度を向上させることができないという問題がある。これは、特許文献1の技術では、人物の感情を判定するための要素の一つとして顔の表情を用いており、表情を推定すること自体を目的としていないためである。同様に、特許文献2の技術においても、ユーザの心身状況を検出するための要素の一つとして表情を用いており、表情を推定すること自体を目的としていないため、表情推定の精度を向上させることはできない。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、画像中の人物の表情推定の精度を向上させた表情推定装置等を実現することにある。
上記の課題を解決するために、本発明の表情推定装置は、画像から人物の表情を推定する表情推定装置であって、上記人物の画像を解析して該人物の表情を示す第1表情情報を生成する表情判定手段と、上記人物の画像を解析して上記人物の動作の種類を判定する動作判定手段と、上記表情判定手段が生成した上記第1表情情報と、動作判定手段が判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定手段とを備えていることを特徴としている。
また、本発明の表情推定装置の制御方法は、上記の課題を解決するために、人物の画像から該人物の表情を推定する表情推定装置の制御方法であって、上記画像を解析して上記人物の表情を示す第1表情情報を生成する表情判定ステップと、上記画像を解析して上記人物の動作の種類を判定する動作判定ステップと、上記表情判定ステップにて生成した上記第1表情情報と、上記動作判定ステップにて判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定ステップと、を含むことを特徴としている。
上記の構成によれば、人物の画像を解析して、その人物の表情を示す第1表情情報を生成すると共に、その人物の動作の種類を判定する。そして、生成した第1表情情報と判定した動作とに応じた第2表情情報を生成する。人物の動作にはその人物の感情が現れるため、上記の構成によれば、動作を考慮せずに表情を特定した場合と比べて、人物の感情に適合した表情を推定することができる。つまり、表情推定の精度を向上させることができる。
また、上記第1表情情報は、複数の異なる表情のそれぞれについての適合度を数値によって示す情報であり、上記表情推定手段は、動作の種類ごとに予め定められた補正情報を用いて上記第1表情情報の数値を補正することによって、上記第2表情情報を生成することが好ましい。
上記の構成によれば、第1表情情報が動作の種類に応じて補正されるため、人物の感情に適合した表情を推定することができる。表情を複数の異なる表情のそれぞれについての適合度を数値によって示した場合には、複数の表情の数値が近接して表情の判別が困難になることがあるが、上記の構成によれば、このような困難性を解決することが可能である。
また、上記表情推定装置は、上記画像中において指定された動作について、該動作の種類と該動作の補正情報とを対応付けて記憶する動作登録手段を備えていることが好ましい。
上記の構成によれば、画像中において指定された動作の種類と補正情報とを対応付けて記憶するので、動作の種類の判定において検出することができなかった動作を検出することができ、その動作の種類に応じた補正を行うことができるようになる。
また、上記表情推定装置は、上記画像を解析して、上記人物が予め定められた属性の何れに該当するか判定する属性判定手段を備え、上記表情推定手段は、上記属性判定手段が判定した属性に対応し、かつ動作の種類ごとに予め定められた補正情報を用いて上記第1表情情報の数値を補正することによって、上記第2表情情報を生成することが好ましい。
上記の構成によれば、人物の属性を判定し、その属性に対応し、かつ動作の種類ごとに予め定められた補正情報を用いて第1表情情報の数値を補正することによって第2表情情報を生成するので、表情推定の精度をさらに向上させることができる。同じ動作であっても、それがどのような感情に基づくものであるかは、属性によって異なる場合があるからである。なお、上記属性は、人物の特徴または性質を示すものであればよく、例えば年齢や性別等を示すものであってもよい。また、上記属性は、個人を特定するものであってもよい。
また、上記表情推定装置は、上記第1表情情報における適合度の数値の最大値と、次に大きい適合度の数値との差が、予め定めた上限値以上であるか判定する適合度近接判定手段を備え、上記表情推定手段は、上記適合度近接判定手段が上限値以上であると判定した場合、上記補正情報を用いず、上記第1表情情報を上記第2表情情報として生成し、上記適合度近接判定手段が上限値未満であると判定した場合、上記補正情報を用いて第2表情情報を生成することが好ましい。
ここで、第1表情情報における適合度の数値の最大値と、次に大きい適合度の数値との差が大きい場合には、第1表情情報をそのまま第2表情情報としても、最も適合度の高い表情を容易に特定することができるので、表情推定の精度を低下させることがない。一方、第1表情情報における適合度の数値の最大値と、次に大きい適合度の数値との差が小さい場合には、最も適合度の高い表情を1つに絞り込むことが難しく、このような場合には動作を考慮することが望ましい。
そこで、上記の構成によれば、第1表情情報における適合度の数値の最大値と、次に大きい適合度の数値との差が、予め定めた上限値以上である場合には補正情報を用いず、上限値未満である場合には補正情報を用いる。これにより、必要性の高い場合にのみ動作の種類の判定を行って推定精度を維持しつつ、必要性の低い場合には動作の種類の判定に関する処理を省略して処理ステップ数を減らすことができる。
また、上記表情推定装置は、上記第1表情情報において適合度の数値が最大の表情が、予め定められた表情と一致するか否かを判定し、該判定の結果に応じて、上記動作判定手段に動作の種類を判定させるか否かを決定する適合表情判定手段を備え、上記表情推定手段は、上記動作判定手段が動作の種類を判定した場合には、上記補正情報を用いて第2表情情報を生成し、上記動作判定手段が動作の種類を判定しなかった場合には、上記補正情報を用いず、上記第1表情情報を上記第2表情情報として生成する構成であってもよい。
ここで、本願の発明者による検討の結果、第1表情情報において最も適合度の高い表情の種類によって、誤推定の生じ易さに違いがあることが分かっている。このことから、誤推定が生じにくい表情の場合には、第1表情情報をそのまま第2表情情報としても、表情推定の精度は低下し難いと言える。一方、誤推定が生じやすい表情の場合には、動作を考慮することが望ましいと言える。
そこで、上記の構成によれば、適合度の数値が最大の表情が予め定められた表情と一致するか否かを判定し、該判定の結果に応じて、動作の種類を判定させるか否かを決定する。そして、動作の種類が判定された場合には、該動作の種類に対応する補正情報を用いて第2表情情報を生成し、動作の種類が判定されなかった場合には、第1表情情報を第2表情情報として生成する。これにより、必要性の高い場合にのみ動作の種類の判定を行って推定精度を維持しつつ、必要性の低い場合には動作の種類の判定に関する処理を省略して処理ステップ数を減らすことができる。
なお、本発明の各態様に係る表情推定装置は、コンピュータによって実現してもよく、この場合には、コンピュータに上記制御方法の各ステップを実行させることにより上記表情推定装置をコンピュータにて実現させる制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も本発明の範疇に入る。
以上のように、本発明の表情推定装置は、人物の画像を解析して該人物の表情を示す第1表情情報を生成する表情判定手段と、人物の画像を解析して上記人物の動作の種類を判定する動作判定手段と、上記表情判定手段が生成した上記第1表情情報と、動作判定手段が判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定手段とを備えている構成である。
また、本発明の表情推定装置の制御方法は、以上のように、画像を解析して人物の表情を示す第1表情情報を生成する表情判定ステップと、画像を解析して上記人物の動作の種類を判定する動作判定ステップと、上記表情判定ステップにて生成した上記第1表情情報と、上記動作判定ステップにて判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定ステップと、を含む構成である。
したがって、人物の感情に適合した表情を推定することができ、これにより表情推定の精度を向上させることができるという効果を奏する。
本発明の実施形態1に係る表情推定装置の要部構成を示すブロック図である。 上記表情推定装置による表情推定方法の概略を説明する図である。 上記表情推定方法の具体例を示す図である。 上記表情推定装置が検出する動作の種類の一例を示す図である。 上記表情推定装置が実行する処理の一例を示すフローチャートである。 本発明の実施形態2に係る表情推定装置の要部構成の一例を示すブロック図である。 「握りこぶし」の動作を登録する例を示す図である。 上記表情推定装置が実行する処理の一例を示すフローチャートである。 本発明の実施形態3に係る表情推定装置の要部構成の一例を示すブロック図である。 上記表情推定装置が使用する、個人別に設定された動作スコアの一例を示す図である。 上記表情推定装置が実行する処理の一例を示すフローチャートである。 表情推定の結果を人物の画像上に重畳して表示した例を示す図である。 本発明の実施形態4に係る表情推定装置が使用する、人物の属性に応じた動作スコアの一例を示す図である。 上記表情推定装置が実行する処理の一例を示すフローチャートである。 本発明の実施形態5に係る表情推定装置の要部構成の一例を示すブロック図である。 上記表情推定装置が、顔スコアに基づいて、動作を考慮する必要があると判断した場合の例を示す図である。 上記表情推定装置が、顔スコアに基づいて、動作を考慮する必要がないと判断した場合の例を示す図である。 上記表情推定装置が実行する処理の一例を示すフローチャートである。 本発明の実施形態6に係る表情推定装置が、スコアが最大の表情カテゴリに基づいて、動作を考慮する必要があると判断した場合の例と、考慮する必要がないと判断した場合の例とを示している。 上記表情推定装置が実行する処理の一例を示すフローチャートである。
〔実施形態1〕
本発明の実施形態1について、図1から図5に基づいて説明する。ここでは、まず図2に基づいて本発明の表情推定方法の概略を説明する。図2は、本実施形態に係る表情推定装置による表情推定方法の概略を説明する図である。
顔つき、顔色、面持ち、あるいは面相という表現があるように、人は自身の内的な精神状態(感情)を顔に反映させて表現する。従って、顔の画像に基づいて、当該顔が表現している感情、すなわち表情を推定することが可能である。しかし、顔の画像から表情を推定した場合に、例えば、「嫌悪」、「怒り」といった、似ている表情で異なる感情を精度よく区別して推定することができず、誤った表情推定結果を出力してしまうことがある。
例えば、図2の(a)に示す人物の画像を例に挙げて説明すれば、この人物の顔が表現している表情のみでは、「嫌悪」、「怒り」のいずれにも解釈され得る。しかしながら、その表情をしている人物が、同時に腕組みをしていることを加味すれば、当該人物の表情は「嫌悪」ではなく「怒り」であることが、より明確となる。
そこで、本発明に係る表情推定装置は、図2の(b)に示すように、人物の顔画像F1と動作A1とに基づいて当該人物の表情を推定する。人は意識的に、あるいは無意識に動作(しぐさ)によって感情を表現していることが多いため、その人がどのような種類の動作を行っているかを考慮することによって、表情の推定精度を向上させることができる。
例えば、図2の顔画像F1には、眉間に皺がより、眉尻が上がった顔つきの人物が含まれている。本発明に係る表情推定装置は、この画像の人物の表情を、「喜び」・「怒り」・「悲しみ」・「嫌悪」・「恐怖」・「驚き」などの所定の表情カテゴリのそれぞれについて評価した顔スコアを生成することにより、当該人物の表情を数値として表す。
また、本発明に係る表情推定装置は、上記人物の画像から、該人物の腕組みの動作A1を検出し、この動作A1を上記各表情カテゴリのそれぞれについて評価した動作スコアを取得する。そして、上記の顔スコアと動作スコアとを表情カテゴリ毎に加算することにより、各表情カテゴリに対応する表情スコアを算出し、最終的な表情推定の結果として出力する。
これにより、図2の例のように、顔画像F1のみからは「怒り」の表情であるか「嫌悪」の表情であるかを判別することが困難な場合であっても、「腕組み」の動作A1から、この人物の表情は、「嫌悪」ではなく、「怒り」の表情であると判断することができる。
なお、表情の推定に使用される画像は静止画像であってもよいし、動画像であってもよい。動画像を用いる場合には、その動画像を構成する複数の静止画から1または複数の静止画像を抽出し、その静止画像から顔スコアの生成および動作の検出を行う。また、複数の静止画像から顔スコアを生成する場合には、各静止画像から生成した顔スコアの平均値を算出してもよい。そして、顔スコアの生成の対象とする静止画像は、同一の人物が含まれていればよく、動作検出の対象とする静止画像と同一の画像であってもよいし、異なる画像であってもよい。
次に、上記表情推定方法の具体例を示す図3を用いて、図2の顔画像F1に基づく顔スコア(第1表情情報)に、動作A1に対応する動作スコア(補正情報)を加算して、最終的な表情推定の結果である結果スコア(第2表情情報)を得る処理を説明する。
図3に示す顔スコアT1では、「喜び」・「怒り」・「悲しみ」・「嫌悪」・「恐怖」・「驚き」の6つの表情カテゴリが設定されており、顔画像F1に基づいて決定したスコアが各表情カテゴリに対応付けられている。なお、この顔スコアT1では、各表情カテゴリに適合する程度(適合度)を0から100までの数値で示している。つまり、スコアが100に近い程その表情カテゴリの表情である可能性が高く、0に近い程その表情カテゴリの表情である可能性が低いことを示す。
この顔スコアT1において、スコアが最大の表情カテゴリは「嫌悪」であり、その値は55である。しかし、「怒り」および「恐怖」のスコアはそれぞれ53と49であり、何れも「嫌悪」のスコアと近接している。このような場合に、単にスコアが最大であるという理由で顔画像F1の表情を「嫌悪」と推定してしまうと、誤推定となる可能性が高い。顔画像の解析によって求めた上記のスコアには、微細な表情の違いを厳密に区別し得る程度の精度が期待できないためである。
また、図3に示すように、「腕組み」の動作に対応する動作スコアT2では、顔スコアT1と同じ6つの表情カテゴリが設定されており、「腕組み」の動作に対応するスコアが各表情カテゴリに対応付けられている。なお、本実施形態では、動作スコアT2は、顔スコアT1に加算して各表情カテゴリのスコアを補正するために用いることを想定しているため、動作スコアT2では負のスコアと正のスコアとを設定している。つまり、その動作を行っているときに、その表情である可能性が高いものについては正のスコアが設定され、その動作を行っているときに、その表情である可能性が低いものについては負のスコアが設定されている。無論、動作スコアT2についても、顔スコアT1と同様に、各表情カテゴリに適合する程度を正のスコアのみで示すものとしてもよい。
そして、図3に示すように、顔スコアT1に動作スコアT2を加算することにより、最終的な表情推定の結果スコアT3を得る。顔スコアT1では互いに近いスコアを示していた「怒り」・「嫌悪」・「恐怖」の3つの表情カテゴリにおけるスコアは、結果スコアT3において、その差異が大きくなっている。すなわち、「怒り」、「恐怖」、「嫌悪」のスコアは、それぞれ80、51、42となり、「怒り」が最大スコアであることが明確になっている。
したがって、スコアが最大の表情カテゴリの表情を、画像の人物の表情であると推定する場合、図3の例では、顔スコアT1のみからは「嫌悪」と推定されるところを、動作スコアT2を考慮することによって、「怒り」と推定される。「腕組み」の動作は、「嫌悪」の感情を抱いている場合と比べて、「怒り」の感情を抱いている場合に行われやすいと考えられるため、顔スコアのみによる表情推定の結果よりも確からしい(精度の高い)結果を出力していると言える。
なお、ここでは、顔スコアおよび動作スコアとして6つの表情カテゴリを用いた例を示したが、表情カテゴリの数は2以上であればよく、その種類は如何なるものであってもよい。例えば、「真顔」や「無表情」、「困惑」、「感動」、「興奮」などの表情カテゴリを追加してもよい。また、表情カテゴリは、予め登録されたものを用いてもよいし、ユーザが任意の表情カテゴリを登録できるようにして、ユーザが登録したものを用いてもよい。
また、結果スコアT3の「喜び」のように、動作スコアT2の加算により、マイナスのスコアが生じることがある。さらに、動作スコアT2の加算により、スコアが100を超えるものが生じることも想定される。このような場合には、100を超えた場合は100とし、マイナスの場合は0とするようにしてもよい。
表情推定に利用される動作は、感情の現れと理解できる動作であればよく、特に限定されない。図4は、表情推定装置が検出する動作の種類の一例を示す図である。図示のように、表情推定には、前出の腕組みしている動作A1の他に、歌を歌っている動作A2、細かく揺れる(貧乏ゆすり)動作A3、腕時計を見る動作A4、顔に両手を添える動作A5などを利用することができる。その他にも、両腕をたかく上方へ伸ばす動作(万歳)、両肩をすくめ両掌を上に向ける動作など、典型的なジェスチャ動作等には人物の感情が現れていると考えられるため、このような動作も表情推定に好適に利用することができる。
なお、細かく揺れる動作A3のように動きのある動作を検出する場合には、動画像を解析する必要があるが、他の例は動画像の解析によっても、静止画像の解析によっても検出することができる。また、登録されている複数の動作が検出された場合には、検出された全ての動作の種類に対応する動作スコアを利用してもよいし、動作の種類毎に予め優先度を設定する等して1つの動作に対応する動作スコアのみを利用してもよい。また、複数の動作スコアを利用する場合には、スコアの算術平均値等を求めて利用してもよい。
(表情特定装置の構成)
続いて、本実施形態に係る表情推定装置の構成を図1に基づいて説明する。図1は、本実施形態に係る表情推定装置1の要部構成を示すブロック図である。図示のように、表情推定装置1は、画像取得部2、制御部3、記憶部4、および出力部5を備えている。なお、本発明の特徴点と直接に関係しない構成については図示を省略している。
画像取得部2は、感情推定の対象となる人物の画像を取得する。画像の取得先は特に限定されず、例えば画像を撮影する機能を有するデジタルカメラやデジタルビデオカメラ等の撮影装置から画像を取得してもよい。また、例えばスキャナが読み取った画像を取得してもよいし、インターネット回線等の通信ネットワークを介して画像を取得してもよい。
記憶部4は、表情推定装置1が使用する各種データを格納する記憶装置であり、図示の例では顔スコアデータベース41と動作スコアデータベース42とが格納されている。なお、これらのデータベースは、制御部3が参照可能となっていればよく、表情推定装置1の外部の記憶装置に格納されていてもよい。
顔スコアデータベース41は、顔の画像からその顔の人物の表情を示す顔スコア(図3のT1参照)を生成するためのデータベースである。顔スコアデータベース41は、例えば各表情カテゴリの表情のモデルとなる画像を登録したものであってもよい。この場合、モデルの画像との一致の程度を数値化して、各表情カテゴリのスコアを得ることができる。
動作スコアデータベース42は、動作の種類毎に動作スコア(図3のT2参照)が登録されたデータベースである。動作スコアデータベース42を参照することにより、検出した動作の種類に応じた動作スコアを取得することができる。
出力部5は、制御部3が生成した情報を出力する。具体的には、出力部5は、制御部3が生成した表情の推定結果である結果スコアを出力する。ここでは、出力部5は、推定結果を画像として表示出力する表示装置である例を説明するが、この推定結果の出力の態様および出力先は特に限定されない。例えば、出力部5は、表情の推定結果を他の装置に送信する通信装置であってもよい。
制御部3は、表情推定装置1の機能を統括して制御するものであり、顔検出部31、顔スコア取得部(表情判定手段)32、動作検出部(動作判定手段)33、動作スコア取得部34、および表情決定部(表情推定手段)35を備えている。
顔検出部31は、画像取得部2が取得した画像を受け取り、当該画像に含まれる人物の顔を検出する。画像中からの顔の検出は、公知の技術を適用して実現することができる。例えば、人の顔の典型的なパターンが画像内に含まれているか否かを解析することによって顔を検出する。なお、顔を検出する方法は、これに限定されず、如何なるアプローチによる顔検出方法であっても、本発明に適用することができる。
顔スコア取得部32は、画像取得部2が取得した画像の顔検出部31が検出した顔部分(顔画像)を解析して、その顔の人物の表情を示す情報を生成する。顔画像を解析して表情を示す情報を生成することは、公知の技術を適用して実現することができる。顔スコア取得部32が生成する情報は、人物の表情を示すものであれば特に限定されないが、ここでは、上述の顔スコア(図3のT1参照)を生成する例を説明する。具体的には、顔スコア取得部32は、当該顔の画像と、顔スコアデータベース41に登録されている各表情カテゴリの表情のモデルとなる画像とを比較し、その適合度合に応じたスコアを算出することによって顔スコアを生成する。
動作検出部33は、画像取得部2が取得した画像を解析して、画像中の人物の動作を検出し、その種類を判定する。なお、動作検出部33が検出の対象とする動作は、動作スコアデータベース42に動作スコアが登録されている動作である。画像中の人物が予め定められた動作を行っていることの検出は、公知の技術を適用して実現することができる。例えば、動作スコアデータベース42に動作のモデル画像が登録されている場合、そのモデル画像と、画像取得部2が取得した画像とを比較することにより、動作スコアデータベース42に登録されている動作を検出してもよい。
動作スコア取得部34は、動作検出部33が検出した動作の種類に応じた動作スコアを動作スコアデータベース42から取得する。上述のように、動作スコアは、顔スコアを補正するための補正情報であり、動作の種類ごとに予め設定された値を有している(図3のT2参照)。
表情決定部35は、顔スコア取得部32が生成した顔スコアと、動作検出部33が判定した動作の種類とに応じた、画像中の人物の表情を示す情報を生成する。具体的には、表情決定部35は、顔スコア取得部32が生成した顔スコアと、動作検出部33が判定した動作の種類に応じた動作スコア(動作スコア取得部34が取得)とを表情カテゴリ毎に加算して、画像中の人物の表情を示す結果スコアを生成する。また、表情決定部35は、生成した結果スコアを出力部5に出力させる。
次に、表情推定装置1が実行する処理の流れを図5に基づいて説明する。図5は、表情推定装置1が実行する処理(表情推定装置1の制御方法)の一例を示すフローチャートである。
まず、画像取得部2は、人物の画像を取得して(S1)、顔検出部31に出力する。次に、顔検出部31は、画像取得部2から出力された画像に含まれる顔を検出する(S2)。例えば、図2の例であれば、同図(a)に示すような画像の入力を受け付け、該画像から同図(b)に示すような顔画像F1を検出する。
そして、顔スコア取得部32は、顔検出部31が検出した顔部分の画像を解析して顔スコアを生成する(S3、表情判定ステップ)。また、顔スコア取得部32は、生成した顔スコアを表情決定部35に通知すると共に、顔スコアを生成した人物を示す情報(例えば、画像中における当該人物の位置を示す座標)を動作検出部33に通知する。
次に、動作検出部33は、顔スコア取得部32から通知された人物、すなわち表情推定の対象となった顔の人物の動作を検出し(S4、動作判定ステップ)、検出した動作の種類を動作スコア取得部34に通知する。そして、動作スコア取得部34は、通知された動作の種類に対応する動作スコアを動作スコアデータベース42から取得して(S5)、表情決定部35に通知する。例えば、図2の例であれば、同図(b)に示すような腕組みの動作A1を検出し、図3に示すような、腕組みの動作に対応する動作スコアT2を取得して表情決定部35に通知する。
最後に、表情決定部35は、顔スコア取得部32から通知された顔スコアに、動作スコア取得部34から通知された動作スコアを加算して、結果スコアを生成し(S6、表情推定ステップ)、これを出力部5に送信して出力させ(S7)、処理を終了する。
〔実施の形態2〕
本実施形態では、任意の動作に対応する動作スコアを用いて表情の推定を行うことを可能にするために、ユーザによる動作スコアの登録を受け付ける例を図6から図8に基づいて説明する。なお、上記実施形態と同様の構成には同一の参照番号を付し、その説明を省略する。
まず、図6に基づいて本実施形態の表情推定装置の構成を説明する。図6は、表情推定装置50の要部構成の一例を示すブロック図である。表情推定装置50は、操作入力部6および動作スコア登録部(動作登録手段)36を備えている点で上述の表情推定装置1と相違している。
操作入力部6は、ユーザの入力操作を受け付けて制御部3に通知するユーザインターフェースである。ここでは、出力部5が画像を表示する表示装置であり、操作入力部6が画像の表示面に対する接触を入力操作として検出するタッチセンサである例を説明する。つまり、表情推定装置50は、タッチパネルを備え、このタッチパネルに表情の推定結果を表示し、このタッチパネルにてユーザのタッチ操作を受け付ける。なお、操作入力部6はユーザの入力操作を受け付けることができるものであればよく、この例に限定されない。
動作スコア登録部36は、画像中において指定された動作について、該動作の種類と該動作の補正情報とを対応付けて記憶する。具体的には、動作スコア登録部36は、操作入力部6を用いてユーザが指定した動作について、当該動作を画像中から検出するための情報(例えばその動作の画像)と、当該動作に対応する動作スコアとを対応付けて動作スコアデータベース42に登録する。
次に、動作スコアの登録例を図7に基づいて説明する。図7は、「握りこぶし」の動作を登録する例を示す図である。動作スコアを登録する場合、まず登録対象となる動作の指定を受け付ける。例えば、タッチパネルに人物の画像を表示して、登録対象となる動作が現れている部分に対するタッチ操作、または該部分を囲む軌跡を描くタッチ操作を受け付けることにより、登録対象となる動作の指定を受け付けてもよい。
図7の例では、表示した画像から、「握りこぶし」の部分A7が選択されたことを想定している。このように、画像から動作に対応する部分が選択されると、動作スコア登録部36は、その部分を動作スコアデータベース42に登録することを決定する。
次に、動作スコア登録部36は、当該動作の動作スコアの登録を受け付ける。動作スコアの登録の際には、登録するスコアを数値で受け付けるようにしてもよいが、図7のT4の例のように3段階で受け付けるようにしてもよい。T4の例では、各表情カテゴリについて、丸、三角、バツの何れかを選択させるようにしている。これにより、ユーザは、細かい数字を入力する必要がなく、動作に対応すると考える表情カテゴリには丸、やや対応すると考える表情カテゴリには三角、全く関係がないと考える感情カテゴリにはバツを直感的に設定することができる。なお、このような選択を受け付けた場合、顔スコアに加算することができるように、例えば丸=+20、三角=+10、バツ=−10といったように、段階ごとに予め定められた数値に置換して、当該動作の画像と共に動作スコアデータベース42に登録する。
続いて、表情推定装置50が実行する処理の流れを図8に基づいて説明する。図8は、表情推定装置50が実行する処理(表情推定装置50の制御方法)の一例を示すフローチャートである。なお、同図のS11〜S13、S15〜S17の処理は、それぞれ図5のS1〜S3、S5〜S7の処理と同様であるから、ここでは詳細な説明を省略する。
S14では、S11で画像取得部2が取得した画像における、S12で顔検出部31が顔と認識した部分に対応する人物の動作を検出したか否かを、動作検出部33が判断する。ここで、当該人物の動作を検出した場合には(S14でYES)、動作検出部33は、検出した動作の種別を動作スコア取得部34に通知し、この後S15からS17の処理によって結果スコアが出力される。
一方、当該人物の動作が検出されなかった場合には(S14でNO)、動作検出部33は、その旨を動作スコア登録部36に通知する。この通知を受信した動作スコア登録部36は、動作の指定を受け付ける画面を表示する。例えば、顔を検出した画像を表示すると共に、動作の指定を促すメッセージを表示させてもよい。そして、操作入力部6を介して、登録の対象とする動作の指定を受け付ける(S18)。
続いて、動作スコア登録部36は、スコアの指定を受け付ける画面を表示する。例えば、各表情カテゴリを表示すると共に、各表情カテゴリに対するスコアの指定を促すメッセージを表示させてもよい。そして、操作入力部6を介して指定されたスコアを、S18で指定された動作の画像と対応付けた動作スコアを生成し、動作スコアデータベース42に登録する(S19)。
また、動作スコア登録部36は、生成した動作スコアを動作スコア取得部34に通知する。これにより、動作スコア取得部34は、この動作スコアを表情決定部35に通知し、表情決定部35は、通知された動作スコアと、顔スコア取得部が生成した顔スコアとに基づいて表情を特定し(S16、表情推定ステップ)、特定した結果を出力して(S17)、処理を終了する。
このように、図8の処理によれば、画像中の人物の動作が検出できなかった場合であっても、これを登録させることによって、動作を考慮した表情推定を行うことを可能にしている。また、このようにして登録された動作スコアは、次回以降の表情推定に利用することもできるので、表情推定装置50の推定精度を向上させてゆくことができる。
〔実施の形態3〕
本実施形態では、画像中の人物を識別し、識別した人物に応じた動作スコアを用いて表情の推定を行う例を図9から図12に基づいて説明する。なお、上記実施形態と同様の構成には同一の参照番号を付し、その説明を省略する。
まず、図9に基づいて本実施形態の表情推定装置の構成を説明する。図9は、表情推定装置100の要部構成の一例を示すブロック図である。表情推定装置100は、個人認識部(属性判定手段)37を備えている点、および個人認識用データベース43と個人別動作スコアデータベース44とを格納している点で上述の表情推定装置1と相違している。
個人認識部37は、画像中の人物を識別する。より詳細には、個人認識部37は、画像を解析して、その画像中の人物が個人認識用データベース43に登録されている何れの人物に該当するか判定することによって、画像中の人物を識別する。
個人認識用データベース43は、上記のとおり、個人認識部37が画像中の人物を識別するためのものであり、人の識別情報(名前等)とその個人の画像とを対応付けたデータベースである。
個人別動作スコアデータベース44は、個人別の動作スコアが登録されたデータベースである。このデータベースを用いることにより、個人認識部37の個人認識の結果に応じた動作スコアを特定することができる。このように、個人別の動作スコアを用いることにより、個人の特性に応じた表情の補正が可能になるので、表情推定の精度をさらに高めることができる。同じ動作であっても、それがどのような感情に基づくものであるかは、人によって異なる場合があるからである。
個人別動作スコアデータベース44には、例えば図10のような動作スコアが登録される。図10は、個人別に設定された動作スコアの一例を示す図である。同図では、Aさんの「腕組み」の動作に対応する動作スコアT5と、Bさんの「腕組み」の動作に対応する動作スコアT6を示している。この例では、Aさんの「腕組み」は「怒り」のプラス補正が大きく設定され、Bさんの「腕組み」は「恐怖」のプラス補正が大きく設定されている。これにより、同じ「腕組み」が検出された場合であっても、その人物がAさんであるか、Bさんであるかに応じた補正がなされるため、表情推定の精度を高めることができる。
なお、動作がどのような感情を示すものであるかは、その動作を行った者や、その近親者等でなければ判断が難しい。このため、個人別動作スコアデータベース44に登録する動作スコアは、表情推定装置100のユーザによる追加および更新が可能となっていることが好ましい。動作スコアの追加や更新の際には、図10に示すような数値の入力を受け付けて登録してもよい。また、ユーザの入力の負担を軽減するために、図7の例のように段階的な入力を受け付けてもよい。
続いて、表情推定装置100が実行する処理の流れを図11に基づいて説明する。図11は、表情推定装置100が実行する処理(表情推定装置100の制御方法)の一例を示すフローチャートである。なお、同図のS21〜S24、S26、S27の処理は、それぞれ図5のS1、〜S4、S6、S7の処理と同様であるから、ここでは詳細な説明を省略する。
S22aでは、個人認識部37が、個人認識用データベース43を参照して、S21で画像取得部2が取得した画像における、S22で顔検出部31が顔と認識した部分(顔画像)に対応する人物(個人)を認識する。また、個人認識部37は、認識した人物を動作スコア取得部34に通知する。この後、顔スコア取得部32が上記顔画像から顔スコアを生成し(S23、表情判定ステップ)、動作検出部33が動作を検出する(S24、動作判定ステップ)。
次に、S25では、動作スコア取得部34が、S24で動作検出部33が検出した動作に対応する動作スコアのうち、個人認識部37から通知された人物の動作スコアを個人別動作スコアデータベース44から取得する。そして、動作スコア取得部34は、取得した動作スコアを表情決定部35に通知し、表情決定部35は、通知された動作スコアと、顔スコア取得部が生成した顔スコアとに基づいて結果スコアを生成し(S26、表情推定ステップ)、生成した結果スコアを出力して(S27)、処理を終了する。
ここで結果出力の例を図12に基づいて説明する。図12は、表情推定の結果を人物の画像上に重畳して表示した例を示す図である。同図に示す画像P1には、人物H1およびH2の二人の人物が含まれている。そして、人物H1と対応付けて表情R1が表示されており、人物H2と対応付けて表情R2が表示されている。
このように、結果スコアをそのまま表示するのではなく、結果スコアから特定した一の表情を、推定の対象となった人物と対応付けて出力してもよい。これにより、表情推定の結果をユーザに極めて容易に認識させることができる。
〔実施の形態4〕
本実施形態では、画像中の人物の属性を判別し、判別した属性に応じた動作スコアを用いて表情の推定を行う例を図13および図14に基づいて説明する。なお、上記実施形態と同様の構成には同一の参照番号を付し、その説明を省略する。
本実施形態の表情推定装置は、上記実施形態の表情推定装置100と概ね同様の構成であるから図9のブロック図に基づいて説明を行う。本実施形態の表情推定装置と表情推定装置100との相違点は、個人認識部37が属性の判別を行い、動作スコア取得部34が判別された属性に応じた動作スコアを取得する点にある。このため、個人認識用データベース43には、画像中の人物が予め定められた属性の何れに該当するかを判定するための情報が格納されており、個人別動作スコアデータベース44には、属性別の動作スコアが格納されている。
なお、上記の属性は、人物の特徴または性質を示すものであればよく、例えば年齢、年齢層(子供と大人のような大まかな括りであってもよい)、および性別等が挙げられる。また、例えば「大人の男性」等のように、これらの組み合わせを1つの属性として扱ってもよい。なお、上記実施形態における個人の識別は、特定の個人という属性を識別しているとも言える。画像解析によってこのような属性を判定することは、公知の技術を適用して実現することが可能である。
年齢、性別等の属性に応じて、感情がどのような行動として現れるかは変化するので、属性に応じた動作スコアを用いることによって表情推定の精度をさらに高めることができる。例えば、大人の「腕組み」は、怒りの現れであることが多く、子供の「腕組み」は、恐れの現れであることが多いことが分かっている場合には、属性が「大人」である人物については、「怒り」のプラス補正が大きい動作スコアを用いればよい。そして、属性が「子供」である人物については、「恐れ」のプラス補正が大きい動作スコアを用いればよい。これにより、表情推定の精度を高めることができる。
本実施形態の個人別動作スコアデータベース44には、例えば図13のような動作スコアが登録される。図13は、人物の属性に応じた動作スコアの一例を示す図である。同図では、30代女性の「腕組み」の動作に対応する動作スコアT7と、3〜10歳女性の「腕組み」の動作に対応する動作スコアT8を示している。この例では、30代女性の「腕組み」は「怒り」のプラス補正が大きく設定され、3〜10歳女性の「腕組み」は「恐怖」のプラス補正が大きく設定されている。これにより、同じ「腕組み」が検出された場合であっても、その人物が30代女性であるか、3〜10歳女性であるかに応じた補正がなされるため、表情推定の精度を高めることができる。
続いて、本実施形態の表情推定装置が実行する処理の流れを図14に基づいて説明する。図14は、属性に応じた動作スコアを用いる表情推定装置が実行する処理(表情推定装置100の制御方法)の一例を示すフローチャートである。なお、同図のS31、S32、S33、S34、S36、S37の処理は、それぞれ図11のS21、S22、S23、S24、S26、S27の処理と同様であるから、ここでは詳細な説明を省略する。
S32aでは、個人認識部37が、個人認識用データベース43を参照して、S31で画像取得部2が取得した画像における、S32で顔検出部31が顔を検出した人物の属性を判定する。また、個人認識部37は、判定した属性を動作スコア取得部34に通知する。この後、顔スコア取得部32が顔スコアを生成し(S33、表情判定ステップ)、動作検出部33が動作を検出する(S34、動作判定ステップ)。
次に、S35では、動作スコア取得部34が、S34で動作検出部33が検出した動作に対応する動作スコアのうち、個人認識部37から通知された属性に対応する動作スコアを個人別動作スコアデータベース44から取得する。そして、動作スコア取得部34は、取得した動作スコアを表情決定部35に通知し、表情決定部35は、通知された動作スコアと、顔スコア取得部が生成した顔スコアとに基づいて結果スコアを生成し(S36、表情推定ステップ)、特定した結果を出力して(S37)、処理を終了する。なお、上記の例では、識別した属性に応じた動作スコアを用いる例を示したが、識別した属性に応じた顔スコアを用いてもよい。
〔実施の形態5〕
本実施形態では、表情の推定に動作を考慮する必要があるか否かを判定し、考慮する必要があると判定した場合にのみ動作を検出する例を図15から図18に基づいて説明する。なお、上記実施形態と同様の構成には同一の参照番号を付し、その説明を省略する。
まず、図15に基づいて本実施形態の表情推定装置の構成を説明する。図15は、表情推定装置150の要部構成の一例を示すブロック図である。表情推定装置150は、顔スコア取得部32が生成した顔スコアに基づいて、表情の推定に動作を考慮する必要があるか否かを判定する動作考慮要否判定部(適合度近接判定手段、適合表情判定手段)38を備えている点で上述の表情推定装置1と相違している。
次に、動作を考慮する必要があるか否かの判定の詳細を図16および図17に基づいて説明する。図16は、顔スコアに基づいて、動作を考慮する必要があると判断した場合の例を示し、図17は、顔スコアに基づいて、動作を考慮する必要がないと判断した場合の例を示している。
図16の例では、取得した画像から検出した顔画像F2から、顔スコアT9が生成されている。そして、この顔スコアT9では、上位3つのスコアが近い値となっている。このような場合、顔スコアT9のみから、これら3つのスコアの何れに対応する表情が、その人物の感情に最も適合しているかを特定することは難しい。
そこで、動作考慮要否判定部38は、このような場合には、動作を考慮する必要があると判断する。具体的には、動作考慮要否判定部38(適合度近接判定手段)は、スコアの最大値と次に大きい値との差が、予め定めた上限値未満である場合に、動作を考慮する必要があると判断する。これにより、動作スコアT9aを考慮して表情が決定されるので、同図のT10に示すように、近接していたスコアの差異を明確にし、人物の感情に適合する表情を特定することが可能になる。
一方、図17の例の顔スコアT11では、スコアの最大値が80(怒り)であり、次に大きい値が55(嫌悪)であって、両スコアの差異が大きく、この表情は、動作を考慮するまでもなく、「怒り」と推定することが妥当と考えられる。
そこで、このような場合(スコアの最大値と次に大きい値との差が予め定めた上限値以上である場合)には、動作考慮要否判定部38は、動作を考慮する必要がないと判断する。そして、動作の検出、動作スコアの取得、および顔スコアと動作スコアとを用いた演算の処理を行うことなく、顔スコア取得部32が生成した顔スコアを最終結果T12として出力する。
続いて、表情推定装置150が実行する処理の流れを図18に基づいて説明する。図18は、表情の推定に動作を考慮する必要があるか否かを判定する表情推定装置150が実行する処理(表情推定装置150の制御方法)の一例を示すフローチャートである。なお、同図のS41、S42、S44〜S47の処理は、それぞれ図5のS1、S2、S4〜S7の処理と同様であるから、ここでは詳細な説明を省略する。
S43では、顔スコア取得部32が、顔スコアを生成し、生成した顔スコアを動作考慮要否判定部38と表情決定部35とに通知する。そして、S44aでは、動作考慮要否判定部38(適合度近接判定手段)が、通知された顔スコアにおいて、最高スコアの表情カテゴリと近いスコアの表情カテゴリが含まれるか判断する。より具体的には、スコアの最大値と次に大きい値との差が予め定めた上限値未満であるか判断する。
ここで、上限値未満であると判断した場合(S44aでYES)、動作考慮要否判定部38は、動作検出部33に動作検出を行うように指示する。これにより、S44〜S46の処理が行われ、S47では、顔スコアと動作スコアとを用いて算出された表情推定結果が出力される(図16参照)。なお、動作スコアは、値が近接するスコアに差異を生じさせるために考慮しているので、S46では、最も値の大きい顔スコアの表情カテゴリと、このスコアに近接する顔スコアの表情カテゴリ(図16の例では、最上位のスコアを有する「嫌悪」と、これに近接するスコアを有する「怒り」と「恐怖」)についてのみ、顔スコアに動作スコアを加算する演算を行ってもよい。これにより、全てのスコアについて演算を行う場合と比べて演算量を削減することができる。
一方、上限値以上であると判断した場合(S44aでNO)、動作考慮要否判定部38は、表情決定部35に動作の考慮が不要である旨を通知する。これにより、表情決定部35は、S43で生成された顔スコアを表情推定結果として決定し(S48)、これを出力する(S47)(図17参照)。なお、S44aでNOの場合、動作考慮要否判定部38は、動作検出部33に動作の検出が不要である旨を通知してもよい。
〔実施の形態6〕
本実施形態では、表情の推定に動作を考慮する必要があるか否かの判定を上記とは異なる方法で行う例を図19および図20に基づいて説明する。なお、本実施形態の表情推定装置の構成は、図15の例と同様であるから、図19および図20に加えて、図15を参照して説明する。また、上記実施形態と同様の構成には同一の参照番号を付し、その説明を省略する。
次に、本実施形態における、動作を考慮する必要があるか否かの判定の詳細を図19に基づいて説明する。図19は、スコアが最大の表情カテゴリに基づいて、動作を考慮する必要があると判断した場合の例と、考慮する必要がないと判断した場合の例とを示している。
図19には、顔画像F3から顔スコアT13が生成された例を示している。この顔スコアT13において、最もスコアの値が大きい表情カテゴリは、「嫌悪」である。また、同図には、顔画像F4から顔スコアT14が生成された例も示している。この顔スコアT14において、最もスコアの値が大きい表情カテゴリは、「喜び」である。
これらの顔スコアを比較すると、顔スコアT13では、「嫌悪」とスコアの値が近い表情カテゴリ(怒りと恐怖)が存在するのに対し、顔スコアT14では、スコアの値が近い表情カテゴリが存在しないことがわかる。つまり、表情カテゴリの中には、顔スコアにおいて近接したスコアが出にくく、顔スコアのみから容易に一の表情を特定できるもの、つまり誤推定が生じ難いものがある。一方、顔スコアT13のように、顔スコアにおいて近接したスコアが出やすく、顔スコアのみから一の表情を特定することが難しいもの、つまり誤推定が生じ易いものも存在する。
そこで、本実施形態の表情推定装置の動作考慮要否判定部38(適合表情判定手段)は、顔スコアから特定した一の表情が所定の表情であるか否かを判定する。そして、この判定結果に応じて、動作の種類を判定させるか否か、つまり動作を考慮して表情の推定を行うか否かを決定する。具体的には、上記所定の表情として誤推定が生じにくい表情(例えば「喜び」)を予め設定しておく。この場合、顔スコアから特定した一の表情が上記予め設定した表情と一致する場合には動作の種類を判定させないと決定し、一致しない場合には動作の種類を判定させると決定する。また、上記所定の表情として誤推定が生じやすい表情を予め設定しておいてもよい。この場合、顔スコアから特定した一の表情が上記予め設定した表情と一致する場合には動作の種類を判定させると決定し、一致しない場合には判定させないと決定する。例えば、怒りと嫌悪、恐怖と驚き、および悲しみと困惑(困惑については図示の例に示していない)は、それぞれ類似したスコアが出やすい紛らわしい表情であるため、誤推定が生じやすい表情として、このような表情を予め設定しておいてもよい。
続いて、本実施形態の表情推定装置が実行する処理の流れを図20に基づいて説明する。図20は、顔スコアのみから特定された表情に基づいて、表情の推定に動作を考慮する必要があるか否かを判定する表情推定装置が実行する処理(表情推定装置150の制御方法)の一例を示すフローチャートである。なお、同図の処理は、S44bおよびS44cを除いて図18の処理と同様であるから、S44bおよびS44c以外の処理については詳細な説明を省略する。
S44bでは、動作考慮要否判定部38(適合表情判定手段)は、顔スコア取得部32が生成した顔スコアの中で、スコアの数値が最大の表情を特定し、この表情が予め定められた表情(近接スコアが出やすい(出にくい)表情)の何れかに該当するか判断する。そして、動作の種類を判定させるか否かを決定する(S44c)。ここでは、上述のように、予め設定した表情が誤推定の生じやすい(近接スコアが出やすい)表情である場合、この表情と一致したときには動作の種類を判定させると決定する。一方、予め設定した表情が誤推定の生じにくい(近接スコアが出にくい)表情である場合、この表情と一致したときには動作の種類を判定させないと決定する。
ここで、動作の種類を判定させると決定した場合(S44cでYES)、動作考慮要否判定部38は、動作検出部33に動作検出を行うように指示する。これにより、S44〜S46の処理が行われ、S47では、顔スコアと動作スコアとを用いて算出された表情推定結果が出力される。
一方、動作の種類を判定させないと決定した場合(S44cでNO)、動作考慮要否判定部38は、表情決定部35に動作の考慮が不要である旨を通知する。これにより、表情決定部35は、S43で生成された顔スコアを表情推定結果として決定し(S48)、これを出力する(S47)。
〔変形例〕
上記各実施形態では、まず顔スコアを生成し、その後動作スコアを取得して、これらのスコアに基づいて表情推定結果を算出する例を示したが、顔スコアの生成と、動作スコアの取得とを行う順序は上記の例に限られない。すなわち、動作スコアを先に取得して、その後顔スコアを生成してもよいし、動作スコアの取得と顔スコアの生成とを同時に並行して行うようにしてもよい。
また、上記各実施形態では、顔スコアと動作スコアとを用いて表情の推定を行う例を示したが、本発明の本質は、顔の表情と動作の種別とを考慮して表情の推定を行うことにあり、上記の例に限られない。例えば、顔の表情と動作の種別との組み合わせから、各組み合わせに対応する表情が特定されるテーブルを用いて表情を推定してもよい。このようなテーブルを用いる場合、人物の画像から顔の表情と動作の種別とを特定し、その顔の表情と動作の種別との組み合わせに対応する表情を上記のテーブルから特定して、最終的な表情の推定結果として決定する。
〔ソフトウェアによる実現例〕
表情推定装置1、50、100、150の制御ブロック(特に制御部3)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、表情推定装置1、50、100、150は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明は、画像中の人物の表情の特定に利用することができる。
1、50、100、150 表情推定装置
32 顔スコア取得部(表情判定手段)
33 動作検出部(動作判定手段)
35 表情決定部(表情推定手段)
36 動作スコア登録部(動作登録手段)
37 個人認識部(属性判定手段)
38 動作考慮要否判定部(適合度近接判定手段、適合表情判定手段)

Claims (9)

  1. 画像から人物の表情を推定する表情推定装置であって、
    上記人物の画像を解析して該人物の表情を示す第1表情情報を生成する表情判定手段と、
    上記人物の画像を解析して上記人物の動作の種類を判定する動作判定手段と、
    上記表情判定手段が生成した上記第1表情情報と、上記動作判定手段が判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定手段と
    を備え
    上記第1表情情報は、複数の異なる表情のそれぞれについての適合度を数値によって示す情報であり、
    上記第1表情情報における適合度の数値の最大値と、次に大きい適合度の数値との差が、予め定めた上限値以上であるか判定する適合度近接判定手段を備え、
    上記表情推定手段は、上記適合度近接判定手段の判定結果に応じて、第2表情情報を生成する
    ことを特徴とする表情推定装置。
  2. 記表情推定手段は、動作の種類ごとに予め定められた補正情報を用いて上記第1表情情報の数値を補正することによって、上記第2表情情報を生成することを特徴とする請求項1に記載の表情推定装置。
  3. 画像から人物の表情を推定する表情推定装置であって、
    上記人物の画像を解析して該人物の表情を示す第1表情情報を生成する表情判定手段と、
    上記人物の画像を解析して上記人物の動作の種類を判定する動作判定手段と、
    上記表情判定手段が生成した上記第1表情情報と、上記動作判定手段が判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定手段と
    を備え
    上記第1表情情報は、複数の異なる表情のそれぞれについての適合度を数値によって示す情報であり、
    上記第1表情情報における適合度の数値の最大値と、次に大きい適合度の数値との差が、予め定めた上限値以上であるか判定する適合度近接判定手段を備え、
    上記表情推定手段は、上記適合度近接判定手段が上限値以上であると判定した場合、動作の種類ごとに予め定められた補正情報を用いず、上記第1表情情報を上記第2表情情報として生成し、上記適合度近接判定手段が上限値未満であると判定した場合、上記補正情報を用いて上記第1表情情報の数値を補正することによって、第2表情情報を生成することを特徴とする表情推定装置。
  4. 画像から人物の表情を推定する表情推定装置であって、
    上記人物の画像を解析して該人物の表情を示す第1表情情報を生成する表情判定手段と、
    上記人物の画像を解析して上記人物の動作の種類を判定する動作判定手段と、
    上記表情判定手段が生成した上記第1表情情報と、上記動作判定手段が判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定手段と
    を備え
    上記第1表情情報は、複数の異なる表情のそれぞれについての適合度を数値によって示す情報であり、
    上記第1表情情報において適合度の数値が最大の表情が、予め定められた表情と一致するか否かを判定し、該判定の結果に応じて、上記動作判定手段に動作の種類を判定させるか否かを決定する適合表情判定手段を備え、
    上記表情推定手段は、上記動作判定手段が動作の種類を判定した場合には、動作の種類ごとに予め定められた補正情報を用いて上記第1表情情報の数値を補正することによって、第2表情情報を生成し、上記動作判定手段が動作の種類を判定しなかった場合には、上記補正情報を用いず、上記第1表情情報を上記第2表情情報として生成することを特徴とする表情推定装置。
  5. 上記画像中において指定された動作について、該動作の種類と該動作の補正情報とを対応付けて記憶する動作登録手段を備えていることを特徴とする請求項2〜4の何れか1項に記載の表情推定装置。
  6. 上記画像を解析して、上記人物が予め定められた属性の何れに該当するか判定する属性判定手段を備え、
    上記表情推定手段は、上記属性判定手段が判定した属性に対応し、かつ動作の種類ごとに予め定められた補正情報を用いて上記第1表情情報の数値を補正することによって、上記第2表情情報を生成することを特徴とする請求項2〜5の何れか1項に記載の表情推定装置。
  7. 人物の画像から該人物の表情を推定する表情推定装置の制御方法であって、
    上記画像を解析して上記人物の表情を示す、複数の異なる表情のそれぞれについての適合度を数値によって示す第1表情情報を生成する表情判定ステップと、
    上記第1表情情報における適合度の数値の最大値と、次に大きい適合度の数値との差が、予め定めた上限値以上であるか判定する適合度近接判定ステップと
    上記画像を解析して上記人物の動作の種類を判定する動作判定ステップと、
    上記適合度近接判定ステップにおける判定結果に応じて、上記表情判定ステップにて生成した上記第1表情情報と、上記動作判定ステップにて判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定ステップと、を含むことを特徴とする制御方法。
  8. 人物の画像から該人物の表情を推定するための制御プログラムであって、
    上記画像を解析して上記人物の表情を示す、複数の異なる表情のそれぞれについての適合度を数値によって示す第1表情情報を生成する表情判定ステップと、
    上記画像を解析して上記人物の動作の種類を判定する動作判定ステップと、
    上記第1表情情報における適合度の数値の最大値と、次に大きい適合度の数値との差が、予め定めた上限値以上であるか判定する適合度近接判定ステップと
    上記適合度近接判定ステップにおける判定結果に応じて、上記表情判定ステップにて生成した上記第1表情情報と、上記動作判定ステップにて判定した動作の種類とに応じた、上記人物の表情を示す第2表情情報を生成する表情推定ステップと、をコンピュータに実行させるための制御プログラム。
  9. 請求項8に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2013084868A 2013-04-15 2013-04-15 表情推定装置、制御方法、制御プログラム、および記録媒体 Active JP6244643B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013084868A JP6244643B2 (ja) 2013-04-15 2013-04-15 表情推定装置、制御方法、制御プログラム、および記録媒体
EP14158067.0A EP2793167B1 (en) 2013-04-15 2014-03-06 Expression estimation device, control method, control program, and recording medium
KR1020140032601A KR101574884B1 (ko) 2013-04-15 2014-03-20 표정 추정 장치, 제어 방법, 제어 프로그램, 및 기록 매체
CN201410106662.7A CN104095641B (zh) 2013-04-15 2014-03-21 表情估计装置、控制方法
US14/228,108 US9256953B2 (en) 2013-04-15 2014-03-27 Expression estimation device, control method, control program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013084868A JP6244643B2 (ja) 2013-04-15 2013-04-15 表情推定装置、制御方法、制御プログラム、および記録媒体

Publications (2)

Publication Number Publication Date
JP2014206903A JP2014206903A (ja) 2014-10-30
JP6244643B2 true JP6244643B2 (ja) 2017-12-13

Family

ID=50193380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013084868A Active JP6244643B2 (ja) 2013-04-15 2013-04-15 表情推定装置、制御方法、制御プログラム、および記録媒体

Country Status (5)

Country Link
US (1) US9256953B2 (ja)
EP (1) EP2793167B1 (ja)
JP (1) JP6244643B2 (ja)
KR (1) KR101574884B1 (ja)
CN (1) CN104095641B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6428066B2 (ja) * 2014-09-05 2018-11-28 オムロン株式会社 採点装置及び採点方法
JP6467965B2 (ja) * 2015-02-13 2019-02-13 オムロン株式会社 感情推定装置及び感情推定方法
JP6467966B2 (ja) * 2015-02-13 2019-02-13 オムロン株式会社 健康管理補助装置及び健康管理補助方法
JP2017054241A (ja) * 2015-09-08 2017-03-16 株式会社東芝 表示制御装置、方法及びプログラム
US10534955B2 (en) * 2016-01-22 2020-01-14 Dreamworks Animation L.L.C. Facial capture analysis and training system
WO2017213780A1 (en) * 2016-05-06 2017-12-14 The Board Of Trustees Of The Leland Stanford Junior University Mobile and wearable video capture and feedback plat-forms for therapy of mental disorders
CN107197161B (zh) * 2017-06-30 2020-07-14 北京金山安全软件有限公司 一种图像数据处理方法、装置、电子设备以及存储介质
US11430258B2 (en) * 2017-11-09 2022-08-30 Sony Corporation Information processing apparatus, program, and information processing method
CN109805943A (zh) * 2017-11-20 2019-05-28 徐熠 一种基于微表情识别的智能评测系统及方法
KR102476619B1 (ko) * 2018-01-31 2022-12-12 삼성전자주식회사 전자 장치 및 이의 제어 방법
US11334376B2 (en) * 2018-02-13 2022-05-17 Samsung Electronics Co., Ltd. Emotion-aw are reactive interface
US11127181B2 (en) * 2018-09-19 2021-09-21 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation
CN109145880A (zh) * 2018-10-09 2019-01-04 深圳市亿联智能有限公司 一种高智能电影评分方式
JP7392377B2 (ja) * 2019-10-10 2023-12-06 沖電気工業株式会社 機器、情報処理方法、プログラム、情報処理システムおよび情報処理システムの方法
JP7354813B2 (ja) * 2019-12-05 2023-10-03 富士通株式会社 検出方法、通知方法、検出プログラムおよび通知プログラム
JP7388258B2 (ja) 2020-03-13 2023-11-29 オムロン株式会社 アクセシビリティ判定装置、アクセシビリティ判定方法、及びプログラム
JP7530744B2 (ja) 2020-06-01 2024-08-08 株式会社マースエンジニアリング 管理システム
WO2022168185A1 (ja) * 2021-02-02 2022-08-11 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
JP7224569B2 (ja) * 2021-02-12 2023-02-17 三菱電機株式会社 情報処理装置、推定方法、及び推定プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4294853B2 (ja) * 2000-12-19 2009-07-15 アルパイン株式会社 操作指示装置
JP4481682B2 (ja) * 2004-02-25 2010-06-16 キヤノン株式会社 情報処理装置及びその制御方法
CN1328908C (zh) * 2004-11-15 2007-07-25 北京中星微电子有限公司 一种视频通信的方法
JP2006287749A (ja) * 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
JP2006330958A (ja) * 2005-05-25 2006-12-07 Oki Electric Ind Co Ltd 画像合成装置、ならびにその装置を用いた通信端末および画像コミュニケーションシステム、ならびにそのシステムにおけるチャットサーバ
KR100745720B1 (ko) 2005-11-30 2007-08-03 한국전자통신연구원 다중 감정 모델을 이용한 감정 처리 장치 및 그 방법
JP5310019B2 (ja) 2008-05-28 2013-10-09 セントラル硝子株式会社 複層ガラス
JP2010066844A (ja) 2008-09-09 2010-03-25 Fujifilm Corp 動画コンテンツの加工方法及び装置、並びに動画コンテンツの加工プログラム
KR101527408B1 (ko) * 2008-11-04 2015-06-17 삼성전자주식회사 얼굴 표정 검출 방법 및 시스템
US8219554B2 (en) * 2008-12-16 2012-07-10 International Business Machines Corporation Generating receptivity scores for cohorts
JP2010237761A (ja) * 2009-03-30 2010-10-21 Nikon Corp 電子機器
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression

Also Published As

Publication number Publication date
EP2793167A3 (en) 2017-01-11
KR101574884B1 (ko) 2015-12-04
US9256953B2 (en) 2016-02-09
JP2014206903A (ja) 2014-10-30
CN104095641A (zh) 2014-10-15
KR20140123899A (ko) 2014-10-23
CN104095641B (zh) 2016-03-23
US20140307926A1 (en) 2014-10-16
EP2793167B1 (en) 2023-11-01
EP2793167A2 (en) 2014-10-22

Similar Documents

Publication Publication Date Title
JP6244643B2 (ja) 表情推定装置、制御方法、制御プログラム、および記録媒体
US11763580B2 (en) Information processing apparatus, information processing method, and program
JP6467965B2 (ja) 感情推定装置及び感情推定方法
JP5619961B2 (ja) 高度な語彙外単語の拒否のための方法、デバイス、コンピュータ可読記録媒体、および装置
JP6011165B2 (ja) ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US9489934B2 (en) Method for selecting music based on face recognition, music selecting system and electronic apparatus
JP4384240B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
KR20190141348A (ko) 전자 장치에서 생체 정보 제공 방법 및 장치
CN104914989B (zh) 姿势辨识装置以及姿势辨识装置的控制方法
KR20190030140A (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
KR101287948B1 (ko) 동작 인식 방법, 장치 및 이 방법을 수행하는 컴퓨터 판독 가능한 기록 매체
Riemer et al. Emotion and motion: Toward emotion recognition based on standing and walking
JP4945617B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
CN112052349B (zh) 内容选择方法、内容选择装置以及记录介质
JP2013228490A (ja) 表示装置、その制御方法及びプログラム
US11301615B2 (en) Information processing device using recognition difficulty score and information processing method
JP2014182452A (ja) 情報処理装置及びプログラム
WO2023036810A1 (en) Method for detecting user input to a breath input configured user interface
JP2020086559A (ja) 感情分析システム
CN112714362B (zh) 确定属性的方法、装置、电子设备和介质
JP5776187B2 (ja) 表情判定プログラムおよび表情判定装置
JP2017054241A (ja) 表示制御装置、方法及びプログラム
JP6562542B2 (ja) 文字列入力装置
KR102710800B1 (ko) 어플리케이션 제공 방법 및 이를 위한 전자 기기
JP2023016191A (ja) 画像処理装置、推定装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151023

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20151028

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160304

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171030

R150 Certificate of patent or registration of utility model

Ref document number: 6244643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150