JP2018036734A - 表情変化検出装置及びプログラム - Google Patents

表情変化検出装置及びプログラム Download PDF

Info

Publication number
JP2018036734A
JP2018036734A JP2016167356A JP2016167356A JP2018036734A JP 2018036734 A JP2018036734 A JP 2018036734A JP 2016167356 A JP2016167356 A JP 2016167356A JP 2016167356 A JP2016167356 A JP 2016167356A JP 2018036734 A JP2018036734 A JP 2018036734A
Authority
JP
Japan
Prior art keywords
unit
facial expression
average value
change
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016167356A
Other languages
English (en)
Inventor
クリピングデル サイモン
Clippingdale Simon
クリピングデル サイモン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2016167356A priority Critical patent/JP2018036734A/ja
Publication of JP2018036734A publication Critical patent/JP2018036734A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】ユーザの顔の部位の変形量を表すデータからユーザの表情の変化点を検出できる表情変化検出装置及びプログラムを提供することを課題とする。【解決手段】表情変化検出装置において、ユーザの顔における複数の部位の変形量を計測し、前記複数の部位の変形量をそれぞれ表す複数のAU(Action Unit)データを取得する取得部と、前記複数のAUデータに基づいて主成分分析し、各主成分の係数を算出する算出部と、前記各主成分の係数の所定時間ごとの平均値を算出する平均値算出部と、前記平均値に基づいて、前記ユーザの表情が変化した時点を検出する検出部と、を備えることで上記課題を解決する。【選択図】図6

Description

本発明は、表情変化検出装置及びプログラムに関する。
近年、テレビ視聴中の視聴者の様子を撮影し、その映像の注視率を解析して、視聴者が番組への興味を示した時間帯を推定する研究報告がなされている(例えば非特許文献1参照)。
この技術では、視聴者のテレビへの注視状況を映像から認識し、テレビへの注視状況の変化が番組への反応であろうと推定する。
従来の顔表情の検出においては、例えばテレビ視聴者の顔表情の映像から6つの典型的表情を示す顔画像を認識し学習データとする。6つの典型的表情としては、例えば、笑顔、驚き、恐れ、嫌悪、怒り、悲しみが学習対象とされる(例えば非特許文献2、非特許文献3参照)。
図10は、従来の表情認識技術の一例の説明図である。従来の表情認識技術では入力画像に含まれる顔画像と、6つの典型的表情を各判別器に予め学習させておき、学習した典型的表情と入力画像とを比較し、6つのそれぞれの典型的表情との類似度を検出する。
図10では、視聴者の顔画像の中で、判別器の中の笑顔の判別器による検出結果の類似度が高いことを示している。この結果、入力画像に含まれる顔画像の表情が笑顔である画像を認識し、顔画像の特定をすることができる。
山内結子,奥田誠,高橋正樹,サイモン クリピングデル,苗村昌秀,"視聴状況に基づいた興味内容推定システムの試作",映像情報メディア学会年次大会(2014年)。 奥田誠,藤井真人,佐藤洋一,"表情強度と単純ベイズ推定を融合した顔表情認識",FIT2013(第12回情報科学フォーラム)第3分冊 pp 439-440(2013年)。 Kanade, Cohn, Tian, "Comprehensive Database for Facial Expression Analysis", Proc. 4th IEEE International Conference on Face and Gesture Recognition FG-00, pp. 484-490, Grenoble, France
上述したように、従来、典型的表情を示す顔画像を学習データとし、入力画像に含まれる顔画像と照合することで、典型的表情と入力画像に含まれる顔画像の表情との類似度を出力し、入力画像に含まれる顔画像の表情を典型的表情との類似度により認識していた。
この学習データとして使用される典型的表情を示す顔画像は、表情の演技により撮影している。したがって、学習データとして使用される典型的表情を示す顔画像は、表情の演技の個人差により、同一表情を示す筈の顔画像に差が生じる場合がある。このため、入力画像に含まれる顔画像の表情が正しく認識できない場合があった。
また、視聴者がテレビを視聴するときに出す表情は、上記した6つの典型的表情に限らない。視聴者がテレビを視聴するときに出す表情には、典型的表情以外の表情も含まれる。しかしながら、従来技術では、入力画像に含まれる顔画像の表情が典型的表情以外の表情である場合に、入力画像に含まれる顔画像の表情が認識できないという問題があった。
さらに、視聴者がテレビを視聴するときに出す表情には、顔の変形量の小さな表情(以下、弱表情と呼ぶ)も含まれる。従来技術では、入力画像に含まれる顔画像の表情が弱表情である場合に、入力画像に含まれる顔画像の表情が認識できないという問題があった。
本発明は上記の点に鑑みなされたものであり、ユーザの顔の部位の変形量を表すデータからユーザの表情の変化点を検出できる表情変化検出装置及びプログラムを提供することを目的とする。
上記課題を解決するため、本発明は、表情変化検出装置において、ユーザの顔における複数の部位の変形量を計測し、前記複数の部位の変形量をそれぞれ表す複数のAU(Action Unit)データを取得する取得部と、前記複数のAUデータに基づいて主成分分析し、各主成分の係数を算出する算出部と、前記各主成分の係数の所定時間ごとの平均値を算出する平均値算出部と、前記平均値に基づいて、前記ユーザの表情が変化した時点を検出する検出部と、を備える。
なお、本発明の構成要素、表現または構成要素の任意の組合せを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造などに適用したものも本発明の態様として有効である。
本発明によれば、ユーザの顔の部位の変形量を表すデータからユーザの表情の変化点を検出できる表情変化検出装置及びプログラムを提供することができる。
本実施形態に係る表情変化検出システムの一例の構成図である。 本実施形態に係る赤外線計測センサー及び表情変化検出用コンピュータの一例の機能構成図である。 AUデータの一例を示す図である。 変化点検出部の一例の構成図である。 AUデータに基づく各主成分の係数の値と、変化点検出部より出力される出力とを時系列に表した説明図である。 第1の実施形態に係る表情変化検出用コンピュータ20の処理の一例を示すフローチャートである。 第2の実施形態に係る表情変化検出用コンピュータの一例の機能構成図である。 第2の実施形態に係る表情変化検出用コンピュータの学習処理の一例を示すフローチャートである。 第2の実施形態に係る表情変化検出用コンピュータの変化点検出処理の一例を示すフローチャートである。 従来の表情認識技術の一例の説明図である。
次に、本発明を実施するための形態を、以下の実施例に基づき図面を参照しつつ説明する。
<システム構成>
図1は本実施形態に係る表情変化検出システムの一例の構成図である。図1の表情変化検出システム1は、赤外線計測センサー10、表情変化検出用コンピュータ20、モニタ30及びコンテンツ出力用コンピュータ40を有する構成である。
赤外線計測センサー10は視聴者の顔を撮影できる位置に設置される。赤外線計測センサー10は赤外線により被験者の顔の形状を測定し、測定結果を出力信号として表情変化検出用コンピュータ20に出力する。赤外線計測センサー10は例えば赤外線カメラと赤外線レーザプロジェクタとを搭載し、赤外線レーザプロジェクタから空間に投影された赤外線レーザ光を視聴者の顔に照射し、照射されたレーザ光の反射光を赤外線カメラにより撮影し、3次元の形状データとして出力する。赤外線計測センサー10には例えばマイクロソフト社製のキネクトセンサー(登録商標)を利用することができる。キネクトセンサーは、後述するように、赤外線レーザプロジェクタから単一のパターンを顔に照射した状態で、赤外線カメラからの出力を予め定めたパラメーラを用いて三角測量により、顔形状のデプスを算術し、顔の各部位に対応したデータ出力する。
表情変化検出用コンピュータ20は赤外線計測センサー10の出力信号を受信する。
表情変化検出用コンピュータ20は、受信した出力信号から顔の筋肉の動作を表すAU(Action Unit)データを求め、そのAUデータを用いて後述するように視聴者の表情の変化点を検出する。AUデータは、視聴者の顔の部位の変形量を表すデータの一例である。
モニタ30は映像のコンテンツを表示する表示装置である。コンテンツ出力用コンピュータ40はモニタ30に表示させる映像のコンテンツをモニタ30に出力するコンテンツ出力装置の一例である。
[第1の実施形態]
<機能構成>
本実施例の表情変化検出システム1の赤外線計測センサー10、表情変化検出用コンピュータ20は、例えば図2に示す機能構成により実現される。図2は本実施形態に係る赤外線計測センサー及び表情変化検出用コンピュータの一例の機能構成図である。
赤外線計測センサー10は、赤外線により被験者の顔の形状を測定し、測定結果を出力信号として表情変化検出用コンピュータ20に出力する計測部11を有する構成である。
また、表情変化検出用コンピュータ20はAUデータ出力部21、AUデータ記憶部22、主成分分析部23、平均部24、変化点検出部25、変化点記憶部26を有する構成である。
AUデータ出力部21は計測部11が出力した出力信号に基づいて視聴者の顔の部位の変形量を表すAUデータを出力する。赤外線計測センサー10がキネクトセンサーである場合、AUデータ出力部21は例えばキネクトセンサーのSDK(Software Development Kit)により実現することができる。AUデータ出力部21は、例えば図3に示すような17個のAUデータ(AUデータの17次元ベクトル)を所定周期(例えば10Hz)で収録してAUデータ記憶部22に記憶させる。
図3はAUデータの一例を示す図である。図3に示す17個の各AUデータは、視聴者の顔の各々の部位(あご、口、ほほ、目、眉毛など)の変形量を表している。視聴者が幾つかの番組を視聴している間、AUデータ出力部21は所定周期でAUデータを収録してAUデータ記憶部22に記憶させる。
主成分分析部23は、AUデータ記憶部22に記憶されているAUデータの主成分分析(PCA, principal component analysis)を行う。主成分分析部23は、この主成分分析において、例えば、AUデータ記憶部22に記憶されている各AUデータの観測値の組を直交変換し、線型な相関を持たない特徴量の組である主成分(PC, principal components)の係数を算出してもよい。なお、この主成分分析自体は、公知の技術を用いて実施してもよい。この場合、例えば、以下の文献に記載されるような主成分分析の算出方法を用いてもよい。
Jolliffe, I.T. (2002). "Principal Component Analysis" (2nd ed.). Springer. ISBN 978-0-387-95442-4.
主成分分析部23は、算出した各主成分の係数の値を、平均部24に出力する。なお、AUデータが図3に示すような17次元ベクトルの場合、主成分分析により算出される主成分は、17個以下(最大でも17個)となる。
平均部24は、各主成分の係数の値の所定時間(例えば1秒)ごとの平均値を求め、視聴者の個人的な顔変形パターンとして時系列に出力する。
平均部24から出力される視聴者の個人的な顔変形パターンは、笑い方などの個人的な表情の癖を反映したものとなる。このような視聴者の個人的な顔変形パターンは、典型的表情以外の表情や弱表情の変化点も表現されている。
変化点検出部25は、視聴者の個人的な顔変形パターンとして複数のAUデータに基づく1以上の主成分の係数の値の所定時間ごとの平均値を平均部24から時系列に受信し、各主成分の係数の値の変化点を係数ごとに検出する。例えば、変化点検出部25は、各主成分の係数の値の所定時間ごとの平均値が、所定の閾値以上変化した時点を検出する。変化点検出部25は検出した変化点を、視聴者の表情変化点として変化点記憶部26に記憶させる。
なお、変化点記憶部26は、計測部11が視聴者の顔を計測した際に視聴者に表示されたテレビ番組等のコンテンツデータの再生時間と対応付けて、変化点をタグとして記憶してもよい。
各主成分の係数の値の幾つかは、表情の小さな変化であっても、いくつかの主成分の係数が大きく変化することが実験から分かった。そこで、本実施形態に係る表情変化検出システム1では所定時間の平均を取ることでノイズを抑制する。主成分分析部23、平均部24及び変化点検出部25はプログラムにより実現できる。
変化点検出部25は、例えば図4に示すように構成される。図4は、変化点検出部の一例を示す構成図である。図4の変化点検出部25は、平均部24から受信した各主成分の係数の値の変化点を、主成分ごとに、以下のように検出する。
平均部24により算出された、主成分の係数の値の所定時間(例えば1秒)ごとの平均値をp(t)51とする。
まず、変化点検出部25は、p(t)51から、p(t)51をメディアンフィルタ(ローパスフィルタ)52を介して出力された値を減算し、ハイパス信号h(t)53を算出する。ハイパス信号h(t)53は、以下の式により算出される。
ここで、L(秒)は、メディアンフィルタ52におけるディレイラインの長さである。
次に、変化点検出部25は、h(t)53が0から離れる条件を検出する。変化点検出部25は、h(t)53が0から離れる変化の大きさを示す指標e(t)55を、以下の式により算出する。
ここで、D(秒)は、min(最小値算出部)のディレイライン54(ウインドウ)の長さである。
変化点検出部25は、以下の条件を満たす場合に、変化点であることを検出する。
ここで、Eは所定の閾値である。このように、指標e(t)55がEより大きい場合に、変化点検出部25は、変化点であると判定し、変化点検出部25の出力j(t)57をONに設定する。
変化点検出部25は、h(t)53が0から離れる条件を検出する処理と並行して、h(t)53が0の近くに戻る条件も検出する。
変化点検出部25は、h(t)53が0の近くに戻る変化の大きさを示す指標f(t)56を、以下の式により算出する。
ここで、D(秒)はave(平均値算出部)のディレイライン54(ウインドウ)の長さである。
変化点検出部25は、以下の条件を満たす場合に、変化点でないことを検出する。
ここで、Fは所定の閾値である。このように、指標f(t)56がFより小さい場合に、変化点検出部25は、変化点でないと判定し、変化点検出部25の出力j(t)57をOFFに設定する。
なお、上記では、min(最小値算出部)のディレイライン54の長さと、ave(平均値算出部)のディレイライン54の長さが同じD(秒)である場合について説明した。しかし、min(最小値)のディレイラインの長さと、ave(平均値算出部)のディレイラインの長さを異ならせてもよい。
図5はAUデータに基づく各主成分の係数の値と、変化点検出部25より出力される出力とを時系列に表した説明図である。図5(A)はAUデータに基づく各主成分の係数の値を時系列に表している。また、図5(B)は図5(A)の係数の値により変化点検出部25から係数ごとに出力される信号の全係数のOR(論理和)を表している。
なお、図5(B)では、変化点「ON」の係数の表す出力信号をハイレベルで表示している。図5(B)においてハイレベルの出力信号が1つ以上ある時点は実験により視聴者の表情が少しでも変わったと目視により判断された時点と一致することが確認されている。
<処理>
次に、図6を参照し、第1の実施形態に係る表情変化検出用コンピュータ20の処理について説明する。図6は、第1の実施形態に係る表情変化検出用コンピュータ20の処理の一例を示すフローチャートである。
まず、ステップS1で、AUデータ出力部21は、赤外線計測センサー10の計測部11が出力した出力信号に基づいて、視聴者の顔の部位の変形量を表すAUデータを生成し出力する。
続いて、ステップS2で、AUデータ記憶部22は、AUデータ出力部21から出力されたAUデータを記憶する。
続いて、ステップS3で、主成分分析部23は、AUデータ記憶部22に記憶されているAUデータの主成分分析(PCA)を行い、各主成分の係数の値を算出する。
続いて、ステップS4で、平均部24は、主成分分析部23により算出された各主成分の係数の値の所定時間(例えば1秒)ごとの平均値を算出する。
続いて、ステップS5で、変化点検出部25は、平均部24により算出された各主成分の係数の値の平均値が所定の閾値以上変化した時点を、変化点として検出する。
このように、本実施形態に係る表情変化検出システム1では、視聴者の顔の部位の変形量を表すAUデータに基づいて視聴者の表情変化点を検出する。このため、従来の典型的表情を検出する技術と比較すると、ユーザの個人差による影響を受けずに、表情の変化を検出できる。
また、典型的表情のみならず、典型的表情以外の表情、及び従来技術では検出できなかった弱表情へ変化した時点を検出できる。
そして、モニタ30に表示した映像のコンテンツのタイムコードと、変化点記憶部26に記憶した表情変化点の時間とを手がかりとして、視聴者の表情が変化した時点のコンテンツの内容を確認できる。
これにより、視聴者の表情を映像から認識し、表情とその変化(弱表情)が番組への反応であることを利用し、テレビ視聴中の視聴者の表情を解析して、視聴者が番組への興味を示した時間帯を推定することができる。
[第2の実施形態]
第2の実施形態では、多数の視聴者が典型的表情に変化した時点のデータも用いて、特定の視聴者の表情の変化点を検出する例について説明する。第2の実施形態によれば、ユーザ毎の典型的表情における顔の差異によらずに、ユーザが典型的表情となった時点が判定できる。
なお、第2の実施形態は一部を除いて第1の実施形態と同様であるため、適宜説明を省略する。
<機能構成>
次に、図7を参照し、第2の実施形態に係る表情変化検出用コンピュータ20の機能構成について説明する。図7は、第2の実施形態に係る表情変化検出用コンピュータの一例の機能構成図である。
第2の実施形態に係る表情変化検出用コンピュータ20は、第1の実施形態と比較し、学習部27、及び学習用変化点記憶部28を有する点が大きく異なる。
学習部27は、学習用変化点記憶部28に記憶された変化点における特定のユーザのAUデータの変化を学習する。
学習用変化点記憶部28は、同一のコンテンツデータを複数の視聴者に視聴させ、比較的多数のユーザが所定の典型的表情となった際の、再生時間と1以上の典型的表情の種別(例えば、「笑顔」、「驚き」等)とを対応付けて記憶しておく。なお、学習用変化点記憶部28に記憶されるデータは、従来技術である典型的表情で学習された判別機を用いて自動で生成してもよいし、データ作成者が、複数の視聴者に視聴させた際に、多数の視聴者の典型的表情を目視で確認し、手動で設定してもよい。
第2の実施形態に係る変化点検出部25は、平均部24により算出された平均値の変化と、学習部27により学習された平均値の変化との一致度が所定値以上である時点を、変化点として検出する。
<処理>
≪学習処理≫
次に、図8を参照し、第2の実施形態に係る表情変化検出用コンピュータ20の学習処理について説明する。図8は、第2の実施形態に係る表情変化検出用コンピュータ20の学習処理の一例を示すフローチャートである。
まず、ステップS101で、AUデータ出力部21は、赤外線計測センサー10の計測部11が出力した出力信号に基づいて、視聴者の顔の部位の変形量を表すAUデータを生成し出力する。
続いて、ステップS102で、AUデータ記憶部22は、AUデータ出力部21から出力されたAUデータを記憶する。
続いて、ステップS103で、主成分分析部23は、AUデータ記憶部22に記憶されているAUデータの主成分分析(PCA)を行い、各主成分の係数の値を算出する。
続いて、ステップS104で、平均部24は、主成分分析部23により算出された各主成分の係数の値の所定時間(例えば1秒)ごとの平均値を算出する。
続いて、ステップS105で、変化点検出部25は、平均部24により算出された各主成分の係数の値の平均値が所定の閾値以上変化した時点を検出する。これにより、視聴者が無表情であった場合は、学習の対象外とすることができる。
続いて、ステップS106で、学習部27は、学習用変化点記憶部28に、当該時点に対応付けられた典型的表情のデータが記憶されているか否か判定する。
当該時点に対応付けられた典型的表情のデータが記憶されていない場合(ステップS106:NO)、処理を終了する。
当該時点に対応付けられた典型的表情のデータが記憶されている場合(ステップS106:YES)、ステップS107で、主成分分析部23は、抽出した変化点の前後を含む所定期間(例えば4秒)における、各主成分の係数の値を抽出する。
続いて、ステップS108で、学習部27は、当該所定期間における、各主成分の係数の平均値の変化を、当該典型的表情として学習する。
以上説明したように、学習部27は、学習処理において、同一のコンテンツデータを複数の視聴者に視聴させ、比較的多数のユーザが例えば「笑顔」となった際の、特定のユーザのAUデータの変化を学習する。これにより、後述する変化点検出処理において、ユーザ毎の典型的表情における顔の差異によらずに、ユーザが典型的表情となった時点が判定できる。
≪変化点検出処理≫
次に、図9を参照し、第2の実施形態に係る表情変化検出用コンピュータ20の変化点検出処理について説明する。図9は、第2の実施形態に係る表情変化検出用コンピュータ20の変化点検出処理の一例を示すフローチャートである。
ステップS201からステップS205の処理は、図8のステップS101からステップS105の処理と同様である。
ステップS206で、変化点検出部25は、各主成分の係数の値の平均値が所定の閾値以上変化した時点における各主成分の係数の値の平均値の変化と、学習部27により典型的表情として学習された各主成分の係数の平均値の変化との一致度を算出する。
なお、変化点検出部25は、例えば、各主成分の係数の値の平均値が所定の閾値以上変化した時点における各主成分の係数の値の平均値の変化と、典型的表情として学習された各主成分の係数の平均値の変化との相関係数を算出し、算出した相関係数の値を、一致度として用いてもよい。
ステップS207で、変化点検出部25は、一致度が所定の閾値以上であるか判定する。
一致度が所定の閾値以上でない場合(ステップS207:NO)、処理を終了する。
一致度が所定の閾値以上である場合(ステップS207:YES)、ステップS208で、変化点検出部25は、当該時点を、変化点として検出する。
これにより、例えば、くしゃみ等の生理的な表情の変化と、放送等の番組への興味を示すと考えられる典型的表情への変化とを区別できる。
尚、本発明の実施例による表情変化検出用コンピュータ20のハードウェア構成としては、通常のコンピュータを使用することができる。表情変化検出用コンピュータ20は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインタフェース等を備えたコンピュータによって構成できる。表情変化検出用コンピュータ20のAUデータ出力部21、AUデータ記憶部22、主成分分析部23、平均部24、変化点検出部25、変化点記憶部26、学習部27等の各機能部は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現できる。
これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
1 表情変化検出システム
10 赤外線計測センサー
11 計測部
20 表情変化検出用コンピュータ(表情変化検出装置)
21 AUデータ出力部(「取得部」の一例)
22 AUデータ記憶部
23 主成分分析部(「算出部」の一例)
24 平均部(「平均値算出部」の一例)
25 変化点検出部(「検出部」の一例)
26 変化点記憶部
27 学習部
28 学習用変化点記憶部
30 モニタ
40 コンテンツ出力用コンピュータ
100 コンピュータ
101 入力装置
102 出力装置
103 記録媒体読取装置
104 補助記憶装置
105 主記憶装置
106 演算処理装置
107 インタフェース装置
108 記録媒体
109 バス

Claims (6)

  1. ユーザの顔における複数の部位の変形量を計測し、前記複数の部位の変形量をそれぞれ表す複数のAU(Action Unit)データを取得する取得部と、
    前記複数のAUデータに基づいて主成分分析し、各主成分の係数を算出する算出部と、
    前記各主成分の係数の所定時間ごとの平均値を算出する平均値算出部と、
    前記平均値に基づいて、前記ユーザの表情が変化した時点を検出する検出部と、
    を備えることを特徴とする表情変化検出装置。
  2. 前記検出部は、前記平均値が所定の閾値以上変化した時点を、前記ユーザの表情が変化した時点として検出する
    ことを特徴とする請求項1記載の表情変化検出装置。
  3. 前記ユーザに表示されたコンテンツデータの再生時間と、前記検出部により検出された前記ユーザの表情が変化した時点とを対応付けて記憶する記憶部
    を備えることを特徴とする請求項1または2に記載の表情変化検出装置。
  4. 予め記憶された前記ユーザの表情が変化した時点における、前記平均値の変化を学習する学習部を備え、
    前記検出部は、前記平均値算出部により算出された前記平均値の変化と、前記学習部により学習された前記平均値の変化との一致度が所定値以上である時点を、前記ユーザの表情が変化した時点として検出する
    ことを特徴とする請求項1乃至3のいずれか一項に記載の表情変化検出装置。
  5. 前記取得部は、前記ユーザの顔の所定の部位に照射された赤外線レーザの反射光を撮像する赤外線カメラと、前記赤外線レーザを所定のパターンにて照射する赤外線レーザプロジェクタとを搭載したセンサーからの出力信号に基づいて、前記ユーザの顔の部位の変形量を表すデータを取得する
    ことを特徴とする請求項1乃至4のいずれか一項に記載の表情変化検出装置。
  6. コンピュータを、請求項1乃至5のいずれか一項に記載の表情変化検出装置として機能させるためのプログラム。
JP2016167356A 2016-08-29 2016-08-29 表情変化検出装置及びプログラム Pending JP2018036734A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016167356A JP2018036734A (ja) 2016-08-29 2016-08-29 表情変化検出装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016167356A JP2018036734A (ja) 2016-08-29 2016-08-29 表情変化検出装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2018036734A true JP2018036734A (ja) 2018-03-08

Family

ID=61566526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016167356A Pending JP2018036734A (ja) 2016-08-29 2016-08-29 表情変化検出装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2018036734A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022064660A1 (ja) 2020-09-25 2022-03-31 富士通株式会社 機械学習プログラム、機械学習方法および推定装置
US11615646B2 (en) 2020-02-05 2023-03-28 Canon Kabushiki Kaisha Terminal apparatus, function suggestion method, storage medium, and server apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133446A (ja) * 2000-08-30 2002-05-10 Microsoft Corp 顔画像処理方法およびシステム
JP2008310775A (ja) * 2007-06-18 2008-12-25 Canon Inc 表情認識装置及び方法、並びに撮像装置
JP2012238232A (ja) * 2011-05-12 2012-12-06 Nippon Hoso Kyokai <Nhk> 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133446A (ja) * 2000-08-30 2002-05-10 Microsoft Corp 顔画像処理方法およびシステム
JP2008310775A (ja) * 2007-06-18 2008-12-25 Canon Inc 表情認識装置及び方法、並びに撮像装置
JP2012238232A (ja) * 2011-05-12 2012-12-06 Nippon Hoso Kyokai <Nhk> 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
野宮 浩揮: "顔特徴点を用いた特徴選択と特徴抽出による表情認識に基づく映像中の表情表出シーン検出", 第3回データ工学と情報マネジメントに関するフォーラム 論文集, JPN6020031314, 27 July 2011 (2011-07-27), ISSN: 0004463049 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615646B2 (en) 2020-02-05 2023-03-28 Canon Kabushiki Kaisha Terminal apparatus, function suggestion method, storage medium, and server apparatus
WO2022064660A1 (ja) 2020-09-25 2022-03-31 富士通株式会社 機械学習プログラム、機械学習方法および推定装置

Similar Documents

Publication Publication Date Title
US9443144B2 (en) Methods and systems for measuring group behavior
US10984252B2 (en) Apparatus and method for analyzing people flows in image
US9235751B2 (en) Method and apparatus for image detection and correction
KR102354692B1 (ko) 규칙 기반 비디오 중요도 분석
US9159362B2 (en) Method and system for detecting and recognizing social interactions in a video
TWI496092B (zh) 臉部認證裝置、人物影像檢索系統、臉部認證裝置控制程式、電腦可讀取之記錄媒體、及臉部認證裝置之控制方法
JP6332937B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2016129192A1 (ja) 感情推定装置及び感情推定方法
JP2004192637A (ja) 顔検出
JP2004199669A (ja) 顔検出
US20160004935A1 (en) Image processing apparatus and image processing method which learn dictionary
JP5178611B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
JP2009230751A (ja) 年令推定装置
US20190197695A1 (en) Image processing apparatus, image processing method, and storage medium
US9286710B2 (en) Generating photo animations
US9361705B2 (en) Methods and systems for measuring group behavior
Ramachandra et al. Smartphone multi-modal biometric authentication: Database and evaluation
JP2007213528A (ja) 行動認識システム
JP2018036734A (ja) 表情変化検出装置及びプログラム
Georgakis et al. The conflict escalation resolution (confer) database
JP2009098901A (ja) 表情検出方法及び装置及びプログラム
JP2009289210A (ja) 重要物体認識装置および重要物体認識方法ならびにそのプログラム
Nguyen et al. Real-time human tracker based on location and motion recognition of user for smart home

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210316