JP2019200656A - 計算機及び感情推定方法 - Google Patents

計算機及び感情推定方法 Download PDF

Info

Publication number
JP2019200656A
JP2019200656A JP2018095518A JP2018095518A JP2019200656A JP 2019200656 A JP2019200656 A JP 2019200656A JP 2018095518 A JP2018095518 A JP 2018095518A JP 2018095518 A JP2018095518 A JP 2018095518A JP 2019200656 A JP2019200656 A JP 2019200656A
Authority
JP
Japan
Prior art keywords
emotion
facial expression
user
temporal relationship
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018095518A
Other languages
English (en)
Other versions
JP6993291B2 (ja
Inventor
崇志 沼田
Takashi Numata
崇志 沼田
朝 康博
Yasuhiro Asa
康博 朝
佐藤 大樹
Daiki Sato
大樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018095518A priority Critical patent/JP6993291B2/ja
Publication of JP2019200656A publication Critical patent/JP2019200656A/ja
Application granted granted Critical
Publication of JP6993291B2 publication Critical patent/JP6993291B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】顔の個人差の影響を受けることなく、高い精度でヒトの感情を推定する。【解決手段】演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを備える計算機であって、演算装置は、ユーザの顔を含む画像データを取得し、画像データにおける前記ユーザの顔に複数の特徴点を設定し、複数の画像データを用いて、時間の経過に伴う複数の特徴点間の関係性を示す時間的関係性指標を算出して、時間的関係性指標を含む算出データを生成し、複数の算出データを用いて、時間の経過に伴う時間的関係性指標の変化量を算出し、時間的関係性指標の変化量に基づいて、ユーザの感情を推定する。【選択図】図12

Description

顔画像を用いてユーザの感情を推定するシステムに関する。
表情は、基本的な非言語情報の一つであり、ヒトとヒトが対話する際に互いの感情を伝達するための情報伝達方法として広く用いられている。そのため、自分の感情を効果的に伝達するために表情をつくったり、相手の表情から感情を読み取ったりすることは、対話において重要である。
また近年は、ヒトと対話するロボット及びCG等の対話インタフェースの分野では、ヒトの表情から感情を推定し、推定した感情に対して適切な応答を行う技術の開発が進められている。
ヒトの表情から感情を推定する技術としては、特許文献1に記載の技術が知られている。特許文献1には、「表情学習部16によって、各表情カテゴリについて、無表情から当該表情カテゴリへ変化したときの参照用の時系列データに基づいて、当該表情カテゴリであるか否かを識別する早期識別器を学習する。入力部10によって、無表情からの変化を示す時系列データを取得する。第2動的時間伸縮部24によって、各表情カテゴリについて、取得された時系列データを、当該表情カテゴリへ変化するときの参照用の時系列データに対してデータの変化が一致するように時間方向に伸縮させた時間伸縮時系列データを各々生成する。早期認識部26によって、各表情カテゴリについて生成された時間伸縮時系列データと、各表情カテゴリに対する早期識別器とに基づいて、人物の顔の表情カテゴリを認識する」ことが記載されている。
特開2013−3706号公報
特許文献1に記載の技術では、参照用の時系列データに基づいて、表情変化が様々な速度で行われても、迅速かつ高い精度で表情を認識できる。
しかし、ヒトの顔及び顔の部位の形及び大きさ、並びに、顔の部位の配置は、ヒトごとに異なり、また、表情変化に伴う顔の部位の配置の変化も、ヒトごとに異なる。そのため、推定対象のヒト(ユーザ)の参照用の時系列データが存在しない場合、ヒトの表情を認識できない可能性がある。例えば、大人の表情変化を示す参照用の時系列データを用いて子供の表情変化を認識する場合、特許文献1に記載の技術では子供の表情を高い精度で認識できない可能性がある。したがって、特許文献1に記載の技術は、参照用の時系列データには、認識対象のユーザ自身のデータが含まれる必要がある。
本発明では、顔の個人差の影響を受けることなく、ヒトの表情からヒトの感情を高い精度で推定する技術を提供することを目的とする。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを備える計算機であって、前記演算装置は、ユーザの顔を含む画像データを取得し、前記画像データにおける前記ユーザの顔に複数の特徴点を設定し、複数の前記画像データを用いて、時間の経過に伴う前記複数の特徴点間の関係性を示す時間的関係性指標を算出して、前記時間的関係性指標を含む算出データを生成し、前記複数の算出データを用いて、時間の経過に伴う前記時間的関係性指標の変化量を算出し、前記時間的関係性指標の変化量に基づいて、前記ユーザの感情を推定する。
本発明によれば、顔の個人差の影響を受けることなく、ヒトの表情からヒトの感情を高い精度で推定できる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
実施例1のシステムの構成例を示す図である。 実施例1の計算機の詳細な構成の一例を示す図である。 実施例1の表情データ情報のデータ構造の一例を示す図である。 実施例1の表情データ情報のデータ構造の一例を示す図である。 実施例1の表情特徴量分析情報のデータ構造の一例を示す図である。 実施例1の時間的関係性指標情報のデータ構造の一例を示す図である。 実施例1の時間的関係性指標分析情報のデータ構造の一例を示す図である。 実施例1の感情情報のデータ構造の一例を示す図である。 実施例1の感情推定規則情報のデータ構造の一例を示す図である。 実施例1の計算機が実行する感情推定処理を説明するフローチャートである。 実施例1の基準点及び特徴点の設定例を示す図である。 実施例1の感情推定処理の流れを説明する図である。 実施例1の計算機が実行する出力処理を説明するフローチャートである。 実施例2のシステムの構成例を示す図である。 実施例2の計算機の詳細な構成の一例を示す図である。 実施例2の感情信号情報のデータ構造の一例を示す図である。 実施例2の発生度情報のデータ構造の一例を示す図である。 実施例2の感情変化推定規則情報のデータ構造の一例を示す図である。 実施例2の計算機が実行する感情推定処理を説明するフローチャートである。 実施例2の計算機が実行する感情推定処理を説明するフローチャートである。 実施例3の出力装置に表示されるGUIの一例を示す図である。 実施例3の出力装置に表示されるGUIの一例を示す図である。 実施例4の出力装置に表示されるGUIの一例を示す図である。
発明の概要について説明する。
計算機は、ユーザの顔を含む画像を取得し、顔画像を表情データとして生成し、表情データに表情の変化を計測するための特徴点を設定する。計算機は、一定の時間範囲に含まれる表情データの時系列データを処理することによって、特徴点間の時間変化に伴う関係性、すなわち、特徴点間の時間的関係性を表す時間的関係性指標を算出する。さらに、計算機は、時間的関係性指標の時系列データに基づいて、時間変化に伴う時間的関係性指標の変化量を算出する。計算機は、時間的関係性指標の変化量に基づいて、ユーザの感情を推定する。
なお、表情データは、ユーザの顔だけを含む画像データに限定されず、手及び上半身等の身体の一部が含まれる画像でもよいし、また、目及び口等の顔の一部のみが含まれる画像でもよい。
なお、特徴点は画像の任意の位置に設定できる。例えば、ユーザの表情に関する情報を含む位置に特徴点を設定する。
以下、実施例を図面を用いて説明する。各図において共通の構成については同一の参照符号が付されている。
図1は、実施例1のシステムの構成例を示す図である。
システムは、計算機100、表情信号計測装置110、及び出力装置120から構成される。また、計算機100には、マウス、キーボード、及びタッチパネル等の入力装置130が接続される。
表情信号計測装置110は、ユーザから表情信号を取得する。表情信号は、ユーザから取得される信号であって、表情データを算出するために用いられる信号である。実施例1では、ユーザの顔の全体又は一部を含む画像信号が表情信号として取得される。
計算機100は、表情データを用いてユーザの感情を推定するための処理を実行する。また、計算機100は、出力装置120にユーザの感情の推定結果を含む情報を出力する。計算機100は、前述の処理を実現する構成として、表情データ処理モジュール101及び出力モジュール102を有し、また、情報群103を保持する。
表情データ処理モジュール101は、表情信号からユーザの顔周辺の領域の画像を切り出すことによって表情データを生成し、表情データに特徴点及び基準点を設定する。なお、画像から特定の領域の画像を切り出す方法は、画像の特徴量を用いた統計解析及び機械学習を利用する方法が考えられる。
基準点は、実施例1において特徴点間の時間的関係性を分析するために設定される。基準点は表情データに対応する画像上のいずれかの位置に設定する。例えば、画像の左上端に基準点を設定する。また、基準点は、特徴点と一致するように設定されてもよい。
実施例1では、表情データ処理モジュール101は、眼及び口に特徴点を設定し、鼻に基準点を設定する。
なお、特徴点及び基準点は、専門家が設定してもよいし、公知の特徴点及び基準点の設定方法又は設定ツールを用いて設定してもよい。
表情データ処理モジュール101は、特徴点及び基準点に基づいて表情特徴量を算出する。ここで、表情特徴量は、ユーザの表情の特徴を表す指標である。一つの表情データからは、少なくとも一つの表情特徴量が算出される。表情データ処理モジュール101は、表情データの時系列データに基づいて、特徴点間の時間的関係性を示す時間的関係性指標を算出する。
表情データ処理モジュール101は、時間的関係性指標の時系列データに基づいて、時間的関係性指標の変化量を算出し、当該変化量に基づいてユーザの感情を推定する。表情データ処理モジュール101は、ユーザの感情の推定結果に基づいて感情情報215(図2参照)を生成する。
出力モジュール102は、感情情報215を呈示するための出力情報を生成し、出力情報を出力装置120に出力する。
出力装置120は、計算機100が出力したデータに基づいて画面を表示する。入力装置130は、計算機100に情報(外部信号)を入力するための装置である。外部信号は、例えば、計算機100の動作を制御するための信号から、時間的関係性指標の算出及び感情情報の生成に必要な情報を含む信号を除いた信号である。
なお、計算機100が有する各モジュールは、二つ以上のモジュールを一つのモジュールにまとめてもよいし、一つのモジュールを機能毎に複数のモジュールに分けてもよい。
図2は、実施例1の計算機100の詳細な構成の一例を示す図である。
図2に示すように、計算機100は、演算装置201、記憶装置202、入力インタフェース203、及び出力インタフェース204を有する。
演算装置201は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のハードウェアであり、記憶装置202に格納されるプログラムを実行する。演算装置201は、プログラムにしたがって動作することによって、所定のモジュールとして機能する。実施例1では、演算装置201は、表情データ処理モジュール101及び出力モジュール102として動作する。
記憶装置202は、メモリ等のハードウェアであり、演算装置201が実行するプログラム及び当該プログラムが使用する情報を格納する。また、記憶装置202は、プログラムが使用するワークエリアを含む。記憶装置202に格納されるプログラム及び情報については後述する。
入力インタフェース203は、表情信号及び外部信号等の入力を受け付けるハードウェアである。USB(Universal Serial Bus)規格の接続線で信号を入力する装置と接続される場合、USB端子が入力インタフェース203になり、ネットワークを介して信号を入力する装置と接続される場合、ネットワークインタフェースが入力インタフェース203となる。
出力インタフェース204は、出力情報等を出力するハードウェアである。情報を出力する装置がディスプレイの場合、VGA端子又はHDMI端子(HDMIは登録商標)等が出力インタフェース204となり、情報を出力する装置がスピーカの場合、USB端子が出力インタフェース204となる。
ここで、記憶装置202に格納されるプログラム及び情報について説明する。
記憶装置202は、表情データ処理モジュール101及び出力モジュール102を実現するためのプログラムを格納する。また、記憶装置202は、表情データ情報211、表情特徴量分析情報212、時間的関係性指標情報213、時間的関係性指標分析情報214、感情情報215、及び感情推定規則情報216を格納する。
表情データ情報211は、表情信号及び表情データを管理するための情報である。表情データ情報211のデータ構造の一例は図3A及び図3Bを用いて説明する。表情特徴量分析情報212は、表情特徴量の時間変化の分析結果を管理するための情報である。表情特徴量分析情報212のデータ構造の一例は図4を用いて説明する。時間的関係性指標情報213は、時間的関係性指標を管理するための情報である。時間的関係性指標情報213のデータ構造の一例は図5を用いて説明する。時間的関係性指標分析情報214は、時間的関係性指標の時間変化の分析結果を管理するための情報である。時間的関係性指標分析情報214のデータ構造の一例は図6を用いて説明する。感情情報215は、感情の推定結果を管理するための情報である。感情情報215のデータ構造の一例は図7を用いて説明する。感情推定規則情報216は、ユーザの感情を推定時に使用される規則を管理するための情報である。感情推定規則情報216のデータ構造の一例は図8を用いて説明する。
図3A及び図3Bは、実施例1の表情データ情報211のデータ構造の一例を示す図である。説明のため、表情データ情報211を二つの図に分けて説明する。
表情データ情報211は、ID301、取得時刻302、信号種別303、表情信号304、データ種別305、表情データ306、基準点名称307、基準点308、特徴点名称309、特徴点310、及び表情特徴量311から構成されるエントリを格納する。一つの表情データ(表情信号)に対して一つのエントリが存在する。
ID301は、表情信号を識別するための識別情報を格納するフィールドである。ID301には、例えば、識別番号が格納される。
取得時刻302は、表情信号が取得された時刻を格納するフィールドである。取得時刻302には、表情信号計測装置110が表情信号を取得した時刻及び計算機100が表情信号計測装置110から表情信号を取得した時刻のいずれかが格納される。なお、実施例1の時刻は、計測開始時刻からの経過時間を表すものとする。
信号種別303は、表情信号の名称等の表情信号の種別を格納するフィールドである。表情信号の種別は、表情信号計測装置110が取得する表情信号の種別に基づいて設定される。実施例1の表情信号計測装置110は画像信号を取得するため、信号種別303には「画像」が格納される。表情データ処理モジュール101は、表情信号から名称を取得してもよいし、また、前回登録されたエントリの信号種別303から名称を取得してもよい。
なお、表情信号を取得する表情信号計測装置110が複数存在する場合、どの表情信号計測装置110が取得した表情信号であるかを判別できる値を予め設定し、当該値を信号種別303に格納してもよい。
表情信号304は、表情信号を格納するフィールドである。表情信号304には、表情信号そのものが格納され、又は、ピクセルの座標及びRGB値の組がピクセルの数だけ格納される。実施例1では、ピクセルの座標及びRGB値の組が表情信号304に格納されるものとする。表情信号に対応する画像の大きさは、縦640ピクセル×横480ピクセルであるものとする。また、画像の左上端のピクセルの座標を(1,1)とし、画像の右下端のピクセルの座標を(640,480)とする。
データ種別305は、表情データの名称等の表情データの種別を格納するフィールドである。実施例1の表情データは顔画像であるため、データ種別305には「顔画像」が格納される。
表情データ306は、表情信号から生成された表情データを格納するフィールドである。表情データ306には、例えば、ピクセルの座標及びRGB値の組がピクセルの数だけ格納される。表情データに対応する画像の大きさは、縦200ピクセル×横200ピクセルであるものとする。
基準点名称307は、基準点の名称を格納するフィールドである。実施例1では、鼻尖に基準点が設定されるため、基準点名称307には「鼻尖」が格納される。
基準点308は、表情データに対応する画像における基準点の位置(座標)を格納するフィールドである。実施例1の基準点308には、鼻尖に対応するピクセルの座標が格納される。基準点は、表情データにおける顔の位置及び向きを補正するために使用される。したがって、表情の変化に伴う顔に対する位置の変化が小さい部位を基準点に選択することが望ましい。例えば、基準点は、特徴点と異なる位置に設定する。
なお、距離センサ及び角度センサ等を用いて、表情データにおける顔の位置及び向きを補正できる場合、一つの特徴点を基準点に設定してもよいし、また、表情データの任意の位置を基準点に設定してもよい。
特徴点名称309は、特徴点の名称を格納するフィールドである。特徴点名称309には、例えば、「左眼左上」等の顔の部位の名称が格納される。特徴点名称309に格納される番号は、特徴点の識別番号を表す。
特徴点310は、表情データに対応する画像における特徴点の位置(座標)を格納するフィールドである。特徴点は、一つの表情データに対して少なくとも二つ設定される。特徴点は、ユーザの表情変化の検知を目的として設定されるため、表情の変化に伴う顔に対する位置の変化が大きい部位を特徴点に選択することが望ましい。例えば、眉、眼、及び口等を特徴点として選択することが考えられる。
実施例1の計算機100は、表情データのユーザの顔に18点の特徴点を設定する。具体的には、左眼に4点、右目に4点、及び口に10点の特徴点が設定される。したがって、一つのエントリの特徴点310には18個の座標の組の行が含まれる。
表情特徴量311は、時間的関係性指標を算出するための表情特徴量を格納するフィールドである。ここで、実施例1の表情特徴量について説明する。実施例1では、表情データにおける基準点と特徴点との間の距離が表情特徴量として算出される。したがって、一つの特徴点に対して一つの表情特徴量が算出される。距離は、座標の差の二乗の総和の平方根として与えられる。
なお、前述した表情特徴量は一例であってこれに限定されない。例えば、二つの基準点を設定し、二つの基準点と特徴点とが成す角度を表情特徴量として算出してもよい。
なお、一つの表情データから表示特徴量を算出できる場合、ノイズの除去をするために、複数の表情データを用いて表情特徴量を算出してもよい。
図4は、実施例1の表情特徴量分析情報212のデータ構造の一例を示す図である。
表情特徴量分析情報212は、ID401、算出時刻402、特徴点名称403、及び第一変化量404から構成されるエントリを格納する。表情データの時系列データの分析結果に対して一つのエントリが存在する。
ID401は、表情特徴量分析情報212のエントリを識別するための識別情報を格納するフィールドである。なお、ID401は、ID301とは異なるフィールドである。
算出時刻402は、第一変化量の算出時に用いた表情データの時系列データを特定するための時刻を格納する。実施例1では、表情データの時系列データの取得時刻302の中で最新の時刻が算出時刻402に格納される。
特徴点名称403は、特徴点名称309と同一のフィールドである。
第一変化量404は、時間の経過に伴う表示特徴量の変化量を格納するフィールドである。例えば、一つの表情データの表情特徴量と当該表情データより時系列が一つ前の表情データの表情特徴量との差が第一変化量404に格納される。また、所定の時間範囲に含まれる表情データのペアの表情特徴量の差の平均値が第一変化量404に格納される。
図6は、実施例1の時間的関係性指標情報213のデータ構造の一例を示す図である。
時間的関係性指標情報213は、ID501、算出時刻502、時間的関係性指標ID503、及び時間的関係性指標504から構成されるエントリを格納する。第一変化量の時系列データの分析結果に対して一つのエントリが存在する。
ID501は、時間的関係性指標情報213のエントリを識別するための識別情報を格納するフィールドである。なお、ID501は、ID301及びID401とは異なるフィールドである。
算出時刻502は、時間的関係性指標の算出時に用いた第一変化量の時系列データを特定するための時刻を格納する。実施例1では、第一変化量の時系列データの算出時刻402の中で最新の時刻が算出時刻502に格納される。
時間的関係性指標ID503は、時間的関係性指標の識別情報を格納するフィールドである。時間的関係性指標ID503には、特徴点の識別番号の組が格納される。
時間的関係性指標504は、時間的関係性指標を格納するフィールドである。実施例1の時間的関係性指標は特徴点間の相関係数である。特徴点間の相関係数は、例えば、二つの表情データを用いて算出されるピアソンの積率相関係数である。
なお、時間的関係性指標を算出するためのアルゴリズムは、前述したものに限定されない。専門家が適宜アルゴリズムを設定する。
なお、時間的関係性指標は相関係数に限定されない。例えば、表情特徴量の変化量が閾値を超えた時刻における特徴点間の差、及び特徴点間の比等を、時間的関係性指標としてもよい。
図6は、実施例1の時間的関係性指標分析情報214のデータ構造の一例を示す図である。
時間的関係性指標分析情報214は、ID601、時間的関係性指標ID602、及び第二変化量603から構成されるエントリを格納する。時間的関係性指標の時系列データの分析結果に対して一つのエントリが存在する。
ID601は、時間的関係性指標分析情報214のエントリを識別するための識別情報を格納するフィールドである。なお、ID601は、ID301、ID401、及びID501とは異なるフィールドである。
時間的関係性指標ID602は、時間的関係性指標ID503と同一のフィールドである。
第二変化量603は、時間的関係性指標の時系列データから算出される、時間の経過に伴う時間的関係性指標の変化量、すなわち、特徴点間の時間的関係性の変化を示す値を格納するフィールドである。
時間的関係性指標の変化量は、例えば、算出時刻502が最新の時間的関係性指標と、算出時刻502が2番目に新しい時間的関係性指標との差として算出される。また、時間的関係性指標の変化量は、算出時刻502が最新の時間的関係性指標と、時系列データの中で最新の時刻から一定時間前の時間的関係性指標との差として算出される。
実施例1では、時間の経過に伴う相関係数の変化量が第二変化量603に格納される。相関係数の変化量は、例えば、相関係数の差(第一変化量404)又はフィッシャーのZ変換を相関係数に行った後の値の差として算出できる。
なお、第二変化量603には、相関係数の変化量として、数値の代わりに、正負を示す値を時間的関係性指標ID602してもよい。
図7は、実施例1の感情情報215のデータ構造の一例を示す図である。
感情情報215は、ID701、感情702、感情変化フラグ703、及び変化度704から構成されるエントリを格納する。
ID701は、ID601と同一のフィールドである。
感情702は、表情データの分析によって推定された感情を格納するフィールドである。感情702には、例えば、幸福感、悲しみ、怒り、恐れ、嫌悪、及び驚きのいずれかが格納される。なお、前述した以外の感情が設定されてよい。
感情変化フラグ703は、感情変化の有無を示す情報を格納するフィールドである。今回推定された感情が前回の推定された感情と異なる場合、感情変化フラグ703には「あり」が格納され、今回推定された感情が前回の推定された感情と同一である場合、感情変化フラグ703には「なし」が格納される。
変化度704は、感情変化の程度を表す変化度を格納するフィールドである。例えば、第二変化量603と後述する閾値804との差が変化度704に格納される。また、複数の第二変化量603と閾値804との差の絶対値の合計を変化度704に格納してもよい。なお、前述した差は、最小値が0、最大値が100となるようにスケール変換してもよい。
変化度は、感情が変化したと判定された時の第二変化量603及び閾値804を用いて算出してもよい。また、変化度は、一定時間範囲に含まれる時間的関係性指標の時系列データから算出された第二変化量603及び閾値804を用いて算出してもよい。
例えば、感情変化フラグ703に「あり」が格納された後に算出された第二変化量603及び閾値804の差、又は、感情変化フラグ703に「あり」が格納された時を始点とする時間範囲に算出された第二変化量603及び閾値804の差の絶対値の合計値を変化度として算出する。
図8は、実施例1の感情推定規則情報216のデータ構造の一例を示す図である。
感情推定規則情報216は、規則ID801、感情変化802、部位803、及び閾値804から構成されるエントリを含む。一つの推定規則に対して一つのエントリが存在する。一つの推定規則には、一つ以上の適合条件が含まれる。適合条件は、部位803及び閾値804によって指定される。実施例1では、一つの推定規則に三つの適合条件が含まれる。
規則ID801は、推定規則を識別するための識別情報を格納するフィールドである。
感情変化802は、変化前の感情及び変化後の感情の組を格納するフィールドである。
部位803は、比較する第二変化量603を指定するための特徴点の組の情報を格納するフィールドある。一つの推定規則に対して、複数の部位803を指定することができる。
「眼の特徴点」は、両眼に対応する特徴点間に関する第二変化量が対象となる。「口の特徴点」は、口に対応する特徴点間に関する第二変化量が対象となる。「眼と口の特徴点」は、眼及び口に対応する特徴点間の第二変化量が対象となる。
なお、部位803には、部位の名称以外に、部位の識別番号等の特徴点を特定するための値を格納してもよい。
閾値804は、部位803で指定された第二変化量と比較する閾値を格納するフィールドである。なお、全ての部位803に対して閾値を設定する必要はない。閾値が設定されていない部位803については、第二変化量603及び閾値804の比較は行われない。
図8の感情推定規則情報216には、無表情からの感情変化を特定するための規則が格納されているが、驚きからの感情変化を推定するための規則が設定されてもよい。
感情推定規則情報216に設定する推定規則は、専門家が設定してもよい。また、感情推定規則情報216に設定する推定規則は、時間的関係性指標の変化量(第二変化量603)及び感情変化から構成される学習データを格納するデータベースを用いたロジスティック回帰分析及びSupport Vector Machine等の機械学習に基づいて設定してもよい。この場合、学習機能を実現するモジュールを計算機100に追加し、又は、表情データ処理モジュール101等に学習機能を実装する。機械学習に基づいて設定された推定規則を利用することによって、時間的関係性指標の変化量から、感情を高い精度で推定できる。
なお、ユーザ又はユーザの属性ごとに異なる学習データを用いた機械学習を実行することによって、ユーザ又はユーザの属性ごとの規則を設定することができる。
なお、学習データは、感情変化の有無及び感情の種類と、時間的関係性指標の変化量とを、ユーザへのアンケート及び専門家から取得することによって生成できる。
なお、学習データが十分に蓄積されていない場合、学習データの生成指示を出力するようにしてもよい。例えば、ユーザに対して記憶を想起することによって特定の感情を呼び起こすように指示し、また、聴覚刺激及び嗅覚刺激を呈示して特定の感情を誘起することによって、時間的関係性指標の変化及び感情の変化の関係性を示すデータを取得する。
感情推定規則情報216には、例えば、口の特徴点間の相関が下がり、かつ、眼及び口の特徴点間の相関の絶対値が大きくなった場合に、無表情から幸福感に変化したと判定するための推定規則を設定できる。また、両眼の特徴点間の相関が下がった場合に、無表情から悲しみに変化したと判定するための推定規則を設定できる。
図9は、実施例1の計算機100が実行する感情推定処理を説明するフローチャートである。図10は、実施例1の基準点及び特徴点の設定例を示す図である。
表情信号計測装置110が取得した表情信号が計算機100に入力された場合、計算機100の表情データ処理モジュール101は、以下で説明する感情推定処理を開始する。なお、表情信号計測装置110が複数の表情信号を取得する場合、計算機100は、特定の表情信号が入力された後、又は、全ての表情信号が入力された後に感情推定処理を開始する。
表情データ処理モジュール101は、入力インタフェース203を介して表情信号を取得する(ステップS101)。このとき、表情データ処理モジュール101は、表情データ情報211を更新する。具体的には、以下のような処理が実行される。
表情データ処理モジュール101は、表情データ情報211にエントリを追加し、追加されたエントリのID301に識別情報を格納する。表情データ処理モジュール101は、追加されたエントリの取得時刻302に、表情信号が取得された時刻を格納する。表情データ処理モジュール101は、追加されたエントリの信号種別303に「画像」を格納し、また、表情信号304にピクセルの座標及びRGB値を格納する。
なお、複数の計測チャネル又は複数の表情信号計測装置110が存在する場合、表情データ処理モジュール101は、複数の計測チャネル又は複数の表情信号計測装置110が計測した値の平均値等を表情信号として取得してもよい。
次に、表情データ処理モジュール101は、表情信号から表情データを生成する(ステップS102)。このとき、表情データ処理モジュール101は、表情データ情報211を更新する。具体的には、以下のような処理が実行される。
表情データ処理モジュール101は、表情データ情報211に追加されたエントリのデータ種別305に「顔画像」を格納し、また、表情データ306に生成された表情データを格納する。
次に、表情データ処理モジュール101は、生成された表情データに特徴点を設定する(ステップS103)。具体的には、以下のような処理が実行される。
表情データ処理モジュール101は、表情データに対して画像解析を実行し、基準点及び特徴点を設定する顔の部位を特定する。基準点及び特徴点を設定する顔の部位は予め設定されているものとする。表情データ処理モジュール101は、特定された部位に基準点及び特徴点を設定する。
当該処理の結果の一例を図10に示す。表情データ1000に対してステップS103の処理を実行した結果、表情データ1000には基準点1001及び特徴点1002が設定される。
なお、表情データ処理モジュール101は、特徴点を設定する顔の部位を特定する前に、基準点に基づいて表情データを補正してもよい。なお、顔の部位を特定するための画像解析は公知の技術であるため詳細な説明は省略する。
表情データ処理モジュール101は、表情データ情報211に追加されたエントリの特徴点名称309、特徴点310、及び表情特徴量311に特徴点の数だけ行を生成する。表情データ処理モジュール101は、追加されたエントリの基準点名称307に「鼻尖」を設定し、また、基準点308に基準点を設定するピクセルの座標を格納する。また、表情データ処理モジュール101は、特徴点名称309に各行に部位の名称を格納し、特徴点310の各行に特徴点を設定するピクセルの座標を格納する。以上がステップS103の処理の説明である。
次に、表情データ処理モジュール101は、表情特徴量を算出する(ステップS104)。実施例1では、基準点及び特徴点の距離が表情特徴量として算出される。表情データ処理モジュール101は、表情特徴量311の各行に算出された表情特徴量を格納する。
次に、表情データ処理モジュール101は、表情データの時系列データを生成できるか否かを判定する(ステップS105)。
例えば、表情データ処理モジュール101は、所定の時間範囲に含まれる表情データを所定の数だけ取得できるか否かを判定する。また、表情データ処理モジュール101は、表情データ情報211に登録された表情データの数が閾値より大きいか否かを判定する。実施例1では、表情データ処理モジュール101は、時系列が連続する二つの表情データ(エントリ)が存在するか否かを判定する。
表情データの時系列データを生成できないと判定された場合、表情データ処理モジュール101は、感情推定処理を終了する。
表情データの時系列データを生成できると判定された場合、表情データ処理モジュール101は、表情データの時系列データを用いて表情特徴量の変化量を算出する(ステップS106)。具体的には、以下のような処理が実行される。
表情データ処理モジュール101は、表情データ情報211から所定の数のエントリを取得して、当該エントリから表情データの時系列データを生成する。例えば、表情データ処理モジュール101は、未処理のエントリの中から、取得時刻302が最新のエントリを基準に所定の時間範囲に含まれるエントリ群を取得することによって、表情データの時系列データを生成する。
表情データ処理モジュール101は、取得されたエントリ群の表情特徴量311に基づいて、表情特徴量の変化量を算出する。実施例1では、特徴点ごとに表情特徴量が算出されるため、表情特徴量の変化量も特徴点ごとに算出される。例えば、二つのエントリが取得された場合、表情データ処理モジュール101は、一つのエントリの表情特徴量311から他のエントリの表情特徴量311を減算することによって表情特徴量の変化量を算出する。
表情データ処理モジュール101は、表情特徴量分析情報212にエントリを追加し、追加されたエントリのID401に識別情報を格納する。表情データ処理モジュール101は、追加されたエントリの算出時刻402に、表情データの時系列データの中で取得時刻302が最も新しい時刻を格納する。また、表情データ処理モジュール101は、特徴点名称309に基づいて、追加されたエントリの特徴点名称403に値を格納する。さらに表情データ処理モジュール101は、追加されたエントリの第一変化量404に、算出された表情特徴量の変化量を格納する。
なお、表情データの時系列データを生成するために表情データ情報211からエントリを取得する場合、表情データ処理モジュール101は、前回処理したエントリと重複しないように所定の数のエントリを取得してもよいし、また、最新の時間を基準に所定の数のエントリを取得してもよい。以上がステップS106の処理の説明である。
次に、表情データ処理モジュール101は、表情特徴量の変化量の時系列データを生成できるか否かを判定する(ステップS107)。ステップS107の判定方法は、ステップS105と同様の方法を用いる。
表情特徴量の変化量の時系列データを生成できないと判定された場合、表情データ処理モジュール101は、感情推定処理を終了する。
表情特徴量の変化量の時系列データを生成できると判定された場合、表情データ処理モジュール101は、表示特徴量の変化量の時系列データを用いて時間的関係性指標を算出する(ステップS108)。具体的には、以下のような処理が実行される。
表情データ処理モジュール101は、表情特徴量分析情報212から所定の数のエントリを取得して、表情特徴量の変化量の時系列データに生成する。例えば、表情データ処理モジュール101は、未処理のエントリの中から、算出時刻402が最新のエントリを基準に所定の時間範囲に含まれるエントリ群を取得することによって、表情特徴量の変化量の時系列データを生成する。
表情データ処理モジュール101は、取得されたエントリ群の第一変化量404に基づいて、時間的関係性指標を算出する。実施例1では、特徴点の組合せごとに時間的関係性指標が算出される。
表情データ処理モジュール101は、時間的関係性指標情報213にエントリを追加し、追加されたエントリのID501に識別情報を格納する。表情データ処理モジュール101は、追加されたエントリの時間的関係性指標ID503及び時間的関係性指標504に、特徴点の組合せの数だけ行を生成する。
表情データ処理モジュール101は、追加されたエントリの時間的関係性指標ID503に特徴点の組合せを格納し、時間的関係性指標504に、特徴点の組合せに対応する時間的関係性指標を格納する。
なお、表情特徴量の変化量の時系列データを生成するために表情特徴量分析情報212からエントリを取得する場合、表情データ処理モジュール101は、前回処理したエントリと重複しないように所定の数のエントリを取得してもよいし、また、最新の時間を基準に所定の数のエントリを取得してもよい。以上がステップS108の処理の説明である。
次に、表情データ処理モジュール101は、時間的関係性指標の時系列データを生成できるか否かを判定する(ステップS109)。ステップS109の判定方法は、ステップS105と同様の方法を用いる。
時間的関係性指標の時系列データを生成できないと判定された場合、表情データ処理モジュール101は、感情推定処理を終了する。
時間的関係性指標の時系列データを生成できると判定された場合、表情データ処理モジュール101は、時間的関係性指標の時系列データを用いて時間的関係性指標の変化量を算出する(ステップS110)。具体的には、以下のような処理が実行される。
表情データ処理モジュール101は、時間的関係性指標情報213から所定の数のエントリを取得して、時間的関係性指標の時系列データを生成する。例えば、表情データ処理モジュール101は、未処理のエントリの中から、算出時刻502が最新のエントリを基準に所定の時間範囲に含まれるエントリ群を取得することによって、時間的関係性指標の時系列データを生成する。
表情データ処理モジュール101は、取得されたエントリ群の時間的関係性指標504に基づいて、時間的関係性指標の変化量を算出する。
表情データ処理モジュール101は、時間的関係性指標分析情報214にエントリを追加し、追加されたエントリのID601に識別情報を格納する。表情データ処理モジュール101は、時間的関係性指標ID503に基づいて、追加されたエントリの時間的関係性指標ID602に値を格納する。また、表情データ処理モジュール101は、追加されたエントリの第二変化量603に、特徴点の組合せに対応する時間的関係性指標の変化量を格納する。
なお、時間的関係指標の時系列データを生成するために時間的関係性指標情報213からエントリを取得する場合、表情データ処理モジュール101は、前回処理したエントリと重複しないように所定の数のエントリを取得してもよいし、また、最新の時間を基準に所定の数のエントリを取得してもよい。以上がステップS110の処理の説明である。
次に、表情データ処理モジュール101は、時間的関係性指標の変化量及び感情推定規則情報216に基づいて、ユーザの感情を推定する(ステップS111)。その後、表情データ処理モジュール101は感情推定処理を終了する。具体的には、以下のような処理が実行される。
(処理1)表情データ処理モジュール101は、感情情報215の感情702を参照して、現在のユーザの感情を特定する。表情データ処理モジュール101は、感情推定規則情報216の感情変化802を参照し、変化前の感情が現在のユーザの感情に一致するエントリを特定する。
(処理2)表情データ処理モジュール101は、特定されたエントリの行の中から一つのターゲット行(適合条件)を選択する。表情データ処理モジュール101は、時間的関係性指標分析情報214に新たに追加されたエントリの行の中から、時間的関係性指標ID602がターゲット行の部位803に一致する行を検索する。表情データ処理モジュール101は、ターゲット行の閾値804及び検索された行の第二変化量603を比較して、適合条件を満たすか否かを判定する。表情データ処理モジュール101は、特定されたエントリの全ての行について同様の処理を実行する。
例えば、表情データ処理モジュール101は、第二変化量603が閾値804より大きいか否かを判定する。第二変化量603が閾値804より大きい場合、表情データ処理モジュール101は、適合条件を満たすと判定する。閾値804に絶対値記号が含まれる場合、表情データ処理モジュール101は、第二変化量603の値の絶対値が閾値804より大きいか否かを判定する。閾値804に正負の記号が格納される場合、表情データ処理モジュール101は、第二変化量603が正であるか否かを判定する。
(処理3)表情データ処理モジュール101は、比較の結果に基づいて、変化度を算出し、また、ユーザの感情を推定する。
例えば、表情データ処理モジュール101は、推定規則に含まれる適合条件のうち、少なくとも一つの適合条件を満たす場合、推定規則に対応する感情変化が発生したと判定する。また、推定規則に含まれる全ての適合条件を満たす場合、推定規則に対応する感情変化が発生したと判定する。
なお、該当する推定規則が複数存在する場合、表情データ処理モジュール101は、満たされる適合条件の数が最も多い推定規則、又は閾値804及び第二変化量603の差が最も大きい推定規則を選択する。予め、適合条件に優先順位が設定されている場合、表情データ処理モジュール101は、優先順位の高い適合条件を満たす推定規則を選択する。
(処理4)該当する規則が存在しない場合、表情データ処理モジュール101は、感情情報215にエントリを追加し、追加されたエントリのID701に、ステップS110において追加されたエントリのID601の識別情報を格納する。表情データ処理モジュール101は、追加されたエントリの感情702に前回と同一の感情を格納し、感情変化フラグ703に「なし」を格納する。また、表情データ処理モジュール101は、追加されたエントリの変化度704に、算出された変化度を格納する。該当する規則が存在する場合、表情データ処理モジュール101は、感情情報215にエントリを追加し、追加されたエントリのID701に、ステップS110において追加されたエントリのID601の識別情報を格納する。表情データ処理モジュール101は、追加されたエントリの感情702に推定された感情を格納し、感情変化フラグ703に「あり」を格納する。また、表情データ処理モジュール101は、追加されたエントリの変化度704に、算出された変化度を格納する。以上がステップS111の処理の説明である。
なお、各情報には、ユーザ又はユーザの属性の識別情報を格納するフィールドを設けてもよい。この場合、表情データ処理モジュール101は、感情を推定するユーザ又はユーザの属性に関連する表情データ等を用いて感情推定処理を実行する。また、推定規則を設定する場合、ユーザ又はユーザの属性ごとに異なる学習データを格納するデータベースを用いた機械学習を行ってもよい。
なお、感情推定規則情報216に、複数の時間的関係性指標を組み合わせた適合条件を含む推定規則を設定することもできる。複数の時間的関係性指標を組み合わせた適合条件の閾値804に絶対値記号が含まれる場合、表情データ処理モジュール101は、各時間的関係性指標の変化の絶対値の平均値と、閾値804とを比較する。
なお、実施例1では、一種類の表情データから一種類の時間的関係性指標を算出しているがこれに限定されない。一種類の表情データから二種類の時間的関係性指標を算出してもよいし、二種類の表情データから一種類の時間的関係性指標を算出してもよい。なお、時間的間生成指標の算出方法は、同様の方法を用いることができる。二種類の時間的関係性指標を用いて感情を推定する場合には、各種類の時間的関係性指標の変化量の平均値と閾値804とを比較すればよい。
なお、実施例1では、ユーザを対象として処理を実行しているがこれに限定されない。計算機100は、CG及びロボットを対象としても同様の処理を実行できる。
ここで、感情推定処理の流れを説明する。図11は、実施例1の感情推定処理の流れを説明する図である。
表情データ処理モジュール101は、表情データ1000の時系列データ1100、1101から表情特徴量の時系列データ1110、1111を生成する。表情データ処理モジュール101は、表情特徴量の時系列データ1110、1111を用いて時間的関係性指標1120、1121を算出する。時間的関係性指標1120、1121は行及び列が特徴点に対応する相関行列を表し、セルの模様は相関係数の大きさを表す。
表情データ処理モジュール101は、時間的関係性指標1120、1121の時系列データを用いて時間的関係性指標の変化量を算出し、時間的関係性指標の変化量に基づいて感情を推定する。
時系列データ1100は、ユーザの表情が無表情から変化していない表情データ1000を含み、時系列データ1101は、ユーザの表情が無表情から喜びに変化した表情データ1000を含む。表情データ処理モジュール101は、時系列データ1100から算出された時間的関係性指標1120及び時系列データ1101から算出された時間的関係性指標1121を用いて、時間的関係性指標の変化量を算出する。表情データ処理モジュール101は、当該変化量及び感情推定規則情報216に基づいて、感情が無表情から喜びに変化したことを推定できる。
図12は、実施例1の計算機100が実行する出力処理を説明するフローチャートである。
出力モジュール102は、感情情報215を取得し(ステップS201)、感情情報215を用いて出力情報を生成する(ステップS202)。
出力モジュール102は、出力装置120に出力情報を出力する(ステップS203)。その後、出力モジュール102は出力処理を終了する。
実施例1の計算機100は、表情データに設定された特徴点間の時間的関係性の変化に基づいて、ユーザの表情変化の過程を評価する。これによって、顔の個人差の影響を受けることなく感情を推定することができる。また、実施例1の推定方法は、顔の個人差の影響が小さいため、推定対象のユーザから予めの参照用の表情データを取得する必要がない。
実施例2では、感情推定処理において、感情変化が発生する可能性を示す指標(発生度)を考慮する点が実施例1と異なる。以下、実施例1との差異を中心に実施例2について説明する。
図13は、実施例2のシステムの構成例を示す図である。
実施例2のシステムは様々な計測装置を備える。具体的には、実施例2のシステムは、感情信号計測装置1301、1302を備える。
感情信号計測装置1301、1302は、発生度を算出するために用いる感情信号を計測する。なお、感情信号及び表情信号の計測時刻は同期しているものとする。
感情信号は、例えば、生体信号が考えられる。生体信号は、脳波計及び近赤外分光装置等を用いて計測される脳波信号及び脳血流信号等の脳活動を評価するための信号、並びに、心電計及び発汗計を用いて計測される心拍数及び発汗量等の自律神経活動を評価するための信号である。
生体信号が感情信号である場合、感情信号計測装置1301は、例えば、脳波信号を計測する脳波計であり、感情信号計測装置1302は、例えば、心拍数を計測する心電計である。
実施例2の表情データ処理モジュール101は、感情信号を取得し、情報群103に格納する。
図14は、実施例2の計算機100の詳細な構成の一例を示す図である。
実施例2の計算機100のハードウェア構成及びモジュール構成は、実施例1の計算機100と同一である。実施例2の情報群103は、新たに、感情信号情報1401、発生度情報1402、及び感情変化推定規則情報1403を含む。
感情信号情報1401は、感情信号を管理するための情報である。感情信号情報1401のデータ構造の一例は図15を用いて説明する。発生度情報1402は、発生度を管理するための情報である。発生度情報1402のデータ構造の一例は図16を用いて説明する。感情変化推定規則情報1403は、感情変化が発生したか否かを判定するための規則を管理するための情報である。感情変化推定規則情報1403のデータ構造の一例は図17を用いて説明する。
図15は、実施例2の感情信号情報1401のデータ構造の一例を示す図である。
感情信号情報1401は、ID1501、取得時刻1502、信号種別1503、感情信号1504、及び感情変化指標1505から構成されるエントリを含む。同時刻に取得した感情信号のグループに対して一つのエントリが存在する。
ID1501は、感情信号情報1401のエントリを識別するための識別情報を格納するフィールドである。
取得時刻1502は、感情信号が取得された時刻を格納するフィールドである。取得時刻1502には、感情信号計測装置1301、1302が表情信号を取得した時刻及び計算機100が感情信号計測装置1301、1302から表情信号を取得した時刻のいずれかが格納される。
信号種別1503は、感情信号名称等の感情信号の種別を格納するフィールドである。信号種別1503には、例えば、感情信号計測装置1301、1302の名称等が格納される。表情データ処理モジュール101は、感情信号から名称を取得してもよいし、また、前回登録されたエントリの信号種別1503から名称を取得してもよい。
感情信号1504は、感情信号を格納するフィールドである。
感情変化指標1505は、ヒトの感情の変化を評価する指標である。信号種別ごとに感情変化指標の算出方法が設定される。
信号種別が心電図である場合、心拍数の変化量に基づいて感情変化指標が算出される。信号種別が脳波である場合、P300の振幅等の事象関連電位の変化量に基づいて感情変化指標が算出される。
例えば、心拍数の変化が検知された場合、表情データ処理モジュール101は、自律神経活動の変化があったと判定し、現在の感情変化指標を更新する。
(更新方法1)感情変化指標の最大値を100、最小値を−100とした場合、感情変化指標の更新方法としては以下のような方法が考えられる。表情データ処理モジュール101は、現在より時系列が一つ前に計測された心拍数を基準とし、現在の心拍数が前回の心拍数より増加している場合には現在の感情変化指標に正の値を加算し、現在の心拍数が基準の心拍数より減少している場合には現在の感情変化指標に負の値を加算する。心拍数の変化量と感情変化指標の変化量の関係は、専門家が決定してもよいし、機械学習によって決定してもよい。例えば、一分あたりの心拍数が50以上増加した場合、現在の感情変化指標に100を加算し、一分あたりの心拍数が50以上減少した場合、現在の感情変化指標に−100を加算する。
(更新方法2)感情変化指標の最大値を100、最小値を0とした場合、感情変化指標の更新方法としては以下のような方法が考えられる。表情データ処理モジュール101は、現在より時系列が一つ前に計測された心拍数又は無表情時の心拍数を基準とし、心拍数の変化量の絶対値に基づいて感情変化指標を算出する。
図16は、実施例2の発生度情報1402のデータ構造の一例を示す図である。
発生度情報1402は、ID1601、算出時刻1602、及び発生度1603から構成されるエントリを格納する。発生度の算出結果に対して一つのエントリが存在する。
ID1601は、発生度情報1402のエントリを識別するための識別情報を格納するフィールドである。なお、ID1601は、ID1501とは異なるフィールドである。
算出時刻1602は、発生度が算出された時刻を格納するフィールドである。実施例1では、取得時刻1502が最新の感情信号に基づいて発生度が算出されるため、算出時刻1602には、取得時刻1502に格納される時刻が算出時刻1602に格納される。
発生度1603は、発生度を格納するフィールドである。
表情データ処理モジュール101は、一種類の感情変化指標に基づいて発生度を算出してもよいし、複数種類の感情変化指標に基づいて発生度を算出してもよい。複数種類の感情変化指標に基づいて発生度を算出する場合、感情変化指標及び発生度の関係性を示した情報を予め設定する。
例えば、表情データ処理モジュール101は、一種類の感情変化指標をそのまま発生度として算出する。また、表情データ処理モジュール101は、複数種類の感情変化指標の平均値を発生度として算出し、又は、複数種類の感情変化指標を変数とする計算式を用いて発生度を算出する。計算式は、例えば、重み係数を含む。
なお、表情データ処理モジュール101は、発生度の算出時に、無表情時の感情変化指標を用いて感情変化指標を規格化してもよい。例えば、表情データ処理モジュール101は、無表情時に算出された感情変化指標を用いて、一定の時間範囲ごとに感情変化指標の変化率を算出し、変化率の平均値を発生度として算出する。
図17は、実施例2の感情変化推定規則情報1403のデータ構造の一例を示す図である。
感情変化推定規則情報1403は、閾値1701から構成される。閾値1701は、発生度と比較するための閾値を格納するフィールドである。
感情変化推定規則情報1403に格納する閾値は、専門家が設定してもよいし、機械学習に基づいて設定してもよい。
図18A及び図18Bは、実施例2の計算機100が実行する感情推定処理を説明するフローチャートである。
表情データ処理モジュール101は、入力インタフェース203を介して表情信号及び感情信号を取得する(ステップS301)。このとき、表情データ処理モジュール101は、表情データ情報211及び感情信号情報1401を更新する。表情データ情報211の更新処理は実施例1と同一である。感情信号情報1401の更新処理は以下のような処理となる。
表情データ処理モジュール101は、感情信号情報1401にエントリを追加し、追加されたエントリのID1501に識別番号を格納する。表情データ処理モジュール101は、追加されたエントリの取得時刻1502に、感情信号が取得された時刻を格納する。表情データ処理モジュール101は、追加されたエントリの信号種別1503、感情信号1504、及び感情変化指標1505に、感情信号の種類の数だけ行を生成する。表情データ処理モジュール101は、信号種別1503の各行に感情信号の種別を表す値を格納し、また、感情信号1504に各種類の感情信号を格納する。
なお、複数の計測チャネル又は複数の感情信号計測装置が複数存在する場合、表情データ処理モジュール101は、複数の計測チャネル又は複数の感情信号計測装置が計測した値の平均値等を感情信号として取得してもよい。
ステップS302からステップS310の処理は、ステップS102からステップS110の処理と同一である。
表情データ処理モジュール101は、ステップS310の処理が実行された後、変数iに1を設定する(ステップS311)。ここで、変数iは感情信号情報1401の一つのエントリに含まれる行を表し、また、感情信号の種別を表す値である。
次に、表情データ処理モジュール101は、感情信号情報1401に追加されたエントリを参照し、当該エントリのi行目に感情信号が存在するか否かを判定する(ステップS312)。
追加されたエントリのi行目に感情信号が存在すると判定された場合、表情データ処理モジュール101は、当該感情信号の感情変化指標を算出する(ステップS313)。このとき、表情データ処理モジュール101は、追加されたエントリの感情変化指標1505のi行目に、算出された感情変化指標を格納する。
次に、表情データ処理モジュール101は、変数iに1を加算し(ステップS314)、ステップS312に戻る。
ステップS312において、追加されたエントリのi行目に感情信号が存在しないと判定された場合、表情データ処理モジュール101は、感情変化指標に基づいて発生度を算出する(ステップS315)。このとき、表情データ処理モジュール101は、発生度情報1402にエントリを追加し、追加されたエントリのID1601に識別情報を格納する。また、表情データ処理モジュール101は、追加されたエントリの算出時刻1602及び発生度1603に、算出時刻及び発生度を格納する。
次に、表情データ処理モジュール101は、発生度及び感情変化推定規則情報1403に基づいて、感情変化の有無を推定する(ステップS316)。具体的には、以下のような処理が実行される。
表情データ処理モジュール101は、閾値1701及び発生度を比較する。表情データ処理モジュール101は、発生度が閾値1701より大きい場合、感情変化があると判定し、発生度が閾値1701以下である場合、感情変化がないと判定する。
表情データ処理モジュール101は、感情情報215にエントリを追加し、追加されたエントリのID701に識別情報を格納する。表情データ処理モジュール101は、感情変化フラグ703に、感情変化の有無の推定結果を格納する。以上がステップS316の処理の説明である。
次に、表情データ処理モジュール101は、時間的関係性指標の変化量及びステップS316の処理結果に基づいて、ユーザの感情を推定する(ステップS317)。その後、表情データ処理モジュール101は感情推定処理を終了する。具体的には、以下のような処理が実行される。
表情データ処理モジュール101は、(処理1)から(処理4)を実行する。ただし、(処理3)では、時間的関係性指標の変化量及び感情推定規則情報216の比較結果だけではなく、発生度及びステップS316の処理結果の少なくともいずれかを用いてユーザの感情が推定される。
例えば、感情変化フラグ703が「あり」、かつ、適合条件を満たす規則が存在する場合、表情データ処理モジュール101は、適合条件を満たす規則に基づいて感情を推定する。感情変化フラグ703が「あり」、かつ、適合条件を満たす規則が存在しない場合、表情データ処理モジュール101は、時間的関係性指標の変化量と閾値804との差が最も小さい規則に基づいて感情を推定する。感情変化フラグ703が「なし」の場合、表情データ処理モジュール101は、適合条件を満たす規則の有無にかかわらず、感情を「無表情」と推定する。
例えば、表情データ処理モジュール101は、発生度を用いて時間的関係性指標の変化量を補正し、補正後の時間的関係性指標の変化量及び感情推定規則情報216の比較結果に基づいて感情を推定する。
実施例2の(処理4)では、感情変化フラグ703以外のフィールドの更新方法は実施例1と同一である。以上が、ステップS317の処理の説明である。
なお、表情データ処理モジュール101は、感情を推定するために感情信号を用いてもよい。例えば、感情推定規則情報216に感情変化指標の閾値を設定し、時間的関係性指標の変化量及び感情変化指標と、それぞれの閾値との比較結果に基づいて感情を推定する。以上がステップS317の処理の説明である。
なお、感情信号及び表情信号は同じ信号でもよい。例えば、表情データ処理モジュール101は、ユーザの頭部の動き及び向き等に関連する表情特徴量を用いて感情変化指標を算出する。
実施例2によれば、最適な閾値804が変動する場合でも、ユーザの感情信号から算出された発生度を用いることによって、ユーザの感情の推定精度を向上させることができる。
実施例3では、各実施例において、計算機100が出力した出力情報によって出力装置120に表示されるGUI(Graphical User Interface)について説明する。
まず、ユーザが、感情の推定結果を用いて表情トレーニングを行う場合に表示されるGUIについて説明する。
表情トレーニングは、コミュニケーション等において、ユーザが感情に合わせて適切な表情を伝えるためのトレーニングである。なお、表情トレーニングでは、表情の変化させるトレーニングでもよいし、表情そのもののトレーニングでもよい。
表情トレーニングを実行するシステムは、表情特徴量及び時間的関係性指標の変化量を変化させるための指示を出力情報としてユーザに出力する。ユーザは、出力情報に基づいて表示されたGUIを参照して、表情を変化させる。
図19は、実施例3の出力装置120に表示されるGUIの一例を示す図である。
GUI1900は、トレーニング名欄1910、種類名欄1920、目標欄1930、表情分析結果欄1940、及びトレーニング結果欄1950を含む。
トレーニング名欄1910は、トレーニングの名称を表示する欄である。種類名欄1920は、トレーニングの種類の名称を表示する欄である。目標欄1930は、トレーニングの目標を表示する欄である。
表情分析結果欄1940は、表情の分析結果を表示する欄である。表情分析結果欄1940は、ユーザ指示欄1941、画像欄1942、及び感情グラフ欄1943を含む。
ユーザ指示欄1941は、トレーニングにおけるユーザへの指示を示す文字列を表示する欄である。画像欄1942は、ユーザへの表情の指示を示す画像を表示する欄である。感情グラフ欄1943は、トレーニング中のユーザの感情の推定結果の推移を示すグラフを表示する欄である。
なお、ユーザ指示欄1941に、特徴点及び表情特徴量に関する情報を表示し、特徴点の移動を促す情報を呈示してもよい。
トレーニング結果欄1950は、トレーニングの結果及びその他の項目を表示する欄である。トレーニング結果欄1950は、種類名欄1951、結果グラフ欄1952、点数欄1953、練習ボタン1954、及び設定ボタン1955を含む。
種類名欄1951は、種類名欄1920と同一の値を表示する欄である。結果グラフ欄1952は、トレーニング中の表情の程度及びトレーニングの目標を示すグラフを表示する欄である。点数欄1953は、トレーニングの目標に到達するまでの点数を表示する欄である。練習ボタン1954は、GUI1900を表示するための操作ボタンである。設定ボタン1955は、後述するGUI2000を表示するための操作ボタンである。
なお、GUI1900には、表情データ情報211等の各種情報を表示する欄を設けてもよいし、また、各種情報から算出した値を表示する欄を設けてもよい。例えば、表情の程度を評価する情報として、表情データ処理モジュール101は、目標とする感情に推移した後に、変化度704の累積値をGUI1900に表示してもよい。
図20は、実施例3の出力装置120に表示されるGUIの一例を示す図である。
GUI2000は、時間的関係性指標設定欄2010、変化量設定欄2020、感情推定規則設定欄2030、学習方法設定欄2040、感情変化設定欄2050、保存ボタン2060、練習ボタン2070、及び設定ボタン2080を含む。
時間的関係性指標設定欄2010は、表情特徴量及び時間的関係性指標に関連するパラメータを設定する欄である。時間的関係性指標設定欄2010は、表情特徴量2011、時間的関係性指標名2012、変化量2013、及びデータ数2014を含む。
表情特徴量2011は、表情特徴量を算出するためのパラメータを設定する欄である。時間的関係性指標名2012は、時間的関係性指標を算出するため値の名称を設定する欄である。変化量2013は、時間的関係性指標の算出時に使用するパラメータを設定する欄である。データ数2014は、時間的関係性指標を算出するために必要な表情データの時系列データの数を設定する欄である。
変化量設定欄2020は、時間的関係性指標の変化量に関連するパラメータを設定する欄である。変化量設定欄2020は、変化量2021及びデータ数2022を含む。
変化量2021は、時間的関係性指標の変化量の算出時に使用するパラメータを設定する欄である。データ数2022は、時間的関係性指標の変化量を算出するために必要な時間的関係指標の時系列データの数を設定する欄である。
感情推定規則設定欄2030は、推定規則を設定するための欄である。感情推定規則設定欄2030は、ラジオボタン2031、感情変化2032、部位2033、及び閾値2034を含む。
ラジオボタン2031は、推定規則を設定する場合に操作されるボタンである。ラジオボタン2031を操作することによって感情変化2032、部位2033、及び閾値2034への入力が可能となる。感情変化2032は、感情の変化を示す値を設定する欄である。部位2033は、基準となる特徴点(顔の部位)等を設定する欄である。閾値2034は、感情を推定する場合に使用する閾値を設定する欄である。
学習方法設定欄2040は、閾値を決定するための学習方法を設定する欄である。学習方法設定欄2040はラジオボタン群を含む。ラジオボタン群を操作することによって学習方法を設定できる。実施例1では、学習データの有無を選択するラジオボタン、及び使用する学習データを選択するラジオボタンが含まれる。
感情変化設定欄2050は、感情変化指標に関するパラメータ及び感情変化の有無を判定するための規則を設定するための欄である。感情変化設定欄2050は、ラジオボタン2051、信号種別2052、感情変化指標2053、及び閾値2054を含む。
ラジオボタン2051は、感情変化指標を算出するためのパラメータを設定する場合に操作されるボタンである。ラジオボタン2051を操作することによって信号種別2052及び感情変化指標2053への入力が可能となる。信号種別2052は、感情変化指標の算出時に使用する感情信号の種類を設定する欄である。感情変化指標2053は、感情変化指標の算出時に使用するパラメータを設定する欄である。閾値2054は、感情変化の有無を判定する場合に使用する閾値を設定する欄である。
保存ボタン2060は、各設定欄の入力を保存する場合に操作されるボタンである。練習ボタン2070及び設定ボタン2080は、練習ボタン1954及び設定ボタン1955と同一のボタンである。
図19及び図20に示すようなGUIを用いることによって、表情特徴量、時間的関係性指標、及び感情変化度等のユーザの感情を推定するための各種情報を容易に設定し、また、設定の追加、削除、及び変更ができる。
なお、図20に示した設定画面とは別に、表情信号、特徴点の数及び配置、並びにトレーニング時に呈示する言語情報及び非言語情報等を設定する画面を表示することもできる。
実施例4では、各実施例において、ユーザと対話を行う対話インタフェースを表示するGUIを説明する。
対話インタフェースは、コミュニケーション等において、ユーザの共感を誘起しながら対話を行うために、出力装置120を介して出力されるインタフェースである。対話インタフェースは、例えば、ヒト及び動物等の生物を模したキャラクタのCGである。
計算機100は、ユーザの感情の推定結果に基づいて、ユーザの表情変化を模倣するように対話インタフェースを制御する。これによって、ユーザの共感を誘起する対話を実現できる。
例えば、計算機100は、ユーザの顔画像に設定された特徴点及び基準点と同じ座標を用いて、ユーザの特徴点間の時間的関係性指標の変化と同一となるように対話インタフェースの特徴点を変化させる。また、計算機100は、ユーザの顔画像に設定された特徴点及び基準点と、対話インタフェースの特徴点との間の関係を設定し、顔画像から算出された時間的関係性指標の変化量に一致するように対話インタフェースの特徴点を変化させる。
より具体的には、計算機100は、ユーザの眼及び口の特徴点の移動軌跡に基づいて対話インタフェースの眼及び口の特徴点を移動させるのではなく、ユーザの眼及び口の特徴点の移動の関係性に一致するように、対話インタフェースの眼及び口を連動させて移動させる。これによって、ユーザの表情変化を模倣することができる。
なお、計算機100は、ユーザの共感を効果的に誘起するために、音声等の言語情報、対話インタフェースの顔の向き及び傾きの変化並びに動作等の非言語情報を呈示してもよい。
なお、計算機100は、時間的関係性指標の変化量に基づいて、対話インタフェースが出力する言語情報及び非言語情報を制御してもよい。例えば、ユーザの感情が無表情から幸福感に変化したと推定された場合、計算機100は、呈示する言語情報の音声の周波数を上げてもよいし、時間的関係性指標の変化に合わせて、対話インタフェースの手及び腕が動作するように制御してもよい。
図21は、実施例4の出力装置120に表示されるGUIの一例を示す図である。
GUI2100は、対話カテゴリ欄2110、対話キャラクタ欄2120、対話レベル欄2130、対話インタフェース欄2140、対話ボタン2150、及び設定ボタン2160を含む。
対話カテゴリ欄2110は、対話カテゴリの名称を表示する欄である。対話キャラクタ欄2120は、対話キャラクタの種別又は名称を表示する欄である。対話レベル欄2130は、対話レベルを表示する欄である。
対話インタフェース欄2140は、対話インタフェースを表示する欄である。対話インタフェース欄2140には、言語情報2141及び対話インタフェース2142が表示される。言語情報2141は、対話内容を表す情報である。
対話ボタン2150は、GUI2100を表示するための操作ボタンである。設定ボタン2160は、図21に示すようなGUIを表示するための操作ボタンである。
図21に示すようなGUIを表示することによって、ユーザの共感を誘起する対話を行う対話インタフェースを実現できる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROM等が用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
100 計算機
101 表情データ処理モジュール
102 出力モジュール
110 表情信号計測装置
120 出力装置
130 入力装置
201 演算装置
202 記憶装置
203 入力インタフェース
204 出力インタフェース
211 表情データ情報
212 表情特徴量分析情報
213 時間的関係性指標情報
214 時間的関係性指標分析情報
215 感情情報
216 感情推定規則情報
1301、1302 感情信号計測装置
1401 感情信号情報
1402 発生度情報
1403 感情変化推定規則情報
1900、2000、2100 GUI

Claims (14)

  1. 演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを備える計算機であって、
    前記演算装置は、
    ユーザを含む画像を取得して、前記ユーザの顔を含む表情データを生成し、
    前記表情データにおける前記ユーザの顔に複数の特徴点を設定し、
    前記表情データの時系列データを用いて、時間の経過に伴う前記複数の特徴点間の時間的関係性を示す時間的関係性指標を算出し、
    前記時間的関係性指標の時系列データを用いて、時間の経過に伴う前記時間的関係性指標の変化量を算出し、
    前記時間的関係性指標の変化量に基づいて、前記ユーザの感情を推定することを特徴とする計算機。
  2. 請求項1に記載の計算機であって、
    前記記憶装置は、前記ユーザの感情及び閾値から構成される推定規則を管理するための感情推定規則情報を保持し、
    前記演算装置は、前記時間的関係性指標の変化量及び前記閾値の比較結果に基づいて、前記ユーザの感情を推定することを特徴とする計算機。
  3. 請求項2に記載の計算機であって、
    前記時間的関係性指標は、前記複数の特徴点間の相関係数であることを特徴とする計算機。
  4. 請求項3に記載の計算機であって、
    前記演算装置は、前記ユーザの両眼に設定された前記特徴点間の前記相関係数、前記ユーザの口に設定された前記特徴点間の前記相関係数、前記ユーザの口及び眼の各々に設定された前記特徴点間の前記相関係数の少なくともいずれかを前記時間的関係性指標として算出することを特徴とする計算機。
  5. 請求項2に記載の計算機であって、
    前記演算装置は、前記ユーザの感情が変化する可能性を示す発生度を算出するための感情信号を取得し、
    前記感情信号を用いて前記発生度を算出し、
    前記時間的関係性指標の変化量及び前記発生度に基づいて、前記ユーザの感情を推定することを特徴とする計算機。
  6. 請求項5に記載の計算機であって、
    前記演算装置は、
    前記発生度に基づいて、前記ユーザの感情が変化するか否かを判定し、
    前記判定の結果及び前記時間的関係性指標の変化量に基づいて、前記ユーザの感情を推定することを特徴とする計算機。
  7. 請求項2に記載の計算機であって、
    前記演算装置は、
    前記ユーザの感情の推定結果に基づいて、前記ユーザの表情を評価する情報及び前記ユーザの対話を補助する情報を前記ユーザに呈示するための出力情報を生成し、
    前記インタフェースを介して前記出力情報を出力することを特徴とする計算機。
  8. 演算装置、前記演算装置に接続される記憶装置、前記演算装置に接続されるインタフェースを備える計算機が実行する感情推定方法であって、
    前記演算装置が、ユーザを含む画像を取得して、前記ユーザの顔を含む表情データを生成する第1のステップと、
    前記演算装置が、前記表情データにおける前記ユーザの顔に複数の特徴点を設定する第2のステップと、
    前記演算装置が、前記表情データの時系列データを用いて、時間の経過に伴う前記複数の特徴点間の時間的関係性を示す時間的関係性指標を算出する第3のステップと、
    前記演算装置が、前記時間的関係性指標の時系列データを用いて、時間の経過に伴う前記時間的関係性指標の変化量を算出する第4のステップと、
    前記演算装置が、前記時間的関係性指標の変化量に基づいて、前記ユーザの感情を推定する第5のステップと、を含むことを特徴とする感情推定方法。
  9. 請求項8に記載の感情推定方法であって、
    前記記憶装置は、前記ユーザの感情及び閾値から構成される推定規則を管理するための感情推定規則情報を保持し、
    前記第5のステップは、前記演算装置が、前記時間的関係性指標の変化量及び前記閾値の比較結果に基づいて、前記ユーザの感情を推定するステップを含むことを特徴とする感情推定方法。
  10. 請求項9に記載の感情推定方法であって、
    前記時間的関係性指標は、前記複数の特徴点間の相関係数であることを特徴とする感情推定方法。
  11. 請求項10に記載の感情推定方法であって、
    前記演算装置は、前記ユーザの両眼に設定された前記特徴点間の前記相関係数、前記ユーザの口に設定された前記特徴点間の前記相関係数、前記ユーザの口及び眼の各々に設定された前記特徴点間の前記相関係数の少なくともいずれかを前記時間的関係性指標として算出することを特徴とする感情推定方法。
  12. 請求項9に記載の感情推定方法であって、
    前記演算装置が、前記ユーザの感情が変化する可能性を示す発生度を算出するための感情信号を取得するステップと、
    前記演算装置が、前記感情信号を用いて前記発生度を算出するステップと、を含み、
    前記第5のステップは、前記演算装置が、前記時間的関係性指標の変化量及び前記発生度に基づいて、前記ユーザの感情を推定するステップを含むことを特徴とする感情推定方法。
  13. 請求項12に記載の感情推定方法であって、
    前記演算装置が、前記発生度に基づいて、前記ユーザの感情が変化するか否かを判定するステップを含み、
    前記第5のステップは、前記演算装置が、前記判定の結果及び前記時間的関係性指標の変化量に基づいて、前記ユーザの感情を推定するステップを含むことを特徴とする感情推定方法。
  14. 請求項9に記載の感情推定方法であって、
    前記演算装置が、前記ユーザの感情の推定結果に基づいて、前記ユーザの表情を評価する情報及び前記ユーザの対話を補助する情報を前記ユーザに呈示するための出力情報を生成するステップと、
    前記演算装置が、前記インタフェースを介して前記出力情報を出力するステップと、を含むことを特徴とする感情推定方法。
JP2018095518A 2018-05-17 2018-05-17 計算機及び感情推定方法 Active JP6993291B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018095518A JP6993291B2 (ja) 2018-05-17 2018-05-17 計算機及び感情推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018095518A JP6993291B2 (ja) 2018-05-17 2018-05-17 計算機及び感情推定方法

Publications (2)

Publication Number Publication Date
JP2019200656A true JP2019200656A (ja) 2019-11-21
JP6993291B2 JP6993291B2 (ja) 2022-01-13

Family

ID=68611256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018095518A Active JP6993291B2 (ja) 2018-05-17 2018-05-17 計算機及び感情推定方法

Country Status (1)

Country Link
JP (1) JP6993291B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021140409A (ja) * 2020-03-04 2021-09-16 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7008385B1 (ja) * 2021-06-11 2022-01-25 株式会社ライフクエスト 感情推定装置、感情推定方法、及びプログラム
CN115857595A (zh) * 2023-03-02 2023-03-28 安徽星辰智跃科技有限责任公司 基于用户心境的功能环境调节方法、系统和装置
US11804075B2 (en) 2020-06-23 2023-10-31 Toyota Jidosha Kabushiki Kaisha Emotion determination device, emotion determination method, and non-transitory storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039934A (ja) * 2009-08-17 2011-02-24 Tokai Univ 感情推定システム及びそれを利用した学習システム
JP2016149063A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039934A (ja) * 2009-08-17 2011-02-24 Tokai Univ 感情推定システム及びそれを利用した学習システム
JP2016149063A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021140409A (ja) * 2020-03-04 2021-09-16 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7184835B2 (ja) 2020-03-04 2022-12-06 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7418709B2 (ja) 2020-03-04 2024-01-22 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
US11804075B2 (en) 2020-06-23 2023-10-31 Toyota Jidosha Kabushiki Kaisha Emotion determination device, emotion determination method, and non-transitory storage medium
JP7008385B1 (ja) * 2021-06-11 2022-01-25 株式会社ライフクエスト 感情推定装置、感情推定方法、及びプログラム
WO2022259560A1 (ja) * 2021-06-11 2022-12-15 株式会社ライフクエスト 感情推定装置、感情推定方法、及びプログラム
JP2022189703A (ja) * 2021-06-11 2022-12-22 株式会社ライフクエスト 感情推定装置、感情推定方法、及びプログラム
JP7442838B2 (ja) 2021-06-11 2024-03-05 株式会社ライフクエスト 感情推定装置、感情推定方法、及びプログラム
CN115857595A (zh) * 2023-03-02 2023-03-28 安徽星辰智跃科技有限责任公司 基于用户心境的功能环境调节方法、系统和装置

Also Published As

Publication number Publication date
JP6993291B2 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
US10863939B2 (en) Emotion estimating method, emotion estimating apparatus, and recording medium storing program
JP6993291B2 (ja) 計算機及び感情推定方法
JP7103078B2 (ja) 作業支援装置、作業支援方法及び作業支援プログラム
EP3627381A1 (en) Method of facial expression generation with data fusion and related device
Kołakowska et al. Emotion recognition and its application in software engineering
US9031293B2 (en) Multi-modal sensor based emotion recognition and emotional interface
US11127181B2 (en) Avatar facial expression generating system and method of avatar facial expression generation
CN113423334A (zh) 信息处理设备、信息处理方法和程序
JP7070253B2 (ja) パフォーマンス計測装置、パフォーマンス計測方法及びパフォーマンス計測プログラム
JP2022546644A (ja) 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法
CN115227213A (zh) 心率测量方法、电子设备及计算机可读存储介质
JP6768597B2 (ja) 対話システム、対話システムの制御方法、及び装置
JP2021048965A (ja) 特徴量抽出装置、状態推定装置、特徴量抽出方法、状態推定方法及びプログラム
JP7311118B2 (ja) 感情推定方法および感情推定システム
TWI829944B (zh) 虛擬化身臉部表情產生系統和虛擬化身臉部表情產生方法
CN116785553A (zh) 一种基于界面式情感交互的认知康复系统及方法
US11276420B2 (en) Interaction system, apparatus, and non-transitory computer readable storage medium
US10636422B2 (en) System and conversation information output method
Al-Zubi Detecting facial expressions from EEG signals and head movement for controlling mouse curser
Rusydi et al. Facial Features Extraction Based on Distance and Area of Points for Expression Recognition
WO2023037749A1 (ja) 評価方法、評価システム、およびプログラム
Wijayarathna et al. Toward Stress Detection During Gameplay: A Survey
WO2023127930A1 (ja) 感情推定装置及び感情推定モデル生成方法
WO2023199839A1 (ja) 内面状態推定装置、内面状態推定方法及び記憶媒体
KR20230132663A (ko) 운동관련뇌전위 및 가상현실 시뮬레이션을 이용한 뇌졸중 재활치료 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211209

R150 Certificate of patent or registration of utility model

Ref document number: 6993291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150