JP7283336B2 - 印象推定方法、印象推定プログラムおよび印象推定装置 - Google Patents

印象推定方法、印象推定プログラムおよび印象推定装置 Download PDF

Info

Publication number
JP7283336B2
JP7283336B2 JP2019179536A JP2019179536A JP7283336B2 JP 7283336 B2 JP7283336 B2 JP 7283336B2 JP 2019179536 A JP2019179536 A JP 2019179536A JP 2019179536 A JP2019179536 A JP 2019179536A JP 7283336 B2 JP7283336 B2 JP 7283336B2
Authority
JP
Japan
Prior art keywords
user
impression
trigger
action
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019179536A
Other languages
English (en)
Other versions
JP2021056786A (ja
Inventor
昭嘉 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019179536A priority Critical patent/JP7283336B2/ja
Publication of JP2021056786A publication Critical patent/JP2021056786A/ja
Application granted granted Critical
Publication of JP7283336B2 publication Critical patent/JP7283336B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明の実施形態は、印象推定方法、印象推定プログラムおよび印象推定装置に関する。
従来、商品・サービスを対象としたマーケティング調査では、調査対象とする試供品などを試した被験者の状態を捉えて試供品の評価を自動的に収集する手法がある。
被験者の評価を収集する従来技術としては、カメラを用いて被験者の映像を撮影し、マイクを用いて被験者の音声を受信して試供品を試したその時をトリガとして被験者の状態を捉え、映像の顔検出区間における表情感情解析データと、音声の音声感情解析データとを試供品の評価情報の一つとすることで、試供品の評価を自動的に取得する装置が知られている。
特開2018-106419号公報
しかしながら、上記の従来技術では、被験者が試供品に対する印象を十分に発露していないタイミングで被験者の状態を捉える場合があり、対象に対する印象推定の精度が十分ではないという問題がある。
1つの側面では、対象に対する人の印象を精度よく推定することができる印象推定方法、印象推定プログラムおよび印象推定装置を提供することを目的とする。
1つの案では、ユーザそれぞれの動作に基づいてユーザそれぞれの所定の対象に対する印象を推定する印象推定方法であって、動作を検出する処理と、第1のトリガを検出する処理と、第2のトリガを検出する処理と、設定する処理と、推定する処理とをコンピュータが実行する。動作を検出する処理は、ユーザそれぞれの動作を検出する。第1のトリガを検出する処理は、検出したユーザそれぞれの動作において、第1のユーザが対象に対して行う動作を示す第1のトリガを検出する。第2のトリガを検出する処理は、検出したユーザそれぞれの動作において、第1のユーザから第2のユーザに対するコミュニケーション動作を示す第2のトリガを検出する。設定する処理は、第1のトリガを検出した後の所定時間内に第2のトリガを検出した場合に、第1のトリガおよび第2のトリガに基づき、第1のユーザおよび第2のユーザの少なくとも一方について対象に対する印象を推定する動作の期間を設定する。推定する処理は、設定した期間内における第1のユーザおよび第2のユーザの少なくとも一方の動作を特徴量とし、第1のユーザおよび第2のユーザの少なくとも一方の対象に対する印象を推定する。
本発明の1実施態様によれば、対象に対する人の印象を精度よく推定できる。
図1は、実施形態にかかる印象推定装置の機能構成例を示すブロック図である。 図2は、実施形態にかかる印象推定装置の設置例を説明する説明図である。 図3は、印象推定例を説明する説明図である。 図4は、実施形態にかかる印象推定装置の動作例を示すフローチャートである。 図5は、人物における印象データの一例を説明する説明図である。 図6は、人物における印象データの一例を説明する説明図である。 図7は、人物における印象データの一例を説明する説明図である。 図8は、人物における印象データの一例を説明する説明図である。 図9は、人物における印象データの一例を説明する説明図である。 図10は、人物における印象データの一例を説明する説明図である。 図11-1は、印象情報収集率のグラフ例を説明する説明図である。 図11-2は、回答内容のグラフ例を説明する説明図である。 図12は、プログラムを実行するコンピュータの一例を示すブロック図である。
以下、図面を参照して、実施形態にかかる印象推定方法、印象推定プログラムおよび印象推定装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する印象推定方法、印象推定プログラムおよび印象推定装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
図1は、実施形態にかかる印象推定装置の機能構成例を示すブロック図である。図1に示すように、印象推定装置1は、入力部10、記憶部20、出力部30、制御部40、第1トリガ検出部51、第2トリガ検出部52、印象推定部53およびグループ推定部54を有する。印象推定装置1は、入力部10の音声受信部11および撮影部12よりマーケティング調査において調査対象とするサービス・試供品などを試した被験者(以下、人物)の状態(音声、顔画像など)を捉える。
図2は、実施形態にかかる印象推定装置1の設置例を説明する説明図である。図2に示すように、入力部10における音声受信部11および撮影部12は、マーケティング調査の対象とするワインWを人物Hそれぞれに提供し、ワインWの試飲を行う会場に設置される。
例えば、ワインWの提供を受けた人物H1~H7それぞれは、友達、同僚、カップルなどのグループG1~G3ごとに、ワインWを会場にて試飲する。音声受信部11および撮影部12は、会場における人物H1~H7それぞれの状態(音声、顔画像など)を捉えるように設置される。
一例として、音声受信部11は、試飲会場内の音声を漏らさずに捉えるように、各テーブルなどに設置される。また、音声受信部11は、人物H1~H7それぞれの音声を漏らさずに拾うように、ワインWを提供した際に人物H1~H7それぞれに設置したピンマイクなどであってもよい。また、撮影部12は、例えばワインWの会場の全体を俯瞰するように設置され、グループG1~G3における人物H1~H7それぞれの動作を撮影する。
次いで、印象推定装置1は、捉えた人物H1~H7それぞれの状態(動作)をもとに印象推定部53において対象に対する印象推定を行い、出力部30より推定結果を出力する。これにより、印象推定装置1のユーザは、サービス・試供品などの評価を自動的に取得することができ、商品・サービスを対象としたマーケティング調査を容易に行うことができる。例えば、印象推定装置1としては、パーソナルコンピュータなどを適用できる。
入力部10は、音声受信部11および撮影部12の入力を受け付ける。入力部10は、音声受信部11および撮影部12より入力されたデータをもとに、公知の動作認識技術を用いることで、人物Hそれぞれの動作を検出する。すなわち、入力部10は、動作検出部の一例である。
具体的には、入力部10は、撮影部12の映像より公知の画像認識技術を用いることで人物H1~H7それぞれを識別する。なお、印象推定装置1は、識別した人物H1~H7それぞれにユニークな識別情報(人物ID)を割り当てることで、人物H1~H7の情報を個別に管理する。次いで、入力部10は、撮影部12の映像の中の、識別した人物H1~H7それぞれの画像領域を切り出し、動作を解析する公知の動作解析エンジンに投入することで、人物H1~H7それぞれの動作を例えば行動タグという形で取得する。
また、入力部10は、動作解析エンジンにより解析した人物H1~H7それぞれの動作に関する音を音声受信部11より取得した音声を解析し、行動タグに含める。また、入力部10は、人物H1~H7それぞれの動作に関する音が他の人物への発話(会話)である場合、会話時に音声受信部11より取得した音声を音声認識することで、会話の内容を取得する。
このように、入力部10は、人物H1~H7それぞれの動作の内容を示す行動タグを識別情報(人物ID)付きで得る。入力部10は、得られた行動タグを制御部40へ出力する。
例えば、行動タグに示される動作内容については、対象に関する匂いの場合、鼻をクンクンする動き、深い吸い込み動作等がある。また、匂いに関する発生単語(会話の内容)には、匂い、香り、臭い等がある。また、匂いに関する動作の音(発生音)には、鼻をクンクンする音、深い吸い込み音等がある。
また、対象に関して味見をする場合の動作内容については、対象を舐める動き、食べる動き、飲み込む動き等がある。また、対象に関して味見をする場合の発生単語(会話の内容)には、美味しい、不味い、好き、好きではない等がある。また、対象に関して味見をする場合の動作の音(発生音)には、対象を舐める音、食べる音、飲み込む音等がある。
また、対象に関して触れる場合の動作内容については、対象を触る動き等がある。また、対象に関して触れる場合の発生単語(会話の内容)には、手触りがいい、手触りが悪い等がある。また、対象に関して触れる場合の動作の音(発生音)には、対象を触る音、叩く音等がある。
また、対象を直視する場合の動作内容については、対象への視点動作(凝視や見渡す動き)等がある。また、対象を直視する場合の発生単語(会話の内容)には、きれい、すごい等がある。また、行動タグに示される動作内容については、上記のコミュニケーション動作(会話の内容)などの他に、他の人物への視点動作(視線移動、アイコンタクト)、他の人物への顔向け、声掛け、名前呼び、肩をたたく動作等もある。
記憶部20は、制御部40の制御のもと各種処理の情報を格納するメモリなどである。具体的には、記憶部20は、入力部10が検出した人物H1~H7それぞれの動作内容(行動タグ)、音声受信部11が取得した音声データ、撮影部12が撮影した画像データ、印象推定部53およびグループ推定部54の推定結果などの情報を格納する。
出力部30は、制御部40の制御のもと各種処理の結果をディスプレイやファイルなどに出力する処理部である。例えば、出力部30は、印象推定部53による、人物H1~H7それぞれの対象に対する印象推定の結果をディスプレイやファイルなどに出力する。これにより、印象推定装置1のユーザは、人物H1~H7それぞれの対象に対する印象を容易に知ることができる。
例えば、出力部30は、撮影部12の画像データ(映像)と、人物H1~H7それぞれの対象に対する印象推定の結果とを記憶部20より読み出す。次いで、出力部30は、撮影部12の映像に対し、識別した人物H1~H7それぞれに識別情報(人物ID)を付与した識別枠を付与するとともに、識別情報に紐付けられた印象推定の結果を例えばアイコン形式で付与する。次いで、出力部30は、人物H1~H7それぞれに識別枠と、印象推定の結果とを付与した撮影部12の映像をディスプレイなどに表示する。このように、出力部30は、人物H1~H7それぞれの対象に対する印象推定の結果を、人物H1~H7それぞれに対応付けて表示する。
制御部40は、印象推定装置1の処理を統括制御する処理部である。例えば、制御部40は、入力部10の音声受信部11および撮影部12より入力されたデータ(音声データ、画像データ)を記憶部20に格納する。また、制御部40は、入力部10が検出した人物H1~H7それぞれの動作に関する情報(動作タグ)を記憶部20に格納する。また、制御部40は、記憶部20に格納した各種情報を適宜読み出して出力部30、第1トリガ検出部51、第2トリガ検出部52、印象推定部53およびグループ推定部54へ出力する。また、制御部40は、印象推定部53において、印象データを取得する期間の設定を行う(詳細は後述する)。
第1トリガ検出部51は、入力部10が検出した人物H1~H7それぞれの動作において、人物H1~H7のいずれかの人物が所定の対象(例えばワインW)に対して行う動作を示すトリガ(第1のトリガ)を検出する処理部である。
具体的には、第1トリガ検出部51には、第1のトリガとして検出する動作(動作内容、発生音など)が予め設定されている。第1トリガ検出部51は、人物H1~H7それぞれの行動タグを逐次監視しており、行動タグの内容が予め設定された動作に該当する場合に第1のトリガを検出する。
例えば、第1トリガ検出部51は、人物H1~H7それぞれの行動タグが、鼻をクンクンする動き、深い吸い込み動作、鼻をクンクンする音、深い吸い込み音などの動作または動作で生じる音である場合、対象に関する匂いの動作として第1のトリガを検出する。
また、第1トリガ検出部51は、人物H1~H7それぞれの行動タグが、対象を舐める動き、食べる動き、飲み込む動き、対象を舐める音、食べる音、飲み込む音などの動作または動作で生じる音である場合、対象に関する味見の動作として第1のトリガを検出する。
また、第1トリガ検出部51は、対象を触る動き、対象を触る音、叩く音などの動作または動作で生じる音である場合、対象に触れる動作として第1のトリガを検出する。
また、第1トリガ検出部51は、対象への視点動作(凝視や見渡す動き)である場合、対象を直視する動作として第1のトリガを検出する。
第2トリガ検出部52は、入力部10が検出した人物H1~H7それぞれの動作において、人物H1~H7のいずれかの人物から他の人物に対するコミュニケーション動作を示すトリガ(第2のトリガ)を検出する処理部である。
具体的には、第2トリガ検出部52には、第2のトリガとして検出する動作(動作内容、会話の内容など)が予め設定されている。第2トリガ検出部52は、人物H1~H7それぞれの行動タグを逐次監視しており、行動タグの内容が予め設定された動作に該当する場合に第2のトリガを検出する。
例えば、第2トリガ検出部52は、人物H1~H7それぞれの行動タグが、他の人物への視点動作(視線移動、アイコンタクト)、他の人物への顔向け、声掛け、名前呼び、肩をたたく動作などである場合、コミュニケーション動作として第2のトリガを検出する。
なお、第2トリガ検出部52は、第2のトリガとして検出するコミュニケーション動作について、対象に関する会話に限定してもよい。例えば、対象をワインWとする場合、第2トリガ検出部52は、人物H1~H7それぞれの行動タグが、ワイン、商品名、匂い、香り、臭い、美味しい、不味い、好き、好き等を含む会話の内容である場合に第2のトリガを検出する。
印象推定部53は、入力された音声データおよび画像データより識別した人物H1~H7それぞれについて、音声および画像に基づく人物H1~H7それぞれの動作を特徴量とし、人物H1~H7それぞれが有する印象(感情)を推定する処理部である。
例えば、人物H1~H7それぞれの動作における特徴量としては、表情(しぐさ)として主に顔の表情や体の動き(手の動き)などとして現れる表情特徴量、音声として現れる音声特徴量がある。印象推定部53は、入力された音声データおよび画像データより人物H1~H7それぞれの表情特徴量、音声特徴量を抽出する。次いで、印象推定部53は、教師付きの機械学習により表情特徴量、音声特徴量から印象推定を行うように学習した学習モデルを用いて人物H1~H7それぞれが有する印象を推定する。この印象推定部53における印象推定は、映像および音声の少なくとも1つの特徴量(表情特徴量、音声特徴量の中の1つ)または複数の特徴量の組み合わせで判定してもよい。
また、印象推定部53は、肯定的な印象(Positive)~否定的な印象(Negative)の中でどの程度の印象を人物が有しているかを数値として求めるものとする。例えば、印象推定部53は、肯定的な印象を有している場合は、その大きさを正の整数値として求める。また、印象推定部53は、否定的な印象を有している場合は、その大きさを負の整数値として求める。また、印象推定部53は、肯定・否定どちらでもない場合は0として求める。
図3は、印象推定例を説明する説明図である。図3に示すように、印象推定部53は、撮影部12の画像データより、識別した人物H1~H7それぞれについて顔検出531を行う。次いで、印象推定部53は、検出した顔画像の向きや大きさを調整するアライメント調整532を行うことで表情特徴量を得る。なお、本実施形態では顔の表情、しぐさより表情特徴量を得る構成としているが、手の動きを含めるようにアライメント調整532を行うことで、手の動きを含む表情特徴量を得るようにしてもよい。次いで、印象推定部53は、所定の表情特徴量に対して正解とするAU(Action Unit)値を含む教師データにより機械学習した学習モデルを用い、人物H1~H7それぞれの表情特徴量をもとにAU値を推定するAU推定533を行う。次いで、印象推定部53は、推定したAU値を印象を示す数値へ変換する印象推定534を行い、人物H1~H7それぞれが有する印象を示す印象データを得る。
図3の例では、表情特徴量より印象データを得る構成を例示したが、音声特徴量についても同様にして印象データが得られる。例えば、印象推定部53は、所定の音声特徴量に対して正解とするAU値を含む教師データにより機械学習した学習モデルを用いることで、人物H1~H7それぞれの表情特徴量をもとに印象データを得ることができる。
また、本実施形態では、一人よりも複数人いる時のコミュニケーション動作において表情等の感情(印象)の発露が多いことに着目した。特に、対象(例えばワインW)に対する印象を発露するタイミングとしては、対象に対する動作(例えば匂いを嗅ぐなど)に続いて行われるコミュニケーション動作(例えば会話、アイコンタクトなど)である点に着目した。そこで、制御部40は、第1トリガ検出部51および第2トリガ検出部52の検出結果をもとに、対象に対する印象を発露していると想定されるタイミングに合わせて、印象推定部53より印象データを取得する期間(抽出Window)を設定する。
具体的には、制御部40は、第1のトリガを検出した後の所定時間内に第2のトリガを検出した場合に、第1のトリガおよび第2のトリガに基づき、コミュニケーション動作を発した人物およびコミュニケーション動作を受けた人物の少なくとも一方について対象に対する印象を推定する動作の期間(抽出Window)を設定する。
例えば、制御部40は、対象に対する動作後にコミュニケーション動作を発した人物については、少なくとも第1のトリガ(対象に対する動作時)を含む期間を印象を推定する動作の期間(抽出Window)として設定する。
また、制御部40は、コミュニケーション動作を受けた人物については、少なくとも第2のトリガ(コミュニケーション動作時)を含む期間を印象を推定する動作の期間(抽出Window)として設定する。
このように、印象推定装置1は、対象(例えばワインW)に対する印象を発露していると想定されるタイミングに合わせて印象データを取得する期間(抽出Window)を設定することで、対象に対する人物の印象を精度よく推定することができる。
グループ推定部54は、撮影部12の画像データより、人物H1~H7それぞれが属するグループG1~グループG3の推定を行う処理部である。具体的には、撮影部12の画像データより識別した人物H1~H7それぞれについて、互いの距離が近い状態を継続している組をグループG1~グループG3として推定する。グループ推定部54は、人物H1~H7それぞれについて推定したグループを示す識別情報(グループID)を付与する。
制御部40は、グループ推定部54が推定したグループをもとに、コミュニケーション動作を受けた人物を特定する。具体的には、制御部40は、コミュニケーション動作を発した人物と同一のグループに属する(グループIDが同じ)人物をコミュニケーション動作を受けた人物と特定する。
図4は、実施形態にかかる印象推定装置1の動作例を示すフローチャートである。図4に示すように、処理が開始されると、印象推定装置1は、音声受信部11、撮影部12等の各種センサを起動し(S1)、人物Hの動作検出を開始する。
次いで、印象推定装置1は、第1トリガ検出部51による第1のトリガの検出、第2トリガ検出部52による第2のトリガの検出および印象推定部53による印象推定を開始する(S2)。
次いで、制御部40は、人物H1~H7いずれかについて、第1トリガ検出部51が第1のトリガを検出したか否かを判定する(S3)。第1のトリガを検出していない場合(S3:No)、制御部40は処理を待機する。
第1のトリガを検出した場合(S3:Yes)、第1のトリガを検出した人物に関し、制御部40は、予め設定された所定時間内に第2トリガ検出部52が第2のトリガを検出したか否かを判定する(S4)。第1のトリガを検出した人物に関して所定時間内に第2のトリガを検出していない場合(S4:No)、制御部40はS3へ処理を戻す。
第1のトリガを検出した人物に関して所定時間内に第2のトリガを検出した場合(S4:Yes)、制御部40は、第1のトリガおよび第2のトリガをもとに、第1のトリガを検出した人物と、その人物と同一グループの人物とに対して抽出Windowを設定する(S5)。すなわち、制御部40は、コミュニケーション動作を発した人物と、コミュニケーション動作を受けた人物とについて、第1のトリガおよび第2のトリガに応じた抽出Windowを設定する。
具体的には、制御部40は、第1のトリガを検出した人物(コミュニケーション動作を発した人物)については、第1のトリガ(対象に対する動作時)を含む所定期間を抽出Windowとする。また、制御部40は、第1のトリガを検出した人物と同一グループの人物(コミュニケーション動作を受けた人物)については、第2のトリガ(コミュニケーション動作時)を含む所定期間を抽出Windowとする。
次いで、印象推定部53は、抽出Windowを設定した人物について、抽出Window内の印象推定結果(印象データ)を抽出する(S6)。
次いで、制御部40は、予め設定された終了条件を満たすか否かをもとに、処理を終了するか否かを判定する(S7)。終了条件を満たす場合(S7:Yes)、制御部40は処理を終了する。終了条件を満たさない場合(S7:No)、制御部40は、S3へ処理を戻し、処理を継続する。
ここで、具体例を用いて、人物における印象推定を説明する。図5~図10は、人物H1、H2における印象データの一例を説明する説明図である。
図5~図10の例では、人物H1、H2が対象とするワインWを持って会場に入室し、ワインWの感想を述べ合うまでの時間経過を例示している。具体的には、入室後、人物H1が人物H2にワインWとは無関係の話題を話しかける(t1)。次いで、人物H1は、ワインWの匂いを認識し(t2、t2a)、ワインWの匂いを嗅ぐ動作を行う(t3)。次いで、ワインWの匂いを嗅ぐ動作の後、人物H1は、人物H2に対してワインWに関する会話を行う(t4)。
また、図9は、本実施形態における抽出Windowの設定例であり、図5~図8、図10は、本実施形態とは別の抽出Windowの設定例(比較例)である。
図5に示すように、人物H1、H2の印象データは、入室後はワインWとは無関係の話題により否定的な値を示している。その後、人物H1については、ワインWの匂い認識後(t2)にワインWに関する印象を発露し、t2以後の所定期間は肯定的な値を示している。人物H2については、人物H1からのワインWに関する会話(t4)に誘発される形でワインWに関する印象を発露し、t4以後の所定期間は肯定的な値を示している。
図6では、提供されたワインWを持って会場に入室したタイミングより所定期間内を抽出Windowとしている。図6に示すように抽出Windowを設定する場合、ワインWとは無関係の話題の会話に関する印象(否定的な印象)を含めてしまうこととなる。このため、人物H1、H2がワインWに関して本来有している肯定的な印象が打ち消され、印象推定の精度が悪くなることとなる。
図7では、提供されたワインWの匂いを認識して、ワインWの匂いを嗅ぐ動作を行ったタイミング(t3)を含む所定期間内を抽出Windowとしている。この場合、ワインWの匂いを嗅ぐ動作を行った人物H1については、ワインWに関する印象を発露するタイミングに合わせて抽出Windowを設定し、精度よく印象推定を行うことができる。しかしながら、人物H2については、ワインWの匂いを嗅ぐ動作を行っていないことから、抽出Windowが設定されない。
図8では、単にコミュニケーション動作を行ったタイミング(t1、t4)を含む所定期間内を抽出Windowとしている。この場合、ワインWとは無関係の会話が行われたタイミングで抽出Windowが設定され得ることから、図6と同様、印象推定の精度が悪くなることとなる。
図9では、ワインWの匂いを嗅ぐ動作(t3)に続いて行われるコミュニケーション動作(t4)をもとに、コミュニケーション動作を行った側(人物H1)と、コミュニケーション動作を受けた側(人物H2)の抽出Windowを設定している。
具体的には、人物H1については、ワインWの匂いを嗅ぐ動作を行ったタイミング(t3)を基準とし、t3を含む前後の所定期間を抽出Windowとする。また、人物H2については、人物H1からのコミュニケーション動作時(t4)を基準とし、t4を含む前後の所定期間を抽出Windowとする。これにより、人物H1、H2ともに、ワインWに関する印象を発露するタイミングに合わせて抽出Windowが設定されることから、精度よく印象推定を行うことができる。
図10では、第2のトリガ後に所定時間内に第1のトリガが検出される(t2a)場合を例示している。すなわち、図10では、図9とは逆に、コミュニケーション動作(t1)に続いて行われるワインWの匂いを嗅ぐ動作(t2a)をもとに、コミュニケーション動作を行った側(人物H1)と、コミュニケーション動作を受けた側(人物H2)の抽出Windowを設定している。
人の行動は、認知後に、認知に応じた行動をとることが一般的であると言える。例えば、t1の会話のように、最初のトリガとなるコミュニケーション動作は、認知とは関係のないものである可能性がある。したがって、第2のトリガ→第1のトリガを契機に抽出Windowを設定する場合、ワインWに関する印象を発露するタイミングに合わせた抽出Windowの設定とはならず、印象推定の精度が悪くなることとなる。
以上のように、印象推定装置1は、入力部10と、第1トリガ検出部51と、第2トリガ検出部52と、制御部40と、印象推定部53とを有する。入力部10は、音声受信部11および撮影部12より入力されたデータをもとに人物Hそれぞれの動作を検出する。第1トリガ検出部51は、入力部10が検出した動作において、第1のユーザが対象(例えばワインW)に対して行う動作を示す第1のトリガを検出する。第2トリガ検出部52は、入力部10が検出した動作において、第1のユーザから第2のユーザに対するコミュニケーション動作を示す第2のトリガを検出する。制御部40は、第1のトリガを検出した後の所定時間内に第2のトリガを検出した場合に、第1のトリガおよび第2のトリガに基づき、第1のユーザおよび第2のユーザの少なくとも一方について対象に対する印象を推定する動作の期間(抽出Window)を設定する。また、印象推定部53は、設定した期間内における第1のユーザおよび第2のユーザの少なくとも一方の動作を特徴量とし、第1のユーザおよび第2のユーザの少なくとも一方の対象に対する印象を推定する。
本実施形態では、一人よりも複数人いる時のコミュニケーション動作において表情等の感情(印象)の発露が多いことに着目している。特に、対象に対する印象を発露するタイミングとしては、対象に対する動作(例えば匂いを嗅ぐなど)に続いて行われるコミュニケーション動作(例えば会話、アイコンタクトなど)である点に着目している。例えば、コミュニケーション動作を行った側については、コミュニケーション動作の直前における、対象に対する動作を行った時点から印象を発露している場合がある。また、コミュニケーション動作を受けた側については、対象に対する動作を行うことなく、コミュニケーションを受けることによって対象に対する印象を発露している場合がある。
したがって、印象推定装置1は、対象に対して行う動作を示す第1のトリガに続いてコミュニケーション動作を示す第2のトリガを検出した場合に、第1のトリガおよび第2のトリガに基づいて印象を推定する動作の期間を設定することで、対象に対する人の印象を精度よく推定することができる。
図11-1は、印象情報収集率のグラフ例を説明する説明図である。図11-1におけるグラフX1は、アンケート形式で対象(例えばワインW)に対する回答を取得した場合の、総数に対するアンケート回答数を示すグラフである。グラフX2は、印象推定装置1を用いて対象に対する印象を検出した場合の、総数に対する検出できた人の数を示すグラフである。
図11-1に示すように、アンケート形式では、総数に対して回答を取得できた数の割合が低くなる傾向があり、一定数の回答を得ようとする場合には情報収集に関するコストが高くなる。これに対し、本実施形態では、グループで来場した人からはほぼ漏れなく印象の検出を行うことができ、情報収集に関するコストを低く抑えることができる。
図11-2は、回答内容のグラフ例を説明する説明図である。図11-2におけるグラフX3は、アンケート形式で対象(例えばワインW)に対する回答を取得した場合の、回答内容の内訳を示すグラフである。グラフX2は、印象推定装置1を用いて対象に対する印象を検出した場合の、印象の内訳を示すグラフである。
図11-2に示すように、アンケート形式では、対象に対して強い印象(大変良い、大変悪い)を持つ人が、回答に対する動機が強く、実際に回答するケースが多くなる。逆に、対象に対して強い印象を持たない人は、回答に対する動機が弱く、回答しないケースが多くなる。このため、アンケート形式では、対象に対して強い印象に偏った回答が得られることとなる。これに対し、本実施形態では、回答に対する動機に関係なく、グループで来場した人からはほぼ漏れなく印象の検出を行うことができるので、偏りなく精度のよい結果を得ることができる。
また、第1トリガ検出部51は、対象に対する匂いを嗅ぐ動作、味見をする動作、触れる動作および直視する動作の少なくとも1つを第1のトリガとして検出する。このため、印象推定装置1は、対象に対する匂いを嗅ぐ動作、味見をする動作、触れる動作および直視する動作を契機として印象を推定する動作の期間を設定できる。
また、第2トリガ検出部52は、少なくとも、対象に関連する会話、アイコンタクト、肩をたたく動作のいずれかを第2のトリガとして検出する。このため、印象推定装置1は、対象に関連する会話、アイコンタクト、肩をたたく動作のいずれかを契機として印象を推定する動作の期間を設定できる。
また、制御部40は、第1のユーザについては少なくとも第1のトリガを含む期間を設定する。このため、印象推定装置1は、コミュニケーション動作を行った側(第1のユーザ)については、対象に対する動作を行った時点を印象を推定する動作の期間に含めることができる。
また、制御部40は、第2のユーザについては少なくとも第2のトリガを含む期間を設定する。このため、印象推定装置1は、コミュニケーション動作を受けた側(第2のユーザ)については、コミュニケーション動作を受けた時点を印象を推定する動作の期間に含めることができる。
また、印象推定装置1は、第1のユーザおよび第2のユーザの少なくとも一方の対象に対する印象の推定結果を、第1のユーザおよび第2のユーザに対応付けて表示する出力部30を有する。このため、印象推定装置1は、複数の人物における印象の推定結果を分かりやすく提示できる。
また、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、第1トリガ検出部51と第2トリガ検出部52、印象推定部53とグループ推定部54を統合してもよい。また、図示した各処理は、上記の順番に限定されるものでなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の各実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の各実施形態と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図12は、プログラムを実行するコンピュータの一例を示すブロック図である。
図12に示すように、コンピュータ100は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103とを有する。また、コンピュータ100は、記憶媒体からプログラム等を読み取る媒体読取装置104と、各種装置と接続するためのインタフェース装置105と、他の情報処理装置等と有線または無線により接続するための通信装置106とを有する。また、コンピュータ100は、各種情報を一時記憶するRAM107と、ハードディスク装置108とを有する。また、各装置101~108は、バス109に接続される。
ハードディスク装置108には、図1に示した入力部10、出力部30、制御部40、第1トリガ検出部51、第2トリガ検出部52、印象推定部53およびグループ推定部54の各処理部と同様の機能を有するプログラム108Aが記憶される。また、ハードディスク装置108には、入力部10、出力部30、制御部40、第1トリガ検出部51、第2トリガ検出部52、印象推定部53およびグループ推定部54を実現するための各種データが記憶される。入力装置102は、例えば、コンピュータ100の利用者から操作情報等の各種情報の入力を受け付ける。モニタ103は、例えば、コンピュータ100の利用者に対して表示画面等の各種画面を表示する。インタフェース装置105は、例えば印刷装置等が接続される。通信装置106は、図示しないネットワークと接続され、他の情報処理装置と各種情報をやりとりする。
CPU101は、ハードディスク装置108に記憶されたプログラム108Aを読み出して、RAM107に展開して実行することで、各種の処理を行う。また、このプログラムは、コンピュータ100を図1に示した入力部10、出力部30、制御部40、第1トリガ検出部51、第2トリガ検出部52、印象推定部53およびグループ推定部54として機能させることができる。
なお、上記のプログラム108Aは、ハードディスク装置108に記憶されていなくてもよい。例えば、コンピュータ100が読み取り可能な記憶媒体に記憶されたプログラム108Aを、コンピュータ100が読み出して実行するようにしてもよい。コンピュータ100が読み取り可能な記憶媒体は、例えば、CD-ROMやDVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にプログラム108Aを記憶させておき、コンピュータ100がこれらからプログラム108Aを読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)ユーザそれぞれの動作に基づいて前記ユーザそれぞれの所定の対象に対する印象を推定する印象推定方法であって、
前記ユーザそれぞれの動作を検出し、
検出した前記ユーザそれぞれの動作において、第1のユーザが前記対象に対して行う動作を示す第1のトリガを検出し、
検出した前記ユーザそれぞれの動作において、前記第1のユーザから第2のユーザに対するコミュニケーション動作を示す第2のトリガを検出し、
前記第1のトリガを検出した後の所定時間内に前記第2のトリガを検出した場合に、前記第1のトリガおよび前記第2のトリガに基づき、前記第1のユーザおよび前記第2のユーザの少なくとも一方について前記対象に対する印象を推定する動作の期間を設定し、
設定した前記期間内における前記第1のユーザおよび前記第2のユーザの少なくとも一方の動作を特徴量とし、前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象を推定する、
処理をコンピュータが実行することを特徴とする印象推定方法。
(付記2)前記第1のトリガを検出する処理は、前記対象に対する匂いを嗅ぐ動作、味見をする動作、触れる動作および直視する動作の少なくとも1つを第1のトリガとして検出する、
ことを特徴とする付記1に記載の印象推定方法。
(付記3)前記第2のトリガを検出する処理は、少なくとも、前記対象に関連する会話、アイコンタクト、肩をたたく動作のいずれかを第2のトリガとして検出する、
ことを特徴とする付記1または2に記載の印象推定方法。
(付記4)前記設定する処理は、前記第1のユーザについては少なくとも前記第1のトリガを含む期間を設定する、
ことを特徴とする付記1乃至3のいずれか一に記載の印象推定方法。
(付記5)前記設定する処理は、前記第2のユーザについては少なくとも前記第2のトリガを含む期間を設定する、
ことを特徴とする付記1乃至4のいずれか一に記載の印象推定方法。
(付記6)前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象の推定結果を、前記第1のユーザおよび前記第2のユーザに対応付けて表示する処理をさらにコンピュータが実行する、
ことを特徴とする付記1乃至5のいずれか一に記載の印象推定方法。
(付記7)ユーザそれぞれの動作に基づいて前記ユーザそれぞれの所定の対象に対する印象をコンピュータに推定させる印象推定プログラムであって、
前記ユーザそれぞれの動作を検出し、
検出した前記ユーザそれぞれの動作において、第1のユーザが前記対象に対して行う動作を示す第1のトリガを検出し、
検出した前記ユーザそれぞれの動作において、前記第1のユーザから第2のユーザに対するコミュニケーション動作を示す第2のトリガを検出し、
前記第1のトリガを検出した後の所定時間内に前記第2のトリガを検出した場合に、前記第1のトリガおよび前記第2のトリガに基づき、前記第1のユーザおよび前記第2のユーザの少なくとも一方について前記対象に対する印象を推定する動作の期間を設定し、
設定した前記期間内における前記第1のユーザおよび前記第2のユーザの少なくとも一方の動作を特徴量とし、前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象を推定する、
処理をコンピュータに実行させることを特徴とする印象推定プログラム。
(付記8)前記第1のトリガを検出する処理は、前記対象に対する匂いを嗅ぐ動作、味見をする動作、触れる動作および直視する動作の少なくとも1つを第1のトリガとして検出する、
ことを特徴とする付記7に記載の印象推定プログラム。
(付記9)前記第2のトリガを検出する処理は、少なくとも、前記対象に関連する会話、アイコンタクト、肩をたたく動作のいずれかを第2のトリガとして検出する、
ことを特徴とする付記7または8に記載の印象推定プログラム。
(付記10)前記設定する処理は、前記第1のユーザについては少なくとも前記第1のトリガを含む期間を設定する、
ことを特徴とする付記7乃至9のいずれか一に記載の印象推定プログラム。
(付記11)前記設定する処理は、前記第2のユーザについては少なくとも前記第2のトリガを含む期間を設定する、
ことを特徴とする付記7乃至10のいずれか一に記載の印象推定プログラム。
(付記12)前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象の推定結果を、前記第1のユーザおよび前記第2のユーザに対応付けて表示する処理をさらにコンピュータに実行させる、
ことを特徴とする付記7乃至11のいずれか一に記載の印象推定プログラム。
(付記13)ユーザそれぞれの動作に基づいて前記ユーザそれぞれの所定の対象に対する印象を推定する印象推定装置であって、
前記ユーザそれぞれの動作を検出する動作検出部と、
検出した前記ユーザそれぞれの動作において、第1のユーザが前記対象に対して行う動作を示す第1のトリガを検出する第1トリガ検出部と、
検出した前記ユーザそれぞれの動作において、前記第1のユーザから第2のユーザに対するコミュニケーション動作を示す第2のトリガを検出する第2トリガ検出部と、
前記第1のトリガを検出した後の所定時間内に前記第2のトリガを検出した場合に、前記第1のトリガおよび前記第2のトリガに基づき、前記第1のユーザおよび前記第2のユーザの少なくとも一方について前記対象に対する印象を推定する動作の期間を設定する設定部と、
設定した前記期間内における前記第1のユーザおよび前記第2のユーザの少なくとも一方の動作を特徴量とし、前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象を推定する推定部と、
を有することを特徴とする印象推定装置。
(付記14)前記第1トリガ検出部は、前記対象に対する匂いを嗅ぐ動作、味見をする動作、触れる動作および直視する動作の少なくとも1つを第1のトリガとして検出する、
ことを特徴とする付記13に記載の印象推定装置。
(付記15)前記第2トリガ検出部は、少なくとも、前記対象に関連する会話、アイコンタクト、肩をたたく動作のいずれかを第2のトリガとして検出する、
ことを特徴とする付記13または14に記載の印象推定装置。
(付記16)前記設定部は、前記第1のユーザについては少なくとも前記第1のトリガを含む期間を設定する、
ことを特徴とする付記13乃至15のいずれか一に記載の印象推定装置。
(付記17)前記設定部は、前記第2のユーザについては少なくとも前記第2のトリガを含む期間を設定する、
ことを特徴とする付記13乃至16のいずれか一に記載の印象推定装置。
(付記18)前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象の推定結果を、前記第1のユーザおよび前記第2のユーザに対応付けて表示する出力部をさらに有する、
ことを特徴とする付記13乃至17のいずれか一に記載の印象推定装置。
1…印象推定装置
10…入力部
11…音声受信部
12…撮影部
20…記憶部
30…出力部
40…制御部
51…第1トリガ検出部
52…第2トリガ検出部
53…印象推定部
54…グループ推定部
100…コンピュータ
101…CPU
102…入力装置
103…モニタ
104…媒体読取装置
105…インタフェース装置
106…通信装置
107…RAM
108…ハードディスク装置
108A…プログラム
109…バス
531…顔検出
532…アライメント調整
533…AU推定
534…印象推定
G1~G3…グループ
H、H1~H7…人物
t1~t4…時刻
W…ワイン
X1~X4…グラフ

Claims (8)

  1. ユーザそれぞれの動作に基づいて前記ユーザそれぞれの所定の対象に対する印象を推定する印象推定方法であって、
    前記ユーザそれぞれの動作を検出し、
    検出した前記ユーザそれぞれの動作において、第1のユーザが前記対象に対して行う動作を示す第1のトリガを検出し、
    検出した前記ユーザそれぞれの動作において、前記第1のユーザから第2のユーザに対するコミュニケーション動作を示す第2のトリガを検出し、
    前記第1のトリガを検出した後の所定時間内に前記第2のトリガを検出した場合に、前記第1のトリガおよび前記第2のトリガに基づき、前記第1のユーザおよび前記第2のユーザの少なくとも一方について前記対象に対する印象を推定する動作の期間を設定し、
    設定した前記期間内における前記第1のユーザおよび前記第2のユーザの少なくとも一方の動作を特徴量とし、前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象を推定する、
    処理をコンピュータが実行することを特徴とする印象推定方法。
  2. 前記第1のトリガを検出する処理は、前記対象に対する匂いを嗅ぐ動作、味見をする動作、触れる動作および直視する動作の少なくとも1つを第1のトリガとして検出する、
    ことを特徴とする請求項1に記載の印象推定方法。
  3. 前記第2のトリガを検出する処理は、少なくとも、前記対象に関連する会話、アイコンタクト、肩をたたく動作のいずれかを第2のトリガとして検出する、
    ことを特徴とする請求項1または2に記載の印象推定方法。
  4. 前記設定する処理は、前記第1のユーザについては少なくとも前記第1のトリガを含む期間を設定する、
    ことを特徴とする請求項1乃至3のいずれか一項に記載の印象推定方法。
  5. 前記設定する処理は、前記第2のユーザについては少なくとも前記第2のトリガを含む期間を設定する、
    ことを特徴とする請求項1乃至4のいずれか一項に記載の印象推定方法。
  6. 前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象の推定結果を、前記第1のユーザおよび前記第2のユーザに対応付けて表示する処理をさらにコンピュータが実行する、
    ことを特徴とする請求項1乃至5のいずれか一項に記載の印象推定方法。
  7. ユーザそれぞれの動作に基づいて前記ユーザそれぞれの所定の対象に対する印象をコンピュータに推定させる印象推定プログラムであって、
    前記ユーザそれぞれの動作を検出し、
    検出した前記ユーザそれぞれの動作において、第1のユーザが前記対象に対して行う動作を示す第1のトリガを検出し、
    検出した前記ユーザそれぞれの動作において、前記第1のユーザから第2のユーザに対するコミュニケーション動作を示す第2のトリガを検出し、
    前記第1のトリガを検出した後の所定時間内に前記第2のトリガを検出した場合に、前記第1のトリガおよび前記第2のトリガに基づき、前記第1のユーザおよび前記第2のユーザの少なくとも一方について前記対象に対する印象を推定する動作の期間を設定し、
    設定した前記期間内における前記第1のユーザおよび前記第2のユーザの少なくとも一方の動作を特徴量とし、前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象を推定する、
    処理をコンピュータに実行させることを特徴とする印象推定プログラム。
  8. ユーザそれぞれの動作に基づいて前記ユーザそれぞれの所定の対象に対する印象を推定する印象推定装置であって、
    前記ユーザそれぞれの動作を検出する動作検出部と、
    検出した前記ユーザそれぞれの動作において、第1のユーザが前記対象に対して行う動作を示す第1のトリガを検出する第1トリガ検出部と、
    検出した前記ユーザそれぞれの動作において、前記第1のユーザから第2のユーザに対するコミュニケーション動作を示す第2のトリガを検出する第2トリガ検出部と、
    前記第1のトリガを検出した後の所定時間内に前記第2のトリガを検出した場合に、前記第1のトリガおよび前記第2のトリガに基づき、前記第1のユーザおよび前記第2のユーザの少なくとも一方について前記対象に対する印象を推定する動作の期間を設定する設定部と、
    設定した前記期間内における前記第1のユーザおよび前記第2のユーザの少なくとも一方の動作を特徴量とし、前記第1のユーザおよび前記第2のユーザの少なくとも一方の前記対象に対する印象を推定する推定部と、
    を有することを特徴とする印象推定装置。
JP2019179536A 2019-09-30 2019-09-30 印象推定方法、印象推定プログラムおよび印象推定装置 Active JP7283336B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019179536A JP7283336B2 (ja) 2019-09-30 2019-09-30 印象推定方法、印象推定プログラムおよび印象推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019179536A JP7283336B2 (ja) 2019-09-30 2019-09-30 印象推定方法、印象推定プログラムおよび印象推定装置

Publications (2)

Publication Number Publication Date
JP2021056786A JP2021056786A (ja) 2021-04-08
JP7283336B2 true JP7283336B2 (ja) 2023-05-30

Family

ID=75270794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019179536A Active JP7283336B2 (ja) 2019-09-30 2019-09-30 印象推定方法、印象推定プログラムおよび印象推定装置

Country Status (1)

Country Link
JP (1) JP7283336B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350904A (ja) 2000-06-07 2001-12-21 Canon Inc 電子機器及び営業用電子機器システム
JP2010503110A (ja) 2006-09-07 2010-01-28 ザ プロクター アンド ギャンブル カンパニー 感情反応及び選択傾向を測定するための方法
JP2018106419A (ja) 2016-12-26 2018-07-05 大日本印刷株式会社 マーケティング装置
JP2018195164A (ja) 2017-05-19 2018-12-06 コニカミノルタ株式会社 解析装置、解析プログラム及び解析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350904A (ja) 2000-06-07 2001-12-21 Canon Inc 電子機器及び営業用電子機器システム
JP2010503110A (ja) 2006-09-07 2010-01-28 ザ プロクター アンド ギャンブル カンパニー 感情反応及び選択傾向を測定するための方法
JP2018106419A (ja) 2016-12-26 2018-07-05 大日本印刷株式会社 マーケティング装置
JP2018195164A (ja) 2017-05-19 2018-12-06 コニカミノルタ株式会社 解析装置、解析プログラム及び解析方法

Also Published As

Publication number Publication date
JP2021056786A (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
US9323982B2 (en) Display apparatus for performing user certification and method thereof
US20170238859A1 (en) Mental state data tagging and mood analysis for data collected from multiple sources
US20170011258A1 (en) Image analysis in support of robotic manipulation
JP5441071B2 (ja) 顔分析装置、顔分析方法、及びプログラム
US20150006281A1 (en) Information processor, information processing method, and computer-readable medium
US20040001616A1 (en) Measurement of content ratings through vision and speech recognition
US20190340780A1 (en) Engagement value processing system and engagement value processing apparatus
WO2014068567A1 (en) Method and system for predicting personality traits, capabilities and suggested interactions from images of a person
JP7323098B2 (ja) 対話支援装置、対話支援システム、及び対話支援プログラム
JP7151959B2 (ja) 映像アライメント方法及びその装置
JP2020122958A (ja) 時間的視覚的な顔の特徴に基づく認知及び発話障害検出のための方法、サーバ及びプログラム
US20200357504A1 (en) Information processing apparatus, information processing method, and recording medium
JP7139680B2 (ja) 活性度評価プログラム、装置、及び方法
JP2018049481A (ja) 情報処理装置、評価システムおよびプログラム
JP2009267621A (ja) 通信装置
JP6825357B2 (ja) マーケティング装置
JP7267696B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7283336B2 (ja) 印象推定方法、印象推定プログラムおよび印象推定装置
JP6855737B2 (ja) 情報処理装置、評価システムおよびプログラム
US20200301398A1 (en) Information processing device, information processing method, and program
JP2020067562A (ja) ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法
JP2020052994A (ja) 推奨方法及び現実感提示デバイス
JP6765073B2 (ja) 気質推定システム、気質推定方法及び気質推定処理プログラム
JP7003883B2 (ja) 聴衆間の心理状態の類似度合を評定するシステム
JP2022062412A (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R150 Certificate of patent or registration of utility model

Ref document number: 7283336

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150