JP2015229040A - 感情分析システム、感情分析方法および感情分析プログラム - Google Patents
感情分析システム、感情分析方法および感情分析プログラム Download PDFInfo
- Publication number
- JP2015229040A JP2015229040A JP2014117352A JP2014117352A JP2015229040A JP 2015229040 A JP2015229040 A JP 2015229040A JP 2014117352 A JP2014117352 A JP 2014117352A JP 2014117352 A JP2014117352 A JP 2014117352A JP 2015229040 A JP2015229040 A JP 2015229040A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- unit
- subject
- sound
- intensity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
【課題】対象者の感情を効果的に分析できる感情分析システム、感情分析方法及び感情分析プログラムを提供する。
【解決手段】感情分析システム1は、対象者の脳波を測定する脳波計21と、脳波計21が測定した脳波を、感情に対応付けて格納された脳波の特徴パターンと比較し、対象者の感情の強度を推測するパターン識別部と、対象者が観ている映像を撮像するカメラ22と、パターン識別部で推測される対象者の感情の強度と、カメラ22で撮像される映像とを対応付けて記憶する記憶部とを備える。
【選択図】図1
【解決手段】感情分析システム1は、対象者の脳波を測定する脳波計21と、脳波計21が測定した脳波を、感情に対応付けて格納された脳波の特徴パターンと比較し、対象者の感情の強度を推測するパターン識別部と、対象者が観ている映像を撮像するカメラ22と、パターン識別部で推測される対象者の感情の強度と、カメラ22で撮像される映像とを対応付けて記憶する記憶部とを備える。
【選択図】図1
Description
本発明は、対象者の感情を効果的に分析できる感情分析システム、感情分析方法および感情分析プログラムに関する。
従来から個人の感情を考慮した商品やサービスの提供が提案されている。個人の感情調査には、アンケート調査が行われることが一般的である。しかしながら、アンケート調査では、意識的もしくは無意識に、質問に対して本心とは異なる回答をすることがあり、アンケートの調査結果が本当の感情を表していないことがある。
このため、近年では、脳波等の生理的指標を用いて、個人の感情を分析することが行われている。脳波は、ヒトや動物の脳から生じる電気活動を、頭皮上、蝶形骨底、鼓膜、脳表、脳深部などに置いた電極で記録したものであり、医療での臨床検査、医学、生理学、心理学、工学などの研究手法として用いられている。この応用として、簡易脳波計を用いて脳波を測定し、脳波情報から対象者の感情や生理的状態を判別する試みが行われている(例えば特許文献1参照)。
以上のように、近年では、脳波等の生理的指標を用いて、個人の感情を分析することが行われている。
本発明は、対象者の感情を効果的に分析できる感情分析システム、感情分析方法及び感情分析プログラムを提供することを目的とする。
上記の課題を解決すべく、本発明に係る感情分析システムは、対象者の脳波を測定する脳波測定部と、脳波測定部が測定した脳波を、感情に対応付けて格納された脳波の特徴パターンと比較し、対象者の感情の強度を推測するパターン識別部と、対象者が観ている映像を撮像する撮像部と、パターン識別部で推測される対象者の感情の強度と、撮像部で撮像される映像とを対応付けて記憶する記憶部とを備える。このような構成により、対象者がどのような映像をみているときに、どのような感情(例えば、好き、興味がある、ストレスを感じている、眠気を感じている、集中している)であったかを容易に分析することができる。
本発明では、対象者の注視点を検出する注視点検出部をさらに備え、記憶部は、パターン識別部で推測される対象者の感情の強度と、注視点検出部で検出される対象者の注視点とを対応付けて記憶してもよい。このような構成により、対象者が映像のどの部分を注視しているがわかる。このため、より効果的に対象者の感情を分析することができる。
本発明では、音声を集音する集音部をさらに備え、記憶部は、パターン識別部で推測される対象者の感情の強度と、集音部で集音される音声とを対応付けて記憶するようにしてもよい。このような構成により、音声についても対象者の感情を分析することができる。
本発明では、集音部は、音声の音源位置、音圧及び周波数特性の少なくとも一つを検出し、記憶部は、パターン識別部で推測される対象者の感情の強度と、集音部で検出される音声の音源位置、音圧及び周波数特性の少なくとも一つとを対応付けて記憶するようにしてもよい。このような構成により、音声の音源位置、音圧及び周波数特性についても対象者の感情を分析することができる。
本発明では、記憶部に記憶した対象者の感情の強度の時間に対する変化を表わすグラフを表示する表示部と、表示部に表示したグラフの中の一時刻を指定する指定手段とを備え、記表示部は、指定手段により指定された時刻に撮像された映像を表示するようにしてもよい。このような構成により、対象者がどのような映像を見ているときに、どのような感情(例えば、好き、興味がある、ストレスを感じている、眠気を感じている、集中している)であったかを、さらに容易に分析することができる。
上記の課題を解決すべく、本発明の感情分析方法は、対象者の脳波を測定する段階と、脳波測定部が測定した脳波を、感情に対応付けて格納された脳波の特徴パターンと比較し、対象者の感情の強度を推測する段階と、対象者が観ている映像を撮像する段階と、パターン識別部で推測される対象者の感情の強度と、撮像部で撮像される映像とを対応付けて記憶する段階とを備える。
上記の課題を解決すべく、本発明のプログラムは、コンピュータに、上述の感情分析方法における各段階を実行させる。
以下、図面を参照して本発明の実施の形態を説明する。
図1は、本発明の実施形態に係る感情分析システム1の概略を示す構成図である。図2は、ヘッドセット装置2の構成図である。図3は、データ処理装置3の機能ブロック図である。以下、図1〜図3を参照して、感情分析システム1について説明する。
図1は、本発明の実施形態に係る感情分析システム1の概略を示す構成図である。図2は、ヘッドセット装置2の構成図である。図3は、データ処理装置3の機能ブロック図である。以下、図1〜図3を参照して、感情分析システム1について説明する。
感情分析システム1は、ヘッドセット装置2と、データ処理装置3とを備える。ヘッドセット装置2は、対象者Cの頭部にセットされ、対象者Cの脳波、対象者が観ている映像及び聴いている音声や視線の向き等のデータを取得する。データ処理装置3は、ヘッドセット装置2から送信されるデータを必要に応じて処理する。
ヘッドセット装置2は、対象者Cの脳波を検出するための脳波計21(脳波測定部)と、対象者Cが観ている映像を撮像するカメラ22(撮像部)と、対象者Cが聴いている音声を集音するマイク23(集音部)と、対象者Cの注視点を検出する検出器24(注視点検出部)と、送信部25と、電源26とを備える。
脳波計21は、一対又は複数個の電極を備える。該電極は、対象者Cの頭部に装着されて対象者Cの頭部の電位を検出する。なお、脳波は脳内の部位によって異なった波形を示すが、本実施形態では、国際10−20法で定めるFp1の部位の脳波を測定するように電極を設置するとよい。脳波計21は、電極で検出された対象者Cの頭部の電位を増幅して時系列に出力する。
カメラ22は、例えば、固体撮像素子であり、対象者Cの頭の向きに合わせて装着される。これにより、カメラ22は、対象者Cの視角内に映る映像、例えば、対象者Cが観ている映像を撮像することができる。カメラ22は、撮像した映像を電気信号に変換して時系列に出力する。
マイク23は、対象者Cが聴いている音声を集音する。また、マイク23は、複数のマイクを備え、音声の音源位置、音圧及び周波数特性を検出し、前記音声と合わせて時系列に出力する。なお、音声の音源位置、音圧及び周波数特性の検出処理は、データ処理装置3で行うようにしてもよい。
検出器24は、カメラ22と連動して動作し、対象者Cの視線方向から対象者Cの注視点を検出する。具体的には、検出器24は、対象者Cの視線方向を割出し、該視線方向に基づいて対象者Cの注視点を検出する。なお、対象者Cの視線方向の割出には、強膜反射法、角膜反射法、EOG(Electro-Oculography)法、サーチコイル法、画像解析法等、種々の手法を用いることができる。なお、注視点の検出には、初めに、割り出した視線方向と、実際に対象者Cが観ている点を一致させる作業(いわゆるキャリブレーション)が必要である。
送信部25は、脳波計21、カメラ22、マイク23、検出器24で取得した脳波、映像、音声、音源位置、音圧、周波数特性、注視点(以下、単にデータとも称する)をデータ処理装置3へ出力する。データ処理装置3に送信されるデータは、時系列とすることが好ましい。また、データの送信は、有線、無線のどちらであっても構わない。電源26は、ヘッドセット装置2の動作に必要な電力を供給する。
データ処理装置3は、キーボード、マウス、タッチパネル等の入出力装置、CPU(Central Processing Unit)等の演算部及びRAM(Random Access Memory)、ROM(read only memory)等の記憶装置を備えた本体、LCD(Liquid Crystal Display)等の表示装置、音声を出力するスピーカなどから構成されるコンピュータシステムである。
データ処理装置3は、コンピュータシステムの記憶装置に格納されたプログラムを演算部により実行することにより実現することができる。この記憶装置および演算部は、通信回線を介して接続されたサーバ、クラウドなどの物理的に離間した装置に組み込まれていてもよい。
データ処理装置3は、受信部31と、パターン識別部32と、記憶部33と、操作受付部34と、音声再生部35と、表示部36と、電源37とを備える。
受信部31は、ヘッドセット装置2から時系列に送信されるデータを受信する。
パターン識別部32は、受信部31で受信した脳波を、複数の感情(例えば、「好き」、「興味」、「ストレス」、「眠気」、「集中」)ごとに、予め取得した特徴パターンと比較し、対象者Cの各感情の強度(度合い)を推測する。パターン識別部32は、推測した感情の強度を、「好き」、「興味」、「ストレス」、「眠気」、「集中」といった感情毎に時系列に出力する。つまり、パターン識別部32からは、対象者Cの感情の強度の推移(時間に対する変化)が、「好き」、「興味」、「ストレス」、「眠気」、「集中」といった感情毎に出力される。
ここで、特徴パターンとは、感情を表現する脳波の特徴値、あるいは特徴値の集合である。特徴パターンは、「好き」、「興味」、「ストレス」、「眠気」、「集中」といった感情毎に用意されている。特徴パターンの一例としては、好きな匂いと嫌いな匂いを特徴づけるFp1の部位の脳波における6〜8Hzの周波数が挙げられる。すなわち、好きな匂いを対象者に与えたところ、Fp1の部位の脳波において、6〜8Hzの周波数成分の振幅が低下し、嫌いな匂いを対象者に与えると6〜8Hzの周波数成分の振幅が上昇するというパターンが示される。
このことから、Fp1の部位の脳波における6〜8Hzの周波数成分の増減が、好きな匂いと嫌いな匂いを特徴づけるパターンとして用いる。特徴パターンは、このように単一の周波数の特性でもよく、複数の周波数の特性の組合せでもよい。また、特定の感情を示すものであれば、周波数の特性以外の特徴パターンでもよい。
パターン識別部32は、上述したような各感情と特徴パターンとを対応関係を付けたデータベースを備え、特徴値に対応する対象者Cの各感情の強度を推測する。データベースに格納する対応関係は、以下のようにしてあらかじめ取得される。すなわち、脳波計21によって脳波を測定するとともに、対象者自身が脳波測定時に当てはまる各感情を特定することにより、データを収集する。そして、測定した脳波を解析し、脳波の特徴値(例えば脳波を特徴づける周波数成分)を抽出する。そして収集したデータを統計的に処理することで、特徴値と感情の対応関係を求める。
データベースに格納する各感情(例えば、「好き」、「興味」、「ストレス」、「眠気」、「集中」)と特徴パターンとの対応関係は、例えば、対象者毎に、予め取得して格納するとよい。或いは、多数の対象者について共通化された対応関係を予め取得して格納してもよい。また、対象者毎の対応関係および共通の対応関係の両方を格納しておき、対象者について個別の対応関係が得られている感情については個別の特徴パターンを利用し、個別の対応関係が得られていない感情については共通の特徴パターンを用いるようにしてもよい。
はじめに、脳波をたとえば高速フーリエ変換などを用いて周波数解析を行い、行が時間、列が周波数成分のn×mデータ行列を作成する。続いて、n×mデータ行列を正規化し、正規化したデータ行列から相関行列を求める。そして、相関行列を固有値分解した上で、主因子法を用いて因子を抽出する。抽出した因子のうち、高い寄与率である因子(例えば、寄与率50%、60%、70%、80%、90%、100%など)を用いてバリマックス回転を行い、最小二乗法により因子得点を求めることにより、特徴値を抽出する。なお、特徴値の抽出方法については、上記に限定されず、脳波の特徴が抽出できるものであればよい。
特徴パターンに対応付けて格納される感情は、好き、興味、ストレス、眠気、集中、きらい、怒り、悲しみ、幸福、興奮、楽しいなど気持ちを表すもの、空腹、眠気など生理的な情報を表すものなど、意識的、無意識的を問わず、脳波に特徴的なパターンを生じさせる感情であればいかなるものでもよい。また、感情は、単一の感情であってもよく、また複数の感情の組み合せでもよい。
パターン識別部32は、脳波計21で計測される脳波における特定の周波数成分の大きさをデータベースに格納された「好き」、「興味」、「ストレス」、「眠気」、「集中」といった各感情の特徴パターンと比較・照会する。そして、対象者Cの各感情(例えば、「好き」、「興味」、「ストレス」、「眠気」、「集中」)毎に強度を推測し、時系列に出力する。
記憶部33は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶媒体であり、受信部31で受信されるヘッドセット装置2からのデータと、パターン識別部32から出力される対象者Cの各感情の強度とを時系列に対応づけて記憶する。具体的には、カメラ22で撮像される映像、マイク23で集音される音声及び音声の音源位置、音圧及び周波数特性、検出器24で検出される対象者Cの注視点を、パターン識別部32で推測された対象者Cの各感情に時系列に対応づけて記憶する。
操作受付部34は、ユーザの操作入力を受け付ける。具体的には、感情分析システム1のON/OFFや、記憶部33に記憶されている各感情のうちどの感情を表示させるかといった操作等を受け付ける。
音声再生部35は、操作受付部34で受け付けられた操作内容に応じて、記憶部33に記憶されている音声データをスピーカへ出力し、音声を再生する。
表示部36は、操作受付部34で受け付けられる操作内容に応じて、記憶部33に記憶されている各感情及び対応づけられているデータをLCD等の表示装置に表示させる。電源37は、データ処理装置3の動作に必要な電力を供給する。
図4は、表示部36により表示装置の画面Dに表示される画像の一例を示す図である。図4には、各感情のうち「好き」を選択した場合に、表示装置の画面Dに表示される画面の例を示している。図4に示すように、画面には、「好き」の強度の推移を示すグラフGが時系列に表示される。図4では、グラフGは、縦軸に好き度(%)、横軸に時間(T)として表示されている。
また、右下には、「好き」の感情のグラフGを表示していることがわかるように、枠B内には、「好き」の文字が表示される。さらに「好き」の文字の下には、ユーザが表示装置の画面Dに表示された好きの感情を示すグラフGのうち、ポインタP1で指定した時刻での好き度の数値(%)が表示されている(図4では、90%)。
また、枠A内には、ポインタP1で指定された時刻に対応づけて記憶されている他のデータである、映像、音声の音源位置、音圧及び周波数特性、対象者Cの注視点が表示される。枠Aに表示する映像は、静止画または動画のいずれであってもよい。動画を表示する場合には、ポインタP1で指定された時刻から所定時間(例えば5秒間)の動画を表示するようにしてもよいし、ポインタP1で指定された時刻を含む所定時間(例えばポインタP1で指定した時刻の前後各5秒、合計10秒間)の動画を表示するようにしてもよい。動画を表示する場合には、所定期間の動画を繰り返し表示するように構成してもよい。ここで、音声の音源位置、音圧、周波数特性は、円Xとして、注視点は、点P2として映像に重ねて表示される。図4では、円Xの中心が音源位置、円Xの大きさ(直径)が音圧を表している。また、周波数特性は、例えば、色の変化により表示することができる。なお、図4に示す以外の方法で、音声の音源位置、音圧及び周波数特性や対象者Cの注視点を表示するようにしてもよい。
また、音声再生部35は、記憶部33に記憶されている音声データのうちポインタP1で指定された時刻に対応する部分を再生し、スピーカから出力する。例えば、音声再生部35は、ポインタP1で指定された時刻から所定時間(例えば5秒間)の音声を再生するようにしてもよいし、ポインタP1で指定された時刻を含む所定時間(例えばポインタP1で指定した時刻の前後各5秒、合計10秒間)の音声を再生するようにしてもよい。音声再生部35は、音声を繰り返し再生するように構成してもよい。
図5は、データ取得時の感情分析システム1の動作を示すフローチャートである。
感情分析システム1の処理を開始すると、ヘッドセット装置2により、カメラ22で撮像される映像、マイク23で集音される音声、音声の音源位置、音圧及び周波数特性、検出器24で検出される対象者Cの注視点のデータが取得される(ステップS101)。
感情分析システム1の処理を開始すると、ヘッドセット装置2により、カメラ22で撮像される映像、マイク23で集音される音声、音声の音源位置、音圧及び周波数特性、検出器24で検出される対象者Cの注視点のデータが取得される(ステップS101)。
ヘッドセット装置2で取得されるデータは、時系列にデータ処理装置3へ送信される(ステップS102)。
データ処理装置3では、ヘッドセット装置2から送信される脳波を、感情に対応付けて格納された脳波の特徴パターンとの比較を、「好き」、「興味」、「ストレス」、「眠気」、「集中」といった感情毎に行い、対象者Cの感情の強度の推移を、感情毎に時系列に出力する(ステップS103)。
記憶部33は、受信部31で受信されるヘッドセット装置2からのデータと、推測した対象者Cの各感情の推移とを時系列に対応づけて記憶する(ステップS104)。データ取得の処理が終了すると、感情分析システム1は、一連の動作を終了する。
図6は、感情分析時の感情分析システム1の動作を示すフローチャートである。
操作受付部34が記憶部33に記憶されている対象者Cの各感情のうち、いずれかの感情を表示するかの選択指示を受け付ける(ステップS201)。次に、表示部36は、図4に示すように、記憶部33に記憶されている対象者Cの感情(例えば「好き」)の強度推移を表すグラフGを表示装置に表示する(ステップS202)。
操作受付部34が記憶部33に記憶されている対象者Cの各感情のうち、いずれかの感情を表示するかの選択指示を受け付ける(ステップS201)。次に、表示部36は、図4に示すように、記憶部33に記憶されている対象者Cの感情(例えば「好き」)の強度推移を表すグラフGを表示装置に表示する(ステップS202)。
次に、操作受付部34で表示装置に表示されたグラフGの特定の時刻をポインタP1で指定する指示が受け付けられると(ステップS203)、表示部36は、指定された時刻に対応づけて記憶されている他のデータである、映像、音声の音源位置、音圧及び周波数特性及び対象者Cの注視点等を表示する(ステップS204)。
また、音声再生部35は、指定された時刻の脳波に対応づけて記憶されている音声をスピーカに出力し、音声を再生する(ステップS205)。感情分析の処理が終了すると、感情分析システム1は、一連の動作を終了する。
以上のように、本発明の感情分析システム1は、カメラ22で撮像される映像、マイク23で集音される音声及び音声の音源位置、音圧及び周波数特性、検出器24で検出される対象者Cの注視点と、パターン識別部32で推測された対象者Cの各感情の強度とを時系列に対応づけて記憶部33に記憶している。
そして、ユーザが、表示装置に表示させる感情を選択すると、選択された感情の強度の推移を表すグラフが表示される。次に、表示されたグラフの特定の時刻をポインタP1で指定すると、表示部36は、指定された時刻に対応づけて記憶されている他のデータである、映像、音声の音源位置、音圧及び周波数特性、対象者Cの注視点等を表示する。また、音声再生部35は、記憶部33に記憶されている音声データの指定された時刻に対応する部分を再生し、スピーカに出力する。
このため、対象者がどのような感情(例えば、好き、興味がある、ストレスを感じている、眠気を感じている、集中している)のときに、どのような映像を見ていたか、音声はどうであったか、映像のどこを注視していたかを容易に確認することができる。この結果、対象者の感情を効果的に分析することができる。
なお、本発明の一実施形態である感情分析システム1を例に本発明を説明したが、本発明は、上記の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。例えば、上記実施形態では、推測した脳波の周波数成分を解析することで特徴値を求めたが、特徴値の求め方はこれに限定されず、例えば、振幅(ピークトゥピーク値や実効値)、絶対値、変化の急峻度など求めてこれを特徴値としてもよい。
また、図4に示した画面Dにおいて、ポインタP1で指定された時刻における、複数の感情(選択した感情を含んでもよい)の強度をレーダチャートにより表示してもよい。これにより、選択した感情以外の感情が支配的になっていないか等、選択した感情以外の感情を考慮しながら感情の分析をすることができる。
以上で説明したように、本発明の感情分析処理システム、感情分析方法、および感情分析プログラムは、対象者の感情を効果的に分析できる。このため、マーケティング等に利用することができる。
1 感情分析システム
2 ヘッドセット装置
3 データ処理装置
21 脳波計
22 カメラ
23 マイク
24 検出部
25 送信部
26 電源
31 受信部
32 パターン識別部
33 記憶部
34 操作受付部
35 音声再生部
36 表示部
37 電源
2 ヘッドセット装置
3 データ処理装置
21 脳波計
22 カメラ
23 マイク
24 検出部
25 送信部
26 電源
31 受信部
32 パターン識別部
33 記憶部
34 操作受付部
35 音声再生部
36 表示部
37 電源
Claims (7)
- 対象者の脳波を測定する脳波測定部と、
前記脳波測定部が測定した脳波を、感情に対応付けて格納された脳波の特徴パターンと比較し、前記対象者の感情の強度を推測するパターン識別部と、
前記対象者が観ている映像を撮像する撮像部と、
前記パターン識別部で推測される前記対象者の感情の強度と、前記撮像部で撮像される映像とを対応付けて記憶する記憶部と
を備える感情分析システム。 - 前記対象者の注視点を検出する注視点検出部をさらに備え、
前記記憶部は、前記パターン識別部で推測される前記対象者の感情の強度と、前記注視点検出部で検出される前記対象者の注視点とを対応付けて記憶する請求項1に記載の感情分析システム。 - 音声を集音する集音部をさらに備え、
前記記憶部は、前記パターン識別部で推測される前記対象者の感情の強度と、前記集音部で集音される音声とを対応付けて記憶する請求項1又は2に記載の感情分析システム。 - 前記集音部は、前記音声の音源位置、音圧及び周波数特性の少なくとも一つを検出し、
前記記憶部は、前記パターン識別部で推測される前記対象者の感情の強度と、前記集音部で検出される前記音声の音源位置、音圧及び周波数特性の少なくとも一つとを対応付けて記憶する請求項3に記載の感情分析システム。 - 前記記憶部に記憶した前記対象者の感情の強度の時間に対する変化を表わすグラフを表示する表示部と、
前記表示部に表示した前記グラフの中の一時刻を指定する指定手段とを備え、
前記表示部は、前記指定手段により指定された時刻に撮像された映像を表示することを特徴とする請求項1から4のいずれか1項に記載の感情分析システム。 - 対象者の脳波を測定する段階と、
前記脳波測定部が測定した脳波を、感情に対応付けて格納された脳波の特徴パターンと比較し、前記対象者の感情の強度を推測する段階と、
前記対象者が観ている映像を撮像する段階と、
前記パターン識別部で推測される前記対象者の感情の強度と、前記撮像部で撮像される映像とを対応付けて記憶する段階と
を備える感情分析方法。 - コンピュータに、請求項6に記載の各段階を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014117352A JP2015229040A (ja) | 2014-06-06 | 2014-06-06 | 感情分析システム、感情分析方法および感情分析プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014117352A JP2015229040A (ja) | 2014-06-06 | 2014-06-06 | 感情分析システム、感情分析方法および感情分析プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015229040A true JP2015229040A (ja) | 2015-12-21 |
Family
ID=54886156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014117352A Pending JP2015229040A (ja) | 2014-06-06 | 2014-06-06 | 感情分析システム、感情分析方法および感情分析プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015229040A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108259721A (zh) * | 2018-02-07 | 2018-07-06 | 深圳市宏智力科技有限公司 | 头箍式脑波摄像机 |
CN108447222A (zh) * | 2018-03-01 | 2018-08-24 | 昆明创培知识产权服务有限公司 | 一种共享情绪宣泄室 |
CN108465149A (zh) * | 2018-03-01 | 2018-08-31 | 昆明创培知识产权服务有限公司 | 一种智能游戏及情绪宣泄室 |
JP2019512822A (ja) * | 2016-03-14 | 2019-05-16 | フヴィ・コグニティヴ・ネットワーク・コーポレーション | 暗記および意思決定を強化するための個人的感情ベースのコンピュータ可読認知感覚メモリおよび認知洞察 |
KR20190054501A (ko) * | 2017-11-13 | 2019-05-22 | 주식회사 하가 | 피검자의 감정을 분석하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
WO2019153628A1 (zh) * | 2018-02-07 | 2019-08-15 | 深圳市宏智力科技有限公司 | 基于脑电波的人脑喜好度检测方法及装置 |
JP2019208885A (ja) * | 2018-06-05 | 2019-12-12 | 株式会社電通サイエンスジャム | 感情評価支援システム及び感情評価支援方法 |
KR20200054718A (ko) * | 2018-11-12 | 2020-05-20 | 성균관대학교산학협력단 | 뇌파 기반의 사용자 감성 인식 방법 및 장치 |
JP2021033524A (ja) * | 2019-08-21 | 2021-03-01 | 株式会社電通サイエンスジャム | 認知機能促進支援システム、学習システム、推定システム、及び認知機能促進支援方法 |
JPWO2021053964A1 (ja) * | 2019-09-19 | 2021-03-25 | ||
JP2021079041A (ja) * | 2019-11-22 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 共感度評価システム、共感度評価方法及びプログラム |
CN114842521A (zh) * | 2021-11-30 | 2022-08-02 | 浙江久冠信息技术服务有限公司 | 一种人员情绪识别智能分析预警系统 |
WO2023054280A1 (ja) * | 2021-09-28 | 2023-04-06 | 日東電工株式会社 | 生体情報処理プログラム、生体情報処理装置、生体情報処理システム、生体情報処理方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063087A (ja) * | 2003-08-11 | 2005-03-10 | Sony Corp | 記録再生装置、再生装置、記録再生方法および再生方法 |
JP2013180076A (ja) * | 2012-03-02 | 2013-09-12 | Dainippon Printing Co Ltd | 分析支援装置、プログラム |
-
2014
- 2014-06-06 JP JP2014117352A patent/JP2015229040A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005063087A (ja) * | 2003-08-11 | 2005-03-10 | Sony Corp | 記録再生装置、再生装置、記録再生方法および再生方法 |
JP2013180076A (ja) * | 2012-03-02 | 2013-09-12 | Dainippon Printing Co Ltd | 分析支援装置、プログラム |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019512822A (ja) * | 2016-03-14 | 2019-05-16 | フヴィ・コグニティヴ・ネットワーク・コーポレーション | 暗記および意思決定を強化するための個人的感情ベースのコンピュータ可読認知感覚メモリおよび認知洞察 |
KR20190054501A (ko) * | 2017-11-13 | 2019-05-22 | 주식회사 하가 | 피검자의 감정을 분석하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
KR102106517B1 (ko) | 2017-11-13 | 2020-05-06 | 주식회사 하가 | 피검자의 감정을 분석하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 |
CN108259721B (zh) * | 2018-02-07 | 2020-06-16 | 深圳市宏智力科技有限公司 | 头箍式脑波摄像机 |
WO2019153628A1 (zh) * | 2018-02-07 | 2019-08-15 | 深圳市宏智力科技有限公司 | 基于脑电波的人脑喜好度检测方法及装置 |
CN108259721A (zh) * | 2018-02-07 | 2018-07-06 | 深圳市宏智力科技有限公司 | 头箍式脑波摄像机 |
CN108447222A (zh) * | 2018-03-01 | 2018-08-24 | 昆明创培知识产权服务有限公司 | 一种共享情绪宣泄室 |
CN108465149A (zh) * | 2018-03-01 | 2018-08-31 | 昆明创培知识产权服务有限公司 | 一种智能游戏及情绪宣泄室 |
JP2019208885A (ja) * | 2018-06-05 | 2019-12-12 | 株式会社電通サイエンスジャム | 感情評価支援システム及び感情評価支援方法 |
KR20200054718A (ko) * | 2018-11-12 | 2020-05-20 | 성균관대학교산학협력단 | 뇌파 기반의 사용자 감성 인식 방법 및 장치 |
KR102239039B1 (ko) * | 2018-11-12 | 2021-04-12 | 성균관대학교산학협력단 | 뇌파 기반의 사용자 감성 인식 방법 및 장치 |
JP2021033524A (ja) * | 2019-08-21 | 2021-03-01 | 株式会社電通サイエンスジャム | 認知機能促進支援システム、学習システム、推定システム、及び認知機能促進支援方法 |
JP7300929B2 (ja) | 2019-08-21 | 2023-06-30 | 株式会社電通サイエンスジャム | 認知機能促進支援システム、学習システム、推定システム、及び認知機能促進支援方法 |
JPWO2021053964A1 (ja) * | 2019-09-19 | 2021-03-25 | ||
JP2021079041A (ja) * | 2019-11-22 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 共感度評価システム、共感度評価方法及びプログラム |
WO2023054280A1 (ja) * | 2021-09-28 | 2023-04-06 | 日東電工株式会社 | 生体情報処理プログラム、生体情報処理装置、生体情報処理システム、生体情報処理方法 |
CN114842521A (zh) * | 2021-11-30 | 2022-08-02 | 浙江久冠信息技术服务有限公司 | 一种人员情绪识别智能分析预警系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015229040A (ja) | 感情分析システム、感情分析方法および感情分析プログラム | |
Bulagang et al. | A review of recent approaches for emotion classification using electrocardiography and electrodermography signals | |
Leiner et al. | EDA positive change: A simple algorithm for electrodermal activity to measure general audience arousal during media exposure | |
US8986218B2 (en) | System and method for calibrating and normalizing eye data in emotional testing | |
KR101535432B1 (ko) | 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법 | |
US9792823B2 (en) | Multi-view learning in detection of psychological states | |
Cho | Rethinking eye-blink: Assessing task difficulty through physiological representation of spontaneous blinking | |
Baltaci et al. | Stress detection in human–computer interaction: Fusion of pupil dilation and facial temperature features | |
US20220222687A1 (en) | Systems and Methods for Assessing the Marketability of a Product | |
US11324436B2 (en) | Knowledge discovery based on brainwave response to external stimulation | |
WO2016004117A1 (en) | System and signatures for a multi-modal physiological periodic biomarker assessment | |
TWI589274B (zh) | 心理臨床應用的虛擬實境系統 | |
JP2006525829A (ja) | インテリジェント欺瞞検証システム | |
Hossain et al. | Observer’s galvanic skin response for discriminating real from fake smiles | |
Kroupi et al. | Predicting subjective sensation of reality during multimedia consumption based on EEG and peripheral physiological signals | |
WO2014116826A1 (en) | Mobile, neurally-assisted personal assistant | |
Marandi et al. | Using eye movement analysis to study auditory effects on visual memory recall | |
Carey et al. | Naturalistic observation of social interactions | |
CN113764099A (zh) | 基于人工智能的心理状态分析方法、装置、设备及介质 | |
CN108451494A (zh) | 使用瞳孔反应来检测时域心脏参数的方法及系统 | |
KR102081752B1 (ko) | 영상평가시스템 및 영상평가방법 | |
Ruotsalo et al. | Affective Relevance | |
JP6721818B2 (ja) | 瞳孔径拡大による脳活動量判定装置およびプログラム | |
TWI626037B (zh) | Virtual reality system for psychological clinical application | |
Qananwah et al. | Detecting cognitive features of videos using EEG signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180327 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181002 |