JP2016513297A - 視聴者の反応を分析する方法及び装置 - Google Patents
視聴者の反応を分析する方法及び装置 Download PDFInfo
- Publication number
- JP2016513297A JP2016513297A JP2015551667A JP2015551667A JP2016513297A JP 2016513297 A JP2016513297 A JP 2016513297A JP 2015551667 A JP2015551667 A JP 2015551667A JP 2015551667 A JP2015551667 A JP 2015551667A JP 2016513297 A JP2016513297 A JP 2016513297A
- Authority
- JP
- Japan
- Prior art keywords
- correlation
- biometric data
- viewer
- members
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000004044 response Effects 0.000 title claims abstract description 18
- 238000006243 chemical reaction Methods 0.000 claims abstract description 5
- 238000004458 analytical method Methods 0.000 claims description 17
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 19
- 238000005314 correlation function Methods 0.000 description 15
- 238000012952 Resampling Methods 0.000 description 8
- 238000011160 research Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
オーディオビジュアルコンテンツを視聴する視聴者の反応を分析する方法は、先ず、オーディオビジュアルコンテンツを視聴する視聴者メンバから生体データを収集することを開始する。収集される生体データは、相関グラフを設定するために相互相関の処理に委ねられ、相関グラフは、視聴されるオーディオビジュアルコンテンツに対する個人的な視聴者メンバの反応を表すノードを有する。その後、類似するノードに対応するグラフにおけるエッジが識別され、視聴されるコンテンツに対して同様に反応する視聴者メンバを示す。
Description
本発明は視聴されるコンテンツに対する視聴者メンバの反応を分析するための技術に関連する。
映画及びTVスタジオは、一般に、既存の及び提案されるコンテンツ提供に関する市場調査活動の一環として視聴者テスト(audience testing)を実行する。個々のテスト上映の最終的な目的は様々であるが(例えば、マーケティング、編集など)、多くの場合、スタジオ(又は会社)は、視聴者がコンテンツの提供に対してどのように反応するかを予想する手助けとなるフィードバックを望む。視聴テストについての現在の最良の方法は、概して、コメントカードにより得られる明示的なフィードバックを当てにし、グループインタビューに着目している。これらの技術はマーケットリサーチ業界で幅広く使用されているが、これらの技術は信頼できない批判を受けたり、調査が粗すぎるおそれがある。そのような技術の信頼性が低いことは、様々な人々がコメントカードで問われる質問を主観的に解釈し、視聴者メンバの記憶や着目するグループの社会的状況に依存して、様々に応答するかもしれないことに起因する。
皮膚電位(electro dermal activity:EDA)のような視聴者メンバの生体データを収集することは、視聴者メンバの感情反応のきめ細かい客観的な評価を可能にする。しかしながら、個人的な反応は解釈が容易でなく、その理由は、人の生体組織だけでなく、センサの配置により導入されるノイズも、その人の反応として影響し得るからである。広く視聴者測定値を収集することは、全体的な反応により、それら個々の特徴の影響を減らす。しかしながら、そのような収集(aggregation)は、複数の視聴者メンバの生体データを単に平均化すること以上の負担を必要とし、例えば、各人の反応は皮膚やセンサの特性に依存して異なる統計性を有するかもしれない。
生体センサの読み取り値(例えば、EDA、EEG、心拍)を感情に変換する方法についてのリサーチがなされている。そのようなリサーチは、視聴者テストに関するものよりも相当困難な問題を招く。更に、この種の分野におけるリサーチは、汎用的なアプリケーションに対するモデルを構築することは困難であることが判明しており、その理由は、様々なパラメータの値を学習するのに必要な真の基準ラベル(ground truth label)(例えば、実際の感情)を把握することは困難だからである。脳の活動(情報)を収集するために、短い映画セグメントを鑑賞する視聴者メンバについてのファンクショナル磁気共鳴イメージング(functional Magnetic Resonance Imaging:fMRI)を相互に関連させる(相関させる)試みも存在する。そのようなリサーチは、参加する視聴者の中で大きな相互相関(cross correlation)が存在し、これは彼らが視聴される映画を互いに同様に経験することを示す、ということを紹介している。このリサーチはファンクショナルMRIデータを当てにしているので、この方法論が実際の視聴者テストに適用できるか否か及び何処まで適用できるかについて疑義が残るかもしれない。ファンクショナルMRIスキャンを適切に実行するために、視聴者メンバは、閉ざされた空間内で横になり、測定の期間の間は完全に静止したままでなければならない。如何なる視聴者メンバの動きもデータを劣化させ得る。更に、MRI装置は、多額の費用がかかり、かなりの運営コストを招き、従って、データの収集を1度に1人の視聴者メンバに制限している。
過去において、マーケットの研究者は、ユーザのフィードバックデータを分析することにより得られる反応を説明するのに役立つ映画要素(例えば、キャラクタ、ロケーション、音など)を確認するために、視聴者メンバとコンテンツメタデータとの相関性を算出した。そのような試みは、コンテンツを視聴する個人の反応を解釈することに着目し、特に、レコメンドエンジンのようなパーソナライズツールに関連しており、そのような試みは、視聴者全体としての何らの情報ももたらしていない。
従って、従来技術に関する上記の問題を克服する視聴者の反応を分析する技術が望まれている。
概して、本発明の原理による好ましい形態によれば、オーディオビジュアルコンテンツを視聴する視聴者の反応を分析する方法は、先ず、オーディオビジュアルコンテンツを視聴する視聴者メンバから生体データを収集することを開始する。収集される生体データは、相関グラフ(correlation graph)を設定するために相互相関の処理に委ねられ、相関グラフは、視聴されるオーディオビジュアルコンテンツに対する個人的な視聴者メンバの反応を表すノード(node)を有する。その後、類似するノードに対応するグラフにおけるエッジが識別され、視聴されるコンテンツに対して同様に反応する視聴者メンバを示す。
発明原理によれば、図1に示される分析エンジン10は、視聴者メンバから収集される生体データにより、視聴されるオーディオビジュアルコンテンツ(例えば、映画及びテレビジョン番組)に対する視聴者メンバの反応を判定することが可能である。実際には、生体データは皮膚電位(EDA)による複数のストリームの形態をとり(図示せず)、各々のストリームはコンテンツを鑑賞する個々の視聴者メンバから発する。個々のストリームの取得は、全ての視聴者がそのコンテンツを同時に鑑賞する場合にはリアルタイム分析と並列的に行うことが可能であり、或いは、オフライン分析の場合には複数のセッションにより行うことが可能である。ストリームは典型的には外的な方法で同期をとり、例えば、映画の開始のようなコンテンツ中の対応するポイントを指す、EDA信号におけるマークにより同期をとってもよい。
簡明化のため、図1は、視聴者メンバ12及び14のペア(又は組)からEDAデータストリームを分析エンジン10により受信することを示しているが、実際には、分析エンジンは更に多数の視聴者メンバからEDAデータストリームを受信するのが一般的である。分析エンジン10は、相関機能部16及びリサンプリング機能部18(図2を参照しながら詳細に説明される)において視聴者メンバ12及び14からEDAデータストリームを受信する。相関機能部16は、後述する方法により、受信される視聴者メンバのEDAデータストリームについて相関(の計算)を実行するようにプログラムされるデータプロセッサ(例えば、パーソナルコンピュータ)を有する。図1の分析エンジン10の相関機能部16は、視聴者メンバ12及び14からのEDAデータストリームを、オーバーラップする固定長時間ウィンドウ(例えば、1秒刻みのステップで5分間の長さのウィンドウ)に集める(aggregate)。全ての時点において、相関機能部16は、相関グラフを構築するアルゴリズムを利用して、全ての視聴者メンバについて5分間ウィンドウの現在のセット(集合)を処理し、ノードは視聴されるコンテンツに対する視聴メンバの個人的な反応を表現し、2人の対応する視聴者メンバがその5分間ウィンドウの間にそのコンテンツに対して同様に反応する場合には、2つのノードはエッジにより接続されるようになる。
相関グラフを構築するために、図1の相関機能部16は、各々の固定長時間ウィンドウについて、視聴者メンバについて、EDA信号の所与のスナップショットについて、全てのペアの視聴者メンバに対するペアの相関又はペアワイズ相関(pairwise correlation)を計算する。特に、相関機能部16は、ノンパラメトリック仮説検定(non-parametric hypothesis test)を実行し、スナップショットにより示される時間の間に2人の視聴者メンバの反応が類似して見えるか否かを判断する。先ず、相関機能部16は、視聴者メンバの特定のペアについてEDAストリームの相関を計算し、次に、それら2つの信号が統計的に互いにどの程度類似しているかを反映するスコアを生成する。
相関機能部16は異なる相関法を利用することも可能であり、例えば、信号同士の間の相互情報又は2つの信号のドット積(又は点乗積又は内積)(コサイン類似度としても知られている)を利用してもよいがこれらに限定されない。異なる相関技術は、誤検出(false positive)の発生率に関して異なる属性を有し、それらの影響の仕方は最終的な相関グラフとともに実行される分析の仕方(又はタイプ)に依存する。
相関機能部16により実行される相関処理と並列して、図1の分析エンジン10内のリサンプリング機能部18は、(例えば、図1の視聴者メンバ12及び14のような)視聴者メンバからの入力EDAストリームに従って、相関値に対するベースライン分布(baseline distribution)を設定する。図2を参照すると、リサンプリング機能部18は、典型的には、図1の相関機能部16を含むデータプロセッサと同一又は別個であるデータプロセッサ(図示せず)を有する。リサンプリング機能部18はランダム化機能部20を有し、ランダム化機能部20は、ある程度のストリームの統計的性質を保っているが、そのストリームが図2のリサンプリング機能部18により受信される他の入力ストリームとの間で有していた潜在的な何らかの相関性を示さないように、受信される視聴者メンバのEDAストリームのペアのうちの一方をランダム化したバージョンを生成する。ランダム化機能部20は、信号の中で何れの統計値を保存することを希望するかに依存して様々なランダム化技術を利用することが可能である。例えば、単なるサイクリックシフト(又は循環シフト)は、(相互)相関を低くするが、平均値、分散、及び、変換される信号の自己相関値などのような多くの他の統計値を依然として維持するには十分である。この「変換される信号」は上記の「ランダム化したバージョン」のストリームと同じである。一方、信号中の全ての点を乱す(シャッフルする)ランダム化方法は、平均値や分散を維持するが、自己相関は維持されない。ランダム化方法の選択は、アルゴリズムの感度(sensitivity)に影響し、すなわち、2つの信号が真に相関して見える場合にどの程度頻繁に相互相関を計算するかに影響する。
ランダム化機能部20は、入力信号のうちの一方にランダム化を何度か適用し、その度に、異なるランダム化出力信号を生成するように異なるランダム化シード(seed)を使用する。様々なランダム化出力信号の各々に関し、相関機能部22は、他の入力信号との相関を計算し、それらの値を保存し、相関値のベースライン分布を形成する。この点に関し、相関機能部22は図1の相関機能部16と同じ相関技術を利用してもよい。
図1を参照すると、分析エンジン10は統計的有意性機能部24を含み、統計的有意性機能部24は、相関機能部16により生成される視聴者メンバのEDA信号のペアの相関値と、リサンプリング機能部18により生成されるベースライン分布とを比較し、それらの間で(存在するならば)統計的有意性(statistical significance)を判定する。実際には、統計的有意性機能部24は、相関機能部16及び/又はリサンプリング機能部18(何れも図1)を形成するデータプロセッサと同一である又は異なるデータプロセッサを有する。本質的には、統計的サンプリング機能部24は、生成されたベースライン分布値が観測される相関値より大きな値を有する確率を推定する。この確率が、ある小さな閾値(例えば、0.1%)より小さな値を有する場合、統計的サンプリング機能部24は、そのスナップショットの期間に関し、(例えば、図1の視聴者メンバ12及び14のような)視聴者メンバのペアのEDA信号は互いに類似していると判断する。
個々の視聴者メンバの全てのペアについてペアワイズ相関の有意性を算出した後に、統計的有意性機能部24は、統計的に有意な相関する視聴者メンバEDAのデータストリームの相関をマッピングすることにより、相関グラフを構築することができる。そのような相関グラフは各々の視聴者メンバに対するノードを有する。更に、スナップショットの間にノードが類似性を示す場合であってその場合に限り、すなわち、それらのペアワイズ相関が上述したような統計的有意性を示す場合に、統計的有意性機能部24はペアのノードの間で相関グラフにエッジを付加する。相関グラフはスナップショット(例えば、5分間のウィンドウ)に含まれるデータを表現しているに過ぎないことに留意を要する。図1の分析エンジン10は、コンテンツの持続時間の間の全てのスナップショットについて、この手順を反復し、スナップショットについて異なる可能性がある相関グラフを生成する。
全てのスナップショットについて取得される一群のグラフは、集合的に、単独のダイナミックグラフ(dynamic graph)を表現し、一群のノード(すなわち、視聴者メンバ)は変わらないが、視聴者メンバの反応は多かれ少なかれ互いに類似するので、時間経過とともにノード間にエッジが追加又は削除される。そのようなダイナミックグラフは、視聴者メンバがコンテンツにどのように関わるかについての詳細な説明をもたらす。グラフ構造を分析することは、ある時間内のエッジ密度、グラフ内のグループ(clique)のサイズ、及び、グラフのスペクトル特性(すなわち、グラフのラプラシアンの固有値)を含む様々なメトリックを利用して行うことが可能である。
図3は4つの異なる映画に対する一群の相関グラフを示す。各々の映画に関し、図1の分析エンジン10は、映画を同時に鑑賞する20人のメンバに属する視聴者についてEDAデータを収集及び分析した。上記の方法を適用し、分析エンジン10は、各々の映画についてダイナミックグラフを算出し、これらのグラフについて時間経過に対するエッジ密度を測定した。このメトリックは、図3のグラフのエッジのうち、所与の時点においてアクティブであるものの部分(又は割合)を示す。直感的には、エッジを介して接続される視聴者メンバのペアが多いほど、その映画は視聴者に同じ体験を共有させる効果が大きい。
以上、視聴されるコンテンツに対する視聴者メンバの反応を分析するための技術が説明された。
<関連出願>
本願は2013年1月4日付け米国仮特許出願第61/749,051号の35U.S.C.119(e)に関する利益を享受し、その出願の教示内容は本願に組み入れられる。
本願は2013年1月4日付け米国仮特許出願第61/749,051号の35U.S.C.119(e)に関する利益を享受し、その出願の教示内容は本願に組み入れられる。
Claims (9)
- オーディオビジュアルコンテンツを視聴する視聴者の反応を分析する方法であって、
前記オーディオビジュアルコンテンツを視聴する視聴者メンバから生体データを収集するステップと、
視聴されるオーディオビジュアルコンテンツに対する個々の視聴者メンバの反応を表すノードを有する相関グラフを構築するために、収集された生体データの相互相関を計算するステップと、
視聴されるコンテンツに対して同様に反応する視聴者メンバを示すように、類似するノードに対応する前記グラフにおけるエッジを識別するステップと、
を有する方法。 - 前記生体データが、各々の視聴者メンバの皮膚電位(EDA)のストリームを有する、請求項1に記載の方法。
- 前記EDAストリームは前記視聴されるコンテンツに同期する、請求項2に記載の方法。
- 前記相互相関を計算するステップは、ペアの視聴者メンバの生体データの間の相関を計算するステップを含む、請求項1に記載の方法。
- 前記相互相関を計算するステップは、
相関値を生成するためにペアの視聴者メンバの生体データの相関を計算するステップと、
前記ペアの視聴者メンバの生体データのうち少なくとも1つをランダム化するステップと、
相関ベースライン分布値を生成するために、前記ペアの視聴者メンバの生体データのうちランダム化されたものと前記ペアの視聴者メンバの生体データのうちランダム化されていないものとの相関を計算するステップと、
前記相関値と前記相関ベースライン分布値とを比較し、前記ペアの視聴者メンバの生体データの間の相互相関を計算するステップと、
を有する、請求項4に記載の方法。 - オーディオビジュアルコンテンツを視聴する視聴者の反応を分析する装置であって、
(a)視聴されるオーディオビジュアルコンテンツに対する個々の視聴者メンバの反応を表すノードを有する相関グラフを構築するために、視聴者メンバから収集される生体データの相互相関を計算し、及び(b)視聴されるコンテンツに対して同様に反応する視聴者メンバを示すように、類似するノードに対応する前記グラフにおけるエッジを識別する分析エンジン
を有する装置。 - 前記生体データが複数の皮膚電位(EDA)のストリームを有し、各々のEDAのストリームは個々の視聴者メンバに関連する、請求項6に記載の装置。
- 前記分析エンジンは、ペアの視聴者メンバの生体データの間の相関を計算することにより、収集される生体データの相関を計算する、請求項6に記載の装置。
- 相関値を生成するためにペアの視聴者メンバの生体データの相関を計算する手段と、
前記ペアの視聴者メンバの生体データのうち少なくとも1つをランダム化する手段と、
相関ベースライン分布値を生成するために、前記ペアの視聴者メンバの生体データのうちランダム化されたものと前記ペアの視聴者メンバの生体データのうちランダム化されていないものとの相関を計算する手段と、
前記相関値と前記相関ベースライン分布値とを比較し、前記ペアの視聴者メンバの生体データの間の相互相関を計算する手段と、
を有する請求項8に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361749051P | 2013-01-04 | 2013-01-04 | |
US61/749,051 | 2013-01-04 | ||
PCT/US2013/054619 WO2014107191A1 (en) | 2013-01-04 | 2013-08-13 | Method and apparatus for correlating biometric responses to analyze audience reactions |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016513297A true JP2016513297A (ja) | 2016-05-12 |
Family
ID=48998763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015551667A Pending JP2016513297A (ja) | 2013-01-04 | 2013-08-13 | 視聴者の反応を分析する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150317647A1 (ja) |
EP (1) | EP2941747A1 (ja) |
JP (1) | JP2016513297A (ja) |
KR (1) | KR20150104564A (ja) |
WO (1) | WO2014107191A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170169726A1 (en) * | 2015-12-09 | 2017-06-15 | At&T Intellectual Property I, Lp | Method and apparatus for managing feedback based on user monitoring |
US10431116B2 (en) * | 2015-12-10 | 2019-10-01 | International Business Machines Corporation | Orator effectiveness through real-time feedback system with automatic detection of human behavioral and emotional states of orator and audience |
US11128675B2 (en) | 2017-03-20 | 2021-09-21 | At&T Intellectual Property I, L.P. | Automatic ad-hoc multimedia conference generator |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2520117A1 (en) * | 2003-03-25 | 2004-10-14 | Sedna Patent Services, Llc | Generating audience analytics |
JP4299316B2 (ja) * | 2006-05-12 | 2009-07-22 | 株式会社日立製作所 | 情報処理システム |
US20080163159A1 (en) * | 2007-01-03 | 2008-07-03 | Relativity Technologies, Inc. | System and method for extracting UML models from legacy applications |
US20080320520A1 (en) * | 2007-06-21 | 2008-12-25 | Beadle Edward R | System and method for biometric identification using portable interface device for content presentation system |
US20100070987A1 (en) * | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Mining viewer responses to multimedia content |
US20100228692A1 (en) * | 2009-03-03 | 2010-09-09 | Honeywell International Inc. | System and method for multi-modal biometrics |
US9164969B1 (en) * | 2009-09-29 | 2015-10-20 | Cadence Design Systems, Inc. | Method and system for implementing a stream reader for EDA tools |
-
2013
- 2013-08-13 WO PCT/US2013/054619 patent/WO2014107191A1/en active Application Filing
- 2013-08-13 US US14/653,520 patent/US20150317647A1/en not_active Abandoned
- 2013-08-13 JP JP2015551667A patent/JP2016513297A/ja active Pending
- 2013-08-13 KR KR1020157017961A patent/KR20150104564A/ko not_active Application Discontinuation
- 2013-08-13 EP EP13750487.4A patent/EP2941747A1/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
KR20150104564A (ko) | 2015-09-15 |
EP2941747A1 (en) | 2015-11-11 |
WO2014107191A1 (en) | 2014-07-10 |
US20150317647A1 (en) | 2015-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Abdelrahman et al. | Cognitive heat: exploring the usage of thermal imaging to unobtrusively estimate cognitive load | |
Christoforou et al. | Your brain on the movies: a computational approach for predicting box-office performance from viewer’s brain responses to movie trailers | |
Wen et al. | Emotion recognition based on multi-variant correlation of physiological signals | |
US9792823B2 (en) | Multi-view learning in detection of psychological states | |
Wei et al. | Non-contact, synchronous dynamic measurement of respiratory rate and heart rate based on dual sensitive regions | |
Wang et al. | Analyses of a multimodal spontaneous facial expression database | |
US20160021425A1 (en) | System and method for predicting audience responses to content from electro-dermal activity signals | |
US20090036755A1 (en) | Entity and relationship assessment and extraction using neuro-response measurements | |
Abadi et al. | Inference of personality traits and affect schedule by analysis of spontaneous reactions to affective videos | |
Arnau-González et al. | BED: A new data set for EEG-based biometrics | |
JP2010520553A (ja) | メディア性能の基準として生物的反応の一致性を利用する方法及びシステム | |
WO2014059234A1 (en) | Predicting response to stimulus | |
Wache et al. | Implicit user-centric personality recognition based on physiological responses to emotional videos | |
JP2015229040A (ja) | 感情分析システム、感情分析方法および感情分析プログラム | |
US20210022637A1 (en) | Method for predicting efficacy of a stimulus by measuring physiological response to stimuli | |
Danner et al. | Automatic facial expressions analysis in consumer science | |
McDuff | New methods for measuring advertising efficacy | |
Guimard et al. | Pem360: A dataset of 360 videos with continuous physiological measurements, subjective emotional ratings and motion traces | |
Porcu et al. | Towards the prediction of the quality of experience from facial expression and gaze direction | |
JP2016513297A (ja) | 視聴者の反応を分析する方法及び装置 | |
So et al. | Between-subject correlation of heart rate variability predicts movie preferences | |
US20130052621A1 (en) | Mental state analysis of voters | |
Migliorelli et al. | A store-and-forward cloud-based telemonitoring system for automatic assessing dysarthria evolution in neurological diseases from video-recording analysis | |
Abadi et al. | Decoding affect in videos employing the MEG brain signal | |
Mooney et al. | Investigating biometric response for information retrieval applications |