JP2012524458A - 対話的活動に関するユーザ体験を測定するための方法及びシステム - Google Patents
対話的活動に関するユーザ体験を測定するための方法及びシステム Download PDFInfo
- Publication number
- JP2012524458A JP2012524458A JP2012505954A JP2012505954A JP2012524458A JP 2012524458 A JP2012524458 A JP 2012524458A JP 2012505954 A JP2012505954 A JP 2012505954A JP 2012505954 A JP2012505954 A JP 2012505954A JP 2012524458 A JP2012524458 A JP 2012524458A
- Authority
- JP
- Japan
- Prior art keywords
- biometric
- viewer
- response
- presentation
- cognitive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0203—Market surveys; Market polls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4661—Deriving a combined profile for a plurality of end-users of the same client, e.g. for family members within a home
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Entrepreneurship & Innovation (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Marketing (AREA)
- Theoretical Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Human Resources & Organizations (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Tourism & Hospitality (AREA)
- Computer Networks & Wireless Communication (AREA)
- Animal Behavior & Ethology (AREA)
- Developmental Disabilities (AREA)
- Psychology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Hospice & Palliative Care (AREA)
- Molecular Biology (AREA)
- Educational Technology (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
Abstract
【選択図】図3
Description
本出願は、2007年9月5日に出願された米国特許出願第11/850,650号の一部継続出願であり、この特許出願はその全体が引用により本明細書に組み入れられる。米国特許出願第11/850,650号は、2006年9月5日に出願された米国仮特許出願第60/824,546号の法律により与えられるあらゆる利益を主張するものであり、この米国仮特許出願第60/824,546号は、その全体が引用により本明細書に組み入れられる。
該当なし
〔マイクロフィッシュアペンディクスの参照〕
該当なし
本発明は、サンプルユーザ又は集団の視聴者をプレゼンテーション(感覚的刺激)に曝して視聴者の体験を評価する方法及びシステムに関し、この評価は、プレゼンテーションに対する視聴者の個々のメンバーの身体的、生物学的、生理学的、及び行動的反応を測定して、この視聴者のメンバーのプレゼンテーションに対する強度、同調性及び関心(関与)のレベルの尺度及びパターンを判定することによって行われる。プレゼンテーションは、視聴者が見る受動的プレゼンテーション、又は視聴者のメンバーが参加し、タスク、プロセス、体験又は活動において相互作用できるようにする対話型プレゼンテーションとすることができる。
強度スコアは、以下のステップに基づいて計算することができる。ステップ1:個々の入力チャネルにノイズ低減処理を行った(例えば、個々の生体測定センサに別個のチャネルを割り当てることができる)後、個々の参加者について、ある基準期間にわたって反応の平均偏差(u)及び標準偏差(c)を含む反応の振幅の分布を計算する(これは、刺激によって決まる可変パラメータである)。ステップ2:個々の参加者について、各反応のトラフ及びピーク振幅の場所及びタイミングを推定し、個々のピークとトラフの差分(反応の振幅)を計算する。ステップ3:このようにして求めた値を使用して、振幅がそのチャネルの基準μ未満の場合にはスコア0を、振幅がμとμ+f−(σ)の間にある場合には反応にスコア1を、振幅がμ+f−(σ)を上回る場合には反応にスコア2を、というように個々の反応についてスコアを設定する。ステップ4:f−riseの時点を特定することにより、メディア刺激にタイムロックされた連続する可変長のビンに各参加者の個々の反応スコアを割り当てる。ステップ5:全ての参加者にわたる全てのビンに分けた反応スコアの合計を、個々の生物学的センサについて計算する。(各試験で等しい)回収したセンサの数及び(各試験で異なる)参加者の数に応じてスコアを正規化する。このようにして生成されたスコアが、単位時間当たりの、又はタイムスロット当たりの強度スコアである。
同調性は、刺激又はプレゼンテーションの一部に対する視聴者(サンプル集団の複数のメンバー)による反応の変化率の尺度である。同じ参加者による複数の視聴又は体験は、複数の参加者による1つの視聴又は体験と同じであると考えることができる。視聴者を、ある期間にわたって、或いは一連のステップ又はイベントを通じて刺激又はプレゼンテーションに曝すことができる。曝された期間を、刺激又はプレゼンテーションを構成する要素又はイベントに対応するウィンドウ又は部分又はイベントに分割することができる。例えば、反応の同調性を、複数の視聴者メンバー又は集団サンプルによる、刺激の一部又はプレゼンテーション中のイベントに対する測定された反応の変化率の関数として求めることができる。
強度スコア及び同調性スコアをともに加算して、単位時間ごとの、又はタイムスロット又はイベントウィンドウ当たりの経時的な又はイベントに基づく関心スコアを計算することができる。試験用プレゼンテーション及び試験視聴者の性質によっては、強度スコア及び同調性のスコアの一方を他方に対して重み付けすることができる。例えば、いつかの試験では、最も極端な反応を識別することが好ましい場合があり、従って強度の方が重く重み付けされる。或いは、異なる関数を使用して、異なる形の関心スコアを求めることができる。例えば、強度に同調性を乗ずることにより、何時間にもわたる裁判の証言を評価する場合などのいくつかの状況においてより信頼できる有効な誇張されたグラフが生成され、最も極端な関心の例を識別するために有用となり得る。
システムは、人口学的/心理学的プロファイル、及び試験用コンテンツに関連するその他のデータと組み合わせた場合に、同様の集団におけるそのコンテンツの相対的成功の予測を可能にする、様々な過去のメディア又はその他の関連する刺激又は体験に対する視聴者の関心のデータベースをさらに含むことができる。視聴者を試験した後に、説明した方法からの様々な形の出力を使用して、感覚的刺激が目的の達成において成功する可能性を推定することができる。予測モデルを作成するための統計分析としては、以下に限定されるわけではないが、製品又はコンテンツ自体に関する変数、製品又はコンテンツの販売価格又は生産原価、購入場所又は体験媒体、販売促進コスト及び/又は視聴者の特性を挙げることができる。例えば、テレビ業界向けのモデルに含まれる因子としては、以下に限定されるわけではないが、a)タイムスロット当たりの視聴者数、b)番組導入部分の視聴率、c)後続番組の視聴率、d)その種の番組の平均視聴率、)、e)主演男優/女優の人気度、f)時期、g)広告収入、h)番組の販売促進予算、及び/又はi)ネットワークの人気を挙げることができる。他の因子としては、以下に限定されるわけではないが、a)報告のあった番組の好み、b) 心理学的特性(内向性対外向性など)、c)人口学的特性、及び/又はd)番組の要素を思い出す又は認識する能力、などの標的視聴者の特性を挙げることができる。成功の指標としては、以下に限定されるわけではないが、類似する特徴の集団が、試験的劇場の外でどの程度テレビ番組を見るか、及び/又は類似する特徴の集団が、広告されている製品をどの程度覚えているか、及び/又はどの程度購入するかを挙げることができる。試験される人数が多いほど(サンプル集団が大きいほど)、またその集団がより良く特徴付けられるほど、そのモデルがより大きな集団の反応の正確な予測材料となる可能性が高くなることが好ましい。好ましい予測モデルとして、以下に限定されるわけではないが、a)混合メディアモデル、b)古典的な多変量解析、c)階層的線形モデリング、d)機械学習、e)回帰分析、f)ベイズ収縮推定量、及び/又はg)クラスタ及び因子分析といった統計モデルのいずれかを挙げることができる。
2.番組導入部分の視聴率
3.後続番組の視聴率
4.ジャンル当たりの平均視聴率
5.俳優の人気−QRating
6.そのタイムスロットにおける競合番組の視聴率
7.時期
8.番組の販売促進予算
9.ネットワークの人口統計
広告からの例はこれらの変数を全て含むことができるが、以下を追加することもできる。
2.セグメント長
3.標的視聴者
4.含んでいる番組の人口統計
本発明の代替の実施形態によれば、視聴者(1又はそれ以上の個人)が、対話的でありイベントに分離することができる1又はそれ以上の聴覚的、視覚的、又は視聴覚的刺激物(プレゼンテーション又はコンテンツの項目など)に曝される。イベントは、特定の時点に、指定した持続時間にわたる刺激への暴露又はこの刺激との相互作用である。通常、刺激又はプレゼンテーションは、コンピュータ画面又は大型テレビ画面上に提示することができ、マウス、キーボード又はリモコンなどを使用して、ユーザ(視聴者メンバー)入力を受け入れるシステムに関連して使用することができる。
本発明の1つの実施形態によれば、コンピュータプログラムを使用して、コンピュータプログラムモジュールを使用して、或いはコンピュータシステムのメモリに記憶された、別のプログラムモジュールから受信された、又は生体測定センサ及び視標追跡システムから直接受信された生体測定データ及び凝視固定データ及び/又は(生体測定認知力指数などの)中間データ構築物にアクセスするコンピュータプログラムモジュールの組を使用して、生体測定認知プロットエリアを決定することができる。データは、リアルタイムデータであっても、或いは1又はそれ以上の視聴者メンバーから以前に捕捉されて記憶されたデータであってもよい。
(高感情視覚範囲指数+高認知視覚範囲指数)
(低感情視覚範囲指数+低認知視覚範囲指数)
完了指数は、試験グループにわたる完了までの平均時間及び標準偏差などの、タスク、プロセス又は体験を完了した個々のユーザの試験グループのパーセンテージ及び完了までの時間に関する1又はそれ以上のメトリクスの関数として求めることができる。完了パーセンテージが高いタスク又はプロセスには高い完了指数を与えることができ、2又はそれ以上のタスクの完了パーセンテージが類似している場合、完了までの時間が最も短い又は完了までの時間偏差が最も小さいタスクに他のものよりも高く重み付けすることができる。
この場合、ターゲットセットAを含むタスクTの認知効率指数>0であれば、=ターゲットセットAを含むTの高認知効率指数となり、そうでなければ、Aを含むTの低認知効率指数となる。
Aを含むTの高認知効率指数=範囲((高認知マップ、A)の幾何学的交差)の合計/高認知マップ内のプロットエリアの合計である。
Aを含むTの低認知効率指数=(−1)*範囲((高認知マップ、A)の幾何学的交差)の合計/高認知マップ内のプロットエリアの合計である。
Aを含むTの高感情効率指数=範囲((高感情マップ、A)の幾何学的交差)の合計/高感情マップ内のプロットエリアの合計である。
Aを含むTの低感情効率指数=(−1)*範囲((高感情マップ、A)の幾何学的交差)合計/高感情マップ内のプロットエリアの合計である。
関心指数=流動指数+魅力指数+生体測定感情力指数+生体測定認知力指数である。
310 人物
312 参加者
312A 生物学的モニタリングシステム
314 モニタリング装置
316 データ処理装置
318 ユーザインターフェイス
320 報告
Claims (37)
- 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定できる生体測定センサ装置を提供するステップと、
前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
前記生体測定センサ装置に接続されて前記生体測定ベースの認知反応を表わすデータを受け取る、前記生体測定ベースの認知反応データを記憶するメモリを含むコンピュータシステムを提供するステップと、
前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定し、各々の測定した生体測定に基づく反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの生体測定認知力指数を、全ての前記視聴者メンバーの前記測定した生体測定ベースの認知反応の関数として求めるステップと、
前記少なくとも1つのイベントウィンドウの前記生体測定認知力指数を示す報告を作成するステップと、
を含むことを特徴とする方法。 - 前記視聴者の少なくとも1つの生体測定認知力指数を求めるステップが、
生体測定ベースの認知反応閾値を決定するステップと、
1つのイベントウィンドウの個々の視聴者メンバーの個々の測定した生体測定ベースの認知反応を前記閾値と比較するステップと、
個々の視聴者メンバーの前記閾値を上回る測定した生体測定ベースの認知反応の数をカウントするステップと、
を含むことを特徴とする請求項1に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記生体測定ベースの認知反応閾値が、前記イベントウィンドウ中の前記視聴者メンバーの平均的な生体測定ベースの認知反応である、
ことを特徴とする請求項2に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記視聴者の少なくとも1つの生体測定認知力指数を求めるステップが、前記生体測定認知力指数を、2以上の視聴者メンバーの前記閾値を上回る1つのイベントウィンドウに関する測定した生体測定ベースの認知反応の数の前記合計として求めるステップを含む、
ことを特徴とする請求項2に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記視聴者の1以上のメンバーについて、前記プレゼンテーションの見られている部分を識別し、前記プレゼンテーションの個々の見られている部分を、前記期間の前記持続時間中の時点に関連付けるステップと、
前記プレゼンテーションの個々のイベントウィンドウ、及び前記視聴者の前記1以上のメンバーが見ている前記部分の前記生体測定認知力指数の関数として生体測定認知マップを生成するステップと、
をさらに含み、前記生体測定認知マップが、前記プレゼンテーションの、前記視聴者の高レベルの認知活動に関連する範囲を示す、
ことを特徴とする請求項1に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記生体測定認知マップが、前記プレゼンテーションの、予め定めた閾値を上回る生体測定認知反応指数を有する前記視聴者の1以上のメンバーが見ている部分を集約することにより生成される、
ことを特徴とする請求項5に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記プレゼンテーションの、前記視聴者の個々のメンバーが見ている部分を識別できる視覚センサ装置を提供するステップをさらに含む、
ことを特徴とする請求項5に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定できる生体測定センサ装置を提供するステップと、
前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
前記生体測定センサ装置に接続されて前記生体測定ベースの感情反応を表わすデータを受け取る、前記生体測定ベースの感情反応データを記憶するメモリを含むコンピュータシステムを提供するステップと、
前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定し、各々の測定した生体測定に基づく感情反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの生体測定感情力指数を、全ての前記視聴者メンバーの前記測定した生体測定ベースの感情反応の関数として求めるステップと、
前記少なくとも1つのイベントウィンドウの前記生体測定感情力指数を示す報告を作成するステップと、
を含むことを特徴とする方法。 - 前記視聴者の少なくとも1つの生体測定感情力指数を求めるステップが、
生体測定ベースの感情反応閾値を決定するステップと、
1つのイベントウィンドウの個々の視聴者メンバーの個々の測定した生体測定ベースの感情反応を前記閾値と比較するステップと、
個々の視聴者メンバーの前記閾値を上回る測定した生体測定ベースの感情反応の数をカウントするステップと、
を含むことを特徴とする請求項8に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記生体測定ベースの感情反応閾値が、前記イベントウィンドウ中の前記視聴者メンバーの平均的な生体測定ベースの感情反応である、
ことを特徴とする請求項9に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記視聴者の少なくとも1つの生体測定感情力指数を求めるステップが、前記生体測定感情力指数を、2以上の視聴者メンバーの前記閾値を上回る測定した生体測定ベースの感情反応の数の前記合計として求めるステップを含む、
ことを特徴とする請求項9に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記視聴者の1以上のメンバーについて、前記プレゼンテーションの見られている部分を識別し、前記プレゼンテーションの個々の見られている部分を、前記期間の前記持続時間中の時点に関連付けるステップと、
前記プレゼンテーションの個々のイベントウィンドウ、及び前記視聴者の前記1以上のメンバーが見ている前記部分の前記生体測定感情力指数の関数として生体測定感情マップを生成するステップと、
をさらに含み、前記生体測定感情マップが、前記プレゼンテーションの、前記視聴者の高レベルの感情活動に関連する範囲を示す、
ことを特徴とする請求項8に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記生体測定感情マップが、前記プレゼンテーションの、予め定めた閾値を上回る生体測定感情反応指数を有する前記視聴者の1以上のメンバーが見ている部分を集約することにより生成される、
ことを特徴とする請求項12に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記プレゼンテーションの、前記視聴者の個々のメンバーが見ている部分を識別できる視覚センサ装置を提供するステップをさらに含む、
ことを特徴とする請求項12に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求めるためのコンピュータ制御システムであって、
前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すようになっているプレゼンテーション装置と、
前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定できる生体測定センサ装置と、
前記生体測定センサ装置に接続されて前記生体測定ベースの認知反応を表わすデータを受け取る、前記生体測定ベースの認知反応データを記憶するメモリを含むコンピュータシステムと、
を備え、前記コンピュータシステムが、
前記期間の持続時間中に前記プレゼンテーションに応答して生成された前記生体測定ベースの認知反応データを前記コンピュータシステムの前記メモリに記憶するようになっているとともに、前記生体測定ベースの認知反応データを、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるようになっている記録モジュールと、
少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの生体測定認知力指数を、全ての前記視聴者メンバーの前記測定した生体測定ベースの認知反応データの関数として求めるとともに、前記少なくとも1つのイベントウィンドウの前記生体測定認知力指数を示す報告を作成するようになっている処理モジュールと、
を備える、
ことを特徴とするコンピュータ制御システム。 - 前記処理モジュールが、1つのイベントウィンドウに関連する前記生体測定ベースの認知反応データを、生体測定ベースの認知反応閾値と比較し、前記1つのイベントウィンドウの前記閾値を上回る生体測定ベースの認知反応データ要素の総数を求める、
ことを特徴とする請求項15に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記処理モジュールが、前記生体測定ベースの認知反応閾値を、前記1つのイベントウィンドウに関連する前記生体測定ベースの認知反応データ要素の前記平均として求める、
ことを特徴とする請求項16に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記処理モジュールが、前記生体測定認知力指数を、2以上の視聴者メンバーの前記閾値を上回る生体測定ベースの認知反応データ要素の前記総数の関数として求める、
ことを特徴とする請求項16に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記記録モジュールが、前記期間の前記持続時間中に前記プレゼンテーションに応答して生成された視標追跡データを受け取って前記コンピュータシステムの前記メモリに記憶するようになっているとともに、前記視標追跡データを、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点と関連付けるようになっており、前記視標追跡データが、前記プレゼンテーションの、前記期間の前記持続時間中の時点に前記視聴者の前記メンバーが見ている部分の識別を含み、
前記処理モジュールが、個々のイベントウィンドウの生体測定認知力指数、及び前記視聴者の前記1以上のメンバーが見ている前記プレゼンテーションの前記部分の関数として生体測定認知マップを生成するようになっており、前記生体測定認知マップが、前記プレゼンテーションの、前記視聴者の高レベルの認知活動に関連する範囲を示す、
ことを特徴とする請求項15に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記処理モジュールが、前記プレゼンテーションの、予め定めた閾値を上回る生体測定レベルの認知反応指数を有する前記視聴者の1以上のメンバーが見ている前記部分を集約することにより前記生体測定認知マップを生成する、
ことを特徴とする請求項19に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記プレゼンテーションの、前記視聴者の個々のメンバーが見ている部分を識別できる視覚センサ装置をさらに含む、
ことを特徴とする請求項20に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求めるためのコンピュータ制御システムであって、
前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すようになっているプレゼンテーション装置と、
前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定できる生体測定センサ装置と、
前記生体測定センサ装置に接続されて前記生体測定ベースの感情反応を表わすデータを受け取る、前記生体測定ベースの感情反応データを記憶するメモリを含むコンピュータシステムと、
を備え、前記コンピュータシステムが、
前記期間の持続時間中に前記プレゼンテーションに応答して生成された前記生体測定ベースの感情反応データを前記コンピュータシステムの前記メモリに記憶するようになっているとともに、前記生体測定ベースの感情反応データを、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるようになっている記録モジュールと、
少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの生体測定感情力指数を、全ての前記視聴者メンバーの前記測定した生体測定ベースの感情反応データの関数として求めるとともに、前記少なくとも1つのイベントウィンドウの前記生体測定感情力指数を示す報告を作成するようになっている処理モジュールと、
を備える、
ことを特徴とするコンピュータ制御システム。 - 前記処理モジュールが、1つのイベントウィンドウに関連する前記生体測定ベースの感情反応データを、生体測定ベースの感情反応閾値と比較し、前記1つのイベントウィンドウの前記閾値を上回る生体測定ベースの感情反応データ要素の総数を求める、
ことを特徴とする請求項22に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記処理モジュールが、前記生体測定ベースの感情反応閾値を、前記1つのイベントウィンドウに関連する前記生体測定ベースの感情反応データ要素の前記平均として求める、
ことを特徴とする請求項23に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記処理モジュールが、前記生体測定ベースの感情力指数を、2以上の視聴者メンバーの前記閾値を上回る生体測定ベースの感情反応データ要素の前記総数の関数として求める、
ことを特徴とする請求項23に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記記録モジュールが、前記期間の前記持続時間中に前記プレゼンテーションに応答して生成された視標追跡データを受け取って前記コンピュータシステムの前記メモリに記憶するようになっているとともに、前記視標追跡データを、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点と関連付けるようになっており、前記視標追跡データが、前記プレゼンテーションの、前記期間の前記持続時間中の時点に前記視聴者の前記メンバーが見ている部分の識別を含み、
前記処理モジュールが、個々のイベントウィンドウの生体測定認知力指数、及び前記視聴者の前記1以上のメンバーが見ている前記プレゼンテーションの前記部分の関数として生体測定感情マップを生成するようになっており、前記生体測定感情マップが、前記プレゼンテーションの、前記視聴者の高レベルの感情活動に関連する範囲を示す、
ことを特徴とする請求項22に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記処理モジュールが、前記プレゼンテーションの、予め定めた閾値を上回る生体測定レベルの感情反応指数を有する前記視聴者の1以上のメンバーが見ている前記部分を集約することにより前記生体測定感情マップを生成する、
ことを特徴とする請求項26に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 前記プレゼンテーションの、前記視聴者の個々のメンバーが見ている部分を識別できる視覚センサ装置をさらに含む、
ことを特徴とする請求項26に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。 - 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定できる第1の生体測定センサ装置を提供するステップと、
プレゼンテーション画像の、前記視聴者の少なくとも1人のメンバーが見ている1以上の凝視場所を判定できる視標追跡センサ装置を提供するステップと、
前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
前記第1の生体測定センサ装置及び前記視標追跡センサ装置に接続されて前記生体測定ベースの認知反応を表わすデータ及び視標追跡データを受け取る、前記生体測定ベースの認知反応データ及び視標追跡データを記憶するメモリを含むコンピュータシステムを提供するステップと、
前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定し、個々の測定した生体測定に基づく認知反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
前記視聴者の少なくとも1人のメンバーについて、前記プレゼンテーションの1以上の画像の、前記少なくとも1つの視聴者メンバーが見ている1以上の場所を判定し、前記場所の各々を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
前記少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの認知影響指数を、全ての前記視聴者メンバー及び前記凝視場所の前記測定した生体測定ベースの認知反応の関数として求めるステップと、
前記少なくとも1つのイベントウィンドウの前記生体測定認知影響指数を示す報告を作成するステップと、
を含むことを特徴とする方法。 - 前記少なくとも1つのイベントウィンドウの少なくとも1つの生体測定認知影響指数を求めるステップが、
前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
前記視聴者の高生体測定認知視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を上回る前記測定した生体測定ベースの認知反応の関数として求めるステップと、
前記視聴者の低生体測定認知視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を下回る前記測定した生体測定ベースの認知反応の関数として求めるステップと、
前記高生体測定認知視覚範囲指数及び低生体測定認知視覚範囲指数の関数として認知影響指数を求めるステップと、
前記少なくとも1つのイベントウィンドウの前記高生体測定認知視覚範囲指数、前記低生体測定認知視覚範囲指数、及び前記認知影響指数を示す報告を作成するステップと、
を含むことを特徴とする請求項29に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記認知影響指数が、前記少なくとも1つのイベントウィンドウの前記高認知範囲指数から前記低認知範囲指数を差し引いたものとして求められる、
ことを特徴とする請求項30に記載の方法。 - 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定できる第1の生体測定センサ装置を提供するステップと、
プレゼンテーション画像の、前記視聴者の少なくとも1人のメンバーが見ている1以上の凝視場所を判定できる視標追跡センサ装置を提供するステップと、
前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
前記第1の生体測定センサ装置に接続されて前記生体測定ベースの感情反応を表わすデータ及び視標追跡データを受け取る、前記生体測定ベースの感情反応データを記憶するメモリを含むコンピュータシステムを提供するステップと、
前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定し、個々の測定した生体測定に基づく感情反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
前記視聴者の少なくとも1人のメンバーについて、前記プレゼンテーションの1以上の画像の、前記少なくとも1つの視聴者メンバーが見ている1以上の場所を判定し、前記場所の各々を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
前記少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの感情影響指数を、全ての前記視聴者メンバー及び前記凝視場所の前記測定した生体測定ベースの感情反応の関数として求めるステップと、
前記少なくとも1つのイベントウィンドウの前記生体測定感情影響指数を示す報告を作成するステップと、
を含むことを特徴とする方法。 - 前記少なくとも1つのイベントウィンドウの少なくとも1つの生体測定感情影響指数を求めるステップが、
前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
前記視聴者の高生体測定感情視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を上回る前記測定した生体測定ベースの感情反応の関数として求めるステップと、
前記視聴者の低生体測定感情視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を下回る前記測定した生体測定ベースの感情反応の関数として求めるステップと、
前記高生体測定感情視覚範囲指数及び低生体測定感情視覚範囲指数の関数として感情影響指数を求めるステップと、
前記少なくとも1つのイベントウィンドウの前記高生体測定感情視覚範囲指数、前記低生体測定感情視覚範囲指数、及び前記感情影響指数を示す報告を作成するステップと、
を含むことを特徴とする請求項32に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。 - 前記感情影響指数が、前記少なくとも1つのイベントウィンドウの前記高感情範囲指数から前記低感情範囲指数を差し引いたものとして求められる、
ことを特徴とする請求項33に記載の方法。 - 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定できる第1の生体測定センサ装置を提供するステップと、
前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定できる第2の生体測定センサ装置を提供するステップと、
プレゼンテーション画像の、前記視聴者の少なくとも1人のメンバーが見ている1以上の凝視場所を判定できる視標追跡センサ装置を提供するステップと、
前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
前記第1及び第2の生体測定センサ装置及び前記視標追跡センサ装置に接続されて前記生体測定ベースの認知反応を表わすデータ、前記生体測定ベースの感情反応を表すデータ、及び視標追跡データを受け取る、前記生体測定ベースの認知反応データ、前記生体測定ベースの感情反応データ、及び視標追跡データを記憶するメモリを含むコンピュータシステムを提供するステップと、
前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を及び少なくとも1つの生体測定ベースの感情反応測定し、個々の測定した生体測定に基づく認知反応及び個々の測定された生体測定ベースの感情反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
前記視聴者の少なくとも1人のメンバーについて、前記プレゼンテーションの1以上の画像の、前記少なくとも1つの視聴者メンバーが見ている1以上の場所を判定し、前記場所の各々を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
前記視聴者の高生体測定認知視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を上回る前記測定した生体測定ベースの認知反応の関数として求めるステップと、
前記視聴者の高生体測定感情視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を上回る前記測定した生体測定ベースの感情反応の関数として求めるステップと、
前記視聴者の低生体測定認知視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を下回る前記測定した生体測定ベースの認知反応の関数として求めるステップと、
前記視聴者の低生体測定感情視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を下回る前記測定した生体測定ベースの感情反応の関数として求めるステップと、
前記少なくとも1つのイベントウィンドウの前記高生体測定認知視覚範囲指数、前記高生体測定感情視覚範囲指数、低生体測定認知視覚範囲指数、及び低生体測定感情視覚範囲指数を示す報告を作成するステップと、
を含むことを特徴とする方法。 - 前記高生体測定認知視覚範囲指数及び高生体測定感情視覚範囲指数の関数として高視覚影響指数を求めるステップをさらに含む、
ことを特徴とする請求項35に記載の方法。 - 前記低生体測定認知視覚範囲指数及び低生体測定感情視覚範囲指数の関数として低視覚影響指数を求めるステップをさらに含む、
ことを特徴とする請求項35に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/426,259 | 2009-04-19 | ||
US12/426,259 US20100004977A1 (en) | 2006-09-05 | 2009-04-19 | Method and System For Measuring User Experience For Interactive Activities |
PCT/US2010/031375 WO2010123770A2 (en) | 2009-04-19 | 2010-04-16 | Method and system for measuring user experience for interactive activities |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012524458A true JP2012524458A (ja) | 2012-10-11 |
Family
ID=43011696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012505954A Pending JP2012524458A (ja) | 2009-04-19 | 2010-04-16 | 対話的活動に関するユーザ体験を測定するための方法及びシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20100004977A1 (ja) |
EP (1) | EP2422284A4 (ja) |
JP (1) | JP2012524458A (ja) |
AU (1) | AU2010239526A1 (ja) |
CA (1) | CA2758272A1 (ja) |
WO (1) | WO2010123770A2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014081913A (ja) * | 2012-09-27 | 2014-05-08 | Dainippon Printing Co Ltd | アンケート分析装置、アンケート分析システム、アンケート分析方法、及びプログラム |
JP2017204146A (ja) * | 2016-05-11 | 2017-11-16 | 富士通株式会社 | 画像制御方法、装置、及びプログラム |
JP2019020834A (ja) * | 2017-07-12 | 2019-02-07 | Necネッツエスアイ株式会社 | 情報測定装置、情報測定方法及び情報測定プログラム |
JP2019514127A (ja) * | 2016-04-12 | 2019-05-30 | アール−ストール インコーポレイテッド | 仮想化環境内に広告を提示するための方法及び装置 |
JP2021509850A (ja) * | 2018-01-08 | 2021-04-08 | ソニー・インタラクティブエンタテインメント エルエルシー | 状況適応型ゲームプレイ支援を生成するためにプレイヤーの関与を識別すること |
JP2022023467A (ja) * | 2020-07-27 | 2022-02-08 | トヨタ紡織株式会社 | 観光ガイドシステム |
Families Citing this family (211)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100198697A1 (en) | 2006-07-21 | 2010-08-05 | Videoegg, Inc. | Fixed Position Interactive Advertising |
US9208500B2 (en) * | 2006-07-21 | 2015-12-08 | Microsoft Technology Licensing, Llc | Fixed position multi-state interactive advertisement |
US8732019B2 (en) | 2006-07-21 | 2014-05-20 | Say Media, Inc. | Non-expanding interactive advertisement |
US9514436B2 (en) | 2006-09-05 | 2016-12-06 | The Nielsen Company (Us), Llc | Method and system for predicting audience viewing behavior |
JP5194015B2 (ja) | 2006-09-05 | 2013-05-08 | インナースコープ リサーチ, インコーポレイテッド | 感覚的刺激への視聴者反応を決定する方法およびシステム |
CN101711388B (zh) | 2007-03-29 | 2016-04-27 | 神经焦点公司 | 营销和娱乐的效果分析 |
US8386312B2 (en) * | 2007-05-01 | 2013-02-26 | The Nielsen Company (Us), Llc | Neuro-informatics repository system |
WO2008137581A1 (en) | 2007-05-01 | 2008-11-13 | Neurofocus, Inc. | Neuro-feedback based stimulus compression device |
US20090328089A1 (en) * | 2007-05-16 | 2009-12-31 | Neurofocus Inc. | Audience response measurement and tracking system |
US8392253B2 (en) | 2007-05-16 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-physiology and neuro-behavioral based stimulus targeting system |
US20120239458A9 (en) * | 2007-05-18 | 2012-09-20 | Global Rainmakers, Inc. | Measuring Effectiveness of Advertisements and Linking Certain Consumer Activities Including Purchases to Other Activities of the Consumer |
US20080300894A1 (en) * | 2007-06-01 | 2008-12-04 | John George H | Television Audience Targeting Online |
US8494905B2 (en) * | 2007-06-06 | 2013-07-23 | The Nielsen Company (Us), Llc | Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI) |
US20090030287A1 (en) * | 2007-06-06 | 2009-01-29 | Neurofocus Inc. | Incented response assessment at a point of transaction |
US8533042B2 (en) | 2007-07-30 | 2013-09-10 | The Nielsen Company (Us), Llc | Neuro-response stimulus and stimulus attribute resonance estimator |
US20090036755A1 (en) * | 2007-07-30 | 2009-02-05 | Neurofocus, Inc. | Entity and relationship assessment and extraction using neuro-response measurements |
US20090037946A1 (en) * | 2007-07-31 | 2009-02-05 | Nelson Liang An Chang | Dynamically displaying content to an audience |
US8572094B2 (en) * | 2007-08-17 | 2013-10-29 | Google Inc. | Ranking social network objects |
US8386313B2 (en) * | 2007-08-28 | 2013-02-26 | The Nielsen Company (Us), Llc | Stimulus placement system using subject neuro-response measurements |
US8635105B2 (en) * | 2007-08-28 | 2014-01-21 | The Nielsen Company (Us), Llc | Consumer experience portrayal effectiveness assessment system |
EP2180825A4 (en) | 2007-08-28 | 2013-12-04 | Neurofocus Inc | EVALUATION SYSTEM OF THE EXPERIENCE OF A CONSUMER |
US8392255B2 (en) | 2007-08-29 | 2013-03-05 | The Nielsen Company (Us), Llc | Content based selection and meta tagging of advertisement breaks |
US20090083129A1 (en) * | 2007-09-20 | 2009-03-26 | Neurofocus, Inc. | Personalized content delivery using neuro-response priming data |
US8494610B2 (en) * | 2007-09-20 | 2013-07-23 | The Nielsen Company (Us), Llc | Analysis of marketing and entertainment effectiveness using magnetoencephalography |
US20090079547A1 (en) * | 2007-09-25 | 2009-03-26 | Nokia Corporation | Method, Apparatus and Computer Program Product for Providing a Determination of Implicit Recommendations |
WO2009046224A1 (en) | 2007-10-02 | 2009-04-09 | Emsense Corporation | Providing remote access to media, and reaction and survey data from viewers of the media |
CN101917898A (zh) | 2007-10-31 | 2010-12-15 | 埃姆申塞公司 | 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法 |
US8059865B2 (en) | 2007-11-09 | 2011-11-15 | The Nielsen Company (Us), Llc | Methods and apparatus to specify regions of interest in video frames |
US20090318773A1 (en) * | 2008-06-24 | 2009-12-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Involuntary-response-dependent consequences |
US20100010370A1 (en) | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
WO2010018459A2 (en) * | 2008-08-15 | 2010-02-18 | Imotions - Emotion Technology A/S | System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text |
US20100123776A1 (en) * | 2008-11-18 | 2010-05-20 | Kimberly-Clark Worldwide, Inc. | System and method for observing an individual's reaction to their environment |
US8700072B2 (en) | 2008-12-23 | 2014-04-15 | At&T Mobility Ii Llc | Scalable message fidelity |
JP4775671B2 (ja) * | 2008-12-26 | 2011-09-21 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US9357240B2 (en) | 2009-01-21 | 2016-05-31 | The Nielsen Company (Us), Llc | Methods and apparatus for providing alternate media for video decoders |
US8270814B2 (en) | 2009-01-21 | 2012-09-18 | The Nielsen Company (Us), Llc | Methods and apparatus for providing video with embedded media |
US8464288B2 (en) * | 2009-01-21 | 2013-06-11 | The Nielsen Company (Us), Llc | Methods and apparatus for providing personalized media in video |
US9295806B2 (en) | 2009-03-06 | 2016-03-29 | Imotions A/S | System and method for determining emotional response to olfactory stimuli |
US20100250325A1 (en) | 2009-03-24 | 2010-09-30 | Neurofocus, Inc. | Neurological profiles for market matching and stimulus presentation |
US8959540B1 (en) * | 2009-05-27 | 2015-02-17 | Google Inc. | Predicting engagement in video content |
GB2471905B (en) * | 2009-07-17 | 2011-08-31 | Sony Comp Entertainment Europe | User interface and method of user interaction |
US20110046502A1 (en) * | 2009-08-20 | 2011-02-24 | Neurofocus, Inc. | Distributed neuro-response data collection and analysis |
US8655437B2 (en) | 2009-08-21 | 2014-02-18 | The Nielsen Company (Us), Llc | Analysis of the mirror neuron system for evaluation of stimulus |
US10987015B2 (en) * | 2009-08-24 | 2021-04-27 | Nielsen Consumer Llc | Dry electrodes for electroencephalography |
US10475047B2 (en) * | 2009-08-28 | 2019-11-12 | Resonate Networks, Inc. | Method and apparatus for delivering targeted content to website visitors |
US20120191815A1 (en) * | 2009-12-22 | 2012-07-26 | Resonate Networks | Method and apparatus for delivering targeted content |
US20110119278A1 (en) * | 2009-08-28 | 2011-05-19 | Resonate Networks, Inc. | Method and apparatus for delivering targeted content to website visitors to promote products and brands |
US20110082719A1 (en) * | 2009-10-07 | 2011-04-07 | Tokoni Inc. | System and method for determining aggregated tracking metrics for user activities |
US20110106750A1 (en) * | 2009-10-29 | 2011-05-05 | Neurofocus, Inc. | Generating ratings predictions using neuro-response data |
US8209224B2 (en) | 2009-10-29 | 2012-06-26 | The Nielsen Company (Us), Llc | Intracluster content management using neuro-response priming data |
US9560984B2 (en) | 2009-10-29 | 2017-02-07 | The Nielsen Company (Us), Llc | Analysis of controlled and automatic attention for introduction of stimulus material |
US8335715B2 (en) * | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Advertisement exchange using neuro-response data |
US8335716B2 (en) * | 2009-11-19 | 2012-12-18 | The Nielsen Company (Us), Llc. | Multimedia advertisement exchange |
CN102129824A (zh) * | 2010-01-20 | 2011-07-20 | 鸿富锦精密工业(深圳)有限公司 | 资讯控制系统及方法 |
US8888497B2 (en) * | 2010-03-12 | 2014-11-18 | Yahoo! Inc. | Emotional web |
US20110237971A1 (en) * | 2010-03-25 | 2011-09-29 | Neurofocus, Inc. | Discrete choice modeling using neuro-response data |
WO2011133548A2 (en) * | 2010-04-19 | 2011-10-27 | Innerscope Research, Inc. | Short imagery task (sit) research method |
US9400550B2 (en) * | 2010-05-06 | 2016-07-26 | Nokia Technologies Oy | Apparatus and method providing viewer feedback of observed personal user data |
US8655428B2 (en) | 2010-05-12 | 2014-02-18 | The Nielsen Company (Us), Llc | Neuro-response data synchronization |
WO2011153318A2 (en) | 2010-06-02 | 2011-12-08 | Q-Tec Systems Llc | Method and apparatus for monitoring emotion in an interactive network |
US10796176B2 (en) * | 2010-06-07 | 2020-10-06 | Affectiva, Inc. | Personal emotional profile generation for vehicle manipulation |
US20130102854A1 (en) * | 2010-06-07 | 2013-04-25 | Affectiva, Inc. | Mental state evaluation learning for advertising |
US20130238394A1 (en) * | 2010-06-07 | 2013-09-12 | Affectiva, Inc. | Sales projections based on mental states |
US8307006B2 (en) | 2010-06-30 | 2012-11-06 | The Nielsen Company (Us), Llc | Methods and apparatus to obtain anonymous audience measurement data from network server data for particular demographic and usage profiles |
US8392250B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Neuro-response evaluated stimulus in virtual reality environments |
US8392251B2 (en) | 2010-08-09 | 2013-03-05 | The Nielsen Company (Us), Llc | Location aware presentation of stimulus material |
WO2012021719A1 (en) * | 2010-08-11 | 2012-02-16 | Norogene Llc | Learning management system and method |
US8463677B2 (en) | 2010-08-12 | 2013-06-11 | Net Power And Light, Inc. | System architecture and methods for experimental computing |
US9172979B2 (en) | 2010-08-12 | 2015-10-27 | Net Power And Light, Inc. | Experience or “sentio” codecs, and methods and systems for improving QoE and encoding based on QoE experiences |
US9557817B2 (en) | 2010-08-13 | 2017-01-31 | Wickr Inc. | Recognizing gesture inputs using distributed processing of sensor data from multiple sensors |
US8396744B2 (en) | 2010-08-25 | 2013-03-12 | The Nielsen Company (Us), Llc | Effective virtual reality environments for presentation of marketing materials |
US20120060101A1 (en) * | 2010-08-30 | 2012-03-08 | Net Power And Light, Inc. | Method and system for an interactive event experience |
US11869024B2 (en) | 2010-09-22 | 2024-01-09 | The Nielsen Company (Us), Llc | Methods and apparatus to analyze and adjust demographic information |
EP3518169A1 (en) | 2010-09-22 | 2019-07-31 | The Nielsen Company (US), LLC | Methods and apparatus to determine impressions using distributed demographic information |
US9092797B2 (en) * | 2010-09-22 | 2015-07-28 | The Nielsen Company (Us), Llc | Methods and apparatus to analyze and adjust demographic information |
US8429704B2 (en) | 2010-10-21 | 2013-04-23 | Net Power And Light, Inc. | System architecture and method for composing and directing participant experiences |
US20120284332A1 (en) * | 2010-11-03 | 2012-11-08 | Anantha Pradeep | Systems and methods for formatting a presentation in webpage based on neuro-response data |
US20120114189A1 (en) * | 2010-11-04 | 2012-05-10 | The Go Daddy Group, Inc. | Systems for Person's Verification Using Photographs on Identification Documents |
JP2012109810A (ja) * | 2010-11-17 | 2012-06-07 | Panasonic Corp | 表示装置、表示制御方法、携帯電話及び半導体装置 |
CN103329162B (zh) | 2010-12-20 | 2015-11-25 | 尼尔森(美国)有限公司 | 使用分布式人口统计信息确定媒体印象的方法和装置 |
US9202111B2 (en) * | 2011-01-09 | 2015-12-01 | Fitbit, Inc. | Fitness monitoring device with user engagement metric functionality |
US20130234826A1 (en) * | 2011-01-13 | 2013-09-12 | Nikon Corporation | Electronic device and electronic device control program |
WO2012100082A2 (en) * | 2011-01-19 | 2012-07-26 | Panelvision, Llc | Interactive point of purchase system |
US10726362B2 (en) * | 2011-01-31 | 2020-07-28 | X-Act Science Inc. | Predictive deconstruction of dynamic complexity |
CA2810264C (en) | 2011-03-18 | 2020-06-09 | The Nielsen Company (Us), Llc | Methods and apparatus to determine media impressions |
BR112013026063B1 (pt) * | 2011-04-14 | 2021-08-31 | Koninklijke Philips N.V | Dispositivo de medição de estresse para a determinação de um nível de estresse de um usuário, dispositivo trajável usado por um usuário, sistema de medição de estresse, método de medição de estresse para a determinação de um nível de estresse de um usuário, dispositivo de medição de pressão sanguínea e método de medição de pressão sanguínea |
US9229489B2 (en) * | 2011-05-03 | 2016-01-05 | Facebook, Inc. | Adjusting mobile device state based on user intentions and/or identity |
MY184961A (en) * | 2011-06-06 | 2021-04-30 | Univ Putra Malaysia | A system for determining user engagement behavior with a multimedia interface in a real time environment and a method thereof |
US11222348B2 (en) * | 2011-06-17 | 2022-01-11 | Research & Business Foundation Sungkyunkwan University | Context-specific experience sampling method and system |
AU2012272977A1 (en) | 2011-06-20 | 2014-01-16 | Tandemseven, Inc. | System and method for building and managing user experience for computer software interfaces |
US9962083B2 (en) * | 2011-07-05 | 2018-05-08 | Saudi Arabian Oil Company | Systems, computer medium and computer-implemented methods for monitoring and improving biomechanical health of employees |
US20130019187A1 (en) * | 2011-07-15 | 2013-01-17 | International Business Machines Corporation | Visualizing emotions and mood in a collaborative social networking environment |
US9299083B2 (en) | 2011-07-15 | 2016-03-29 | Roy Morgan Research Pty Ltd | Electronic data generation methods |
US20130022947A1 (en) * | 2011-07-22 | 2013-01-24 | Muniz Simas Fernando Moreira | Method and system for generating behavioral studies of an individual |
WO2013019997A1 (en) | 2011-08-02 | 2013-02-07 | Emotiv Lifesciences Inc. | Methods for modeling neurological development and diagnosing a neurological impairment of a patient |
US20130041976A1 (en) * | 2011-08-12 | 2013-02-14 | Microsoft Corporation | Context-aware delivery of content |
US8719278B2 (en) * | 2011-08-29 | 2014-05-06 | Buckyball Mobile Inc. | Method and system of scoring documents based on attributes obtained from a digital document by eye-tracking data analysis |
US8854282B1 (en) * | 2011-09-06 | 2014-10-07 | Google Inc. | Measurement method |
US20130138499A1 (en) * | 2011-11-30 | 2013-05-30 | General Electric Company | Usage measurent techniques and systems for interactive advertising |
US20130137076A1 (en) * | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
WO2013086357A2 (en) * | 2011-12-07 | 2013-06-13 | Affectiva, Inc. | Affect based evaluation of advertisement effectiveness |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
DE112011105941B4 (de) * | 2011-12-12 | 2022-10-20 | Intel Corporation | Scoring der Interessantheit von interessanten Bereichen in einem Anzeigeelement |
US8538333B2 (en) | 2011-12-16 | 2013-09-17 | Arbitron Inc. | Media exposure linking utilizing bluetooth signal characteristics |
US9015255B2 (en) | 2012-02-14 | 2015-04-21 | The Nielsen Company (Us), Llc | Methods and apparatus to identify session users with cookie information |
US9569986B2 (en) * | 2012-02-27 | 2017-02-14 | The Nielsen Company (Us), Llc | System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications |
US9292858B2 (en) | 2012-02-27 | 2016-03-22 | The Nielsen Company (Us), Llc | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments |
US9451303B2 (en) | 2012-02-27 | 2016-09-20 | The Nielsen Company (Us), Llc | Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing |
US20130317318A1 (en) * | 2012-05-25 | 2013-11-28 | Qualcomm Incorporated | Methods and devices for acquiring electrodermal activity |
WO2013177592A2 (en) * | 2012-05-25 | 2013-11-28 | Emotiv Lifesciences, Inc. | System and method for providing and aggregating biosignals and action data |
US20130325546A1 (en) * | 2012-05-29 | 2013-12-05 | Shopper Scientist, Llc | Purchase behavior analysis based on visual history |
AU2013204865B2 (en) | 2012-06-11 | 2015-07-09 | The Nielsen Company (Us), Llc | Methods and apparatus to share online media impressions data |
US9361392B1 (en) * | 2012-07-05 | 2016-06-07 | Microstrategy Incorporated | Comparing subsets of user identities of a social networking platform |
US9060671B2 (en) | 2012-08-17 | 2015-06-23 | The Nielsen Company (Us), Llc | Systems and methods to gather and analyze electroencephalographic data |
AU2013204953B2 (en) | 2012-08-30 | 2016-09-08 | The Nielsen Company (Us), Llc | Methods and apparatus to collect distributed user information for media impressions |
US10453355B2 (en) | 2012-09-28 | 2019-10-22 | Nokia Technologies Oy | Method and apparatus for determining the attentional focus of individuals within a group |
US20140095109A1 (en) * | 2012-09-28 | 2014-04-03 | Nokia Corporation | Method and apparatus for determining the emotional response of individuals within a group |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US9116865B2 (en) | 2012-12-05 | 2015-08-25 | Chegg, Inc. | Enhancing automated terms listings in HTML document publishing based on user searches |
US20140164056A1 (en) * | 2012-12-07 | 2014-06-12 | Cascade Strategies, Inc. | Biosensitive response evaluation for design and research |
EP2932899A4 (en) * | 2012-12-15 | 2016-08-10 | Tokyo Inst Tech | APPARATUS FOR EVALUATING A HUMAN MENTAL CONDITION |
US20140180060A1 (en) * | 2012-12-17 | 2014-06-26 | Todd Parrish | Methods and Systems for Automated Functional MRI in Clinical Applications |
RU2530210C2 (ru) * | 2012-12-25 | 2014-10-10 | Закрытое акционерное общество "Лаборатория Касперского" | Система и способ выявления вредоносных программ, препятствующих штатному взаимодействию пользователя с интерфейсом операционной системы |
US8769557B1 (en) | 2012-12-27 | 2014-07-01 | The Nielsen Company (Us), Llc | Methods and apparatus to determine engagement levels of audience members |
US20140258373A1 (en) | 2013-03-11 | 2014-09-11 | Say Media, Inc. | Systems and Methods for Managing and Publishing Managed Content |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
US9320450B2 (en) | 2013-03-14 | 2016-04-26 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US20140289009A1 (en) * | 2013-03-15 | 2014-09-25 | Triangle Strategy Group, LLC | Methods, systems and computer readable media for maximizing sales in a retail environment |
US9697533B2 (en) | 2013-04-17 | 2017-07-04 | The Nielsen Company (Us), Llc | Methods and apparatus to monitor media presentations |
US20140358667A1 (en) * | 2013-05-29 | 2014-12-04 | Daniel Alexander Beltramo, JR. | Methods and apparatus to evaluate advertising campaigns |
US10068246B2 (en) | 2013-07-12 | 2018-09-04 | The Nielsen Company (Us), Llc | Methods and apparatus to collect distributed user information for media impressions |
KR101535432B1 (ko) * | 2013-09-13 | 2015-07-13 | 엔에이치엔엔터테인먼트 주식회사 | 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법 |
US20150142520A1 (en) * | 2013-10-04 | 2015-05-21 | TruValue Labs, Inc. | Crowd-based sentiment indices |
US9332035B2 (en) | 2013-10-10 | 2016-05-03 | The Nielsen Company (Us), Llc | Methods and apparatus to measure exposure to streaming media |
JP6424357B2 (ja) * | 2013-10-17 | 2018-11-21 | 株式会社夏目綜合研究所 | 視認対象効果度測定装置 |
US20150121246A1 (en) * | 2013-10-25 | 2015-04-30 | The Charles Stark Draper Laboratory, Inc. | Systems and methods for detecting user engagement in context using physiological and behavioral measurement |
US10134226B2 (en) | 2013-11-07 | 2018-11-20 | Igt Canada Solutions Ulc | Methods and apparatus for controlling casino game machines |
US9084013B1 (en) * | 2013-11-15 | 2015-07-14 | Google Inc. | Data logging for media consumption studies |
US10546310B2 (en) | 2013-11-18 | 2020-01-28 | Sentient Decision Science, Inc. | Systems and methods for assessing implicit associations |
US10956947B2 (en) | 2013-12-23 | 2021-03-23 | The Nielsen Company (Us), Llc | Methods and apparatus to measure media using media object characteristics |
US9237138B2 (en) | 2013-12-31 | 2016-01-12 | The Nielsen Company (Us), Llc | Methods and apparatus to collect distributed user information for media impressions and search terms |
US9760898B2 (en) * | 2014-01-06 | 2017-09-12 | The Nielsen Company (Us), Llc | Methods and apparatus to detect engagement with media presented on wearable media devices |
EP4219071A3 (en) | 2014-03-13 | 2023-08-09 | The Nielsen Company (US), LLC | Methods and apparatus to compensate impression data for misattribution and/or non-coverage by a database proprietor |
US10798459B2 (en) | 2014-03-18 | 2020-10-06 | Vixs Systems, Inc. | Audio/video system with social media generation and methods for use therewith |
US9622702B2 (en) | 2014-04-03 | 2017-04-18 | The Nielsen Company (Us), Llc | Methods and apparatus to gather and analyze electroencephalographic data |
US20150302422A1 (en) * | 2014-04-16 | 2015-10-22 | 2020 Ip Llc | Systems and methods for multi-user behavioral research |
US10321842B2 (en) * | 2014-04-22 | 2019-06-18 | Interaxon Inc. | System and method for associating music with brain-state data |
WO2015183318A1 (en) * | 2014-05-30 | 2015-12-03 | Hewlett-Packard Development Company, L. P. | Associate a learner and learning content |
US10325205B2 (en) | 2014-06-09 | 2019-06-18 | Cognitive Scale, Inc. | Cognitive information processing system environment |
US20160029938A1 (en) * | 2014-07-31 | 2016-02-04 | JVC Kenwood Corporation | Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium |
US9805381B2 (en) | 2014-08-21 | 2017-10-31 | Affectomatics Ltd. | Crowd-based scores for food from measurements of affective response |
DE102015113929A1 (de) | 2014-08-21 | 2016-02-25 | Affectomatics Ltd. | Bewertung und Benachrichtigungen auf der Grundlage affektiver Reaktionen der Crowd |
US11269891B2 (en) | 2014-08-21 | 2022-03-08 | Affectomatics Ltd. | Crowd-based scores for experiences from measurements of affective response |
US11494390B2 (en) | 2014-08-21 | 2022-11-08 | Affectomatics Ltd. | Crowd-based scores for hotels from measurements of affective response |
US9881512B2 (en) | 2014-08-29 | 2018-01-30 | Dhiraj JEYANANDARAJAN | Systems and methods for customizing a learning experience of a user |
US20160063539A1 (en) | 2014-08-29 | 2016-03-03 | The Nielsen Company (Us), Llc | Methods and apparatus to associate transactions with media impressions |
US10789603B2 (en) * | 2014-10-20 | 2020-09-29 | The Like Machine, Inc. | At-shelf consumer feedback |
US20160189182A1 (en) | 2014-12-31 | 2016-06-30 | The Nielsen Company (Us), Llc | Methods and apparatus to correct age misattribution in media impressions |
DE102016101661A1 (de) | 2015-01-29 | 2016-08-04 | Affectomatics Ltd. | Auf datenschutzüberlegungen gestützte offenlegung von auf der grundlage von messwerten der affektiven reaktion berechneten crowd-basierten bewertungen |
US11232466B2 (en) | 2015-01-29 | 2022-01-25 | Affectomatics Ltd. | Recommendation for experiences based on measurements of affective response that are backed by assurances |
US20160224683A1 (en) | 2015-01-30 | 2016-08-04 | Cory Michael Hicks | Blending of content item types in a social network |
US11093950B2 (en) * | 2015-02-02 | 2021-08-17 | Opower, Inc. | Customer activity score |
WO2016123777A1 (zh) | 2015-02-05 | 2016-08-11 | 华为技术有限公司 | 一种基于生物特征的对象呈现、推荐方法和装置 |
US9521143B2 (en) * | 2015-02-20 | 2016-12-13 | Qualcomm Incorporated | Content control at gateway based on audience |
US10108264B2 (en) | 2015-03-02 | 2018-10-23 | Emotiv, Inc. | System and method for embedded cognitive state metric system |
WO2016142423A1 (en) * | 2015-03-12 | 2016-09-15 | Essilor International (Compagnie Générale d'Optique) | A method for customizing a mounted sensing device |
KR20160125295A (ko) * | 2015-04-21 | 2016-10-31 | 삼성전자주식회사 | 디스플레이 장치 및 그 동작 방법 |
US20160316263A1 (en) | 2015-04-21 | 2016-10-27 | Samsung Electronics Co., Ltd. | Display apparatus, and method of operating the display apparatus |
US9936250B2 (en) | 2015-05-19 | 2018-04-03 | The Nielsen Company (Us), Llc | Methods and apparatus to adjust content presented to an individual |
US10375184B2 (en) * | 2015-06-25 | 2019-08-06 | Salesforce.Com, Inc. | Electronic content engagement determination |
US10380633B2 (en) | 2015-07-02 | 2019-08-13 | The Nielsen Company (Us), Llc | Methods and apparatus to generate corrected online audience measurement data |
US10045082B2 (en) | 2015-07-02 | 2018-08-07 | The Nielsen Company (Us), Llc | Methods and apparatus to correct errors in audience measurements for media accessed using over-the-top devices |
US9852329B2 (en) * | 2015-07-24 | 2017-12-26 | International Business Machines Corporation | Calculation of a characteristic of a hotspot in an event |
US10984363B2 (en) * | 2015-09-04 | 2021-04-20 | International Business Machines Corporation | Summarization of a recording for quality control |
US10205994B2 (en) | 2015-12-17 | 2019-02-12 | The Nielsen Company (Us), Llc | Methods and apparatus to collect distributed user information for media impressions |
JP2017117384A (ja) * | 2015-12-25 | 2017-06-29 | 東芝テック株式会社 | 情報処理装置 |
US10270673B1 (en) | 2016-01-27 | 2019-04-23 | The Nielsen Company (Us), Llc | Methods and apparatus for estimating total unique audiences |
US10187694B2 (en) | 2016-04-07 | 2019-01-22 | At&T Intellectual Property I, L.P. | Method and apparatus for enhancing audience engagement via a communication network |
US10049263B2 (en) * | 2016-06-15 | 2018-08-14 | Stephan Hau | Computer-based micro-expression analysis |
US10210459B2 (en) | 2016-06-29 | 2019-02-19 | The Nielsen Company (Us), Llc | Methods and apparatus to determine a conditional probability based on audience member probability distributions for media audience measurement |
US10120747B2 (en) | 2016-08-26 | 2018-11-06 | International Business Machines Corporation | Root cause analysis |
US10110950B2 (en) * | 2016-09-14 | 2018-10-23 | International Business Machines Corporation | Attentiveness-based video presentation management |
US10171880B2 (en) * | 2016-12-27 | 2019-01-01 | Rovi Guides, Inc. | Systems and methods for modeling audience stability of a media asset series |
US20180240157A1 (en) * | 2017-02-17 | 2018-08-23 | Wipro Limited | System and a method for generating personalized multimedia content for plurality of users |
GB2560340A (en) * | 2017-03-07 | 2018-09-12 | Eyn Ltd | Verification method and system |
US10929860B2 (en) * | 2017-03-28 | 2021-02-23 | Adobe Inc. | Viewed location metric generation and engagement attribution within an AR or VR environment |
US10977674B2 (en) | 2017-04-28 | 2021-04-13 | Qualtrics, Llc | Conducting digital surveys that collect and convert biometric data into survey respondent characteristics |
DE102017209079A1 (de) * | 2017-05-30 | 2018-12-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal |
US11631110B2 (en) * | 2017-06-29 | 2023-04-18 | Tyler Peppel | Audience-based optimization of communication media |
US20200143436A1 (en) * | 2017-06-30 | 2020-05-07 | Carrier Corporation | Real estate buyer passive feedback application |
US11723579B2 (en) | 2017-09-19 | 2023-08-15 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement |
KR20200127969A (ko) * | 2017-09-29 | 2020-11-11 | 워너 브로스. 엔터테인먼트 인크. | 사용자 감정 상태에 반응하여 영화 컨텐츠의 생성 및 제어 |
US11717686B2 (en) | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
EP3731749A4 (en) | 2017-12-31 | 2022-07-27 | Neuroenhancement Lab, LLC | NEURO-ACTIVATION SYSTEM AND METHOD FOR ENHANCING EMOTIONAL RESPONSE |
WO2019136394A1 (en) * | 2018-01-08 | 2019-07-11 | Chappell Arvel A | Social interactive applications for detection of neuro-physiological state |
US10441886B2 (en) * | 2018-01-29 | 2019-10-15 | Sony Interactive Entertainment LLC | Dynamic allocation of contextual assistance during game play |
US10610783B2 (en) | 2018-01-31 | 2020-04-07 | Sony Interactive Entertainment LLC | Assignment of contextual game play assistance to player reaction |
US11182747B2 (en) | 2018-04-06 | 2021-11-23 | Korn Ferry | System and method for interview training with time-matched feedback |
US11364361B2 (en) | 2018-04-20 | 2022-06-21 | Neuroenhancement Lab, LLC | System and method for inducing sleep by transplanting mental states |
WO2019239274A1 (en) * | 2018-06-14 | 2019-12-19 | Gaurav Dubey | System of determining efficiency of trainer delivering training session and method thereof |
CN113382683A (zh) | 2018-09-14 | 2021-09-10 | 纽罗因恒思蒙特实验有限责任公司 | 改善睡眠的系统和方法 |
US10833945B2 (en) * | 2018-11-13 | 2020-11-10 | International Business Machines Corporation | Managing downloading of content |
US11644806B1 (en) * | 2019-01-24 | 2023-05-09 | Veritone Alpha, Inc. | Using active non-destructive state excitation of a physical system to model and control operations of the physical system |
US11107084B2 (en) * | 2019-05-03 | 2021-08-31 | Walmart Apollo, Llc | Fraud risk scoring tool |
US11720546B2 (en) * | 2019-05-22 | 2023-08-08 | People.ai, Inc. | Systems and methods for determining a communication channel based on a status of a node profile determined using electronic activities |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
US11308430B2 (en) * | 2019-10-11 | 2022-04-19 | Microsoft Technology Licensing, Llc | Keeping track of important tasks |
US11228544B2 (en) | 2020-01-09 | 2022-01-18 | International Business Machines Corporation | Adapting communications according to audience profile from social media |
US11963783B2 (en) | 2020-08-26 | 2024-04-23 | Dhiraj JEYANANDARAJAN | Systems and methods for brain wave data acquisition and visualization |
US11750883B2 (en) * | 2021-03-26 | 2023-09-05 | Dish Network Technologies India Private Limited | System and method for using personal computing devices to determine user engagement while viewing an audio/video program |
US20230157635A1 (en) | 2021-11-24 | 2023-05-25 | Dhiraj JEYANANDARAJAN | Multimodal biometric human machine interface headset |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007310454A (ja) * | 2006-05-16 | 2007-11-29 | Nippon Hoso Kyokai <Nhk> | 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム |
WO2008030493A2 (en) * | 2006-09-05 | 2008-03-13 | Innerscope Research, Llc | Method and system for determining audience response to a sensory stimulus |
WO2008072739A1 (ja) * | 2006-12-15 | 2008-06-19 | Visual Interactive Sensitivity Research Institute Co., Ltd. | 視聴傾向管理装置、システム及びプログラム |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4859050A (en) * | 1986-04-04 | 1989-08-22 | Applied Science Group, Inc. | Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers |
US4870579A (en) * | 1987-10-01 | 1989-09-26 | Neonics, Inc. | System and method of predicting subjective reactions |
US5243517A (en) * | 1988-08-03 | 1993-09-07 | Westinghouse Electric Corp. | Method and apparatus for physiological evaluation of short films and entertainment materials |
US6850252B1 (en) * | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US5436830A (en) * | 1993-02-01 | 1995-07-25 | Zaltman; Gerald | Metaphor elicitation method and apparatus |
US5676148A (en) * | 1995-03-31 | 1997-10-14 | Siemens Medical Systems Inc. | Method and system for doppler ultrasound audio dealiasing |
US6292688B1 (en) * | 1996-02-28 | 2001-09-18 | Advanced Neurotechnologies, Inc. | Method and apparatus for analyzing neurological response to emotion-inducing stimuli |
US5676138A (en) * | 1996-03-15 | 1997-10-14 | Zawilinski; Kenneth Michael | Emotional response analyzer system with multimedia display |
US5842199A (en) * | 1996-10-18 | 1998-11-24 | Regents Of The University Of Minnesota | System, method and article of manufacture for using receiver operating curves to evaluate predictive utility |
US6315569B1 (en) * | 1998-02-24 | 2001-11-13 | Gerald Zaltman | Metaphor elicitation technique with physiological function monitoring |
US6099319A (en) * | 1998-02-24 | 2000-08-08 | Zaltman; Gerald | Neuroimaging as a marketing tool |
US6358201B1 (en) * | 1999-03-02 | 2002-03-19 | Doc L. Childre | Method and apparatus for facilitating physiological coherence and autonomic balance |
US6422999B1 (en) * | 1999-05-13 | 2002-07-23 | Daniel A. Hill | Method of measuring consumer reaction |
EP1284991B1 (en) * | 2000-05-19 | 2005-02-02 | The NutraSweet Company | Synthesis of n-[n-(3,3-dimethylbutyl)-l-alpha-aspartyl]-l-phenylalanine 1-methyl ester using oxazolidinone derivatives |
AU2001282449A1 (en) * | 2000-08-16 | 2002-02-25 | Nizan Yaniv | Applications of the biofeedback technique |
US20060129458A1 (en) * | 2000-10-12 | 2006-06-15 | Maggio Frank S | Method and system for interacting with on-demand video content |
GB2379016A (en) * | 2001-07-27 | 2003-02-26 | Hewlett Packard Co | Portable apparatus monitoring reaction of user to music |
US20070038516A1 (en) * | 2005-08-13 | 2007-02-15 | Jeff Apple | Systems, methods, and computer program products for enabling an advertiser to measure user viewing of and response to an advertisement |
JP2009508553A (ja) * | 2005-09-16 | 2009-03-05 | アイモーションズ−エモーション テクノロジー エー/エス | 眼球性質を解析することで、人間の感情を決定するシステムおよび方法 |
US7797186B2 (en) * | 2005-10-18 | 2010-09-14 | Donnelly Andrew Dybus | Method and system for gathering and recording real-time market survey and other data from radio listeners and television viewers utilizing telephones including wireless cell phones |
US7930199B1 (en) * | 2006-07-21 | 2011-04-19 | Sensory Logic, Inc. | Method and report assessing consumer reaction to a stimulus by matching eye position with facial coding |
US9833184B2 (en) * | 2006-10-27 | 2017-12-05 | Adidas Ag | Identification of emotional states using physiological responses |
US20080255949A1 (en) * | 2007-04-13 | 2008-10-16 | Lucid Systems, Inc. | Method and System for Measuring Non-Verbal and Pre-Conscious Responses to External Stimuli |
-
2009
- 2009-04-19 US US12/426,259 patent/US20100004977A1/en not_active Abandoned
-
2010
- 2010-04-16 CA CA2758272A patent/CA2758272A1/en not_active Abandoned
- 2010-04-16 JP JP2012505954A patent/JP2012524458A/ja active Pending
- 2010-04-16 WO PCT/US2010/031375 patent/WO2010123770A2/en active Application Filing
- 2010-04-16 EP EP10717932.7A patent/EP2422284A4/en not_active Ceased
- 2010-04-16 AU AU2010239526A patent/AU2010239526A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007310454A (ja) * | 2006-05-16 | 2007-11-29 | Nippon Hoso Kyokai <Nhk> | 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム |
WO2008030493A2 (en) * | 2006-09-05 | 2008-03-13 | Innerscope Research, Llc | Method and system for determining audience response to a sensory stimulus |
WO2008072739A1 (ja) * | 2006-12-15 | 2008-06-19 | Visual Interactive Sensitivity Research Institute Co., Ltd. | 視聴傾向管理装置、システム及びプログラム |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014081913A (ja) * | 2012-09-27 | 2014-05-08 | Dainippon Printing Co Ltd | アンケート分析装置、アンケート分析システム、アンケート分析方法、及びプログラム |
JP2019514127A (ja) * | 2016-04-12 | 2019-05-30 | アール−ストール インコーポレイテッド | 仮想化環境内に広告を提示するための方法及び装置 |
JP2017204146A (ja) * | 2016-05-11 | 2017-11-16 | 富士通株式会社 | 画像制御方法、装置、及びプログラム |
JP2019020834A (ja) * | 2017-07-12 | 2019-02-07 | Necネッツエスアイ株式会社 | 情報測定装置、情報測定方法及び情報測定プログラム |
JP2021509850A (ja) * | 2018-01-08 | 2021-04-08 | ソニー・インタラクティブエンタテインメント エルエルシー | 状況適応型ゲームプレイ支援を生成するためにプレイヤーの関与を識別すること |
JP7286656B2 (ja) | 2018-01-08 | 2023-06-05 | ソニー・インタラクティブエンタテインメント エルエルシー | 状況適応型ゲームプレイ支援を生成するためにプレイヤーの関与を識別すること |
US11691082B2 (en) | 2018-01-08 | 2023-07-04 | Sony Interactive Entertainment LLC | Identifying player engagement to generate contextual game play assistance |
JP2022023467A (ja) * | 2020-07-27 | 2022-02-08 | トヨタ紡織株式会社 | 観光ガイドシステム |
JP7371584B2 (ja) | 2020-07-27 | 2023-10-31 | トヨタ紡織株式会社 | 観光ガイドシステム |
Also Published As
Publication number | Publication date |
---|---|
WO2010123770A2 (en) | 2010-10-28 |
EP2422284A4 (en) | 2013-09-11 |
EP2422284A2 (en) | 2012-02-29 |
US20100004977A1 (en) | 2010-01-07 |
AU2010239526A1 (en) | 2011-11-10 |
CA2758272A1 (en) | 2010-10-28 |
WO2010123770A3 (en) | 2010-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11200964B2 (en) | Short imagery task (SIT) research method | |
US20210065117A1 (en) | Method and system for predicting audience viewing behavior | |
JP2012524458A (ja) | 対話的活動に関するユーザ体験を測定するための方法及びシステム | |
JP5194015B2 (ja) | 感覚的刺激への視聴者反応を決定する方法およびシステム | |
US9451303B2 (en) | Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing | |
US20160055420A1 (en) | Systems and techniques for identifying and exploiting relationships between media consumption and health | |
US9292858B2 (en) | Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments | |
US20080243590A1 (en) | Methods and systems for measuring exposure to media | |
EP2152155A1 (en) | Multi-market program and commercial response monitoring system using neuro-response measurements | |
AU2013273825B2 (en) | Method and System for Determining Audience Response to a Sensory Stimulus | |
Soleymani | Implicit and Automated Emtional Tagging of Videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131204 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140304 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140311 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140604 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140707 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20151007 |