JP5194015B2 - 感覚的刺激への視聴者反応を決定する方法およびシステム - Google Patents

感覚的刺激への視聴者反応を決定する方法およびシステム Download PDF

Info

Publication number
JP5194015B2
JP5194015B2 JP2009527401A JP2009527401A JP5194015B2 JP 5194015 B2 JP5194015 B2 JP 5194015B2 JP 2009527401 A JP2009527401 A JP 2009527401A JP 2009527401 A JP2009527401 A JP 2009527401A JP 5194015 B2 JP5194015 B2 JP 5194015B2
Authority
JP
Japan
Prior art keywords
value
presentation
response
determining
biology
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009527401A
Other languages
English (en)
Other versions
JP2010503109A (ja
Inventor
カール ディー. マルチ,
ブライアン レビン,
Original Assignee
インナースコープ リサーチ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インナースコープ リサーチ, インコーポレイテッド filed Critical インナースコープ リサーチ, インコーポレイテッド
Publication of JP2010503109A publication Critical patent/JP2010503109A/ja
Application granted granted Critical
Publication of JP5194015B2 publication Critical patent/JP5194015B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0242Determining effectiveness of advertisements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • A61B5/0533Measuring galvanic skin response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • A61B5/225Measuring muscular strength of the fingers, e.g. by monitoring hand-grip force
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6897Computer input devices, e.g. mice or keyboards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Finance (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

(関連出願の引用)
本願は、米国仮特許出願第60/824,546号(2006年9月5日出願)の法的に与えられる任意および全ての利益を主張するものであり、この出願は、その全体を参照として本明細書に援用される。
(連邦後援研究に関する陳述)
適用無し
(マイクロフィッシュ付属書の参照)
適用無し
(発明の技術分野)
本発明は、標本集団の視聴者をプレゼンテーション(感覚的刺激)に曝し、そして、その視聴者の体験を評価するための方法およびシステムに関し、その評価は、プレゼンテーションに対する視聴者の生物学に基づく反応を測定し、そして、プレゼンテーションに対する視聴者の強度、同調性、および関与についてのレベルの程度およびパターンを決定することによって実行される。
人々が毎日曝される、多くの異なる種類の聴覚、視覚、および視聴覚のプレゼンテーションが存在する。これらのプレゼンテーションは、我々の感覚を刺激する感覚的体験として機能し、電気的および機械的に測定可能な生物学に基づく反応(例えば、心拍数、呼吸速度、血圧、および皮膚コンダクタンス等)をもたらすことが知られている。
これらのプレゼンテーションを評価するための測定を行う上で一般的に使用される手法は、質問という手法であって、その手法においては、テレビ/メディア視聴者および/またはインターネットユーザおよび/またはゲームプレーヤが、テレビ/メディアの視聴者のメンバーとして、またはインターネットユーザもしくはゲームプレーヤとして、自分自身を識別することを要請される。テレビの視聴に関連して、この質問は、通常、統計的に選択された集団および監視領域における監視付き受信器と関連付けられた、電子的なプロンプトおよびデータ入力デバイス(例えば、Arbitron,Inc.によるPortable People Meterでの場合等)を用いて行われる。また、メンバー識別は、年齢、性別、および他の人口総計データを含んでもよい。統計的に選択された監視領域における各監視付き受信器と関連付けられた人口統計データおよび調整データを、監視領域内に位置する蓄積交換機器に格納し、後に、定期的に公衆交換電話網での直通電話またはインターネットを介して、それらのデータを中央オフィスコンピュータに転送することが一般的である。
視聴者の反応を測定するこれらの生物学に基づかない自己報告方法は、極めて誤差を招来しやすいことが知られている。個人の記録は主観的であって記憶の偏りをもたらし、家庭監視デバイスは個人による事象の記録を必要とし、そして、対応性の低さの影響を受け、一方、ケーブルおよびインターネット信号のデジタル監視は家族の中のどのメンバーが視聴者の中にいるかを識別できず、そして、それらのメンバーによる応答性のレベルを評価することができない。さらに、自己報告は、メディアのプレゼンテーションに対する生物学的反応を捉える能力を提供しない。したがって、自己報告の方法は、価値のあるデータを提供するが、極めて誤差を招きやすく、メディア消費に対する経時的な反応を追跡することができない。
歴史的に、生物学に基づく試験は、広告媒体(写真、印刷広告、またはテレビコマーシャルを問わず)等の特定の刺激に反応して誘発された特定の感情を決定するために、1つまたは2つの生理学的反応(例えば、心拍数または脳波記録)の使用に重点を置いている。しかしながら、誘発された特定の感情を決定することは、これらの感情的反応がどのように所望の行動的反応または行動の変化につながるかを予測する助けとはならない。さらに、この試験は、個人の反応に重点を置いている。したがって、標的集団の行動的反応または行動の変化につながり得る、あるいはそれと関連付けられた、集団標本における生理学または生物学に基づく反応または反応パターンを識別することが望ましい。
本発明は、視聴者測定の分野での使用のためのシステムおよび方法に関する。具体的には、本発明は、プレゼンテーション(例えば、生または記録された受動的または対話型の聴覚、視覚、視聴覚のプレゼンテーション)に対する生物学に基づく視聴者の反応を記録するため、および、その刺激プレゼンテーションによる、視聴者の経時的および全体的な強度、同調性、および関与の程度を決定するための方法およびシステムに関連する。次いで標本集団の視聴者の関与の程度は、全体としての集団が同じプレゼンテーションに引き付けられるか、またはそれを好むか、もしくは好まないレベルを推定するために使用することができる。視聴者の関与の程度は、視標の追跡技術と組み合わされると、プレゼンテーションのどの要素が、そのプレゼンテーションまたは類似のプレゼンテーションの他の要素に比べて最も引き付けるかを決定するためにも使用可能である。強度、同調性、および関与の程度は、次いで、診断値に使用可能、および/またはプレゼンテーションの成功または失敗を予期するために使用可能である。これは、例えば、既知の成功したプレゼンテーションの強度、同調性、または関与の程度を、標本集団(代表視聴者)の未知のまたは以前に評価されていないプレゼンテーションに対する関与の程度と比較するための予測モデルによって達成することができる。
本発明は、視聴者の反応を測定するために、従来のダイヤルテスト、自己報告調査、およびフォーカスグループの代わり、またはそれを補完するものとしてのメディア試験ツールとして使用することができる。本発明は、ヒト神経生物学、および本発明に従って測定および処理される具体化された反応を利用して、標本視聴者の反応を測定し、より一般化した視聴者の反応を予測することができる。
一実施形態によれば、2人以上の人々の標本視聴者に、5秒から5時間(またはそれ以上)までのいずれの時間でも継続することができる(生または事前に記録された)1つのコンテンツが提示される。本発明によるシステムは、我々の視聴者の生物測定反応を監視して、上記コンテンツに対する彼らの反応の客観的な程度を得る。
生物測定反応データは、複数センサ装着型監視デバイスを介して収集することができ、このデバイスは、プレゼンテーションに相関させるための、経時的にサンプリングされる生物学に基づくデータの連続収集が可能である。このセンサパッケージは、皮膚伝導性(SC)の程度を含むことができ、心臓反応、脳波、呼吸反応、体の動作、視標追跡、表情、および他の生物学に基づく信号等の反応を監視するための追加のセンサをいかなる数でも含むことができる。
プレゼンテーションの一部として視聴者に提示されるコンテンツは、写真、印刷広告、テレビ番組、映画、ドキュメンタリー、コマーシャル、インフォマーシャル、報道、生のコンテンツ、生の演劇、録画された演劇、模擬裁判、絵コンテ、役者のオーディション、パイロットテレビ番組および映画のテーマ、音楽、インターネット、ゲーム等を含むことができるが、これらに限定されない。
本発明によれば、反応データは、個々に、または小集団もしくは大集団の状況下で収集することができ、非侵襲的なもの(すべてのセンサが外部となり得る)となることができる。
本発明によれば、システムは、何のプレゼンテーションが視聴されているか、誰がコンテンツを視聴しているか、および視聴されたコンテンツまたはプレゼンテーションにタイムロックされて対応する視聴者メンバーの生物学的反応を追跡することができる。したがって、視聴されている所与の1つのコンテンツまたはプレゼンテーションに対し、標本集団の各メンバーの生物学的反応を、コンテンツの一部に関連付けることができ、また、異なる時間および場所で収集された複数の標本視聴者からのデータを組み合わせることができる。本発明の目的のために、標本視聴者(または標本集団)は、例えば、数日間にわたって、同じコンテンツを複数回視聴していることを監視されている1人の個人であってもよい。
一実施形態において、本発明によるシステムは、コンテンツ制作者、配信者、およびマーケティング担当者が、彼らのコンテンツに視聴者がどのように応答するかについての客観的な見通しを得るのに役立つことができる。
一実施形態において、システムは、自然の家庭環境で使用することができ、また可能な限り非侵襲的なものとなることができる。システムは、家族のメンバーによって何のテレビ(および他のメディア)が視聴されているか、またそれらのメンバーがどのセグメントを見ているのかということについて正確に追跡することができる。
家族のメンバーにとっては、以前と同じ態様でメディアをコントロールすることができる。彼らにとっての主要な違いは、ビデオを見ているか、または音楽を聴いているときに彼らがセンサデバイス(例えば、特別な衣料品、ブレスレット、または他のデバイス)を装着しなければならないことである。この実施例においては、このデバイスは、生物学的センサを使用することにより、再生されているメディアに彼らがどれ程引き付けられているかを決定するために使用することができる。システムは、例えば、動作のレベルがより大きい、視聴者メンバーが注意を払っている傾向がより少ない、非受動的な視聴体験によって引き付けられている傾向がある等、収集されたデータに関して評価を行うことができる。
一実施形態において、デバイスにより収集されたデータは、デバイスまたは視聴者がメディアディスプレイに近いと判断された場合にのみ使用され、それ以外においては、それを体験するには、視聴者がメディアから遠すぎるとみなされる。データは、定期的な間隔でセットトップボックス(STB)または受信器に伝送され、各視聴者メンバーの識別、および消費されている現在のメディアに関する情報に関連付けられる。このデータは、データベース内に一緒にパッケージされ、リアルタイムで提供されることが可能である。
システムの一実施形態において、コンプライアンス問題に対応するために、ユーザは、機能しているセンサデバイスを装着していない限り、またはSTBもしくは受信器に取り付けられたコンセント/ドック内で電池切れのユニットを充電していない限り、チャンネルを変更できない。
本発明によるこのシステムは、プレゼンテーションおよびコンテンツの制作者により、広範に配信する前にプログラムを評価するために使用され得る。例えば、彼らは、評価したいビデオおよびオーディオを、標本視聴者の家庭エンターテイメントシステムまたはコンピュータに直接「プッシュ」することにより、システムを使用して標本視聴者を評価することができる
本発明は、例えば、以下の項目も提供する。
(項目1)
感覚的刺激を提供するプレゼンテーションに対する視聴者の関与の程度を決定する方法であって、
該視聴者をある期間にわたり該プレゼンテーションに曝すことであって、該期間は2つ以上の時間枠に分割される、ことと、
該標本集団の各メンバーに対し、該プレゼンテーションに対する複数の生物学に基づく反応を測定することと、
各時間枠に対し、少なくとも1つの強度値を、測定された生物学に基づく反応のうちの少なくとも1つの関数として決定することと、
各時間枠に対し、少なくとも1つの同調性値を、測定された生物学に基づく反応のうちの少なくとも1つの変化率の関数として決定することと、
各時間枠に対し、少なくとも1つの関与値を、該強度値のうちの少なくとも1つおよび少なくとも1つの同調性値の関数として決定することと
を含む、方法。
(項目2)
前記少なくとも1つの関与値を、第2のプレゼンテーションに対応するデータベースに格納された関与値と比較することと、
該比較に基づいて、前記プレゼンテーションが、該第2のプレゼンテーションに類似していることを示すことと
をさらに含む、項目2に記載の方法。
(項目3)
前記生物学に基づく反応は、心拍数、皮膚コンダクタンス、呼吸速度、呼吸状態、動作、および視標追跡を含む反応の群から選択される、項目1に記載の方法。
(項目4)
前記少なくとも1つの強度値を決定することは、前記生物学に基づく反応のうちの少なくとも1つについてのピーク値、トラフ値、中央値、平均値、および変化率値のうちの少なくとも1つの関数として、標準化スコアを決定することを含む、項目1に記載の方法。
(項目5)
前記少なくとも1つの同調性値を決定することは、前記視聴者の少なくとも一部に対する前記生物学に基づく反応のうちの少なくとも1つについての変化率値の分散を決定することを含む、項目1に記載の方法。
(項目6)
感覚的刺激を提供するプレゼンテーションに対する視聴者の関与の程度を決定するコンピュータ化システムであって、
ある期間にわたり該プレゼンテーションに対する生物学に基づく反応を測定するようにそれぞれ構成される複数のセンサであって、該期間は2つ以上の時間枠に分割される、複数のセンサと、
該プレゼンテーションに関連するデータと、該プレゼンテーションに対する少なくとも1つの生物学に基づく反応の程度を提供する該複数のセンサからのデータとを受信するように構成されるコンピュータ処理システムと、
各時間枠に対し、少なくとも1つの強度値を、測定された生物学に基づく反応のうちの少なくとも1つの関数として決定するように構成される、強度処理モジュールと、
各時間枠に対し、少なくとも1つの同調性値を、該測定された生物学に基づく反応のうちの少なくとも1つの関数として決定するように構成される、同調性処理モジュールと、
各時間枠に対し、少なくとも1つの関与値を、該少なくとも1つの強度値および該少なくとも1つの同調性値の関数として決定するように構成される、関与処理モジュールと
を備える、システム。
(項目7)
前記少なくとも1つの関与値を、第2のプレゼンテーションに対応するデータベースに格納された関与値と比較するように構成される比較モジュールと、
該比較に基づいて、前記プレゼンテーションが該第2のプレゼンテーションに類似していることを示すように構成されるインジケータと
をさらに含む、項目6に記載のシステム。
(項目8)
前記生物学に基づく反応は、心拍数、皮膚コンダクタンス、呼吸速度、呼吸状態、動作、および視標追跡を含む反応の群から選択される、項目6に記載のシステム。
(項目9)
前記強度処理モジュールは、強度値を標準化スコアの関数として決定し、該標準化スコアは、前記生物学に基づく反応のうちの少なくとも1つについてのピーク値、トラフ値、中央値、平均値、および変化率のうちの少なくとも1つの関数として決定される、項目6に記載のシステム。
(項目10)
前記同調性処理モジュールは、同調性値を、前記視聴者の少なくとも一部に対する前記生物学に基づく反応のうちの少なくとも1つについての変化率値の分散の関数として決定するように構成される、項目6に記載のシステム。
以下の図面、発明を実施するための形態、および特許請求の範囲を吟味した後に、本発明それ自体とともに、本発明のこれらの能力および他の能力がより完全に理解される。
図1は、試験的映画館における視聴者の測定のための本発明によるシステムの説明図である。 図2Aは、家庭における視聴者の測定のための本発明によるシステムの第2の実施形態の説明図である。 図2Bは、第2の実施形態に対する家庭内コンプライアンスアルゴリズムのフロー図である。 図2Cは、家庭内システムの一側面、所与の家族において誰が実際にメディアを体験しているかを識別する能力のフロー図である。 図3は、社会的相互作用の間の関与のレベルを監視するための、本発明によるシステムの第3の実施形態の説明図である。 図4Aは、本発明に従って決定された関与の程度の2つの実施例を示す。 図4Bは、本発明に従って決定された関与の程度の2つの実施例を示す。
本発明は、感覚的刺激体験を提供するプレゼンテーションに対するそのメンバーの生物学に基づく反応を測定することにより、標本集団の体験の程度を決定するための方法およびシステムに関する。本発明による方法およびシステムは、感覚的刺激体験の強度、同調性、ならびに関与のレベルおよびパターンを決定する。特に、本発明は、関与の経時的パターンおよび全体的レベルを決定するために、感覚的刺激またはプレゼンテーションに曝されている1人以上の人物の、1つ以上の生物学に基づく反応を測定するための方法およびシステムに関する。さらに、本発明は、そのプレゼンテーションが、他のプレゼンテーションおよび他の集団に比べ、集団に対してより効果的かどうかを決定するために、また高レベルの関与、ならびにプレゼンテーションの有効性および成功に貢献するプレゼンテーションの要素の識別に役立たせるために使用することができる。
人々が毎日曝される、多くの異なる種類の聴覚、視覚、および視聴覚のプレゼンテーションが存在する。これらのプレゼンテーションは、我々の感覚に対する刺激として機能する。これらのプレゼンテーションの多くは、反応を誘発するように設計されている。ある場合には、アーティスト、音楽家、または映画監督は、視聴者から、1つ以上の感情または一連の反応を誘発することを意図したプレゼンテーションを制作している。他の場合において、プレゼンテーションは、製品、サービス、組織、または要因に関する教育または促進を行うように意図している。最後に、例えば、生のパフォーマンスの間、フォーカスグループ、面接の状況の間、またはそのようないかなる社会的相互作用において、視聴者の関与のレベルが生きた人間に対する反応に関するものである場合および用途がしばしば存在する。
これらの感覚的刺激は、音もしくは音の集合、単一の絵もしくは絵の集合、または、テレビもしくはラジオ等の受動的に提示される視聴覚プレゼンテーションの形態であってもよく、あるいは、ビデオゲームまたはインターネット体験でのように、対話型環境において提示されてもよい。感覚的刺激は、例えば演劇または訴訟手続き等、事前に記録されていても生で提示されてもよく(受動的)、あるいは、船でのクルーズへの参加または遊園地での乗り物等、現実世界の状況(またはシミュレーション)(対話型)であってもよい。
過去20年にわたる科学的研究では、体験に対する個人の反応は、コンテンツの処理の深さにとって重要であることが示唆されている。一方、処理のレベルは、標的視聴者に対しコンテンツが有することができる印象、および、態度または行動の変化を生成する能力に影響する。いくつかの研究でも、より刺激的なコンテンツが、後日そのコンテンツをより良く思い出すことにつながることが示されている。これは、制作責任者や、エンターテイメントの専門家、政治家、および広告主を含むがこれらに限定されない、様々な業界専門家にとって特に興味のあることである。例えば、エンターテイメントの分野では、どの作品がどの視聴者(例えば、子供、年配者、男性および女性等)に最も魅力的かを評価できることが望ましい。この情報は創作者および主催者が標的視聴者を識別するのに有用であるばかりでなく、広告を目的として、スポンサーおよび広告主と協力するためにもまた有用である。所与の刺激の総合的な印象を推定する能力は、患者の教育を試みる臨床医学者、生徒を感化する教師、または選挙区民に演説する政治家にとっても重要である。したがって、該当する場合には、その印象の決定に役立てるために、どの人口統計的集団が特定のメディアコンテンツを魅力的と感じるかを決定することが望ましい。同様に、該当する場合には、最終的に態度の変化、購買活動、または社会的行為等の人間の行動を予測する能力を有するために、どの人口統計的集団が特定の印刷物、インターネット、テレビまたはラジオのコマーシャルを魅力的と感じるかを決定することが望ましい。
受動的および対話型プレゼンテーションに対する生物学に基づく反応は、心拍数、呼吸速度、動作、および皮膚伝導性を含むがこれらに限定されない様々な生物学的反応を記録するために体に取り付けられた様々なセンサを使用して測定することができる。現在、生物学に基づく人間の反応の、連続的で目立たない監視を可能とする多くの製品および新技術が市場にあり、例えば、多くは健康またはフィットネスを目的として使用されることが多い。LifeShirt System(VivoMetrics、Ventura CA)の名称で提供されているある製品は、評価対象者により目立たずに装着され、肺、心臓、皮膚、姿勢、および声の情報を後の分析のために同時に収集することができる最新の衣服である。SenseWear(BodyMedia、Pittsburgh PA)の名称で提供されている他の製品は、皮膚コンダクタンス、体温、動作、および心拍数を同時に収集するアームバンドである。また、Tobii x50 Eye TrackerまたはTobii 2150(Tobii Technology、McLean VA)の名称で提供されている製品は、目の凝視場所および凝視間隔を高度の正確性で目立たずに監視することを可能にする最新の視標追跡デバイスである。視標追跡を他の生物学に基づく反応と組み合わせることにより、システムは、複雑な感覚体験(例えば、マルチメディアまたはインターネット体験)内のどの特定の要素が反応の引き金となっているかを一意に予測することができる。
本発明によれば、全体としての標的視聴者における、受動的および対話型オーディオ、ビデオ、およびオーディオ−ビデオコンテンツに対する全体的な反応の経時的パターンを、信頼性をもって客観的に定量化することができる方法およびシステムが提示されている。1人1人の参加者の個人の感情を識別するために個々の生物学的反応を使用するのではなく、本発明は、標的視聴者の代表的な標本集団の生物学に基づく反応を集約して、感覚的刺激体験を提供するプレゼンテーションに関する標的視聴者の関与の経時的および全体的な指標を生成することができる方法およびシステムに関する。
本発明は、音または音のシーケンス、絵もしくはビデオを含む絵のシーケンス、または、1つ以上の音および1つ以上のビデオを含む絵の組合せ等、感覚的刺激体験を提供する聴覚、視覚、または視聴覚プレゼンテーションに対する、人物(または動物)の様々な生物学に基づく反応を代表するデータを収集するための方法およびシステムに関する。プレゼンテーションは、事前に録画され、プレゼンテーションデバイスもしくはシステム上(例えば、テレビ、ビデオ、ディスプレイ、映画等のスクリーンへの投影)で再生されてもよく、または、生のパフォーマンスとして体験されてもよい。プレゼンテーションは、視聴者が固定された場所から(例えば、劇場内で、またはテレビもしくはビデオ画面の正面に着席して)プレゼンテーションを体験する受動的なものであってもよく、あるいは、プレゼンテーションは、視聴者がある形態の活動(例えば、生のジェットコースターの乗車、ジェットコースターの乗車のシミュレーション、インターネットを介した対話型セッション、フォーカスグループ)に参加する対話型のものであってもよい。収集されたデータは、視聴者の強度、同調性、および関与の程度を決定するために、本発明に従い処理される。集団標本の強度、同調性、および関与は、さらに、集団の強度、同調性、および関与のレベルを予測するために使用することができる。本明細書の文脈において、集団標本は、(同時もしくは異なる時間での)同じプレゼンテーションに対する複数の個人の反応の程度、または、同じプレゼンテーションに複数回曝された1人の個人の反応の複数の程度に基づくことができる。
本発明によれば、プレゼンテーションに対する曝露期間にわたる、プレゼンテーションに対する反応の強度の程度、およびプレゼンテーションに対する曝露期間にわたる、プレゼンテーションに対する反応の同調性の程度は、生物学に基づく反応から決定され得る。さらに、曝露期間は、様々な間隔(固定または可変)の時間枠もしくは枠、または事象ベースの単位に分割され、対応する反応値が、各時間枠または事象枠に対し決定され、それと関連付けられることが可能である。強度の程度は、2つ以上の生物学的な程度にわたって集められた、および集団または集団の一部にわたって集められた、プレゼンテーションに対する生物学に基づく反応の基準レベルからの変化の測定を含むことができる。さらに、反応値は、測定された変化および1組の既定の閾値の関数として決定され得る。同調性の程度は、標本集団に対する同調性した変化または生物学に基づく反応の相関関係を表す値の決定を含むことができる。所与の時間枠の間の同調性の程度は、共通の時間枠の間の標本集団の測定された生物学に基づく反応の分散の逆数の関数として決定することができる。関与の程度は、強度の程度と同調性の程度を時間枠毎に組み合わせることにより決定することができる。強度および同調性の程度は、関与の程度の決定において、均一または不均一に加重され得る。
システムは、1)メディアプレゼンテーションデバイス、または、感覚的刺激または一連の刺激を提示するためのいくつかの他の装置もしくはフォーラム、2)プレゼンテーションに対する複数の生物学的反応の収集のための反応監視デバイス、および3)瞳孔の凝視および顔面の反応の場所および間隔を決定するための、視標追跡および/またはビデオカメラ、の3つのタイムロックまたは同調性化されたデータソースを含むことができる。追加のビデオカメラを使用して、メディアデバイスに対する個人および/または視聴者の近接性、ならびに、体験されているプレゼンテーションの特定の要素を決定することができる。反応監視デバイスおよび視標追跡システムおよび/またはビデオカメラは、監視デバイスおよび視標追跡システムおよび/またはビデオカメラが一致してプレゼンテーションの同じ部分に対応する生物学的反応を記録するように、感覚的刺激にタイムロックされるかまたは同調されることが可能である。システムセンサパッケージは、皮膚伝導性の程度、心拍数、心拍数変動、迷走神経緊張、呼吸、体の動作、顔面筋の動き/表情、視標追跡、ならびに他の生物学に基づく信号、例えば、体温、体の近辺の温度、顔面および体のサーモグラフィ画像、顔面EMG、EEG、fMRI等を含むことができるが、これらに限定されない。プレゼンテーションコンテンツは、受動的および対話型のテレビ、ラジオ、映画、インターネット、ゲーム、ならびに印刷されたエンターテイメントおよび教育資料の他、生の社会的相互作用、劇場用、体験的、および娯楽用のプレゼンテーションを含むことができるが、これらに限定されない。タイムロックされたデータソースは、自動的に上述のスコア方法を適用し、単位時間(時間枠)当たり、事象当たり、またはプレゼンテーション全体にわたる関与のパターン(またはマップ)を得るために、コンピュータ化されたデータプロセッサに接続または転送され得る。
システムはさらに、視標追跡、指向性オーディオおよび/もしくはビデオ、または他の技術を使用して、さらなる綿密な処理の対象となる特定の要素または瞬間を分離することができる。本発明によれば、システムは、何のプレゼンテーションが視聴されているか、誰がコンテンツを視聴しているか、および、視聴者のどの生物学的反応が視聴されたコンテンツに対応するかを追跡することができる。
システムは、プレゼンテーションに対し視聴者がどのように反応するかについての客観的見解を提供することができる。システムは、試験メディアコンテンツに関連する統計学的および他のデータと組み合わされるとそのコンテンツの相対的成功の予測を可能とする、様々な歴史的メディア刺激に対する、生物学に基づく視聴者の反応、反応パターン、ならびに視聴者の関与パターンおよびレベルのデータベースをさらに含むことができる。
タイムロックされた関与の指標を計算するための方法が記載される。この方法は、標本視聴者の生物学的反応の集約を含む。標本集団または参加者のグループの反応を集約するためには、以下の手順のうちの1つ以上に従ってデータを処理することが望ましい。
1.個々のデータストリームを時間枠または枠にタイムロックする。生物学的反応データは、特定の時間枠に関連付けられる連続ブロックに分割することができる。
2.個々の基準線および個々の分散に基づいてデータを判断および処理する。生物学的反応データは、標本集団の個々のメンバーおよび使用される検知機器の変動する応答を補償するために正規化することができる。
3.個々の基準線および分散と比較するために各時間枠に対するピーク値およびトラフ値を決定および処理し、1つ以上の生物学的反応の各時間枠の間の変化率を処理する。
4.各生物学的な程度に対し、時間枠毎に標準化スコアを決定する。
5.生物学的な程度の1つ以上に対する標準化スコアのうちの1つ以上を使用して、標本集団にわたる時間枠毎の標準化スコアを組合せ、強度の程度を形成する。好ましくは、複数の生物学的な程度を使用し、少なくとも1つの生物学的な程度が、標本集団およびプレゼンテーションまたはコンテンツに基づいて、他の生物学的な程度と異なるように加重される。
6.試験視聴者にわたる生物学的な程度のサブセットの、単位時間当たりの変化率の残差分散の逆数を平均化して同調性の程度を生成し、いくつかの生物学的な程度は、試験集団および試験コンテンツに基づいて、他の生物学的な程度と異なるように加重される。
7.強度の程度および同調性の程度を組み合わせ、単位時間当たりの全体的な関与の程度を生成する。好ましくは、強度の程度または同調性の程度のいずれかが、標本集団およびプレゼンテーションまたはコンテンツに基づいて、異なるように加重される。
8.様々なサイズの他の集団における他の試験との比較のために、設定された数の個人(標本集団サイズ)に得られた時間枠当たりの関与の程度を標準化する。
本システムの一実施形態によれば、試験的映画館において、最短でも数秒から数時間続くことができる感覚的刺激または(ライブで、もしくは事前に記録された)1つのメディアコンテンツが、標本視聴者に提示される。本発明の目的のために、標本視聴者は、同じコンテンツを複数回視聴していることを監視されている1人の個人であっても、または個人のグループであってもよい。視聴者の監視は、個々に、または小集団もしくは大集団で同時に行うことができる。視聴者は、厳密に定義された人口統計/サイコグラフィックのプロファイルのものであっても、または、広義に定義された人口統計/サイコグラフィックのプロファイルからのものであっても、またはその2つの組合せであってもよい。システムはタイムロックされたデータストリームを記録し、経時的な関与のレベルを計算し、関与のパターンを類似のメディアコンテンツのデータベースと比較する。システムはさらに、視標追跡または他の技術を使用して、さらなる綿密な処理の対象となる特定の要素または瞬間を分離することができる。本発明によれば、システムは、何のプレゼンテーションが視聴されているか、誰がコンテンツを視聴しているか、および、視聴者のどの生物学的反応が視聴されたコンテンツに対応するかを追跡することができる。したがって、所与の1つの刺激コンテンツに対して、生物学的反応を、その反応を誘発したコンテンツの部分に関連付けることができ、また、異なる時間および場所で収集された複数の標本視聴者または標本視聴者のサブセットからのデータを集約することができる。
別の実施形態によれば、家族の参加メンバーは、彼らがテレビを見る、音楽を聴く、またはインターネットを使用する際に、生物学的反応のいくつかの組合せを測定するセンサデバイス(例えば、特別な衣料品、ブレスレット、または他のデバイス)を装着している間、彼らの1日の全体を通して、彼らのメディア選択および使用を制御することができる。この実施形態において、家庭内の検知デバイスは、参加者が選択したメディアコンテンツの性質およびタイミングを決定するとともに参加者に関する情報を識別する、家庭内のコンピュータまたはセットトップボックス(STB)と通信する。システムは、例えば赤外線、グローバルポジショニングサテライト、レーダ、あるいは、既知の動作帯域での技術(例えば、WiFi、Zigbee、RFID、またはブルートゥース)を使用した、2つの物体間、例えば、テレビもしくはコンピュータと参加者との間の信号の獲得によるもの等を介した距離測定等、メディア刺激からの距離を決定することができる技術、および/または参加者の凝視の方向(例えば、視標追跡技術を使用して)を決定することができる技術を含む。この実施形態の変形例において、STBまたはコンピュータは、コンプライアンスを確実とするために、センサデバイスが起動されていない場合は、家庭メディアデバイスの起動を防ぐことができる。本実施形態の別の変形例において、試験プレゼンテーションコンテンツおよび/またはブロードキャスト/ケーブルプレゼンテーションコンテンツを、所望の人口統計/サイコグラフィックのプロファイルまたは関与の既定のレベルもしくはパターンに「適合」する参加者に「プッシュ」することができる。前述の実施形態におけるように、システムはタイムロックされたデータストリームを記録し、その人物に対する経時的な関与のレベルを計算し、関与のパターンを類似の個々の体験のデータベースと比較することができる。
別の実施形態によれば、その感覚的刺激を提供するプレゼンテーションは、生の1人もしくは複数の人物または活動であってもよい。この生の1人もしくは複数の人物は、生のフォーカスグループの対話、公判前もしくは模擬裁判中の陪審へのプレゼンテーション、面接官と面接者の対話、教師と1人もしくはグループの生徒の対話、患者と医師の対話、デートでの対話、または他のいくつかの社会的相互作用を含むが、これらに限定されない。生の活動は、例えばジェットコースターへの乗車、船への乗船、または自動車への乗車等の活動であってもよい。システムは、タイムロックされたデータストリームを記録し、経時的な関与のレベルを計算し、また他の実施形態と類似して、関与のパターンを類似の社会的相互作用のデータベースと比較して、その種類の社会的相互作用に対する他の反応パターンと関連して反応パターンを推定することができる。
本発明は、視聴者測定の分野での使用のためのシステムおよび方法に関する。視聴者のメンバーに感覚的刺激体験を提供する、生または記録された受動的または対話型の聴覚、視覚、または視聴覚プレゼンテーションに対する、生物学に基づく視聴者の反応を記録するためのシステムが記載される。生物学に基づく視聴者の反応を使用して、強度、同調性、および関与の程度を計算するための方法が記載される。方法は、複数の参加者の生物学的反応の、単位時間当たり、または事象当たりの標準化スコアへの、または、標本集団視聴者にわたって集約され得る、経時的に/事象にわたり集約された標準化スコアへの変換を含むことができる。システムは、標本集団視聴者に対する経時的および全体的な体験の強度および同調性を決定する。標準化された強度および同調性スコアを組み合わせて視聴者の関与の全体的な程度を生成することができる。関与の程度は、複数の生物学に基づく程度に基づく、決められた視聴者セグメントの体験の客観的な程度を表す。
関与の程度は、複数の生物学に基づく程度から決定される2つの構成要素から決定される。第1の構成要素は、プレゼンテーションの複数の決められた部分(時間枠または事象により表現される)に対する生物学に基づく反応の強度を反映する、強度の程度である。第2の構成要素は、プレゼンテーションの複数の決められた部分(時間枠または事象により表現される)に対する、標本集団における生物学に基づく反応の変化の相関または一致(同じコンテンツに対して何人の人々が同じまたは類似の反応を示したか)を反映する、同調性の程度である。
システムはさらに、タイムロックされた視標追跡および他のビデオ監視技術を関与の程度と統合して、反応の引き金となっている感覚的刺激の特定の要素を識別することができる。システムはまた、類似の視聴者における類似の試験刺激に対する関与の歴史的パターンのデータベースを使用した予測モデルを介して、試験刺激の相対的な成功または失敗を予期するために、関与の程度を使用することができる。
図1は、本発明によるシステムの実施形態の説明図を示す。プレゼンテーションは、試験または標本視聴者12にプレゼンテーションを提示するためのビデオ表示画面、または、他の市販の技術等の、表示デバイス10を介して視聴者12に提示される。プレゼンテーションは、受動的および対話型のテレビ、ラジオ、映画、インターネット、ゲーム、ならびに印刷されたエンターテイメントおよび教育資料を含むことができるが、これらに限定されない。表示デバイス10は、テレビ、映画スクリーン、デスクトップ、ハンドヘルド型もしくは装着型コンピュータデバイス、ゲーム機、家庭用もしくは携帯型音楽デバイス、または、受動的もしくは対話型の聴覚、視覚、もしくは視聴覚プレゼンテーションの提示のための他のいかなるデバイスをも含むことができるが、これらに限定されない。本発明の目的のために、試験視聴者12は、同じコンテンツを複数回視聴していることを監視されている1人の個人であってもよく、または、任意の数のパラメータ(例えば、人口統計、関心のレベル、生理学的またはサイコグラフィックのプロファイル等)により定義される、小集団もしくは大集団であってもよい。試験視聴者は、互いに、および試験刺激にタイムロックされた複数の生物学的反応の収集のために、生物学的監視システム12aを使用して監視され得る。システムは、行動、顔面の反応および/または視聴者の明確な集中に関するデータの収集のための集中および/または顔面監視システム14(例えば、視標追跡システム、またはデジタルビデオカメラ等)を含むことができる。3つのデータソース(メディア刺激、生物学的反応データ、および集中データ)は、互いに同調されるか、タイムロックおよび/もしくは事象ロックされ、それにより、収集された反応データはプレゼンテーションの一部と関連付けられ、コンピュータデータ処理デバイス16に送信される。コンピュータデータ処理デバイスは、プロセッサ、メモリ、ならびに、生物学的反応を処理し、強度、同調性、および関与の値を生成するためのソフトウェアを備える汎用コンピュータまたはパソコンであってもよい。3つのデータソースは、様々な手段により外部的に、またはデータプロセッサ16内でタイムロックまたは同調され得るが、該手段には、それらすべてを同時に起動する、または、(データプロセッサ16内の)各システムが3つのデータソースからデータを収集してそれらのクロック/事象タイマを同調することができるようにする共通の事象マーカを提供するか、または単にシステムのそれぞれにおけるクロックを同調するか、または共通のクロックを使用することによるものが含まれるが、それらに限定されない。データ処理デバイス16は、経時的な、事象毎の、または総合的な関与のレベルを計算するためのスコア化アルゴリズムを含み、それを同じまたは類似した試験プレゼンテーションに対する他の視聴者の反応のデータベースと比較し、結果をユーザインタフェース18に送達するソフトウェアを実行することができる。ユーザインタフェース18は、データプロセッサ16にアクセスするデスクトップ若しくは携帯型のコンピュータまたはコンピュータ端末に提供することができる。ユーザインタフェース16は、ウェブベースのユーザインタフェースであってもよく、または、デスクトップまたは携帯型コンピュータもしくはコンピュータ端末上で動作する専用クライアントにより提供されていてもよい。結果は、解釈され、配布のために印刷された報告または電子報告20内に収集され得る。反応データは、反応が測定されたときに表示されたプレゼンテーションの部分と関連付けられることが可能である。あるいは、反応データは、決定された遅延に基づき、反応をもたらしたと推測される、プレゼンテーションのそれより前の部分と関連付けられることが可能である。
生物学的反応を測定するための監視デバイス12Aは、そのような反応を測定するための多くの市販または従来技術において知られた他のセンサのいずれであってもよい。本発明によれば、体験の中断を最小限にするために、最も快適な形状因子を有する最も低侵襲的で最も目立たないセンサが選択されるべきである。好ましくは、センサは、参加者が、「あたかも」全く監視されていないかのように試験刺激を体験することができるようにすべきである。形状因子は、高性能衣服、時計、およびヘッドギア等の装着型デバイスを含むが、これらに限定されない。自律神経系、顔面筋肉組織、動作および姿勢、声の特徴、目の動き、呼吸状態、ならびに脳波の程度を収集するための多くのデバイスが利用可能であり、既知である。感覚的刺激、集団、および監視場所によっては、センサの複数の組合せを使用することができる。
関与の程度の決定のための本発明による方法の実施例は、以下を含み得る。
(強度スコア)
強度のそれぞれの程度は、曝露期間内の時点または時間の枠もしくはビン(bin)、または事象マーカと関連付けることができる。この関連付けは、多くの方法を用いて達成することができる。好ましくは、強度の程度を、曝露期間内の時点または時間帯に関連付けるための方法論は、集団標本において決定される、それぞれの関与の程度に対するものと同じかまたは類似している。例えば、一方法において、生物学に基づく反応における変化と関連付けられる強度の付与される程度は、その反応が生じる立ち上がり時間の半分に対応する時間枠または枠に割り当てられる。
例えば、データプロセッサ16に対する入力は、対象の数をN、生物学的反応が記録される時点の数をMとしたN×Mのデータ行列となることができる。データプロセッサ16は、生物学的応答データを受信し、後の処理ステップで使用されるN×M行列を生成する、1つ以上のソフトウェアモジュールを含むことができる。データプロセッサ16は、生物学的反応データのN×M行列を受信し、測定された各生物学的反応および各時間枠に対する1つ以上の標準化スコアを計算する、強度処理モジュールを含むことができる。出力は、W秒幅の時間帯における、対象全体の反応の強度の総整数スコアとなることができる(これはプレゼンテーションに基づく可変パラメータである)。部分的立ち上がり時間パラメータ(f−rise)を使用して、反応が生じる関連した時間帯または時間枠を推定することができる。例えば、3つの時間枠または時間帯W1、W2、W3にわたって生物学に基づく反応に変化が生じ、枠W2の間に反応の立ち上がり時間の半分が生じた場合、反応における変化の強度の程度は、枠W2と関連付けられる。あるいは、強度の程度は、ピーク値を含有する枠(すなわち、枠W3)またはトラフ値を含有する枠(すなわち、枠W1)と関連付けられることが可能である。さらに、部分的標準偏差パラメータ(f−std)を使用して、基準線からの反応の変化の程度を推定することができる。
結果として、各人物に対し、各人物がプレゼンテーションに反応した各時間(または事象)枠と関連付けられた1組の強度値として反応マップを決定することができる。標本集団の強度の程度は、プレゼンテーションに曝された各人物の同じ時間帯と関連付けられた強度の程度を加えることにより決定することができる。結果は、集団標本の集合である反応時間ラインである。2つ以上の生物学に基づく反応(例えば、皮膚伝導性、心拍数、呼吸速度、動作等)の反応パターンを時間帯毎のベースで組み合わせて(均一または不均一に加重されて)、全体的な強度スコアまたは強度時間のラインを決定することができる。集合は、集団サイズ、例えば10人または25人等に正規化することができる。
本発明によれば、反応マップまたはパターンを使用して、ラジオ、印刷および(テレビおよびインターネットの両方の)視聴覚広告、テレビ番組、ならびに映画を評価することができる。一実施形態において、集団標本を1つ以上の既知の成功した広告(TV番組、映画、またはウェブサイト)に曝してもよく、次いで同じまたは異なる集団標本を新たな広告(TV番組、映画、またはウェブサイト)に曝してもよい。反応パターンが、1つ以上の既知の成功した広告(TV番組、映画、またはウェブサイト)に対する反応パターンと類似している場合は、新たな広告(TV番組、映画、またはウェブサイト)もまた成功であることが予測される。さらに、異なる種類の刺激(広告、TV番組、映画、ウェブサイト等)の反応パターンのデータベースを維持し、成功する広告、TV番組、映画、またはウェブサイトの特質を決定するために分析することができる。
本発明によれば、データプロセッサ16は、生物学的反応のN×M行列を受信し、標本集団の少なくとも一部にわたる1つ以上の生物学的な程度の変化率の分散の逆数を計算し、所与の時間枠の間の同調性を代表する標準化された値を決定する、同調性処理モジュールを含むことができる。データプロセッサ16は、集団標本内の各人物に対する、曝露期間にわたる所与の時間帯または事象枠における反応の勾配を評価することにより、所与の生物学的反応の同調性を決定することができる。各時間帯に対し、勾配の値に基づいて勾配値を割り当てることができ、例えば、勾配が大きいほど勾配値も大きくなる。集団標本の各人物の、それぞれ対応する時間帯または事象枠に対する勾配値を処理して、各時間帯または事象枠での集団標本全体の分散の程度を決定することができる。例えば、各時間帯または事象枠での集団標本の勾配値の平均および標準偏差を決定および使用して、さらに残差分散を決定することができる。残差分散をさらに正規化および使用して、刺激に対する集団標本の反応のタイムロックされた同調性を示す、反応パターンを生成することができる。
同様に、同調性反応マップまたはパターンを使用して、ラジオ、印刷および(テレビおよびインターネットの両方の)視聴覚広告、テレビ番組、ならびに映画を評価することができる。さらに、説明された刺激は、強度反応パターンおよび同調性反応パターンの両方を使用して評価することができる。
強度スコアは、以下のステップに従って計算することができる。ステップ1:各入力チャネルに対するノイズ低減処理の後に、各参加者に対して、反応の平均(μ)および標準偏差(σ)を含む反応の振幅分布が、ある基準期間にわたって計算される(これは刺激に基づく可変パラメータである)。ステップ2:各参加者に対して、各反応のトラフ振幅およびピーク振幅の場所およびタイミングが推定され、各ピークとトラフとの間の差(反応の振幅)が計算される。ステップ3:そのようにして決定された値を使用して、振幅がそのチャネルに対する基準μ未満の場合はスコア0、振幅がμとμ+f−(σ)との間である場合は反応のスコアは1、振幅がμ+f−(σ)を超える場合は反応のスコアは2というように、それぞれの別個の反応スコアを確立する。ステップ4:f−riseの時間を特定することにより、各参加者の各反応スコアが、メディア刺激にタイムロックされた可変長の連続ビンに割り当てられる。ステップ5:各生物学的センサに対し、すべての参加者にわたるビンに割り当てられた反応スコアのすべての和が計算される。収集されるセンサの数(各試験で等しい)、および参加者の数(各試験で異なる)に基づいて、スコアが正規化される。このようにして生成されたスコアが、単位時間当たり、または時間枠当たりの強度スコアである。
使用されるセンサおよび体験されているプレゼンテーションによっては、すべてのチャネルが強度スコアに加えられるわけではない。例えば、ある形態の呼吸(例えば、退屈を示唆する溜め息等)または動作(飲料を飲む、または腕時計を見る)は、実際には強度スコアから差し引くことができる。さらに、目的が異なるプレゼンテーションに対しては、強度の程度の代替バージョンを使用することができる。例えば、ホラー映画を試験している場合、コンテンツの目的は興奮を促すことであるため、計算においては皮膚コンダクタンス等のセンサをより重く加重することができ、一方、笑いを誘うことを意図しているコメディを試験している場合は、呼吸反応に対してより強い加重を用いることができる。
(同調性スコア)
同調性は、刺激またはプレゼンテーションの一部に対する、視聴者(標本集団の複数のメンバー)による反応の変化率の程度である。視聴者は、ある期間にわたり、またはステップもしくは事象のシーケンスを通して刺激またはプレゼンテーションに反応することができる。曝露期間は、刺激またはプレゼンテーションを構成する要素または事象に対応する枠または部分または事象に分割することができる。例えば、反応の同調性は、刺激またはプレゼンテーションの間の事象の一部に対する、複数の視聴者メンバーまたは集団標本による、生物学に基づく反応の変化率の関数として決定することができる。
本発明によれば、データプロセッサ16に対する入力は、対象の数をN、生物学的反応が記録される時点の数をMとしたN×Mのデータ行列となることができる。データプロセッサ16は、生物学的反応データのN×M行列を受信し、行列値(matrix value)全体の分散の逆数を計算し、測定された各生物学的反応および各時間枠に対する1つ以上の標準化スコアを決定する、同調性処理モジュールを含むことができる。出力は、W秒幅の時間帯における、対象全体の反応の同調性の総整数スコアとなる(これは刺激に基づく可変パラメータである)。本発明によれば、所与の反応の同調性は、試験視聴者内の各参加者に対する、曝露時間にわたる所与の時間帯または時間枠における反応の変化率を評価することにより決定される。
同調性スコアは、以下のステップに従って計算することができる。ステップ1:各入力チャネルのノイズ低減処理の後に、枠サイズよりも小さい時間増分で前方に移動する可変幅のスライド枠を生成する。ステップ2:各枠において、各参加者に対して、1つ以上の反応終了点の1次導関数を演算する。ステップ3:すべての参加者にわたり、各枠における変化率の平均(μ)および標準偏差(σ)を計算する。ステップ4:上記からスコア=−In|σ−μ|を演算する。ステップ5:すべての数字が0から100の間になるように、得られたスコアを換算する。ステップ7:スライドスコアをメディア刺激にタイムロックされた可変長の連続枠に平均化することにより、強度スコア枠に相応する枠毎のスコアを演算する。このようにして生成されたスコアが、単位時間当たり、または時間枠当たりの同調性スコアである。
(関与スコア)
強度および同調性のスコアを互いに加算して、単位時間当たり、または時間枠当たりの経時的な関与スコアを演算することができる。試験プレゼンテーションおよび試験視聴者の性質に基づいて、強度および同調性のスコアのうちの1つは、他方と関連して加重され得る。例えば、ある試験においては、最も極端な反応を識別することが好ましい場合があり、そのため、強度がより重く加重される。あるいは、異なる関数を使用して異なる形態の関与スコアを決定することができる。例えば、強度に同調性を乗ずることにより、より読みやすく、ある状況、例えば何時間もの裁判の宣誓証言を評価する場合等において使用可能な誇張されたグラフが生成され、最も極端な関与の実施例を識別することに有用となり得る。
図4Aおよび4Bは、本発明に従って決定された関与の程度の2つの実施例を示す。図は、20人の男性の標本集団視聴者から生成された。図4Aは、30秒のコマーシャルに対する関与の程度またはパターンを示し、その期間は6個の5秒の時間枠に分割され、40から100の関与値が各時間枠に対して決定される。図4Aにおける図が示すように、関与のパターンは、時間とともに増加する。図4Bは、60秒のコマーシャルに対する関与の程度またはパターンを示し、その期間は12個の5秒の時間枠に分割され、40から100の関与値が各時間枠に対して決定される。図4Aのコマーシャルでは、図4Bのコマーシャルと比較して、チャンネルを変えない視聴者の数が3倍であった。
(予測モデリング)
システムは、人口統計/サイコグラフィックのプロファイル、および、試験コンテンツと関連した他のデータと組み合わされた場合の、より小さい集団におけるそのコンテンツの相対的成功の予測を可能とする、様々な歴史的メディアまたは他の関連した刺激もしくは体験に対する視聴者の関与のデータベースをさらに含むことができる。視聴者を試験した後に、上述の方法からの様々な形態の出力を使用して、感覚的刺激の目的達成の成功の可能性を推定することができる。予測モデル作成のための統計分析は、製品もしくはコンテンツ自体に関連する変数、製品もしくはコンテンツの販売価格または生産費、購入場所もしくは体験媒体、販売促進費、および/または視聴者の特性を含むことができるが、それらに限定されない。例えば、テレビ産業に対するモデルに含まれる因子には、a)時間枠当たりの視聴者数、b)番組の導入部分の視聴率、c)後に続く番組の視聴率、d)番組の種類に対する平均視聴率、e)主演男優/女優の人気度、f)時期、g)広告収入、h)その番組に対する販売促進予算、および/またはi)ネットワークの人気が含まれ得るが、これらに限定されない。他の因子には、標的視聴者の特性、例えば、a)番組に対する報告された好み、b)サイコグラフィックの特性(例えば、内向型対外向型等)、c)人口統計的特性、および/または、d)番組の要素を思い出すもしくは認識する能力、が含まれ得るが、これらに限定されない。成功の指標には、類似した特性の集団が試験的映画館の外でどの程度テレビ番組を見るか、ならびに/または類似した特性の集団が広告されている製品をどの程度覚えているか、および/もしくはどの程度購入するかが含まれ得るが、これらに限定されない。好ましくは、試験される人々が多いほど(標本集団が大きいほど)、集団はより良く特徴付けられ、そのモデルがより大きな集団の反応の正確な予測手段となる可能性が大きくなる。好ましい予測手段モデルには、a)混合メディアモデル、b)古典的な多変量解析、c)階層線形モデル、d)機械学習、e)回帰分析、f)ベイズ収縮推定量、ならびに/またはg)クラスタおよび因子分析、といった統計モデルのいずれもが含まれ得るが、これらに限定されない。
図2Aは、本発明によるシステムの第2の実施形態の説明図200を示す。この実施形態において、メディア刺激は、ケーブルTV信号等の商用のビデオ信号22を介して提示され、STB22Aにつながる。一方、STB22Aは、TVモニタ、コンピュータ、ステレオ等のメディアデバイス24に番組が表示されることを可能にする。このシステムにおいて、ブレスレット32等の目立たないフォームファクターの無線生物学的センサパッケージを装着した、視聴距離にある参加者30は、メディアデバイスと相互作用する。その人物が基本的な視聴距離にある限り、別個のユニットであってもSTB22に内蔵されていてもよいセンサ受信器26は、その参加者に関する情報を受信する。システム200は、その参加者の一意の識別子とともに、生物学的反応に日時記録することができる。このデータは、参加者によって現在再生されている番組に対して日時記録され得る。この情報は、インターネット接続、ポケベル、または携帯電話ネットワーク等の伝送ネットワーク28を介して中央データベース216に返送され得る。データは、人口統計、家庭、家族、コミュニティ、場所、および、潜在的にエンドユーザと関連する他のいかなる種類の情報とも組み合わせることができ、関与の経時的パターンを計算するために本願に記載のスコア化アルゴリズムを使用したソフトウェアで処理することができ、また、同じまたは類似のメディア試験刺激36に対する他の視聴者の反応のデータベースと比較し、上述の関与スコアおよび/または予測モデルを使用して処理し、ユーザインタフェース(11)に送達して配布用の報告を作成することができる。
図2Bは、本発明の家庭内での実施形態の使用を改善するための、家庭内コンプライアンスアルゴリズムのフロー図210を示す。本システムを設定することができる家庭において、コンプライアンスは、使用中のメディアデバイス上の番組を変更する能力を制御することによって対処される。STB22Aは、センサデバイスが装着されておらず、または起動されていない場合には(部分的にまたは完全に)機能しないようにプログラムされ得る。センサが装着されているか、または充電中である場合、STBは作動するようにプログラムされ得る。しかしながら、センサが装着されておらず、完全に充電されていない場合、STBは、完全にまたは部分的に反応しないようにプログラムされ得る。部分的機能モードでは、例えば一般的なアクセスおよび緊急用の局等のある特定の局のみが利用可能となることができる。動作のフローチャート210は、1つまたは複数のセンサから信号を得ているかどうかを確認する(42)ためにチェックする(44)受信器26を含むが、これはセンサが起動され装着されている場合にのみ可能である。受信器が信号を得ている場合、再開前に一定時間待機する(46)。信号を受信していない場合は、システムは、取り付けられた受け台内でセンサデバイスが充電中かどうかをチェックする(48)。充電中でありバッテリーがフルではない場合、再チェックの前に、さらに一定間隔待機する(50)。しかしながら、センサが起動されていないか、充電されていないか、または完全に充電されていないか、および使用されていない場合は、STBは、次のチェックで変化が示されるまで休止状態となることができる(52)。
図2Cは、家庭内システムの一側面、すなわち、所与の家族において誰が実際に見ているかを識別する能力を示す。センサと受信器との接続に関与する無線技術が、一意の識別子を送信する。この識別子は、生物測定データのソースを識別して現在のメディア刺激にリンクさせるために送信されたデータに関連する。センサを装着しているが受信器から所定の無線範囲内にいない者は全て、その範囲の外にいる間はその情報が追跡されることはない。システムは、無線信号が受信されない場合、ある期間待機する(68)。しかしながら、他の受信器(およびSTB26)の範囲内にあり(62)、信号が受信される場合(62)、そのシステムにより情報を追跡することができる。フローチャート220は、センサデバイスを受信器またはSTB22Aに接続するために使用される無線技術26(例えば、ブルートゥース)を含む。受信器(図示せず)とSTB22Aとの間で接続を確立して(66)データを伝送するために、また上述のコンプライアンスを決定するために必要なデータを伝送するために、無線通信を使用することができる。参加者が識別されたら、その参加者に関する情報が収集され、データベース(DB)に送信され(70)、配布用の報告を作成するために上記のように処理される(74)。
図3は、本発明によるシステム300の第3の実施形態の説明図を示す。この実施形態において、感覚的刺激は生の人物310であってもよく、本発明のシステムおよび方法は、生のフォーカスグループの対話、公判前もしくは模擬裁判中の陪審へのプレゼンテーション、面接官と面接者の対話、教師と1人もしくはグループの生徒の対話、患者と医師の対話、デートでの対話、または他のいくつかの社会的相互作用を含むが、これらに限定されない社会的相互作用に適用することができる。社会的相互作用は、生物学的監視システム312Aを使用して互いにタイムロックされた、それぞれの個々の参加者312の生物学に基づく反応に関して監視され得る。任意選択のオーディオ−ビデオカメラまたは他の監視デバイスを視聴者314にフォーカスして、顔面の反応および/または凝視期間および場所の視標追跡を監視することができる。データソースは、互いにタイムロックされてコンピュータデータ処理デバイス316に送信され得る。データ処理デバイス316は、経時的な関与のパターンを計算するためのスコア化アルゴリズムを含み、それを同じまたは類似したメディア試験刺激に対する他の視聴者の反応のデータベースと比較し、結果をユーザインタフェース318に送達するソフトウェアを実行することができる。結果は、上述の予測手段モデルで処理され、解釈され、配布のために報告320内に収集され得る。
アルゴリズムは、単独で提示されても、または関連産業のモデルに埋め込まれてもよい。パイロットテレビ番組試験を例にとると、モデルは以下のような因子を含むことができる。
1.時間枠当たりの典型的な視聴者
2.番組の導入部分の視聴率
3.後に続く番組の視聴率
4.ジャンル毎の平均視聴率
5.俳優の人気−Qレーティング(QRating)
6.その時間枠での競合する番組の視聴率
7.時期
8.その番組に対する販売促進予算
9.ネットワークの人口統計
広告からの実施例はこれらの変数のすべてを含むことができるが、さらに以下を追加してもよい。
1.フライティング/反復
2.セグメント長
3.標的視聴者
4.含有する番組の人口統計
他の実施形態も、本発明の精神および範囲内である。例えば、スコア化アルゴリズムの性質に起因して、上述の機能は、ソフトウェア、ハードウェア、ファームウェア、配線、またはそれらのいずれの組合せをも使用して実装および/または自動化され得る。機能の一部が異なる物理的な場所で実装されるように分散されている等、機能を実装する特徴もまた物理的に様々な場所に位置することができる。
さらに、上述の説明は本発明に言及しているが、説明は複数の発明を含み得る。

Claims (20)

  1. 感覚的刺激を提供するプレゼンテーションに対する視聴者の関与の程度を決定する方法であって、該方法は、
    該視聴者をある期間にわたり該プレゼンテーションに曝すことであって、該期間は2つ以上の時間枠に分割される、ことと、
    複数のセンサを提供することであって、該複数のセンサは、視聴者の各メンバーに対し、該プレゼンテーションに対する複数の生物学に基づく反応を測定することと、
    該プレゼンテーションに関連するデータおよび該複数のセンサからのデータを受信するように構成されるコンピュータ処理システムを提供することと、
    各時間枠に対し、該コンピュータ処理システムを用いて少なくとも1つの強度値を決定することであって、該少なくとも1つの強度値は、測定された生物学に基づく反応のうちの少なくとも1つの関数である、ことと、
    各時間枠に対し、該コンピュータ処理システムを用いて少なくとも1つの同調性値を決定することであって、該少なくとも1つの同調性値は、測定された生物学に基づく反応のうちの少なくとも1つの変化率の関数であり、該同調性値は、該少なくとも1つの測定された生物学に基づく反応に対し、同じまたは類似の生物学に基づく反応を有する視聴者のメンバーの数を表す、ことと、
    各時間枠に対し、該コンピュータ処理システムを用いて少なくとも1つの関与値を決定することであって、該少なくとも1つの関与値は、該強度値のうちの少なくとも1つおよび少なくとも1つの同調性値の関数である、ことと
    該少なくとも1つの関与値を、成功の少なくとも1つの指標を決定するために、格納された関与値を含むデータベースと比較することと
    を含む、方法。
  2. 前記比較するステップは、該比較に基づいて、前記プレゼンテーションが第2のプレゼンテーションに類似していることを示すこと含む、請求項に記載の方法。
  3. 前記生物学に基づく反応は、心拍数、皮膚コンダクタンス、呼吸速度、呼吸状態、動作、および視標追跡を含む反応の群から選択される、請求項1に記載の方法。
  4. 前記少なくとも1つの強度値を決定することは、前記生物学に基づく反応のうちの少なくとも1つについてのピーク値、トラフ値、中央値、平均値、および変化率値のうちの少なくとも1つの関数として、標準化スコアを決定することを含む、請求項1に記載の方法。
  5. 前記少なくとも1つの同調性値を決定することは、前記視聴者の少なくとも一部に対する前記生物学に基づく反応のうちの少なくとも1つについての変化率値の分散を決定することを含む、請求項1に記載の方法。
  6. 感覚的刺激を提供するプレゼンテーションに対する視聴者の関与の程度を決定するコンピュータ化システムであって、該システムは、
    ある期間にわたり該プレゼンテーションに対する生物学に基づく反応を測定するようにそれぞれ構成される複数のセンサであって、該期間は2つ以上の時間枠に分割される、複数のセンサと、
    記録モジュールと複数の処理モジュールと比較モジュールとを備えるコンピュータ処理システムと
    を備え、
    該記録モジュールは、該プレゼンテーションに関連するデータと、該プレゼンテーションに対する少なくとも1つの生物学に基づく反応の程度を提供する該複数のセンサからのデータとを受信および格納するように構成されており、
    該複数の処理モジュールは、
    各時間枠に対し、少なくとも1つの強度値を、測定された生物学に基づく反応のうちの少なくとも1つの関数として決定することと、
    各時間枠に対し、少なくとも1つの同調性値を、該測定された生物学に基づく反応のうちの少なくとも1つの関数として決定することであって、該同調性値は、該少なくとも1つの測定された生物学に基づく反応に対し、同じまたは類似の生物学に基づく反応を有する視聴者のメンバーの数を表す、ことと、
    各時間枠に対し、少なくとも1つの関与値を、該少なくとも1つの強度値および該少なくとも1つの同調性値の関数として決定することと
    を実行するように構成されており、
    該比較モジュールは、該少なくとも1つの関与値を、類似性を決定するために、データベースに格納された関与値と比較するように構成されている、システム。
  7. 前記コンピュータ処理システムは、
    前記少なくとも1つの関与値と前記データベースに格納された関与値との比較に基づいて、前記プレゼンテーションが少なくとも1つの他のプレゼンテーションに類似していることを示すように構成されるインジケータをさらに含む、請求項6に記載のシステム。
  8. 前記生物学に基づく反応は、心拍数、皮膚コンダクタンス、呼吸速度、呼吸状態、動作、および視標追跡を含む反応の群から選択される、請求項6に記載のシステム。
  9. 前記強度値は、標準化スコアの関数であり、該標準化スコアは、前記生物学に基づく反応のうちの少なくとも1つについてのピーク値、トラフ値、中央値、平均値、および変化率のうちの少なくとも1つの関数として決定される、請求項6に記載のシステム。
  10. 前記同調性値は、前記視聴者の少なくとも一部に対する前記生物学に基づく反応のうちの少なくとも1つについての変化率値の分散の関数である、請求項6に記載のシステム。
  11. 前記少なくとも1つの同調性値を決定するステップは、第1の同調性を、第1の測定された生物学に基づく反応の関数として決定し、第2の同調性を、第2の測定された生物学に基づく反応の関数として決定することを含む、請求項1に記載の方法。
  12. 前記少なくとも1つの強度値を決定するステップは、第1の強度値を、第1の測定された生物学に基づく反応の関数として決定し、第2の強度値を、第2の測定された生物学に基づく反応の関数として決定することを含む、請求項1に記載の方法。
  13. 前記第1の測定された生物学に基づく反応は、心拍数を含み、前記第2の測定された生物学に基づく反応は、皮膚コンダクタンスを含む、請求項11または12に記載の方法。
  14. 前記複数の生物学に基づく反応は、心拍数、心拍数変動、皮膚コンダクタンス、迷走神経緊張、呼吸、体の動作、顔面筋の動き、表情、視標追跡、体温、体の近辺の温度、顔面のサーモグラフィ画像、体のサーモグラフィ画像、顔面EMG、EEGおよびfMRIからなる群から選択される、請求項1に記載の方法。
  15. 前記複数の処理モジュールは、各時間枠に対し、少なくとも2つの測定された生物学に基づく反応に対して少なくとも2つの同調性値を決定することが可能である、請求項6に記載のシステム。
  16. 前記複数の処理モジュールは、各時間枠に対し、少なくとも2つの測定された生物学に基づく反応に対して少なくとも2つの強度値を決定することが可能である、請求項6に記載のシステム。
  17. 前記少なくとも2つの生物学に基づく反応は、心拍数、心拍数変動、皮膚コンダクタンス、迷走神経緊張、呼吸、体の動作、顔面筋の動き、表情、視標追跡、体温、体の近辺の温度、顔面のサーモグラフィ画像、体のサーモグラフィ画像、顔面EMG、EEGおよびfMRIからなる群から選択される、請求項15または16に記載のシステム。
  18. 前記少なくとも2つの測定された生物学に基づく反応は、心拍数および皮膚コンダクタンスである、請求項15または16に記載のシステム。
  19. 前記生物学に基づく反応は、心拍数、皮膚コンダクタンス、呼吸速度、呼吸状態、動作、およびこれらの組み合わせからなる群より選択される、請求項1に記載の方法。
  20. 前記生物学に基づく反応は、心拍数、皮膚コンダクタンス、呼吸速度、呼吸状態、動作、およびこれらの組み合わせからなる群より選択される、請求項6に記載のシステム。
JP2009527401A 2006-09-05 2007-09-05 感覚的刺激への視聴者反応を決定する方法およびシステム Active JP5194015B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US82454606P 2006-09-05 2006-09-05
US60/824,546 2006-09-05
PCT/US2007/019398 WO2008030493A2 (en) 2006-09-05 2007-09-05 Method and system for determining audience response to a sensory stimulus

Publications (2)

Publication Number Publication Date
JP2010503109A JP2010503109A (ja) 2010-01-28
JP5194015B2 true JP5194015B2 (ja) 2013-05-08

Family

ID=39157826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009527401A Active JP5194015B2 (ja) 2006-09-05 2007-09-05 感覚的刺激への視聴者反応を決定する方法およびシステム

Country Status (6)

Country Link
US (2) US8296172B2 (ja)
EP (1) EP2063767A4 (ja)
JP (1) JP5194015B2 (ja)
AU (1) AU2007293092A1 (ja)
CA (1) CA2662632C (ja)
WO (1) WO2008030493A2 (ja)

Families Citing this family (260)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080320509A1 (en) * 2001-01-16 2008-12-25 Gustafson Joseph E Quantitative Assessment of Marketing Strategies
US20060257834A1 (en) * 2005-05-10 2006-11-16 Lee Linda M Quantitative EEG as an identifier of learning modality
JP5065275B2 (ja) 2005-09-02 2012-10-31 エムセンス コーポレイション 組織内の電気的活動を検知する装置及び方法
US20070288476A1 (en) * 2005-12-20 2007-12-13 Flanagan Eugene L Iii Methods and systems for conducting research operations
US20100004977A1 (en) * 2006-09-05 2010-01-07 Innerscope Research Llc Method and System For Measuring User Experience For Interactive Activities
AU2007293092A1 (en) 2006-09-05 2008-03-13 Innerscope Research, Inc. Method and system for determining audience response to a sensory stimulus
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US8230457B2 (en) * 2007-03-07 2012-07-24 The Nielsen Company (Us), Llc. Method and system for using coherence of biological responses as a measure of performance of a media
US9215996B2 (en) * 2007-03-02 2015-12-22 The Nielsen Company (Us), Llc Apparatus and method for objectively determining human response to media
US20090070798A1 (en) * 2007-03-02 2009-03-12 Lee Hans C System and Method for Detecting Viewer Attention to Media Delivery Devices
US20090253996A1 (en) * 2007-03-02 2009-10-08 Lee Michael J Integrated Sensor Headset
US20080221969A1 (en) * 2007-03-07 2008-09-11 Emsense Corporation Method And System For Measuring And Ranking A "Thought" Response To Audiovisual Or Interactive Media, Products Or Activities Using Physiological Signals
US8473044B2 (en) * 2007-03-07 2013-06-25 The Nielsen Company (Us), Llc Method and system for measuring and ranking a positive or negative response to audiovisual or interactive media, products or activities using physiological signals
US8782681B2 (en) * 2007-03-08 2014-07-15 The Nielsen Company (Us), Llc Method and system for rating media and events in media based on physiological data
US8764652B2 (en) 2007-03-08 2014-07-01 The Nielson Company (US), LLC. Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals
US20090024049A1 (en) 2007-03-29 2009-01-22 Neurofocus, Inc. Cross-modality synthesis of central nervous system, autonomic nervous system, and effector data
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
WO2008137581A1 (en) 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-feedback based stimulus compression device
US8386312B2 (en) 2007-05-01 2013-02-26 The Nielsen Company (Us), Llc Neuro-informatics repository system
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
WO2008144569A1 (en) * 2007-05-16 2008-11-27 Neurofocus, Inc. Habituation analysis using central nervous system, autonomic nervous system and effector system measurements
US8494905B2 (en) 2007-06-06 2013-07-23 The Nielsen Company (Us), Llc Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI)
US20090025023A1 (en) * 2007-06-06 2009-01-22 Neurofocus Inc. Multi-market program and commercial response monitoring system using neuro-response measurements
US8996409B2 (en) 2007-06-06 2015-03-31 Sony Computer Entertainment Inc. Management of online trading services using mediated communications
US20090006608A1 (en) * 2007-06-28 2009-01-01 Microsoft Corporation Dynamically enhancing meeting participation through compilation of data
EP2170161B1 (en) 2007-07-30 2018-12-05 The Nielsen Company (US), LLC. Neuro-response stimulus and stimulus attribute resonance estimator
JP4506795B2 (ja) 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
US8386313B2 (en) 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
CN101795620B (zh) 2007-08-28 2013-05-01 神经焦点公司 消费者体验评定系统
US8635105B2 (en) 2007-08-28 2014-01-21 The Nielsen Company (Us), Llc Consumer experience portrayal effectiveness assessment system
US20090060256A1 (en) * 2007-08-29 2009-03-05 White Timothy J Method of advertisement space management for digital cinema system
US8392255B2 (en) 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US8376952B2 (en) * 2007-09-07 2013-02-19 The Nielsen Company (Us), Llc. Method and apparatus for sensing blood oxygen
US8494610B2 (en) 2007-09-20 2013-07-23 The Nielsen Company (Us), Llc Analysis of marketing and entertainment effectiveness using magnetoencephalography
US20090083129A1 (en) 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
US9191450B2 (en) * 2007-09-20 2015-11-17 Disney Enterprises, Inc. Measuring user engagement during presentation of media content
US8327395B2 (en) * 2007-10-02 2012-12-04 The Nielsen Company (Us), Llc System providing actionable insights based on physiological responses from viewers of media
US9582805B2 (en) * 2007-10-24 2017-02-28 Invention Science Fund I, Llc Returning a personalized advertisement
US9513699B2 (en) 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US20090133047A1 (en) * 2007-10-31 2009-05-21 Lee Hans C Systems and Methods Providing Distributed Collection and Centralized Processing of Physiological Responses from Viewers
US20090150919A1 (en) * 2007-11-30 2009-06-11 Lee Michael J Correlating Media Instance Information With Physiological Responses From Participating Subjects
JP2009134670A (ja) * 2007-12-03 2009-06-18 Sony Corp 情報処理端末、情報処理方法、およびプログラム
US8347326B2 (en) 2007-12-18 2013-01-01 The Nielsen Company (US) Identifying key media events and modeling causal relationships between key events and reported feelings
US20090299840A1 (en) * 2008-05-22 2009-12-03 Scott Smith Methods And Systems For Creating Variable Response Advertisements With Variable Rewards
US8290604B2 (en) * 2008-08-19 2012-10-16 Sony Computer Entertainment America Llc Audience-condition based media selection
US20100070987A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Mining viewer responses to multimedia content
US8925001B2 (en) 2008-09-12 2014-12-30 At&T Intellectual Property I, L.P. Media stream generation based on a category of user expression
US20100070858A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Interactive Media System and Method Using Context-Based Avatar Configuration
EP2344961A4 (en) * 2008-09-29 2012-07-25 Ingenix Inc APPARATUS, SYSTEM AND METHOD FOR PREDICTING ATTITUDE SEGMENTS
US20100145215A1 (en) * 2008-12-09 2010-06-10 Neurofocus, Inc. Brain pattern analyzer using neuro-response data
US8487772B1 (en) 2008-12-14 2013-07-16 Brian William Higgins System and method for communicating information
US9357240B2 (en) 2009-01-21 2016-05-31 The Nielsen Company (Us), Llc Methods and apparatus for providing alternate media for video decoders
US8270814B2 (en) 2009-01-21 2012-09-18 The Nielsen Company (Us), Llc Methods and apparatus for providing video with embedded media
US8464288B2 (en) * 2009-01-21 2013-06-11 The Nielsen Company (Us), Llc Methods and apparatus for providing personalized media in video
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
EP2222002A3 (en) * 2009-02-24 2011-09-14 Irdeto Access B.V. Viewer presence detection
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
EP2414966A1 (en) * 2009-04-02 2012-02-08 Koninklijke Philips Electronics N.V. Method and system for selecting items using physiological parameters
US8826317B2 (en) * 2009-04-17 2014-09-02 The Nielson Company (Us), Llc System and method for determining broadcast dimensionality
US8959540B1 (en) * 2009-05-27 2015-02-17 Google Inc. Predicting engagement in video content
US20100332842A1 (en) * 2009-06-30 2010-12-30 Yahoo! Inc. Determining a mood of a user based on biometric characteristic(s) of the user in an online system
US20110046502A1 (en) * 2009-08-20 2011-02-24 Neurofocus, Inc. Distributed neuro-response data collection and analysis
US20110046473A1 (en) * 2009-08-20 2011-02-24 Neurofocus, Inc. Eeg triggered fmri signal acquisition
US8655437B2 (en) 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
US10987015B2 (en) 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US20110106750A1 (en) 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US8209224B2 (en) 2009-10-29 2012-06-26 The Nielsen Company (Us), Llc Intracluster content management using neuro-response priming data
US8335716B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Multimedia advertisement exchange
US8335715B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Advertisement exchange using neuro-response data
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US20110237971A1 (en) * 2010-03-25 2011-09-29 Neurofocus, Inc. Discrete choice modeling using neuro-response data
US8684742B2 (en) * 2010-04-19 2014-04-01 Innerscope Research, Inc. Short imagery task (SIT) research method
US8655428B2 (en) 2010-05-12 2014-02-18 The Nielsen Company (Us), Llc Neuro-response data synchronization
US8700009B2 (en) 2010-06-02 2014-04-15 Q-Tec Systems Llc Method and apparatus for monitoring emotion in an interactive network
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US12076149B2 (en) 2010-06-07 2024-09-03 Affectiva, Inc. Vehicle manipulation with convolutional image processing
US10401860B2 (en) 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US20170238859A1 (en) * 2010-06-07 2017-08-24 Affectiva, Inc. Mental state data tagging and mood analysis for data collected from multiple sources
US20130218663A1 (en) * 2010-06-07 2013-08-22 Affectiva, Inc. Affect based political advertisement analysis
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US11232290B2 (en) 2010-06-07 2022-01-25 Affectiva, Inc. Image analysis using sub-sectional component evaluation to augment classifier usage
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US9959549B2 (en) 2010-06-07 2018-05-01 Affectiva, Inc. Mental state analysis for norm generation
US11700420B2 (en) * 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US10111611B2 (en) 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
US9204836B2 (en) 2010-06-07 2015-12-08 Affectiva, Inc. Sporadic collection of mobile affect data
US20190034706A1 (en) * 2010-06-07 2019-01-31 Affectiva, Inc. Facial tracking with classifiers for query evaluation
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US20130102854A1 (en) * 2010-06-07 2013-04-25 Affectiva, Inc. Mental state evaluation learning for advertising
US10482333B1 (en) 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US10143414B2 (en) 2010-06-07 2018-12-04 Affectiva, Inc. Sporadic collection with mobile affect data
US10517521B2 (en) 2010-06-07 2019-12-31 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
US10074024B2 (en) 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
US9247903B2 (en) 2010-06-07 2016-02-02 Affectiva, Inc. Using affect within a gaming context
BR112012030903A2 (pt) * 2010-06-07 2019-09-24 Affectiva Inc método imnplantado por computador para analisar estados mentais, produto de programa de computador e sistema para analisar estados mentais
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US11430561B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Remote computing analysis for cognitive state data metrics
US20130052621A1 (en) * 2010-06-07 2013-02-28 Affectiva, Inc. Mental state analysis of voters
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US10911829B2 (en) 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US20160191995A1 (en) * 2011-09-30 2016-06-30 Affectiva, Inc. Image analysis for attendance query evaluation
US20130245396A1 (en) * 2010-06-07 2013-09-19 Affectiva, Inc. Mental state analysis using wearable-camera devices
US10108852B2 (en) 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US9503786B2 (en) 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US9646046B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state data tagging for data collected from multiple sources
US10799168B2 (en) 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US10289898B2 (en) 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US20130262182A1 (en) * 2012-03-31 2013-10-03 Affectiva, Inc. Predicting purchase intent based on affect
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US20130238394A1 (en) * 2010-06-07 2013-09-12 Affectiva, Inc. Sales projections based on mental states
US9723992B2 (en) * 2010-06-07 2017-08-08 Affectiva, Inc. Mental state analysis using blink rate
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US20140058828A1 (en) * 2010-06-07 2014-02-27 Affectiva, Inc. Optimizing media based on mental state analysis
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US10592757B2 (en) 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US8392250B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Neuro-response evaluated stimulus in virtual reality environments
US8392251B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Location aware presentation of stimulus material
US20120042263A1 (en) 2010-08-10 2012-02-16 Seymour Rapaport Social-topical adaptive networking (stan) system allowing for cooperative inter-coupling with external social networking systems and other content sources
US8453176B2 (en) 2010-08-20 2013-05-28 Avaya Inc. OCAP/STB ACAP/satellite-receiver audience response/consumer application
US8396744B2 (en) 2010-08-25 2013-03-12 The Nielsen Company (Us), Llc Effective virtual reality environments for presentation of marketing materials
AU2011308650A1 (en) * 2010-09-30 2013-03-21 Affectiva, Inc. Measuring affective data for web-enabled applications
US20120108995A1 (en) * 2010-10-27 2012-05-03 Neurofocus, Inc. Neuro-response post-purchase assessment
US9077462B2 (en) * 2010-12-21 2015-07-07 Cox Communications, Inc. Systems and methods for measuring audience participation over a distribution network
EP2678820A4 (en) 2011-02-27 2014-12-03 Affectiva Inc VIDEO RECOMMENDATION BASED ON AN AFFECT
US8918802B2 (en) 2011-02-28 2014-12-23 The Nielsen Company (Us), Llc Methods and apparatus to monitor media exposure
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8965822B2 (en) * 2011-05-11 2015-02-24 Ari M. Frank Discovering and classifying situations that influence affective response
US8676937B2 (en) 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
JP5783629B2 (ja) * 2011-07-08 2015-09-24 株式会社ドワンゴ 映像表示システム、映像表示方法、映像表示制御プログラム、動作情報送信プログラム
US9015084B2 (en) 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
US20130138493A1 (en) * 2011-11-30 2013-05-30 General Electric Company Episodic approaches for interactive advertising
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
JP2015505087A (ja) 2011-12-07 2015-02-16 アフェクティヴァ, インコーポレイテッドAffectiva, Inc. 広告効果の感情に基づく評価
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US9311825B2 (en) 2011-12-22 2016-04-12 Senstream, Inc. Biometric sensing and processing apparatus for mobile gaming, education, and wellness applications
US9339691B2 (en) 2012-01-05 2016-05-17 Icon Health & Fitness, Inc. System and method for controlling an exercise device
US9292858B2 (en) * 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US9569986B2 (en) 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
JP2015511744A (ja) * 2012-03-02 2015-04-20 カーネギー メロン ユニバーシティ 神経科学を用いて消費者選好を予測するための方法およびシステム
US20140303450A1 (en) * 2013-04-03 2014-10-09 Dylan Caponi System and method for stimulus optimization through closed loop iterative biological sensor feedback
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US10034049B1 (en) 2012-07-18 2018-07-24 Google Llc Audience attendance monitoring through facial recognition
US20140026156A1 (en) 2012-07-18 2014-01-23 David Deephanphongs Determining User Interest Through Detected Physical Indicia
US8989835B2 (en) 2012-08-17 2015-03-24 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9292951B2 (en) * 2012-08-22 2016-03-22 Cable Television Laboratories, Inc. Service coverage identification using augmented reality
US10453355B2 (en) 2012-09-28 2019-10-22 Nokia Technologies Oy Method and apparatus for determining the attentional focus of individuals within a group
US20140095109A1 (en) * 2012-09-28 2014-04-03 Nokia Corporation Method and apparatus for determining the emotional response of individuals within a group
US9104467B2 (en) 2012-10-14 2015-08-11 Ari M Frank Utilizing eye tracking to reduce power consumption involved in measuring affective response
US9477993B2 (en) 2012-10-14 2016-10-25 Ari M Frank Training a predictor of emotional response based on explicit voting on content and eye tracking to verify attention
US20140149177A1 (en) * 2012-11-23 2014-05-29 Ari M. Frank Responding to uncertainty of a user regarding an experience by presenting a prior experience
US9105178B2 (en) 2012-12-03 2015-08-11 Sony Computer Entertainment Inc. Remote dynamic configuration of telemetry reporting through regular expressions
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9721010B2 (en) * 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US9000927B2 (en) * 2013-02-25 2015-04-07 Sony Corporation System and method for monitoring biometric data
US9500865B2 (en) 2013-03-04 2016-11-22 Alex C. Chen Method and apparatus for recognizing behavior and providing information
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US9254409B2 (en) 2013-03-14 2016-02-09 Icon Health & Fitness, Inc. Strength training apparatus with flywheel and related methods
US9443144B2 (en) 2013-03-15 2016-09-13 Disney Enterprises, Inc. Methods and systems for measuring group behavior
US20140278745A1 (en) * 2013-03-15 2014-09-18 Toshiba Global Commerce Solutions Holdings Corporation Systems and methods for providing retail process analytics information based on physiological indicator data
US9361705B2 (en) 2013-03-15 2016-06-07 Disney Enterprises, Inc. Methods and systems for measuring group behavior
US9015737B2 (en) 2013-04-18 2015-04-21 Microsoft Technology Licensing, Llc Linked advertisements
US9519914B2 (en) * 2013-04-30 2016-12-13 The Nielsen Company (Us), Llc Methods and apparatus to determine ratings information for online media presentations
US20140331242A1 (en) * 2013-05-01 2014-11-06 Microsoft Corporation Management of user media impressions
US20140378781A1 (en) * 2013-06-25 2014-12-25 Qardio, Inc. Methods and systems for acquiring diagnostic information
US9788777B1 (en) 2013-08-12 2017-10-17 The Neilsen Company (US), LLC Methods and apparatus to identify a mood of media
KR101535432B1 (ko) * 2013-09-13 2015-07-13 엔에이치엔엔터테인먼트 주식회사 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법
US9584859B2 (en) * 2013-11-05 2017-02-28 Lee S. Weinblatt Testing effectiveness of TV commercials to account for second screen distractions
US10134226B2 (en) 2013-11-07 2018-11-20 Igt Canada Solutions Ulc Methods and apparatus for controlling casino game machines
US9403047B2 (en) 2013-12-26 2016-08-02 Icon Health & Fitness, Inc. Magnetic resistance mechanism in a cable machine
US20150199480A1 (en) * 2014-01-15 2015-07-16 Microsoft Corporation Controlling health screening via entertainment experiences
US9280784B2 (en) 2014-01-23 2016-03-08 SBB Research Group LLC Method for measuring engagement
US10433612B2 (en) 2014-03-10 2019-10-08 Icon Health & Fitness, Inc. Pressure sensor to quantify work
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
CN106470739B (zh) 2014-06-09 2019-06-21 爱康保健健身有限公司 并入跑步机的缆索系统
WO2015195965A1 (en) 2014-06-20 2015-12-23 Icon Health & Fitness, Inc. Post workout massage device
JP6519157B2 (ja) * 2014-06-23 2019-05-29 カシオ計算機株式会社 情報評価装置、情報評価方法、及びプログラム
US9386272B2 (en) * 2014-06-27 2016-07-05 Intel Corporation Technologies for audiovisual communication using interestingness algorithms
US9805381B2 (en) 2014-08-21 2017-10-31 Affectomatics Ltd. Crowd-based scores for food from measurements of affective response
DE102015113924A1 (de) 2014-08-21 2016-02-25 Affectomatics Ltd. Ranking auf der Grundlage von affektiver Reaktion der Crowd
US11494390B2 (en) 2014-08-21 2022-11-08 Affectomatics Ltd. Crowd-based scores for hotels from measurements of affective response
US11269891B2 (en) 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
US10572679B2 (en) 2015-01-29 2020-02-25 Affectomatics Ltd. Privacy-guided disclosure of crowd-based scores computed based on measurements of affective response
WO2016036338A1 (en) * 2014-09-02 2016-03-10 Echostar Ukraine, L.L.C. Detection of items in a home
FR3027206B1 (fr) * 2014-10-21 2021-06-04 Univ Paris Descartes Procede de test d'un nourrisson et dispositif adapte pour mettre en oeuvre le procede de test
US9792084B2 (en) 2015-01-02 2017-10-17 Gracenote, Inc. Machine-led mood change
US11232466B2 (en) 2015-01-29 2022-01-25 Affectomatics Ltd. Recommendation for experiences based on measurements of affective response that are backed by assurances
US10391361B2 (en) 2015-02-27 2019-08-27 Icon Health & Fitness, Inc. Simulating real-world terrain on an exercise device
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
US10909462B2 (en) 2015-05-21 2021-02-02 Tata Consultancy Services Limited Multi-dimensional sensor data based human behaviour determination system and method
US10293260B1 (en) * 2015-06-05 2019-05-21 Amazon Technologies, Inc. Player audio analysis in online gaming environments
US10191477B2 (en) * 2015-10-30 2019-01-29 Yokogawa Electric Corporation System and method for modification management of a configuration system
US10314510B2 (en) * 2015-12-30 2019-06-11 The Nielsen Company (Us), Llc Determining intensity of a biological response to a presentation
US10560742B2 (en) * 2016-01-28 2020-02-11 Oath Inc. Pointer activity as an indicator of interestingness in video
MY193645A (en) * 2016-02-12 2022-10-21 Mkn At Life Sdn Bhd A system and method for providing viewership measurement of a particular location for digital-out-of-home media networks
US10070812B2 (en) 2016-03-03 2018-09-11 SBB Research Group LLC Method for improved seizure detection
US10625137B2 (en) 2016-03-18 2020-04-21 Icon Health & Fitness, Inc. Coordinated displays in an exercise device
US10493349B2 (en) 2016-03-18 2019-12-03 Icon Health & Fitness, Inc. Display on exercise device
US10272317B2 (en) 2016-03-18 2019-04-30 Icon Health & Fitness, Inc. Lighted pace feature in a treadmill
US10068134B2 (en) 2016-05-03 2018-09-04 Microsoft Technology Licensing, Llc Identification of objects in a scene using gaze tracking techniques
US20170347899A1 (en) * 2016-06-03 2017-12-07 FOURTH FRONTIER TECHNOLOGIES, Pvt. Ltd. Method and system for continuous monitoring of cardiovascular health
KR101815176B1 (ko) 2016-06-03 2018-01-05 주식회사 하이퍼커넥트 중개 방법, 장치 및 시스템
US11707216B2 (en) * 2016-07-21 2023-07-25 Comcast Cable Communications, Llc Recommendations based on biometric feedback from wearable device
US10839712B2 (en) * 2016-09-09 2020-11-17 International Business Machines Corporation Monitoring learning performance using neurofeedback
US10671705B2 (en) 2016-09-28 2020-06-02 Icon Health & Fitness, Inc. Customizing recipe recommendations
US10057746B1 (en) 2016-11-16 2018-08-21 Wideorbit, Inc. Method and system for detecting a user device in an environment associated with a content presentation system presenting content
US10979721B2 (en) * 2016-11-17 2021-04-13 Dolby Laboratories Licensing Corporation Predicting and verifying regions of interest selections
US10097888B2 (en) 2017-02-06 2018-10-09 Cisco Technology, Inc. Determining audience engagement
US20180240157A1 (en) * 2017-02-17 2018-08-23 Wipro Limited System and a method for generating personalized multimedia content for plurality of users
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
US10783443B2 (en) 2017-03-08 2020-09-22 International Business Machines Corporation Real-time analysis of predictive audience feedback during content creation
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US10645455B1 (en) * 2017-07-17 2020-05-05 Pandora Media, Llc Delivering artist messages to listeners based on predicted responses
JP6288748B1 (ja) * 2017-11-30 2018-03-07 ジャパンモード株式会社 評価支援システム及び評価支援装置
EP3688997A4 (en) 2017-09-29 2021-09-08 Warner Bros. Entertainment Inc. PRODUCTION AND CONTROL OF CINEMATIC CONTENT IN RESPONSE TO A USER'S EMOTIONAL STATE
US11869039B1 (en) * 2017-11-13 2024-01-09 Wideorbit Llc Detecting gestures associated with content displayed in a physical environment
KR102073351B1 (ko) * 2017-11-17 2020-02-05 주식회사 하이퍼커넥트 서버 및 그것의 동작 방법
US20190172458A1 (en) 2017-12-01 2019-06-06 Affectiva, Inc. Speech analysis for cross-language mental state identification
US11043230B1 (en) 2018-01-25 2021-06-22 Wideorbit Inc. Targeted content based on user reactions
US10880601B1 (en) * 2018-02-21 2020-12-29 Amazon Technologies, Inc. Dynamically determining audience response to presented content using a video feed
CN108366276B (zh) * 2018-03-16 2020-05-01 中国传媒大学 收视偏好分析方法及系统
GB201809388D0 (en) * 2018-06-07 2018-07-25 Realeyes Oue Computer-Implemented System And Method For Determining Attentiveness of User
US10897647B1 (en) * 2018-07-25 2021-01-19 Imdb.Com, Inc. Ascertaining audience reactions for a media item
EP3941073A4 (en) * 2019-03-11 2022-04-27 Sony Group Corporation INFORMATION PROCESSING DEVICE AND SYSTEM
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
US11107084B2 (en) * 2019-05-03 2021-08-31 Walmart Apollo, Llc Fraud risk scoring tool
US11861312B2 (en) 2019-09-10 2024-01-02 International Business Machines Corporation Content evaluation based on machine learning and engagement metrics
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
EP4367642A4 (en) * 2021-08-10 2024-06-19 Duke University SYSTEMS AND METHODS FOR AUTOMATED SOCIAL SYNCHRONITY MEASUREMENTS
CN116208433B (zh) * 2021-11-30 2024-08-20 富联精密电子(天津)有限公司 虚拟会议室的音频处理方法、装置及存储介质
US11935076B2 (en) * 2022-02-02 2024-03-19 Nogueira Jr Juan Video sentiment measurement
US12069336B2 (en) 2022-10-26 2024-08-20 The Nielsen Company (Us), Llc Methods and apparatus to determine audience engagement

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4870579A (en) 1987-10-01 1989-09-26 Neonics, Inc. System and method of predicting subjective reactions
US5243517A (en) 1988-08-03 1993-09-07 Westinghouse Electric Corp. Method and apparatus for physiological evaluation of short films and entertainment materials
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5436830A (en) 1993-02-01 1995-07-25 Zaltman; Gerald Metaphor elicitation method and apparatus
US5676148A (en) 1995-03-31 1997-10-14 Siemens Medical Systems Inc. Method and system for doppler ultrasound audio dealiasing
US6292688B1 (en) * 1996-02-28 2001-09-18 Advanced Neurotechnologies, Inc. Method and apparatus for analyzing neurological response to emotion-inducing stimuli
US5676138A (en) 1996-03-15 1997-10-14 Zawilinski; Kenneth Michael Emotional response analyzer system with multimedia display
US5842199A (en) 1996-10-18 1998-11-24 Regents Of The University Of Minnesota System, method and article of manufacture for using receiver operating curves to evaluate predictive utility
US20010013009A1 (en) 1997-05-20 2001-08-09 Daniel R. Greening System and method for computer-based marketing
US6099319A (en) 1998-02-24 2000-08-08 Zaltman; Gerald Neuroimaging as a marketing tool
US6315569B1 (en) 1998-02-24 2001-11-13 Gerald Zaltman Metaphor elicitation technique with physiological function monitoring
DE69830163D1 (de) 1998-05-12 2005-06-16 Nielsen Media Res Inc Zuschauerermittlungssystem für digitales fernsehen
US6453241B1 (en) * 1998-12-23 2002-09-17 Rosetta Inpharmatics, Inc. Method and system for analyzing biological response signal data
CN1269547A (zh) * 1999-01-29 2000-10-11 国际商业机器公司 用于连续性表演自适应的感觉反馈
US6358201B1 (en) 1999-03-02 2002-03-19 Doc L. Childre Method and apparatus for facilitating physiological coherence and autonomic balance
US6422999B1 (en) 1999-05-13 2002-07-23 Daniel A. Hill Method of measuring consumer reaction
EP1087618A3 (en) 1999-09-27 2003-12-17 Be Here Corporation Opinion feedback in presentation imagery
US6852875B2 (en) 2000-05-19 2005-02-08 The Nutrasweet Co. Synthesis of N-[N-(3,3-dimethylbutyl)-L-α-aspartyl]-L-phenylalanine 1-methyl ester using oxazolidinone derivatives
US8495679B2 (en) * 2000-06-30 2013-07-23 Thomson Licensing Method and apparatus for delivery of television programs and targeted de-coupled advertising
WO2002013672A2 (en) 2000-08-16 2002-02-21 Nizan Yaniv Applications of the biofeedback technique
US20060129458A1 (en) * 2000-10-12 2006-06-15 Maggio Frank S Method and system for interacting with on-demand video content
GB2379016A (en) * 2001-07-27 2003-02-26 Hewlett Packard Co Portable apparatus monitoring reaction of user to music
US20030063222A1 (en) 2001-10-03 2003-04-03 Sony Corporation System and method for establishing TV setting based on viewer mood
JP4291790B2 (ja) * 2001-11-07 2009-07-08 孝文 寺澤 イベント効果評価方法
BR0315229A (pt) 2002-10-09 2005-08-30 Bodymedia Inc Aparelho para detectar, receber, derivar, e apresentar informação humana fisiológica e de contexto
US20040219184A1 (en) * 2003-03-25 2004-11-04 The Regents Of The University Of California Growth of large patterned arrays of neurons on CCD chips using plasma deposition methods
US20050101250A1 (en) 2003-07-10 2005-05-12 University Of Florida Research Foundation, Inc. Mobile care-giving and intelligent assistance device
JP2005051654A (ja) 2003-07-31 2005-02-24 Sony Corp コンテンツ再生方法、コンテンツ再生装置、コンテンツ記録方法、コンテンツ記録メディア
US7577655B2 (en) 2003-09-16 2009-08-18 Google Inc. Systems and methods for improving the ranking of news articles
US20050071865A1 (en) 2003-09-30 2005-03-31 Martins Fernando C. M. Annotating meta-data with user responses to digital content
US20050071462A1 (en) 2003-09-30 2005-03-31 Ibm Corporation Creating user metric patterns
JP2006006355A (ja) * 2004-06-22 2006-01-12 Sony Corp 生体情報の処理装置および映像音響再生装置
US7756879B2 (en) * 2004-07-23 2010-07-13 Jeffrey Parsons System and method for estimating user ratings from user behavior and providing recommendations
JP2006227994A (ja) * 2005-02-18 2006-08-31 Olympus Corp 画像検索表示装置、画像検索表示方法及びプログラム
US20070038516A1 (en) 2005-08-13 2007-02-15 Jeff Apple Systems, methods, and computer program products for enabling an advertiser to measure user viewing of and response to an advertisement
US7797186B2 (en) 2005-10-18 2010-09-14 Donnelly Andrew Dybus Method and system for gathering and recording real-time market survey and other data from radio listeners and television viewers utilizing telephones including wireless cell phones
US20090030780A1 (en) 2006-01-03 2009-01-29 Ds-Iq, Inc. Measuring effectiveness of marketing campaigns presented on media devices in public places using audience exposure data
WO2007115224A2 (en) 2006-03-30 2007-10-11 Sri International Method and apparatus for annotating media streams
JP2007310454A (ja) 2006-05-16 2007-11-29 Nippon Hoso Kyokai <Nhk> 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム
US7930199B1 (en) 2006-07-21 2011-04-19 Sensory Logic, Inc. Method and report assessing consumer reaction to a stimulus by matching eye position with facial coding
AU2007293092A1 (en) 2006-09-05 2008-03-13 Innerscope Research, Inc. Method and system for determining audience response to a sensory stimulus
US20100004977A1 (en) 2006-09-05 2010-01-07 Innerscope Research Llc Method and System For Measuring User Experience For Interactive Activities
US20080097854A1 (en) * 2006-10-24 2008-04-24 Hello-Hello, Inc. Method for Creating and Analyzing Advertisements
WO2008055078A2 (en) 2006-10-27 2008-05-08 Vivometrics, Inc. Identification of emotional states using physiological responses
US20080147742A1 (en) 2006-12-13 2008-06-19 Chris Allen Method and system for evaluating evaluators
JP4865811B2 (ja) 2006-12-15 2012-02-01 株式会社Vis総研 視聴傾向管理装置、システム及びプログラム
US20080255949A1 (en) 2007-04-13 2008-10-16 Lucid Systems, Inc. Method and System for Measuring Non-Verbal and Pre-Conscious Responses to External Stimuli

Also Published As

Publication number Publication date
WO2008030493A2 (en) 2008-03-13
AU2007293092A1 (en) 2008-03-13
US20130046577A1 (en) 2013-02-21
US8296172B2 (en) 2012-10-23
EP2063767A4 (en) 2014-05-21
EP2063767A2 (en) 2009-06-03
CA2662632C (en) 2016-08-02
JP2010503109A (ja) 2010-01-28
US20080091512A1 (en) 2008-04-17
CA2662632A1 (en) 2008-03-13
US9514439B2 (en) 2016-12-06
WO2008030493A3 (en) 2008-07-31

Similar Documents

Publication Publication Date Title
JP5194015B2 (ja) 感覚的刺激への視聴者反応を決定する方法およびシステム
US20210065117A1 (en) Method and system for predicting audience viewing behavior
US11200964B2 (en) Short imagery task (SIT) research method
US20100004977A1 (en) Method and System For Measuring User Experience For Interactive Activities
US9451303B2 (en) Method and system for gathering and computing an audience&#39;s neurologically-based reactions in a distributed framework involving remote storage and computing
EP2217142B1 (en) Method, system and computer program for automated interpretation of measurements in response to stimuli
US9292858B2 (en) Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
AU2013273825B2 (en) Method and System for Determining Audience Response to a Sensory Stimulus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110726

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120425

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120724

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130204

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5194015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160208

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250