JP2012524458A - 対話的活動に関するユーザ体験を測定するための方法及びシステム - Google Patents

対話的活動に関するユーザ体験を測定するための方法及びシステム Download PDF

Info

Publication number
JP2012524458A
JP2012524458A JP2012505954A JP2012505954A JP2012524458A JP 2012524458 A JP2012524458 A JP 2012524458A JP 2012505954 A JP2012505954 A JP 2012505954A JP 2012505954 A JP2012505954 A JP 2012505954A JP 2012524458 A JP2012524458 A JP 2012524458A
Authority
JP
Japan
Prior art keywords
biometric
viewer
response
presentation
cognitive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012505954A
Other languages
English (en)
Inventor
カール マーシ
ブライアン レヴィン
ラヴィ カント ヴィー コトゥリ
Original Assignee
インナースコープ リサーチ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インナースコープ リサーチ, インコーポレイテッド filed Critical インナースコープ リサーチ, インコーポレイテッド
Publication of JP2012524458A publication Critical patent/JP2012524458A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0203Market surveys; Market polls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4661Deriving a combined profile for a plurality of end-users of the same client, e.g. for family members within a home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Resources & Organizations (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Animal Behavior & Ethology (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Molecular Biology (AREA)
  • Educational Technology (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)

Abstract

本発明は、感覚的刺激体験を与えるプレゼンテーション又は対話的体験に対する視聴者の生体測定(物理的、行動的、生物学的、及び自己報告に基づく)反応を測定し、この視聴者の関与のレベル及びパターン、及びプレゼンテーション又は対話的体験の影響の尺度を判定する方法及びシステムに関する。特に、本発明は、経時的な又はイベントに基づくパターン及び全体的な関与のレベルを判定するために、プレゼンテーションに曝された1又はそれ以上の人物の1又はそれ以上の生体測定反応を測定する方法及びシステムに関する。この方法及びシステムは、高い及び低いレベルの視覚影響力を示唆する高い及び低いレベルの生体測定反応に対応するプレゼンテーションの範囲を特定するための視標追跡を含むことができる。さらに、本発明を使用して、ある集団におけるプレゼンテーション又はプレゼンテーション内のコンテンツが、他のプレゼンテーション(又はコンテンツ)及び他の集団よりも効果的であるかどうかを判定し、高レベルの関与又は影響、及びこの集団のためのプレゼンテーションの有効性及び成功(又は失敗)に寄与するプレゼンテーションの要素の識別を支援することができる。
【選択図】図3

Description

〔関連出願との相互参照〕
本出願は、2007年9月5日に出願された米国特許出願第11/850,650号の一部継続出願であり、この特許出願はその全体が引用により本明細書に組み入れられる。米国特許出願第11/850,650号は、2006年9月5日に出願された米国仮特許出願第60/824,546号の法律により与えられるあらゆる利益を主張するものであり、この米国仮特許出願第60/824,546号は、その全体が引用により本明細書に組み入れられる。
〔連邦政府が支援する研究に関する記述〕
該当なし
〔マイクロフィッシュアペンディクスの参照〕
該当なし
本発明は、サンプルユーザ又は集団の視聴者をプレゼンテーション(感覚的刺激)に曝して視聴者の体験を評価する方法及びシステムに関し、この評価は、プレゼンテーションに対する視聴者の個々のメンバーの身体的、生物学的、生理学的、及び行動的反応を測定して、この視聴者のメンバーのプレゼンテーションに対する強度、同調性及び関心(関与)のレベルの尺度及びパターンを判定することによって行われる。プレゼンテーションは、視聴者が見る受動的プレゼンテーション、又は視聴者のメンバーが参加し、タスク、プロセス、体験又は活動において相互作用できるようにする対話型プレゼンテーションとすることができる。
人々が毎日曝される、聴覚的、視覚的、及び視聴覚的プレゼンテーション及び活動には多くの異なる種類がある。これらのプレゼンテーションは、我々の感覚を刺激する感覚的体験の役割を果たし、電子的及び機械的に測定できる(心拍数、呼吸数、血圧及び皮膚コンダクタンスなどの)生物学的反応をもたらすことが知られている。
これらのプレゼンテーションを評価するための測定を行う際に一般的に使用される手法は質問によるものであり、この場合、テレビ/メディアビューワ及び/又はインターネットユーザ及び/又はゲームプレーヤが、自分自身をテレビ/メディア視聴者のメンバーとして、或いはインターネットユーザ又はゲームプレーヤとして識別するように依頼される。テレビの視聴に当たっては、この質問は、通常、(例えば、Arbitron社によるPortable People Meterの場合のように)統計的に選択された集団及びモニタリングサイトにおける被モニタ受信機に関連する電子的指示及びデータ入力装置を使用して行われる。メンバー識別は、年齢、性別及びその他の人口統計データを含むこともできる。統計学的に選択されたモニタリングサイトにおける個々の被モニタ受信機に関連する人口統計データ及び調整データを、モニタリングサイト内に位置する蓄積交換機器に記憶し、その後これらのデータを、公衆交換電話網でのダイレクトコール又はインターネットを介して中央オフィスコンピュータへ定期的に転送することが一般的である。
視聴者の反応を測定するこれらの非生物学的自己報告方法は、極めて誤差を生じやすいことが知られている。個人記録は主観的なものであるため記憶の偏りが生じ、家庭用モニタ装置は、個人によるイベント記録を必要とするとともに低コンプライアンスに見舞われ、一方、ケーブル及びインターネット信号のデジタルモニタリングでは、家族の誰が視聴者に含まれているかを識別できず、またこれらのメンバーによる反応性のレベルを評価することもできない。また、自己報告では、メディアプレゼンテーションに対する生物学的反応を捕えることができない。従って、自己報告の方法は、貴重なデータを提供するものの、極めて誤差を生じやすく、メディア消費に対する経時的反応を追跡することができない。
インターネットの発達及び多くの日常的な活動への広がりにより、人々は双方向メディア及び活動に曝されている。しかしながら、これらの双方向メディアのユーザ体験、有効性及び有用性を測定及び評価する能力には限界があった。
ウェブサイト及びその他の対話型インターネット及びソフトウェア媒体のユーザ体験、有効性及び有用性を測定又は評価するための現在の方法は、個々のユーザに基づく伝統的な自己報告及び視標追跡に限られてきた。これらの従来技術は、個々のユーザに体験に関する質問を行って、対話的活動中にユーザがどこを見ているかを評価するものであった。企業によっては、(NeuroFocus、EmSense社のように)プロセスにEEGを組み込んでいるところもあり、また企業によっては、(Eye Tracking社のように)瞳孔反応から認識活動を測定することを提案しているところもある。これらの企業は、幸せなどの感情状態を判断して潜在記憶に及ぼす影響を研究しようとする試みにおいてこれらの尺度を使用している。
Larose Daniel T著、データマイニング方法及びモデル(Data Mining Methods and Models)、John Wiley & Sons社、2006年 Han、Micheline Kamber Jiawei共著、データマイニング:概念及び技術(Data Mining: Concepts and Techniques)、第2版、(データ管理システムにおけるMorgan Kaufmannのシリーズ)、Elsevier社、2006年 Liu、Bing共著、ウェブデータマイニング:ハイパーリンク、コンテンツ及び使用データの探索(データ中心システム及びアプリケーション)(Web Data Mining: Exploring Hyperlinks, Contents, and Usage Data (Data−Centric Systems and Applications))、Springer−Verlag、2007年 Berry、Michael J.A.、Linoff、Gordon S共著、データマイニング技術:マーケティング、販売及び顧客関係管理に向けて(Data Mining Techniques: For Marketing, Sales, and Customer Relationship Management)、John Wiley & Sons社、1997年
従来の試験は、広告媒体が写真、印刷広告又はテレビコマーシャルである場合、このような特定の刺激に反応して引き起こされる特定の感情を判断しようとする試みにおいて心理学的又は生物学的反応を使用することに重点を置いている。しかしながら、引き起こされた特定の感情を判断することは、これらの感情反応がどのように所望の行動的反応又は行動の変化につながるかを予測する助けとはならない。さらに、この試験は、個人の反応に重点を置いている。従って、集団の行動における所望の行動的反応又は行動の変化につながり得る、又はこの指標となる、集団サンプル(試験又は代表的視聴者)における身体的、行動的、生理的及び/又は生物学的反応又はパターン、及び反応の組み合わせを識別することが望ましい。
この20年にわたる科学的調査では、プレゼンテーションに対する個人の反応が、コンテンツの処理の深さを理解するのに有用となり得ることが示唆されている。さらに、この処理のレベルは、標的視聴者に対してコンテンツが与え得る、視聴者の行動又は態度を予測することができる生物学的影響力に影響する。いくつかの研究でも、生体測定反応の関数として測定したコンテンツの刺激度が高いほど、後日このコンテンツがより良く思い出されることが示されている。このことは、以下に限定されるわけではないが、制作責任者、エンターテイメントの専門家及び広告主などの様々な業界専門家にとって特に興味深いものとなり得る。例えば、エンターテイメントの分野では、どの作品がどの視聴者(子供、高齢者、男性及び女性など)に魅力的であるかを評価できることが有用となり得る。この情報は、創作者及び主催者が標的視聴者を識別するために有用であるだけでなく、広告を目的としてスポンサー及び広告主と協力するためにも有用となり得る。特定の刺激の全体的な影響力を推定する能力は、患者を教育しようと試みる臨床医、学生の意欲を駆り立てる教師、又は有権者を説得する政治家にとっても有用となり得る。従って、影響力の予測に役立てるために、存在する場合には、どの人口学的集団が、メディアコンテンツの特定の部分又は要素を魅力的と感じるかを判断することが望ましい。同様に、最終的に、態度の変化、購入活動又は社会的行動などの人間の行動を予測する能力を有するために、存在する場合には、どの人口学的グループが、特定の印刷物、インターネット、テレビ又はラジオコマーシャルを魅力的と感じるかを判断することが望ましい。
本発明は、視聴者測定の分野で使用するためのシステム及び方法に関する。具体的には、本発明は、ライブ又は録画済みの、受動的又は対話的な聴覚、視覚、視聴覚プレゼンテーション、インターネット活動、ゲームプレイ、ショッピング又はオンラインショッピング又は購入などの対話的又は受動的プレゼンテーションに対する身体的、行動的、生物学的、及び自己報告に基づく視聴者の反応(まとめて生体測定反応と呼ぶ)を記録するための、及びこの対話的又は受動的プレゼンテーションによる視聴者の経時的な又はイベントごとの、及び全体的強度、同調性及び関心の尺度、並びにプレゼンテーション又はプレゼンテーションの部分に対する個々の視聴者メンバーの反応を特徴付けるために使用できるその他の尺度及び指数を判定するための方法及びシステムに関する。その後、このサンプル集団又は視聴者の関心の尺度を使用して、全体としての集団が同じプレゼンテーションに引き付けられる、或いはこれを好む又は嫌うレベルを推定することができる。視聴者の関心の尺度を視標追跡技術と組み合わせた場合、これを使用して、プレゼンテーションのどの要素が、そのプレゼンテーション又は類似のプレゼンテーション内の他の要素と比べて最も興味を引くものであるか又は最も影響力があるかを判定することもできる。強度、同調性及び関心の尺度、並びに視標追跡及びその他の生体測定反応の関数として求められるその他の指数を診断値に、及び/又はプレゼンテーションの成功又は失敗を予想するために使用することもできる。これは、例えば、サンプル集団について既知の成功又は失敗した(又は、より一般的にはランク付けした組の)プレゼンテーションの強度、同調性又は関心の尺度を、未知の又は以前に評価されていないプレゼンテーションに対する関心の尺度と比較するための予測モデルを介して行うことができる。
本発明を、従来のダイヤル試験、自己報告調査及びフォーカスグループの代わりに、又はこれらの補完として使用されるメディア試験ツールとして使用して、視聴者の反応を測定することができる。本発明は、ヒト神経生物学及び本発明により測定及び処理される具現化された反応を利用して、サンプル視聴者の反応を測定し、より一般的な視聴者の反応を予測することができる。
1つの実施形態によれば、サンプル視聴者に(生の又は事前に録画した)1つのコンテンツを提示することができ、又は5秒から5時間(又はそれ以上)までのいずれかの時点まで続くことができる対話的活動(タスク又はオンライン体験)を提示することができる。サンプル視聴者は、コンテンツ又は対話的活動を2回以上提示される1人の個人、又はコンテンツ又は対話的活動を1回又はそれ以上提示される2人以上の個人とすることができる。本発明によるシステムは、ユーザの全ての又は選択した組の生体測定反応をモニタして、コンテンツ又は対話的活動に対するユーザの客観的尺度を取得する。
生体測定反応データは、マルチセンサ装着型身体モニタリング装置を介して収集することができ、この装置は、プレゼンテーションに相関させるために、タイムスタンプ又はイベントスタンプされた生物学的データの連続的収集を可能にする。このセンサパッケージは、皮膚導電率(電気皮膚反応など)を測定するための1又はそれ以上のセンサを含むことができ、また心拍数及び心拍変動、脳波活動、呼吸数及び呼吸変動、頭部の傾き及び曲がり、体位、姿勢及び動き、視標追跡、瞳孔反応、顔のミクロ及びマクロ表情及びその他の行動的及び生物学的信号などの反応をモニタするためのあらゆる数の追加センサ及び/又はカメラを含むことができる。
プレゼンテーションの一部として視聴者に提示されるコンテンツとしては、以下に限定されるわけではないが、写真、印刷広告、テレビ番組、映画、ドキュメンタリー、コマーシャル、インフォマーシャル、報道、ライブコンテンツ、生の演劇、演劇の録画、模擬裁判、絵コンテ、俳優オーディション、パイロット版テレビ及び映画コンセプト、音楽、インターネット、ショッピング、製品及びサービスの購入、ゲーム、及びその他の能動的及び受動的体験を挙げることができる。
本発明によれば、反応データを、小集団又は大集団環境において個別に収集する(ユーザが、プレゼンテーションを1人で体験する)ことができ、これを非侵襲的なものとすることができる(全てのセンサが外部に存在することができる)。また、反応データを、試験又はモニタリング施設などの制御された環境において、或いは(実際の又はシミュレーションの)「自宅」環境において収集することもできる。
本発明によれば、システムが、どのようなプレゼンテーションが視聴されているか、誰がコンテンツを視聴しているか、及び視聴するコンテンツ又はプレゼンテーションにタイムロックされて又はイベントに関連付けられて対応する視聴者メンバーの(単複の)生体測定反応を追跡することができる。従って、視聴されている所与の1つのコンテンツ又はプレゼンテーションに対し、サンプル集団又は視聴者の個々のメンバーの身体的、行動的、及び生物学的反応をコンテンツの一部に関連付けることができ、また異なる時点及び場所で収集された複数のサンプル集団又は視聴者からのデータを組み合わせることができる。本発明の目的上、サンプル視聴者(又はサンプル集団)は、数日間などにわたって同じコンテンツを数回視聴しているところをモニタされる1人の個人、並びに同じコンテンツを少なくとも1回視聴している2人以上の個人とすることができる。
本発明の1つの実施形態では、視聴者は、年齢、性別、又は性格及び人格特徴(例えば、10項目の人格指数に基づくもの、心理学文献におけるTIPI)に基づく特定の人口学的特性を有することができ、或いは(視聴者の区分/選択に関する所定の基準に基づいて)特定のクライアントに関する特定の視聴者関心部分を表すことができる。
本発明の1つの実施形態では、コンテンツ制作者、配信業者及びマーケティング担当者が、自分たちのコンテンツに視聴者がどのように反応するかについての客観的な見通しを得る上で、本発明によるシステムが役立つことができる。このシステムを、制御された試験環境で使用して、提示されたコンテンツに対するサンプル視聴者の生体測定反応及びその他の反応を測定することができる。
本発明の1つの実施形態では、システムを自然の家庭環境で使用することができ、またできるだけ非侵襲的なものとすることができる。システムは、家族がどのようなテレビ(及びインターネットなど他のメディア)を見ているか、どのメンバーが見ているか、及びこれらのメンバーが正確にどの部分を見ているかを追跡することができる。
家族のメンバーは、以前と同じ方法でメディアを制御することができる。彼らにとっての主な違いは、コンテンツを視聴又は体験する際に(特別な衣料品、ブレスレット又はその他の装置などの)センサ装置を装着しなければならず、又はこのセンサ装置の範囲内にいなければならないことである。この例では、この装置を使用して、(生物学的センサを使用することにより)再生中のメディアに彼らがどれほど引き付けられているかを判定することができる。システムは、収集されたデータに関して評価を行うことができ、例えば、動きのレベルが大きいほど、視聴者メンバーがそれほど注目していない可能性が高く、非受動的視聴体験によって引き付けられている可能性が高い。
1つの実施形態では、装置又は視聴者がメディアディスプレイの近くにいると判断された場合にのみ、装置が収集したデータを使用することができ、それ以外の場合には、これを体験するには視聴者がメディアから離れすぎていると考えられる。データを、セットトップボックス(STB)又はその他の受信機へ定期的に送信して、これを各視聴者メンバーの識別情報及び消費されている現在のメディアに関する情報に関連付けることができる。このデータを、まとめてデータベース内にパッケージして、リアルタイムで提供することができる。
システムの1つの実施形態では、コンプライアンスの問題に対処するために、ユーザが、機能中のセンサ装置を装着していない(又は動作範囲内にいない)場合、或いは電池切れの装置を、STB又は受信機に取り付けられた差込み口/ドック内で充電中でない場合にはチャンネルを変更することができない。
本発明によるこのシステムを、プレゼンテーション及びコンテンツ制作者が使用して、広く流通させる前に自分たちのプログラムを評価することができる。例えば、彼らはこのシステムを使用して、自分たちが評価したいビデオ及びオーディオを、サンプル視聴者メンバーの家庭用エンターテイメントシステム又はコンピュータに直接「プッシュ」することにより、サンプル視聴者を評価することができる。
本発明の別の実施形態では、システムを使用して、選択した視聴者の生体測定反応の組み合わせをリアルタイムでモニタ、集約、及び分析することができる。この分析結果を使用して、さらなる視聴者調査を推し進めることができる。例えば、視聴後のフォーカスグループにおいて、仲介者が、(関心マップの分析から判断される)重要な瞬間を識別し、これらの瞬間に関する特定の質問をフォーカスグループのメンバーに尋ねることができる。
本発明の別の実施形態では、システムが参照データベースを含み、現在の視聴者の組の反応をこの参照データベースと比較して、現在の反応の組にスコア付け及びランク付けすることができる。参照データベースは、関心尺度並びに強度及び同調性尺度(又はこれらから導出されるパフォーマンスメトリクス)を含むことができ、これらを対応する標的プレゼンテーション又は活動の尺度と比較することができる。比較の結果を使用して、標的プレゼンテーション又は活動の成功又は有効性を予測することができる。
本発明の様々な実施形態によれば、対話的活動に関する高度なユーザ体験試験が、反応の強度レベル又は振幅及び反応の同調性を含む様々な身体的、行動的、生理学的及び/又は生物学的反応又はパターン又は反応の組み合わせの尺度を特定の活動要素と、また視聴者の個々のメンバーのサンプル集団全体にわたって組み合わせることができる。
本発明の1つの実施形態によれば、生体測定尺度を使用して、複数の方法及びセンサアレイと組み合わせた視標追跡に基づく重み付け頻度分布を使用して生体測定反応を比較することにより、体験全体を評価することができる。視標追跡尺度としては、以下に限定されるわけではないが、凝視場所、凝視の持続時間及び局部内の動きにより推定される視覚的注意を挙げることができる。生体測定尺度としては、以下に限定されるわけではないが、瞳孔反応、皮膚導電率、心拍数、心拍変動、脳波活動、呼吸活動、頭部及び体の動き、曲がり、姿勢及び位置、顔のミクロ及びマクロ表情、マウス圧、及びこれらの尺度の導関数を挙げることができる。行動型の生体測定反応としては、以下に限定されるわけではないが、顔のミクロ及びマクロ表情、頭部の傾き、頭部の曲がり、体位、体の姿勢、体の動き、及びコンピュータマウス又は同様の入力又は制御装置に加わる圧力の量を挙げることができる。自己報告型の生体測定尺度としては、以下に限定されるわけではないが、体験の知覚、体験の有用性又は好ましさの知覚、ユーザとの個人的関連性のレベル、コンテンツ又はコンテンツに埋め込まれた広告に対する態度、製品/ゲーム又はサービスを購入する意図、及び試験の前後から得られる反応の変化などの項目への調査回答を挙げることができる。視標追跡、生体測定的及び/又は行動的反応、又は集約した一群のユーザの反応をユーザに提示することにより、自己報告尺度を通知し、又はこれに影響を与えることができる。
上記メトリクスの組み合わせを集約して、タスク、プロセス、体験にわたる刺激又は対話的体験内の所定の関心範囲の周囲の刺激又は対話的体験に関する情報を2次元又は3次元空間内に提示することができ、或いはこれらの尺度を使用して、さらなる研究又は探究に値する範囲(すなわち、認知又は感情反応が特に高い範囲)を定めることができる。上記メトリクスの組み合わせを使用して、インターネット環境、ゲームプレイ、情報検索、ショッピングなどの、又はオンラインショッピング及び購入のための、対話型環境におけるタスクを評価することもできる。例えば、視標追跡を使用して、視覚的注意がどこに集中しているかを識別し、次にその瞬間の1又はそれ以上の生体測定反応を判定することができる。逆分析を行うこともでき、すなわち認知又は(例えば、瞳孔反応、脳波活動又はEEGによって測定した)高い認知作業負荷、及び(例えば、皮膚コンダクタンス、心拍数及び呼吸によって測定した)強い感情反応の範囲を計算することができ、目の凝視及び位置を使用して、体験中に見ている、反応を導く視覚要素又は成分又は範囲を識別することができる。頭部の傾き及び曲がり、体位及び姿勢、及びコンピュータマウス又は同様の入力装置又はコンテンツ制御装置などの入力装置に加わる圧力の量などの行動データを使用して、関心及び/又はフラストレーションのレベルを評価する一方で、顔のミクロ及びマクロ表情を使用して、感情(関心及びフラストレーション)の測定及び評価を支援することができる。さらに、説明した尺度からのデータを、「生体測定的に」通知された自己報告の形でユーザに示し、又は説明して、ユーザ体験をさらに洞察するための黙示的な又は無意識の反応についてのユーザの認識を深めることができる。人口学的及び心理学的情報を使用して、先に定義したような生体測定反応でユーザ体験を分析するためのグループにユーザを区分することができ、また生体測定反応の組み合わせを使用して、コンテンツ制作者及び広告主が関心を持つと思われるユーザグループ、「行動的」又は「生体測定的」ペルソナ又はプロファイルを定義することもできる。
以下の図、詳細な説明及び特許請求の範囲を検討した後に、本発明自体とともに、本発明の上記の及びその他の能力がより完全に理解されるであろう。
本発明の実施形態による、試験的劇場又は施設において視聴者を測定するためのシステムの概略図である。 本発明による、家庭内で視聴者を測定するためのシステムの第2の実施形態の概略図である。 第2の実施形態の家庭内コンプライアンスアルゴリズムのフロー図である。 家庭内システムの実施形態の1つの態様の、所与の家族内の誰が実際にメディアを体験しているかを識別する能力のフロー図である。 本発明による、社会的相互作用中に関心レベルをモニタするためのシステムの第3の実施形態の概略図である。 本発明の1つの実施形態による、30秒コマーシャルの関心パターンを示す図である。 本発明の1つの実施形態による、60秒コマーシャルの関心パターンを示す図である。 本発明の実施形態による、視聴者の対話的活動を測定するためのシステムの概略図である。 本発明の実施形態による、視聴者の代替の対話的活動を測定するためのシステムの概略図である。
本発明は、感覚的刺激に対する視聴者の生体測定的(身体的、行動的、生物学的及び自己報告的)反応を測定し、これらの感覚的刺激に対する視聴者の関心の尺度を判定するための方法及びシステムに関する。特に、本発明は、経時的な又はイベントごとの、及び全体的な関心のレベルを判定するために、感覚的刺激、プレゼンテーション又は対話的活動に曝された1又はそれ以上の人物の1又はそれ以上の生体測定反応を測定するための方法及びシステムに関する。さらに、本発明を使用して、ある集団におけるプレゼンテーション又は対話的活動が、(人口学的又は心理学的基準によって定義されるような)他のプレゼンテーション及び他の集団よりも効果的であるかどうかを判定し、高レベルの関心及びプレゼンテーションの有効性及び成功に寄与するプレゼンテーションの要素の識別を支援することができる。
人々が毎日曝される、聴覚的、視覚的、及び視聴覚的プレゼンテーションには多くの異なる種類がある。これらのプレゼンテーションは、我々の感覚に対する刺激の役割を果たす。これらのプレゼンテーションの多くは、特定の種類の反応を引き起こすように設計されている。ある例では、芸術家、音楽家又は映画監督が、視聴者から1又はそれ以上の感情又は一連の反応を引き出すことを意図したプレゼンテーションを制作した。他の例では、プレゼンテーションが、製品、サービス、組織、又は原因についての教育又は促進を行うように意図されている。視聴者が、フォーカスグループ中、インタビューの状況中、又はいずれかのこのような社会的相互作用中などに1又はそれ以上の生の人物に曝され、又はこの人物と相互作用する用途も存在する。1又はそれ以上の聴覚的、視覚的、及び視聴覚的プレゼンテーションを含むとともに、視聴者が活動又はタスクを完了するためにコンピュータ、オブジェクト、状況、環境、又は別の人物と相互作用できるようにする対話的活動又はタスクを視聴者に提示することもできる。
これらの感覚的刺激は、音又は音の集合、単一の絵又は絵の集合、又はテレビ又はラジオなどの受動的に提示される視聴覚的プレゼンテーションの形であってもよく、或いはビデオゲーム、ライブインタラクション又はインターネット体験におけるもののような対話型環境において提示されるものであってもよい。感覚的刺激は、演劇又は法的手続き(受動的)などのように事前に記録したものであっても、又は生で提示するものであってもよく、或いは、船旅、フォーカスグループ、オンライン活動、ボードゲーム、コンピュータゲーム又はテーマパークの乗り物への参加(対話型)などのように現実世界の状況(仮想現実又はシミュレーション)であってもよい。
視聴者の反応を測定する現在の非生物学的方法は、極めて誤差を生じやすいことが知られている。個人記録は主観的なものであるため記憶の偏りが生じ、家庭用モニタ装置は、個人によるイベント記録を必要とするとともに低コンプライアンスに見舞われ、一方、ケーブル及びインターネット信号のデジタルモニタリングでは、家族の誰が視聴者に含まれているかを識別できず、またこれらのメンバーによる反応性のレベルを評価することができない。他の自己報告方法は、貴重なデータを提供するものの、極めて誤差を生じやすく、メディア消費及び対話的活動内への参加に対する経時的反応を追跡することができない。
ヒト生物学に根差す反応には、複数の生理学的及び行動的相関関係が伴い得る。視標追跡尺度としては、以下に限定されるわけではないが、凝視場所、凝視の持続時間及び局部内の動きにより推定される視覚的注意を挙げることができる。生体測定尺度としては、以下に限定されるわけではないが、瞳孔反応、皮膚導電率、心拍数、心拍変動、脳波活動、呼吸活動を挙げることができる。行動型の生体測定反応としては、以下に限定されるわけではないが、顔のミクロ及びマクロ表情、頭部の傾き、頭部の曲がり、体位、体の姿勢、体の動き、及びコンピュータマウス又は同様の入力又は制御装置に加わる圧力の量を挙げることができる。自己報告型の生体測定尺度としては、以下に限定されるわけではないが、体験の知覚、体験の有用性又は好ましさの知覚、ユーザとの個人的関連性のレベル、コンテンツ又はコンテンツに埋め込まれた広告に対する態度、製品、ゲーム又はサービスを購入する意図、及び試験の前後から得られる反応の変化などの項目への調査回答を挙げることができる。
生体測定及び行動に基づく人間の反応を目立たず連続的にモニタすることができる多くの市販製品及び技術が存在し、これらは健康及びフィットネス目的で使用されることが最も多い。LifeShirtシステム(VivoMetrics社、カリフォルニア州ヴェントゥーラ)という名前で販売されている1つの製品は、評価を受けている人が着用する目立たない衣服であり、後で分析するために肺、心臓、皮膚、姿勢及び声の情報を同時に収集することができる。Equivitalシステム(Hidalgo社、英国ケンブリッジ州)は、心拍数、呼吸、ECG、3軸運動を収集して、皮膚コンダクタンスを統合することができる。Bioharnessシステム(Zephyr Technologies社、ニュージーランド国オークランド)、Watchdogシステム(QinetiQ社、マサチューセッツ州ウォルサム)、BT2 Vital Signs腕時計(Exmocare社、ニューヨーク州ニューヨーク)及びBionodeシステム(Quasar社、カリフォルニア州サンディエゴ)によっても同様の機能が提供されている。Tobii x50 Eye Tracker又はTobii2150(Tobii Technology社、ヴァージニア州マクレーン)という名前で販売されている別の製品は、視標追跡及び凝視の長さを高い確実性で目立たずにモニタリングできる視標追跡装置である。このシステムは、視標追跡を生物学的関心メトリクスと組み合わせることにより、(マルチメディアプレゼンテーション又はウェブサイトなどの)複雑な感覚的体験の中のいずれの特定の要素が反応を引き起こしているかを独自に予測することができる。この技術では、瞳孔の拡張などのさらなる生体測定の尺度も記録される。この技術を開発している他の企業には、オーストラリア国キャンベラのSeeingMachines社がある。MITメディアラボ(MIT、マサチューセッツ州ケンブリッジ)で開発された別の技術は、以下に限定されるわけではないが、顔のミクロ及びマクロ表情、頭部の傾き、頭部の曲がり、及び体位、体の姿勢及び体の動きなどの行動的反応を測定するためのシステムを提供している。MITメディアラボ(MIT、マサチューセッツ州ケンブリッジ)で開発された別の技術は、以下に限定されるわけではないが、コンピュータマウス又は同様の制御装置に加わる圧力の量などの行動的反応を測定するためのシステムを提供している。
個人の感情を識別するためのシステムは多く提案されているが、受動的及び対話的オーディオ、ビデオ、及びオーディオビデオコンテンツに対する特定の及び全体的な反応を確実かつ客観的に定量化できるシステムは提案されていない。この失敗の1つの考えられる理由には、人間の感情的体験の複雑性及び主観性がある。本発明は、1人1人の参加者の個人の感情を識別するために個々の生物学的反応を使用するのではなく、集団の生物学的反応を集約して、刺激又はプレゼンテーションの関心及び影響力の経時的な又はイベントごとの及び全体的な指数を生成するように設計される。本発明の1つの実施形態によれば、これは、刺激に対する及びサンプル集団全体にわたる反応の強度の尺度及び反応の同調性の尺度を(経時的に又はイベントごとに)判定することにより達成することができる。
本発明は、人物(又は動物)の受動的又は対話的プレゼンテーションに対する様々な生体測定反応を表すデータを収集するための方法及びシステムに関する。プレゼンテーションは、音又は一連の音、絵又はビデオを含む一連の絵、或いはビデオなどの1又はそれ以上の音と1又はそれ以上の絵の組み合わせなどの、聴覚的、視覚的、又は視聴覚的刺激を含むことができる。刺激は、予め録画して、プレゼンテーション装置又はシステム上(例えば、テレビ、ビデオディスプレイ上、映画のようなスクリーンへの投影)で再生してもよいし、或いはライブパフォーマンスとして体験してもよい。刺激は、視聴者が固定された場所から(例えば、劇場内で、或いはテレビ又はビデオ画面の前に座って)刺激を体験する受動的なものであってもよく、或いは、視聴者が(実際のローラコースタへの乗車、シミュレーションによるローラコースタへの乗車、ショッピング体験、コンピュータゲーム、インターネットを介した仮想現実体験又は対話型セッションなどの)何らかの形の刺激に参加する対話的なものであってもよい。人物(又は動物)の関心及び影響力の尺度を判定するために、収集したデータを本発明によって処理することができる。集団サンプルの関心及び影響力の尺度をさらに使用して、集団の関心及び影響力のレベルを予測することができる。本開示の文脈では、サンプル集団視聴者は、同じ刺激に対する複数の個人の関心及び/又は影響力の尺度、又は同じ刺激に複数回曝された1人の個人の関心及び/又は影響力の複数の尺度を含むことができる。
本発明によれば、刺激に曝された期間にわたる刺激に対する反応の強度の尺度、及び刺激に曝された期間にわたる刺激に対する反応の同調性の尺度を、生体測定反応及び行動的反応を含む生物学的反応から判定することができる。さらに、曝された期間を、タイムスロット又はウィンドウに、或いはイベントベースの単位に分割して、個々のタイムスロット又はイベントウィンドウに関して反応値を求め、これらに関連付けることができる。強度の尺度は、刺激に対する生物学的反応の基準レベルからの変化を測定することを含むことができる。さらに、この測定した変化及び予め定めた閾値の組の関数として反応値を求めることができる。
システムは、1)感覚的刺激又は一連の刺激を提示するためのメディア装置、2)感覚的刺激に対する複数の生物学的反応を収集するためのモニタリング装置、及び3)瞳が固定された場所及びその持続時間、拡張、及び顔の反応を判定するための視標追跡システム及び/又はビデオカメラという3つのタイムロック又は同期化されたデータソースを含むことができる。追加のビデオカメラを使用して、メディア装置及び体験されている感覚的刺激の特定の要素に対する個人及び/又は視聴者の近接度を判定することができる。生体測定反応モニタリング装置及び視標追跡システム及び/又はビデオカメラを、感覚的刺激を提示するメディア装置と同期させて、モニタリング装置及び視標追跡システム及び/又はビデオカメラが、プレゼンテーションに繰り返し曝された場合にプレゼンテーションの同じ部分に対応する生体測定反応及び凝視位置、持続時間及び動きを一貫して記録できるようにすることができる。システムセンサパッケージは、以下に限定されるわけではないが、皮膚導電率、心拍数、呼吸、体の動き、瞳孔反応、マウス圧、視標追跡、及び/又は体温、近体温、顔及び体のサーモグラフィ画像、顔のEMG(EEG)fMRIなどのその他の生物学的信号の尺度を含むことができる。試験用メディアコンテンツは、以下に限定されるわけではないが、受動的及び対話的テレビ、ラジオ、映画、インターネット、ゲーム、及び娯楽用印刷物及び教材、並びに生の劇場用、体験用、及び娯楽用プレゼンテーションを含むことができる。3つのタイムロックされたデータソースを、コンピュータ化されたデータプロセッサに(有線又は無線により)接続して、このコンピュータ化されたデータプロセッサに反応データを転送できるようにすることができる。コンピュータ化されたデータプロセッサは、説明したスコア付け方法を自動的に適用して、単位時間当たりの、イベント当たりの、又は試験サンプル集団又は刺激全体にわたって集約した関心のマップを作成することができる。
システムは、視標追跡、指向性オーディオ及び/又はビデオ、又はその他の技術をさらに使用して、さらに掘り下げた処理の対象となる特定の要素又は瞬間を分離することができる。本発明によれば、システムが、どのようなコンテンツが視聴されているか、誰がコンテンツを視聴しているか、及び視聴されたコンテンツに視聴者メンバーのいずれの身体的、行動的、及び生物学的反応が対応するかを、経時的に又はイベントごとに追跡することができる。
システムは、視聴者が受動型又は対話型プレゼンテーションにどのように反応するかについての客観的見解を提供することができる。システムは、試験用メディアコンテンツに関連する人口学的な及びその他のデータと組み合わせた場合にそのコンテンツ、プレゼンテーション又は対話的体験の相対的な成功を予測できるようになる様々な過去のメディア刺激に対する視聴者の生体測定反応、反応パターン及び視聴者の強度、同調性及び関心パターン及びレベル、及び(これらから導き出される)パフォーマンスメトリクスのデータベースをさらに含むことができる。
タイムロックされた又はイベントベースの関心の指数を計算する方法について説明する。この方法は、サンプル視聴者の様々な選択して測定した(身体的、行動的、生物学的、及び自己報告による)生体測定反応を集約するものである。サンプル集団又は参加者のグループの反応を集約するには、以下の手順の1又はそれ以上に基づいてデータを処理することが望ましい。
1.個々のデータストリームをタイムスロット又はイベントウィンドウにタイムロック又はイベントロックする。測定した反応データを、特定のタイムスロット又はイベントウィンドウに関連するブロック又は一連のブロックに分割することができる。
2.個々の基準及び個々の分散に基づいてデータを判定し処理する。測定した反応データを正規化して、サンプル集団の個々のメンバー及び使用される検知装置の様々な反応を補償することができる。
3.個々のタイムスロット又はイベントウィンドウのピーク値及びトラフ値を求め、処理して個々の基準及び分散と比較し、1又はそれ以上の個々の測定した反応の個々のタイムスロットに関して変化率を求めて処理する。
4.個々の測定した反応値に関して、タイムスロット又はイベントウィンドウ当たりの標準化スコアを求める。
5.測定した反応の1又はそれ以上の標準化スコアの1又はそれ以上を使用して、タイムスロット又はイベントウィンドウ当たりの標準化スコアをサンプル集団全体にわたって組み合わせ、強度の尺度を生成する。サンプル集団及びプレゼンテーション又はコンテンツによっては、2以上の測定した反応を使用し、少なくとも1つの測定した反応に、他の測定した反応とは別様に重み付けすることが好ましい。
6.測定した反応の一部の単位時間当たりの又はイベント当たりの変化率の残留分散の逆数を試験視聴者全体にわたって平均化して同調性の尺度を生成し、試験集団及び試験用コンテンツによっては、いくつかの測定した反応が、他の測定した反応とは別様に重み付けされるようにする。或いは、被験者全体にわたる強度レベルの変化率及び変化率の分散の関数として同調性を求めることができる。
7.強度の尺度及び同調性の尺度を組み合わせて、単位時間当たりの又はイベント当たりの全体的な関心の尺度を生成する。サンプル集団及びプレゼンテーション又はコンテンツによって、強度の尺度又は同調性の尺度に別様に重み付けできることが好ましい。
8.様々なサイズの他の集団における他の試験と比較するために、結果として得られたタイムスロット当たりの又はイベントウィンドウ当たりの関心の尺度を、設定した数の個人(サンプル集団サイズ)に標準化する。
システムの1つの実施形態によれば、試験的劇場において、最低2、3秒から数時間続くことができる感覚的刺激又は(生の又は事前に録画した)1つのメディアコンテンツがサンプル視聴者に提示される。本発明の目的上、サンプル視聴者は、同じコンテンツを数回視聴しているところをモニタされる1人の個人であってもよく、或いは同じコンテンツを1回又はそれ以上視聴しているところをモニタされる個人グループであってもよい。視聴者のモニタリングは、個々に、小集団で、又は大集団で、同時に又は異なる回数として行うことができる。視聴者は、厳密に定義された人口学的/心理学的プロファイルのものであっても、或いは広義に定義された人口学的/心理楽的プロファイルのものであっても、或いはこれらの2つの組み合わせであってもよい。システムは、タイムロック又はイベントロックされたデータストリームを記録し、経時的な又はイベントごとの関心のレベルを計算して、関心のパターンを同様のメディアコンテンツのデータベースと比較する。
システムは、視標追跡又はその他の技術を使用して、さらなる分析又は処理の対象となる特定の要素、範囲又は瞬間を分離することができる。本発明によれば、システムは、どのようなコンテンツが視聴されているか、誰がコンテンツを視聴しているか(性別及び人口学的/心理楽的プロファイル別などで)、各個人がコンテンツのどの範囲又はサブ範囲に注目しているか、及び視聴されたコンテンツに視聴者のいずれの測定した反応が対応するかを追跡することができる。従って、受動型又は対話型プレゼンテーションにおける所与の1つの刺激コンテンツに関して、測定した反応を、その反応を引き起こしたコンテンツの部分と結び付けることができ、また2以上のサンプル視聴者又はサンプル視聴者の一部から異なる時点及び場所で収集したデータを集約することができる。
別の実施形態によれば、家族の参加メンバーが、何らかの生物学的反応の組み合わせを測定するセンサ装置(特別な衣類、ブレスレット又はその他の装置など)を装着している間、テレビを見たり、音楽を聴いたり、又はインターネットを使用したりする際に、1日の全体を通じてメディアの選択及び使用を制御することができる。この実施形態では、家庭内検知装置が、参加者が選択したメディアコンテンツの性質及びタイミングを判断するだけでなく参加者に関する情報も識別する家庭内コンピュータ又はセットトップボックス(STB)と通信する。このシステムは、赤外線、全地球測位衛星、レーダーなどの技術を介した、又は既知の動作範囲での技術(WiFi、Zigbee(登録商標)、RFID又はBluetooth(登録商標)など)を使用してテレビ又はコンピュータと参加者などの2つの物体間の信号を取得すること、及び/又は(視標追跡技術などを使用した)参加者の視線の方向を通じた距離測定などの、メディア刺激からの距離を判定することができる技術を含む。この実施形態の変形例では、コンプライアンスを確実にするために、STB又はコンピュータが、センサ装置が起動されていない場合には家族用メディア装置の起動を防ぐことができる。この実施形態の別の変形例では、試験用プレゼンテーションコンテンツ及び/又はブロードキャスト/ケーブルプレゼンテーションコンテンツを、所望の人口学的/心理学的プロファイル又は所定の関心レベル又はパターンに「マッチ」する参加者に「プッシュ」することができる。前述の実施形態の場合のように、システムは、タイムロックされた又はイベントに基づくデータストリームを記録し、この人物に関する経時的な又はイベントごとの関心レベルを計算して、関心パターンを同様の個人の体験のデータベースと比較することができる。
別の実施形態によれば、この感覚的刺激を与えるプレゼンテーションを、1又は複数の生の人間又は活動とすることができる。この1又は複数の生の人間は、以下に限定されるわけではないが、生のフォーカスグループのやりとり、公判前又は模擬裁判中の陪審への生のプレゼンテーション、面接官と面接者のやりとり、教師と生徒又は生徒のグループ、患者と医師のやりとり、デート中のやりとり、又はその他の何らかの社会的相互作用を含むことができる。生の活動は、ジェットコースタへの乗車、ボートへの乗船、又は自動車への乗車などの活動とすることができる。生の活動は、店でのショッピング、庭仕事又は家の補修、オンラインショッピング又はインターネット検索などの日常的な活動であってもよい。生の活動はまた、あらゆる既知の又は架空の活動をシミュレートした、シミュレーション又は仮想現実に基づく活動であってもよい。システムは、タイムロック又はイベントロックされたデータストリームを記録し、経時的な関心のレベルを計算し、また他の実施形態と同様に、関心のパターンを類似の社会的相互作用のデータベースと比較して、その種の社会的相互作用の他の反応パターンに照らして反応パターンを推定することができる。
本発明は、視聴者測定の分野で使用するためのシステム及び方法に関する。視聴者のメンバーに感覚的刺激体験を与える生の又は録画済みの受動的又は対話的な聴覚、視覚、又は視聴覚プレゼンテーションに対する視聴者の生体測定反応を記録するためのシステムについて説明する。測定した視聴者の反応を使用して、強度、同調性及び関心の尺度のパターンを計算する方法について説明する。この方法は、測定した複数の参加者の反応を、サンプル集団視聴者にわたって集約できる単位時間当たりの、イベント当たりの、又は時間/イベントにわたって集約した標準化スコアに変換するものである。システムは、サンプル集団視聴者の経時的な又はイベントに基づく体験及び全体的な体験の強度及び同調性を判定する。標準化された強度及び同調性スコアを組み合わせて、全体的な視聴者の関心の尺度を生成することができる。関心の尺度は、複数の生物学的尺度に基づく、規定の視聴者セグメントの体験の客観的尺度を表す。
関心の尺度は、この複数の生体測定に基づく尺度から決定される2つの構成要素から求めることができる。第1の構成要素は強度の尺度であり、これは、(タイムスロット又はイベントウィンドウにより表される)プレゼンテーション又は活動の複数の規定部分に対する生体測定反応の振幅又は強度を反映する。第2の構成要素は同調性の尺度であり、これは、サンプル集団において測定した、(タイムスロット又はイベントウィンドウにより表される)プレゼンテーションの複数の規定部分に対する反応の変化の相関関係又は一致(同じコンテンツに対して何人の人物が同一の又は同様の反応を示したか)を反映する。
システムはさらに、タイムロック又はイベントロックされた視標追跡及びその他のビデオモニタリング技術を関心の尺度と統合して、反応の引き金となっている感覚的刺激の特定の要素を識別することができる。システムはまた、関心の尺度を使用して、類似する視聴者における類似する試験的刺激に対する過去の関心のパターンのデータベースを使用した予測モデルを介して、試験的刺激の相対的な成功又は失敗を予測することもできる。
図1に、本発明によるシステムの実施形態の概略図を示す。試験的又はサンプル視聴者12にプレゼンテーションを提示するためのビデオ表示画面又はその他の市販の技術などのディスプレイ装置10を介して、視聴者12にプレゼンテーションが提示される。プレゼンテーションは、以下に限定されるわけではないが、受動的及び対話的テレビ、ラジオ、映画、インターネット、ゲーム及び娯楽印刷物及び教材を含むことができる。ディスプレイ装置10は、以下に限定されるわけではないが、テレビ、映画スクリーン、デスクトップ、ハンドヘルド型又は装着型コンピュータ装置、ゲーム機、家庭用又は携帯用音楽装置、或いは受動的又は対話的な聴覚、視覚、又は視聴覚プレゼンテーションを提示するための他のあらゆる装置を含むことができる。本発明の目的上、試験視聴者12は、同じコンテンツを数回視聴しているところをモニタされる1人の個人、又はコンテンツを1回又はそれ以上視聴しているところをモニタされる、いずれかの数のパラメータ(人口統計、関心レベル、生理学的又は心理学的プロファイルなど)により定義されたあらゆる小規模又は大規模グループとすることができる。試験視聴者は、複数の身体的、行動的及び生物学的反応を収集するためのモニタリングシステム12A、及び自己報告反応を収集するための自己報告装置12Bを使用してモニタすることができ、これらの反応は全てが互いに、及び試験刺激又は対話型プレゼンテーションにタイムロック又はイベントロックされる。システムは、視聴者の個々のメンバーの行動、顔の反応及び/又は正確な焦点に関するデータを収集するための焦点及び/又は顔モニタリングシステム14(視標追跡システム又は1又はそれ以上のデジタルビデオカメラCなど)を含むことができる。これらのデータソース(メディア刺激、測定した反応データ及び焦点データ)は、互いに同期又はタイムロック及び/又はイベントロックすることができ、これにより、収集した反応データが、プレゼンテーションの一部に関連付けられてコンピュータデータ処理装置16へ送信される。コンピュータデータ処理装置は、プロセッサ、メモリ、及び生物学的反応データを処理して、強度、同調性及び関心の値を生成するためのソフトウェアを備えた汎用コンピュータ又はパーソナルコンピュータとすることができる。これらのデータソースは、以下に限定されるわけではないが、これらを全て同時に起動させることなどの様々な手段により、或いはこれらの3つのデータソースからデータを収集する(データプロセッサ16内の)個々のシステムが、これらのクロック/イベントタイマを同期できるようにする共通のイベントマーカを提供し、又はシステムの各々におけるクロックを単純に同期させ、又は共通のクロックを使用することにより、外部的に又はデータプロセッサ16内でタイムロック、イベントロック、又は同期することができる。データ処理装置16は、スコア付けアルゴリズムを含むソフトウェアを実行することができ、このソフトウェアは、経時的な、イベントごとの、又は総合的な関心のレベルを計算し、これを同一の又は同様の試験用プレゼンテーションに対する他の視聴者の反応のデータベースと比較して、結果をユーザインターフェイス18へ送出することができる。ユーザインターフェイス18は、データプロセッサ16にアクセスするデスクトップ、又はポータブルコンピュータ、又はコンピュータ端末上に提供することができる。ユーザインターフェイス16は、ウェブベースのユーザインターフェイスであってもよく、或いはデスクトップ、又はポータブルコンピュータ、又はコンピュータ端末上で実行される専用クライアントによって提供してもよい。結果を解釈し、印刷報告又は電子報告20にまとめて配信することができる。反応を測定したときに表示されていたプレゼンテーションの部分に、反応データを関連付けることができる。或いは、確認された遅延に基づいて、反応を引き起こしたと推測されるプレゼンテーションの前の部分に反応データを関連付けることもできる。
生体測定反応を測定するためのモニタリング装置12Aは、このような反応を測定するためのいくつかの市販の又は当業で公知のその他のセンサのいずれかを含むことができる。本発明によれば、体験の中断を最小限に抑えるために、最も快適な形状因子を有する最も侵襲性の低い最も目立たないセンサを選択すべきである。センサは、参加者が「あたかも」全くモニタされていないかのようにプレゼンテーション又は試験的刺激を体験できるようにすべきであることが好ましい。形状因子としては、以下に限定されるわけではないが、「スマート」な衣服、腕時計及びヘッドギアなどの装着型装置、及びマイク、静止カメラ及びビデオカメラなどの遠隔検知装置が挙げられる。自律神経系、顔面筋肉組織、動作及び姿勢、声の特徴、目の動き、呼吸状態、及び脳波の尺度を収集するための多くの装置が利用可能であり知られている。感覚的刺激、集団及びモニタリングの場所によっては、複数のセンサの組み合わせを使用することができる。
自己報告装置12Bは、視聴者メンバーがプレゼンテーション又は対話的活動に対する反応を報告できるようにするための周知の装置のいずれであってもよい。通常、自己報告装置12Bは、視聴者メンバーがプレゼンテーションに対する関心のレベルを示すために操作するノブ、スライダ又はキーパッドを含む。視聴者メンバーは、ノブを回すこと、スライダを動かすこと、又はキーパッド上の特定のボタンを押すことによってプレゼンテーション又は対話的活動に対する関心のレベルを示すことができる。或いは、自己報告装置12Bは、視聴者メンバーがプレゼンテーションとやりとりするために使用できるコンピュータキーボード及び/又はマウスであってもよい。コンピュータ画面上のアイコン又は要素に関連付けられたマウスの動きを使用して、関心のレベルを示すことができる。また、マウス又はその他の入力装置は、視聴者メンバーがマウスに加えた力を測定するための力及び圧力センサなどのセンサを含むことができる。或いは、キーボードキー(上向き矢印、下向き矢印、ページアップ及びページダウン)を使用して、関心のレベルを示すこともできる。また、ユーザは、質問の回答をタイプし、又は複数の選択質問に対して回答を選択することができる。
本発明による関心の尺度を判定する方法の例として、以下を挙げることができる。
(測定された生体測定反応の1又はそれ以上の)個々の強度の尺度を、曝された時間内の時点、又はタイムウィンドウ又はタイムビン、又はイベントマーカに関連付けることができる。この関連付けは、多くの方法を使用して行うことができる。強度の尺度を、曝された期間内のタイムウィンドウ又はイベントウィンドウに関連付けるための方法論は、集団サンプルにおいて判定される個々の関心の尺度と同一又は同様であることが好ましい。例えば、1つの方法では、測定された反応の変化に関連する所与の強度の尺度が、この反応が生じた立上がり時間の半分の箇所に対応するタイムスロット又はイベントウィンドウに割り当てられる。
例えば、データプロセッサ16への入力は、被験者の数をN、測定される反応が記録された時点又はイベントの数をMとするN×Mのデータ行列とすることができる。データプロセッサ16は、1又はそれ以上のソフトウェアモジュールを含むことができ、このモジュールは、測定された反応データを受け取り、その後の処理ステップで使用されるN×M行列を生成する。データプロセッサ16は、強度処理モジュールを含むこともでき、このモジュールは、測定された反応データのN×M行列を受け取り、測定された個々の反応及び個々のタイムスロット又はイベントウィンドウの1又はそれ以上の標準化スコアを計算する。出力は、W秒幅のタイムウィンドウ又はイベントウィンドウ内における被験者全体の反応の強度の総整数スコアとすることができる(これは、プレゼンテーションによって決まる可変パラメータとすることができる)。部分的立ち上がり時間パラメータ(f−rise)を使用して、反応が生じる関連するタイムスロット又はイベントウィンドウを推定することができる。例えば、3つのタイムスロット又はイベントウィンドウW1、W2、W3にわたって生体測定反応の変化が生じ、反応の立ち上がり時間の半分がウィンドウW2中に生じた場合、反応の変化の強度の尺度はウィンドウW2に関連付けられる。或いは、強度の尺度を、ピークを含むウィンドウ(すなわちウィンドウW3)又はトラフを含むウィンドウ(すなわちウィンドウW1)に関連付けることもできる。また、部分的標準偏差パラメータ(f−std)を使用して、基準からの反応の変化の程度を推定し、部分的標準偏差パラメータの関数としてウィンドウを割り当てることができる。或いは、強度の尺度を、タイムスロットの1又はそれ以上、又は反応の変化が記録されるイベントウィンドウに関連付けることができる。代替の実施形態では、強度の尺度を、予め定めた基準又は平均的反応値、又は5と2.5の間の分析固有のパラメータをkとする平均的反応+K*標準偏差の関数である閾値に照らして、測定された反応の関数としてタイムスロット又はイベントウィンドウに割り当てることができる。
この結果、個々の人物に関し、個々の人物が受動的又は対話的プレゼンテーションに曝される個々のタイムウィンドウ又はイベントウィンドウに関連する強度値の組として、反応マップを決定することができる。サンプル集団の強度の尺度は、プレゼンテーションに曝された個々の人物の同じタイムウィンドウ又はイベントウィンドウに関連する強度の尺度を加算することによって求めることができる。この結果、集団サンプルの集合である反応タイムラインが得られる。2又はそれ以上の測定された反応(皮膚導電率、心拍数、呼吸数、動作など)の反応パターンを、タイムウィンドウごとに又はイベントウィンドウごとに組み合わせて(均一に又は不均一に重み付けして)、全体的な強度スコア又は強度タイムラインを決定することができる。この集合を、例えば10又は25人などの集団サイズに関して正規化することができる。
本発明によれば、反応マップ又は反応パターンを使用して、ラジオ、(テレビ及びインターネットの両方のための)印刷及び視聴覚広告、テレビ番組及び映画を評価することができる。1つの実施形態では、集団サンプルを、1又はそれ以上の既知の成功した広告(TV番組、映画又はウェブサイト)に曝すことができ、その後、同じ又は異なる集団サンプルを、新たな広告(TV番組、映画又はウェブサイト)に曝すことができる。反応パターンが、1又はそれ以上の既知の成功した広告(TV番組、映画又はウェブサイト)に対する反応パターンと類似している場合、新たな広告(TV番組、映画又はウェブサイト)も成功すると予想される。さらに、異なる種類の刺激(広告、TV番組、映画、ウェブサイトなど)の反応パターンのデータベースを維持し分析して、成功した広告、テレビ番組、映画又はウェブサイトの属性を判断することができる。特定の統計学的グループ及び心理学的グループの応答マップ及び反応パターンを生成し使用して、これらの統計学的グループ又は心理学的グループによる関心に関してプレゼンテーションを評価することができる。
本発明によれば、データプロセッサ16が同調性処理モジュールを含むことができ、このモジュールは、測定された反応データのN×M行列を受け取り、サンプル集団の少なくとも一部にわたる1又はそれ以上の測定された反応の変化率の逆分散を計算して、所与のタイムスロット又はイベントウィンドウにわたる同調性を表す標準化された値を求める。データプロセッサ16は、集団サンプル内の個々の人物の曝された期間にわたる所与のタイムウィンドウ又はイベントウィンドウ内の反応の勾配を評価することにより、所与の測定された反応の同調性を判定することができる。個々のタイムスロット又はイベントウィンドウには、勾配の値に基づいて勾配値を割り当てることができ、例えば、勾配が大きいほど勾配値も大きくなる。集団サンプルの個々の人物の個々の対応するタイムウィンドウ又はイベントウィンドウの勾配値を処理して、個々のタイムウィンドウ又はイベントウィンドウについて、集団サンプル全体にわたる分散の尺度を求めることができる。例えば、個々のタイムウィンドウ又はイベントウィンドウについての集団サンプルの勾配値の平均偏差及び標準偏差を求め、これを使用してさらに残留分散を求めることができる。この残留分散をさらに正規化し、これを使用して、刺激に対する集団サンプルの反応のタイムロック又はイベントロックされた同調性を示す反応パターンを生成することができる。
同様に、同調性反応マップ又はパターンを使用して、ラジオ、(テレビ及びインターネットの両方のための)印刷及び視聴覚広告、テレビ番組、映画、及び対話型プレゼンテーションを評価することができる。さらに、強度反応パターン及び同調性反応パターンの両方を使用して、説明した刺激を評価することができる。
強度スコア
強度スコアは、以下のステップに基づいて計算することができる。ステップ1:個々の入力チャネルにノイズ低減処理を行った(例えば、個々の生体測定センサに別個のチャネルを割り当てることができる)後、個々の参加者について、ある基準期間にわたって反応の平均偏差(u)及び標準偏差(c)を含む反応の振幅の分布を計算する(これは、刺激によって決まる可変パラメータである)。ステップ2:個々の参加者について、各反応のトラフ及びピーク振幅の場所及びタイミングを推定し、個々のピークとトラフの差分(反応の振幅)を計算する。ステップ3:このようにして求めた値を使用して、振幅がそのチャネルの基準μ未満の場合にはスコア0を、振幅がμとμ+f−(σ)の間にある場合には反応にスコア1を、振幅がμ+f−(σ)を上回る場合には反応にスコア2を、というように個々の反応についてスコアを設定する。ステップ4:f−riseの時点を特定することにより、メディア刺激にタイムロックされた連続する可変長のビンに各参加者の個々の反応スコアを割り当てる。ステップ5:全ての参加者にわたる全てのビンに分けた反応スコアの合計を、個々の生物学的センサについて計算する。(各試験で等しい)回収したセンサの数及び(各試験で異なる)参加者の数に応じてスコアを正規化する。このようにして生成されたスコアが、単位時間当たりの、又はタイムスロット当たりの強度スコアである。
使用するセンサ及び体験しているプレゼンテーションによっては、全てのチャネルが強度スコアに加えられるわけではない。例えば、ある形の呼吸(退屈を暗示するため息など)又は動作(飲物を飲む、又は腕時計を見る)は、実際には強度スコアから差し引くことができる。また、目的が異なるプレゼンテーションについては、強度の尺度の代替バージョンを判定することができる。例えば、ホラー映画を試験している場合、コンテンツの目的は興奮を生むことであるため、計算においては皮膚コンダクタンスなどのセンサにより重く重み付けすることができ、一方で笑いを誘うことを意図しているコメディを試験している場合は、呼吸反応により強い重み付けを使用することができる。
同調性スコア
同調性は、刺激又はプレゼンテーションの一部に対する視聴者(サンプル集団の複数のメンバー)による反応の変化率の尺度である。同じ参加者による複数の視聴又は体験は、複数の参加者による1つの視聴又は体験と同じであると考えることができる。視聴者を、ある期間にわたって、或いは一連のステップ又はイベントを通じて刺激又はプレゼンテーションに曝すことができる。曝された期間を、刺激又はプレゼンテーションを構成する要素又はイベントに対応するウィンドウ又は部分又はイベントに分割することができる。例えば、反応の同調性を、複数の視聴者メンバー又は集団サンプルによる、刺激の一部又はプレゼンテーション中のイベントに対する測定された反応の変化率の関数として求めることができる。
本発明によれば、データプロセッサ16への入力を、被験者の数をN、生物学的反応を記録する時点の数をMとするN×Mのデータ行列とすることができる。データプロセッサ16は、1又はそれ以上の同調性処理モジュールを含むことができ、このモジュールは、生物学的反応データのN×M行列を受け取り、行列値全体にわたって逆分散を計算し、測定された個々の生物学的反応及び個々のタイムスロットの1又はそれ以上の標準化スコアを求める。出力は、W秒幅のタイムウィンドウ内における被験者全体の反応の同調性の総整数スコアとなる(これは、刺激によって決まる可変パラメータである)。本発明によれば、曝された期間にわたる特定のタイムウィンドウ又はスロットにおける反応の変化率を試験視聴者内の個々の参加者について評価することにより、所与の反応の同調性を求めることができる。
同調性スコアは、以下のステップに基づいて計算することができる。ステップ1:個々の入力チャネルにノイズ低減処理を行った後、ウィンドウサイズよりも小さい時間増分で前方へ移動する固定又は可変幅のスライドウィンドウを生成する。ステップ2:各スライドウィンドウにおいて、各参加者について1又はそれ以上の反応終了点の第1の導関数を計算する。ステップ3:全ての参加者全体にわたり、各ウィンドウにおける変化率の平均(μ)及び標準偏差(σ)を計算する。ステップ4:上記からスコア=In|σ−μ|を計算する。ステップ5:結果として得られたスコアを、全ての数が0〜100の間になるようにスケーリングする。ステップ7:スライドスコアを、メディア刺激にタイムロック又はイベントロックされた固定長又は可変長の連続ウィンドウに平均化することにより、強度スコアウィンドウに対応するウィンドウごとのスコアを計算する。このようにして生成されたスコアが、単位時間当たりの又はタイムスロット又はイベントウィンドウ当たりの同調性スコアである。
関心スコア
強度スコア及び同調性スコアをともに加算して、単位時間ごとの、又はタイムスロット又はイベントウィンドウ当たりの経時的な又はイベントに基づく関心スコアを計算することができる。試験用プレゼンテーション及び試験視聴者の性質によっては、強度スコア及び同調性のスコアの一方を他方に対して重み付けすることができる。例えば、いつかの試験では、最も極端な反応を識別することが好ましい場合があり、従って強度の方が重く重み付けされる。或いは、異なる関数を使用して、異なる形の関心スコアを求めることができる。例えば、強度に同調性を乗ずることにより、何時間にもわたる裁判の証言を評価する場合などのいくつかの状況においてより信頼できる有効な誇張されたグラフが生成され、最も極端な関心の例を識別するために有用となり得る。
図4A及び図4Bに、本発明によって求められる関心の尺度の2つの例を示している。この関心の図は、20人の男性のサンプル集団視聴者から生成したものである。図4Aは、30秒のコマーシャルに対する関心の尺度又はパターンを示しており、その期間を6個の5秒のタイムスロットに分割し、各タイムスロットについて40〜100の関心値を求めたものである。図4Aの図が示すように、関心のパターンは時間とともに増加する。図4Bは、60秒のコマーシャルに対する関心の尺度又はパターンを示しており、その期間を12個の5秒のタイムスロットに分割し、各タイムスロットについて40〜100の関心値を求めたものである。図4Aのコマーシャルでは、図4Bのコマーシャルと比較して、チャンネルを変えない視聴者の数が3倍であった。
予測モデリング
システムは、人口学的/心理学的プロファイル、及び試験用コンテンツに関連するその他のデータと組み合わせた場合に、同様の集団におけるそのコンテンツの相対的成功の予測を可能にする、様々な過去のメディア又はその他の関連する刺激又は体験に対する視聴者の関心のデータベースをさらに含むことができる。視聴者を試験した後に、説明した方法からの様々な形の出力を使用して、感覚的刺激が目的の達成において成功する可能性を推定することができる。予測モデルを作成するための統計分析としては、以下に限定されるわけではないが、製品又はコンテンツ自体に関する変数、製品又はコンテンツの販売価格又は生産原価、購入場所又は体験媒体、販売促進コスト及び/又は視聴者の特性を挙げることができる。例えば、テレビ業界向けのモデルに含まれる因子としては、以下に限定されるわけではないが、a)タイムスロット当たりの視聴者数、b)番組導入部分の視聴率、c)後続番組の視聴率、d)その種の番組の平均視聴率、)、e)主演男優/女優の人気度、f)時期、g)広告収入、h)番組の販売促進予算、及び/又はi)ネットワークの人気を挙げることができる。他の因子としては、以下に限定されるわけではないが、a)報告のあった番組の好み、b) 心理学的特性(内向性対外向性など)、c)人口学的特性、及び/又はd)番組の要素を思い出す又は認識する能力、などの標的視聴者の特性を挙げることができる。成功の指標としては、以下に限定されるわけではないが、類似する特徴の集団が、試験的劇場の外でどの程度テレビ番組を見るか、及び/又は類似する特徴の集団が、広告されている製品をどの程度覚えているか、及び/又はどの程度購入するかを挙げることができる。試験される人数が多いほど(サンプル集団が大きいほど)、またその集団がより良く特徴付けられるほど、そのモデルがより大きな集団の反応の正確な予測材料となる可能性が高くなることが好ましい。好ましい予測モデルとして、以下に限定されるわけではないが、a)混合メディアモデル、b)古典的な多変量解析、c)階層的線形モデリング、d)機械学習、e)回帰分析、f)ベイズ収縮推定量、及び/又はg)クラスタ及び因子分析といった統計モデルのいずれかを挙げることができる。
図2Aに、本発明によるシステムの第2の実施形態の概略図200を示している。この実施形態では、メディア刺激が、ケーブルTV信号など商用のビデオ信号22を介して提示され、STB22Aにつなげられる。さらに、STB22Aは、TVモニタ、コンピュータ、ステレオなどのメディア装置24上に番組を表示できるようにする。このシステムでは、ブレスレット32などの目立たない形状因子の無線センサパッケージを装着した、視聴距離内にある参加者30がメディア装置とやりとりする。また、例えば、視標追跡及び表情、並びにその他の身体的及び行動的反応を測定するために、ブレスレット32、1又はそれ以上のビデオカメラ(又は、その他の公知の検知装置、図示せず)を提供することができる。この人物が基本的な視聴距離内にある限り、個別のユニットであっても又はSTB22に内蔵してもよいセンサ受信機26が、この参加者に関する情報を受け取る。システム200は、測定された反応に、この参加者の一意の識別子とともにタイムスタンプ又はイベントスタンプすることができる。このデータでは、参加者が現在再生している番組に対してタイムスタンプ又はイベントスタンプすることができる。この情報を、インターネット接続、ポケベル又は携帯電話ネットワークなどの伝送ネットワーク28を介して中央データベース216へ返送することができる。このデータを、人口統計、家庭、家族、コミュニティ、場所、及び潜在的にエンドユーザに関連する他のあらゆる種類の情報と組み合わせ、本願で説明するスコアリングアルゴリズムを使用して経時的な又はイベントに基づく関心のパターンを計算するソフトウェアによって処理し、同一の又は同様のメディア試験刺激36に対する他の視聴者の反応のデータベースと比較し、上述した関心スコア及び/又は予測モデルを使用して処理し、ユーザインターフェイス(11)に送出して、配布するための報告を作成することができる。
図2Bには、本発明の家庭内での実施形態の使用を改善するための家庭内コンプライアンスアルゴリズムのフロー図210を示している。このシステムを配置できる家庭では、使用中のメディア装置上の番組を変更する能力を制御することによってコンプライアンスに対処することができる。センサ装置が装着されておらず作動していない場合には、STB22Aを、(部分的に又は完全に)機能しないようにプログラムすることができる。センサが装着されている場合又は充電中である場合には、STBを、機能するようにプログラムすることができる。しかしながら、センサが装着されていて完全に充電済みの場合には、STBを、完全に又は部分的に反応しないようにプログラムすることができる。部分的機能モードでは、例えば一般からのアクセス用及び緊急用の局などのいくつかの局のみを利用可能とすることができる。動作のフローチャート210は、1又は複数のセンサから信号を得ている(42)かどうかを確認する(44)受信機26を必要とするが、これはセンサが起動しておりかつ装着されている場合にのみ可能である。受信機が信号を得ている場合、一定時間待ってから再開する(46)。受信機が信号を受信していない場合、システムは、取り付けた受け台の中でセンサ装置が充電中であるかどうかをチェックする(48)。充電中でありバッテリが満タンでない場合にも、一定間隔待ってから再チェックする(50)。しかしながら、センサが作動していない場合、充電中ではないか又は完全に充電されていない場合、及び使用されていない場合、STBは、次のチェックで変化が示されるまで休止状態となることができる(52)。
図2Cには、家庭内システムの1つの態様、すなわち、所与の家族内の誰が実際に見ているかを識別する能力を示している。センサを受信機に接続することに関与する無線技術では、一意の識別子が送信される。この識別子は、生体測定データのソースを識別してこれを現在のメディア刺激に結び付けるために、送信されたデータに関連付けられる。センサを装着してはいるが受信機から規定の無線範囲内にいない人物については全て、その範囲外にいる間に自身の情報が追跡されることはない。無線信号が受信されない場合、システムはある期間待機する(68)。しかしながら、これらの人物が別の受信機(及びSTB26)の範囲内にあり(62)、信号が受信される(62)場合、このシステムがこの人物の情報を追跡することができる。フローチャート220は、センサ装置を受信機又はSTB22Aに接続するために使用される(Bluetoothなどの)無線技術26を必要とする。無線通信を使用して、受信機(図示せず)とSTB22Aの間に接続を確立して(66)データを転送するとともに、上述のコンプライアンスを判定するために必要なデータを転送することができる。参加者が識別されると、その参加者に関する情報を収集し、データベース(DB)へ送信し(70)、上記のように処理して(74)、配信のための報告を作成する。
図3には、本発明によるシステム300の第3の実施形態の概略図を示している。この実施形態では、感覚的刺激を生の人物310とすることができ、本発明のシステム及び方法を、以下に限定されるわけではないが、生のフォーカスグループのやりとり、公判前又は模擬裁判中の陪審への生のプレゼンテーション、面接官と面接者のやりとり、教師と生徒又は生徒のグループ、患者と医師のやりとり、デート中のやりとり、又はその他の何らかの社会的相互作用に適用することができる。この社会的相互作用を、1又はそれ以上の音声、静止画像又はビデオ記録装置314などによって記録することができる。生物学的モニタリングシステム312Aを使用して、互いにタイムロックされた各個々の参加者312の生物学的反応について、この社会的相互作用をモニタすることもできる。また、別の又は同じビデオカメラ又はその他のモニタリング装置314の焦点を視聴者に当てて、顔の反応及び/又は視標追跡、凝視、持続時間及び場所をモニタすることができる。或いは、(ヘルメット装着型又は眼鏡装着型などの)1又はそれ以上の頭部装着型カメラ314を使用して視標追跡データを供給することができる。データとソースを互いにタイムロック又はイベントロックして、コンピュータデータ処理装置316へ送信することができる。データ処理装置316が実行できるソフトウェアは、経時的な又はイベントに基づく関心のパターンを計算するためのスコアリングアルゴリズムを含み、同一の又は同様のメディア試験刺激に対する他の視聴者の反応のデータベースと比較し、この結果をユーザインターフェイス318へ送出する。結果を、上述したような予測モデルにおいて処理し解釈して、配布のために報告320に収集することができる。
アルゴリズムは単独で提示することもでき、又は関連業界のモデルにつなぐこともできる。テレビのパイロット試験を例にとると、モデルは以下のような因子を含むことができる。
1.タイムスロット当たりの典型的視聴者
2.番組導入部分の視聴率
3.後続番組の視聴率
4.ジャンル当たりの平均視聴率
5.俳優の人気−QRating
6.そのタイムスロットにおける競合番組の視聴率
7.時期
8.番組の販売促進予算
9.ネットワークの人口統計
広告からの例はこれらの変数を全て含むことができるが、以下を追加することもできる。
1.フライティング/反復
2.セグメント長
3.標的視聴者
4.含んでいる番組の人口統計
本発明の代替の実施形態によれば、視聴者(1又はそれ以上の個人)が、対話的でありイベントに分離することができる1又はそれ以上の聴覚的、視覚的、又は視聴覚的刺激物(プレゼンテーション又はコンテンツの項目など)に曝される。イベントは、特定の時点に、指定した持続時間にわたる刺激への暴露又はこの刺激との相互作用である。通常、刺激又はプレゼンテーションは、コンピュータ画面又は大型テレビ画面上に提示することができ、マウス、キーボード又はリモコンなどを使用して、ユーザ(視聴者メンバー)入力を受け入れるシステムに関連して使用することができる。
本発明の実施形態によれば、システムが1又はそれ以上の反応を測定し、この測定された(単複の)反応を、反応時に個々の視聴者メンバーに提示されていた、又は個々の視聴者メンバーが体験していた刺激の部分(例えば、対話型プレゼンテーションの部分)にイベントロック又はタイムロックすることができる。また、視標追跡に関して、システムは、視聴者の各メンバーの関心範囲及び視覚的注意(これらに対して視標追跡が行われ、可能になる)を記録することができる。関心範囲としては、所定の標的範囲、サブ範囲、項目、創造的要素、或いは個々の又は集約後の対話的活動の分析に使用される対話型プレゼンテーション内の一連の範囲又は要素(又はその他の刺激)を挙げることができる。視覚的注意は、個人の凝視固定、場所及び動きを非侵襲的に視標追跡することによって測定することができ、規定のユーザグループ及び視聴者集団サンプルに関して集約することができる。
本発明の実施形態によれば、システムが、対話型プレゼンテーション中に1又はそれ以上のイベントについて視聴者の各メンバーの生体測定尺度を記録することができる。生体測定尺度としては、以下に限定されるわけではないが、瞳孔反応、皮膚導電率及び電気皮膚反応、心拍数、心拍変動、呼吸反応及び脳波活動を挙げることができる。行動型尺度としては、以下に限定されるわけではないが、顔のミクロ及びマクロ表情、頭部の傾き、頭部の曲がり、体位、体の姿勢、及びコンピュータマウス又は同様の入力又は制御装置に加わる圧力の量を挙げることができる。自己報告型尺度としては、以下に限定されるわけではないが、体験の知覚、体験の使い勝手の良さ/有用性又は好ましさの知覚、ユーザとの個人的関連性のレベル、コンテンツ又はコンテンツに埋め込まれた広告に対する態度、製品/ゲーム又はサービスを購入する意図、及び試験の前後からの反応の変化などの項目への調査回答を挙げることができる。自己報告尺度は、人口学的情報の報告又は心理学的プロファイリングの使用を含むこともできる。
図5に、本発明の1つの実施形態による、視聴者510のメンバーをコンピュータシステム520に提示される対話型プレゼンテーションに曝すためのシステム500の概略図を示している。ユーザ510は、キーボード及び/又はマウス524を使用して、コンピュータ画面522上に表示されたプレゼンテーションとやりとりすることができる。ヘッドホン526又はスピーカ(図示せず)によって音を与えることができる。さらなる入力装置526を使用して、例えばポテンショメータなどを含むハンドヘルド装置526上のスライダ又はダイヤルの位置の形の好き嫌い情報などの自己報告データを受け取ることができる。1又はそれ以上のビデオカメラ532、生体測定感知シャツ534A又はブレスレット534Bなどの1又はそれ以上の生体測定モニタリング装置534を使用してユーザをモニタすることができる。また、マウス522は、マウスボタンに加わる圧力を検出する圧力センサ又はその他のセンサを含むことができる。これらのセンサ532、534A、534Bを使用して、視標追跡、行動的及び生物学的反応などの生体測定反応を測定することができる。また、コンピュータ520を使用して、コンピュータにより生成された調査などの自己報告反応、キーボード522を介したフリーテキスト入力、又はヘッドホン526を介した音声反応を測定及び/又は記録することもできる。データ処理システム540は、予め定めたプログラム又はシーケンスに基づいてユーザ510に対話型プレゼンテーションを提示し、反応データをプレゼンテーションに結び付けるようにして視標追跡データ及びその他の生体測定反応データを記録することができる。有線又は無線ネットワーク542により、データ処理システム540をコンピュータシステム520に接続して、プレゼンテーションコンテンツをコンピュータシステム520へ送出することができる。有線又は無線ネットワーク542を使用して、センサ反応データを記憶してさらに処理するためにデータ処理システム540へ送出することもできる。(センサ532、534A及び534Bなどからの)センサデータ及び(入力装置522、524及び526などからの)入力データの一部又は全部をコンピュータシステム520へ有線又は無線で転送し、これをデータ処理システム540へさらに転送することができる。或いは、センサデータ及び入力データの一部又は全部を、有線又は無線ネットワーク542によりデータ処理システム540へ直接転送することができる。ネットワーク542は、例えば、RS−232、イーサネット(登録商標)、WiFi、BlueTooth及びZigbeeなどのほとんどの通信技術を利用することができる。また、2以上の通信技術を同時に使用することができ、例えば、ネットワーク542は、データ処理システム540に異なるセンサ及びコンピュータシステムコンポーネントを接続するために、(イーサネット及びデジタルケーブルなどの)有線構成要素及び(WiFi、WiMax、及びBlueToothなどの)無線構成要素を含むことができる。さらに、データ処理システム540を、1つのコンピュータシステム又はコンピュータシステムのクラスタ又はグループとすることもできる。反応データを、(関連するタイムスタンプ又はイベントウィンドウを使用して調整することにより)プレゼンテーションとリンク又は同期させ、これにより反応データをプレゼンテーションの増分タイムスロットに関連付けることができる。或いは、例えば、対話型プレゼンテーションに含まれる特定のタスク又は活動に基づいて、プレゼンテーションをイベントウィンドウに分割することができ、この特定のタスク又はタスクの部分に関連するイベントウィンドウに反応データを関連付けることができる。個々のタスク又は活動は、これに関連する1又はそれ以上のイベントウィンドウを有することができ、個々のイベントウィンドウは、同じ又は異なる持続時間を有することができる。
本明細書で開示する他の実施形態と同様に、1又はそれ以上の個人に関してタイムスロット又はイベントウィンドウの強度及び同調性指数を求めることができ、対話型プレゼンテーション又はプレゼンテーション内の1又はそれ以上のタスク又は活動に関する関心のレベル又は関心指数を求めるために、個々の強度及び同調性指数を、対話的活動のサンプル集団に関して集約することができる。
本発明の1つの実施形態によれば、視標追跡、行動尺度及びその他の生体測定尺度を(個々に又は組み合わせて)ユーザに提示して、これらの反応の自覚意識を生み出し、自己報告尺度の精度及び有用性を改善することができる。強度、同調性及び関心メトリクスに加え、自己報告尺度を使用して、プレゼンテーション又は活動に対する視聴者の反応を評価することができる。ユーザを対話型プレゼンテーションに曝し、その後ユーザを2回目の対話型プレゼンテーション(又はプレゼンテーションの特定部分)に曝してユーザの視標追跡、行動的反応及びその他の生体測定的反応の情報又は代表的情報を与え、その後ユーザに調査質問(又はアンケート)を提示し、1対1の報告聴取又はインタビューに曝し、又は定性的フォーカスグループに関与させることができる。或いは、2回目にプレゼンテーションを視聴するときに、プレゼンテーションに対する反応に合わせてユーザに質問を行うこともできる。
同調性、強度及び関心に加え、プレゼンテーションに対するユーザ及びグループの反応を評価するために使用できる収集した反応データから、その他の尺度又は指数を判定することもできる。これらの尺度又は指数は、生体測定的認知力、生体測定的感情力、及び視覚影響力を含む。個々のプレゼンテーション、タスク、プロセス又は体験について、1又はそれ以上の流動指数、魅力指数及び関心指数を求め、全体的な視聴者の反応の評価及び予測性を支援することができる。尺度又は指数の各々は、本発明による1又はそれ以上の方法を使用する本発明のコンピュータシステムを使用して特定又は計算することができる。好ましい実施形態では、本発明によるコンピュータシステム上で実行されるコンピュータソフトウェアモジュールにより、尺度又は指数の1又はそれ以上を求めることができる。このコンピュータソフトウェアモジュールは、より大きなプログラムの独立プログラム又はコンポーネントとすることができ、その他のプログラム及び/又はモジュール又はコンポーネントと相互作用する能力を含むことができる。
本発明の1つの実施形態によれば、コンピュータシステムが、コンピュータシステムのメモリに記憶することによって生体測定センサ及びビデオカメラにより生成される生体測定データ及びその他のデータを記録するコンピュータソフトウェアモジュールを含むことができる。この記憶された生体測定データ及びその他のデータを、プレゼンテーションの持続時間又は刺激の役目を果たす活動のイベントウィンドウ内の時点に関連付けることができる。これは、時間価値と対になった又はこれと結び付けられた1又はそれ以上のデータ値を記憶すること、或いは1又はそれ以上の記憶したデータ値を1又はそれ以上の時点に関連付けるデータベースを使用することによって行うことができる。プレゼンテーションが終了し、又は活動が完了した後、コンピュータシステム上で実行されるソフトウェアが、記憶された生体測定データ及びその他のデータを処理して様々な尺度及び指数を求めることができる。或いは、記憶したデータを、様々な尺度及び指数を求める処理を行うための別のコンピュータシステムに転送することができる。
対話型タスク、プロセス又は体験中のイベント時間(持続時間又は頻度)の、瞳孔反応などの認知反応(値又は振幅の値、大きさ、又は変化率)が予め定めた閾値を上回る(例えば、kを例えば0.5、1.0、1.5とすることができる場合にk*標準偏差による平均又は平均的反応を上回るか又は下回る)部分の関数として、イベントウィンドウ(又はタイムスロット又はタイムウィンドウ)の生体測定認知力指数を求めることができる。他の実施形態では、瞳孔反応の代わりとして又はこれに加えて、EEG又は脳波活動などのその他の認知反応の尺度を使用することができる。
イベントeの生体測定認知力指数(e)は、各被験者の体験の最初のT秒(被験者の分析持続時間Tという)における、測定した認知反応が予め定めた閾値を上回った時点ti(又は時間の部分又はパーセンテージ)の数の合計として求めることができ、これを同じ体験/刺激を見た全ての被験者にわたって平均化することができる。
例えば、生体測定的認知力(e)=[全ての被験者s全体にわたる]平均(認知_反応(s、ti)の合計)であり、この場合、ti<T、及び認知反応(瞳孔_反応)>指定閾値である。
本発明の1つの実施形態では、分析持続時間Tを、被験者のイベント体験の最初の5秒に設定することができる。他の実施形態では、例えば5〜10秒の間に設定することができる。他の実施形態では、イベント持続時間又はタイムウィンドウの1/2又は1/3に設定することができる。
本発明の1つの実施形態では、時点tiを、生体測定センサ用システムのサンプリング速度、例えば20ミリ秒とすることができる。他の実施形態では、0.10秒及び0.01秒などの他の時間単位を使用することができる。
この場合、この例では、測定される認知反応が瞳孔反応関数である。反応が、イベントeに対する被験者sの平均反応に対して、0.5と1.5の間などの分析固有の閾値又はパラメータをkとするk*標準偏差よりも大きく異なる場合、瞳孔反応(s、ti)という関数を、イベントウィンドウe中の時点tiにおける被験者sの反応とすることができる。分析持続時間の長さは、プレゼンテーションの個々の刺激画像、イベント又はシーンに特化したものとすることができる。
本発明の1つの実施形態によれば、分析持続時間Tを、平均的個人がプレゼンテーションの画像、イベント又はシーン内に示される情報を処理するのに必要な時間の1/2〜1/3として決定することができる。例えば、プレゼンテーションが、主にテキスト文書又は印刷素材で構成されている場合、分析持続時間Tを、例えば15〜45秒の範囲に設定し、タイムウィンドウ又はイベントウィンドウの最初に、或いはタイムウィンドウ又はイベントウィンドウの例えば最初の15秒以内に開始することができる。画像、イベント又はシーンが、主に(文字情報がごくわずかな)印刷広告などの視対象/図面で構成されている場合、分析持続時間Tを5〜10秒の範囲に設定することができる。本発明の代替の実施形態では、分析持続時間を、イベントウィンドウ又はタイムウィンドウの最初の5秒に設定することができる。他の実施形態では、分析持続時間Tを、イベントウィンドウ又はタイムウィンドウ以下のいずれかの時間単位とすることができ、イベントウィンドウ又はタイムウィンドウ中のあらゆる時点で開始することができる。例えば、ショッピングなどの対話的活動では、イベントウィンドウを、視聴者メンバーが購入する品目を選択し、購入し、又は品目を返却する時間単位とすることができ、分析持続時間Tは、近似的に視聴者メンバーが購入する品目を選択し、購入し、又は品目を返却した時点で開始することができる。
本発明の1つの実施形態によれば、生体測定認知力指数の特定を、コンピュータシステムのメモリに記憶された生体測定データにアクセスする、別のプログラムモジュールからデータを受信する、又はこれを生体測定センサから直接受信するコンピュータプログラム又はコンピュータプログラムモジュール内で実行することができる。データは、リアルタイムデータであっても、或いは1又はそれ以上の視聴者メンバーから以前に捕捉して後で処理するために記憶したデータであってもよい。
本発明の1つの実施形態によれば、本明細書に記載するデータマイニング本のいずれかに記載された予測モデルを使用して、被験者の(すなわち視聴者メンバーの)行動(例えば、刺激又はイベントに記述された製品の購入/返却)などの結果変数を利用することにより、k及び分析持続時間Tを含むパラメータを計算することができる。このデータマイニング本には、Larose Daniel T著、データマイニング方法及びモデル、John Wiley & Sons社、2006年、Han、Micheline Kamber Jiawei共著、データマイニング:概念及び技術、第2版、(データ管理システムにおけるMorgan Kaufmannのシリーズ)、Elsevier社、2006年、Liu、Bing共著、ウェブデータマイニング:ハイパーリンク、コンテンツ及び使用データの探索(データ中心システム及びアプリケーション)、Springer−Verlag、2007年、及びBerry、Michael J.A.、Linoff、Gordon S共著、データマイニング技術:マーケティング、販売及び顧客関係管理に向けて、John Wiley & Sons社、1997年があり、これらは全てその全体が引用により本明細書に組み入れられる。
画像などの視覚刺激に関しては、例えば、2次元画面範囲を、サイズm×nのセル又は画素のグリッドで構成されたものとして表すことができる。m及びnの値は視覚刺激のパラメータ及び視覚刺激を表示するコンピュータ又はテレビ画面によって決まり、プレゼンテーション画面の画素解像度とし、又はプレゼンテーション画面の画素解像度の関数として求めることができる。通常、m×nは、1280×1024又は640×480となる。本発明の1つの実施形態では、視覚画面を、1280×1024グリッドの画素とすることができ、刺激グリッドを、グリッドセルの行列により、例えば(グリッドセルを2×2行列の画素として定義することにより)640×512として表すことができる。
凝視場所は、視聴者メンバーの凝視の焦点であるとともに時間又はイベントウィンドウ中に視聴者メンバーが見たグリッドセルの組(0−(m*n))を表すと判断されるグリッドセルの組として定義することができる。視聴者メンバーが1つのグリッドセルに焦点を合わせた場合、凝視場所はこの1つのグリッドセルであり、一方で視聴者メンバーが2つ以上のグリッドセルに焦点を合わせた場合、凝視場所はグリッドセルの組、又はこのグリッドセルの組(最も長い時間にわたって焦点となったグリッドセル又は隣接グリッドセルの組など)の関数である。グリッドセルが2以上の画素として定義された場合、グリッドセル内の画素のいずれかに焦点を合わせている視聴者メンバーは、このグリッドセルの場所を凝視していると考えられる。画面上のグリッドセルの組を使用して隣接範囲を識別するために、凝視場所を使用することができる。或いは、凝視場所は、個々の範囲が互いにばらばらの隣接範囲のグループを表すこともできる。
刺激が、画像又はビデオなどの視覚成分を有する場合、個人の又は集合グループの凝視固定の範囲を、認知力指数に対応するプレゼンテーション(又はこの中の画像、イベント又はシーン)上に、生体測定認知力指数(認知反応の持続時間又は頻度が閾値レベルを上回る場合)及び凝視場所の関数としてプロットすることにより、生体測定認知マップを生成することができる。生体測定認知マップを使用して、高レベルの認知活動を示すより高レベルの反応に関連するプレゼンテーションの範囲を識別することができる。具体的には、生体測定認知マップは、例えば、被験者の体験の分析持続時間中に被験者の認知反応がその平均からk*標準偏差(kは0.5と1.5の間とすることができる)だけ異なる場合の凝視場所又は刺激の視覚的部分における場所の集合領域を表す。凝視場所は、分析持続時間内で、個々の被験者に関して時間的瞬間にわたって(例えば、被験者「s」が、ある場所を瞬間「h」及び「h+5」に見る)、或いは被験者の体験の分析持続時間内で、その場所を見ている異なる被験者わたって集まることがある。本明細書で開示するデータマイニング本に記載されるような様々なクラスタリングアルゴリズムを使用して、特定の凝視場所の組から集合領域又はクラスタを作成することができる。
本発明の1つの実施形態によれば、生体測定認知マップを、コンピュータプログラムによって、コンピュータプログラムモジュールによって、或いはコンピュータシステムのメモリに記憶された、別のプログラムモジュールから受信された、又は生体測定センサ及び視標追跡システムから直接受信された生体測定認知力指数データ及び凝視固定データにアクセスするコンピュータプログラムモジュールの組によって生成することができる。データは、リアルタイムデータであっても、或いは1又はそれ以上の視聴者メンバーから以前に捕捉して記憶したデータであってもよい。
本発明の1つの実施形態によれば、まず特定の時間又はイベントウィンドウなどに関して認知マップ内に凝視場所をプロットし、その後クラスタ又は集合範囲を作成してクラスタの範囲又は相対的範囲を求めることにより、生体測定認知プロットエリアを決定することができる。
本発明の1つの実施形態によれば、システムが、本発明の方法に基づいて、分析持続時間を上回る期間にわたって刺激に曝された全ての被験者の刺激(又はイベント)に関して、著しい認知反応(閾値を満たす又は上回る反応)に対応する凝視場所を生体測定認知マップ内にプロットすることができる。これは、例えば、コンピュータプログラム、コンピュータプログラムモジュール、又はコンピュータプログラムモジュールの組内で実施することができる。例えばkを0.5から1.5の間とすることができるk*std_偏差によって、被験者の認知反応が被験者の平均反応を上回るか又は下回る(すなわち、異なる)場合にのみ凝視場所をプロットすることができる。反応が平均を上回る場合、その場所は、認知反応が高い場所と呼ぶことができ、この場所は、高認知場所と考えることができる。反応が平均を下回る場合、その場所は、認知反応が低い場所と呼ぶことができ、この場所は、低認知場所と考えることができる。
また、周知のクラスタリングアルゴリズムを使用して、隣接する高い場所及び/又は隣接する低い場所を近接度(互いの距離)に基づいて組み合わせることができる。クラスタリングアルゴリズムの例は、本明細書で開示したデータマイニング本に開示されている。
本発明の1つの実施形態によれば、以下のようにクラスタ化を達成することができる。
高い場所又は低い場所を識別する個々のグリッドセルに関し、このグリッドセルの組を拡張して、その全ての隣接グリッドセル、すなわち全ての方向における5つのグリッドセル(すなわち、グリッドセルを中心とする半径5の円だけ拡張する)をクラスタに含める。代替の10〜15の半径のグリッドセルを使用することもできる。従って、ある種類の(高い又は低い)グリッドセルの組のクラスタが、いずれかの「埋まっていない隙間」(範囲内の非選択グリッドセル)を含み、認知マップ内の1又はそれ以上の隣接する「幾何学領域」を識別することができる。認知マップ内の低認知クラスタは低認知場所をクラスタ化し、認知マップ内の高認知クラスタは高認知場所をクラスタ化する。クラスタリングアルゴリズムを、単一のグリッドセル(又は画素)又は隣接するグリッドセル(又は画素)の組から開始して反復的に適用し、所定数のクラスタが定義されるまで繰り返すことができる。
生体測定認知プロットエリアは、認知マップ上で識別された又は認知マップのために定義された低クラスタ及び高クラスタを有することができる。システムは、本発明の方法に基づいて、高及び/又は低認知クラスタの全域を判定することにより、生体測定認知プロットエリアを決定することができる。生体測定認知プロットエリアは、クラスタ又はクラスタグループ内の画素又はグリッドセルの数に関して、又はプレゼンテーション画面の全域又はプレゼンテーション画面の一部(象限又は領域など)の割合(又はパーセンテージ)として測定することができる。
本発明の1つの実施形態によれば、コンピュータプログラムを使用して、コンピュータプログラムモジュールを使用して、或いはコンピュータシステムのメモリに記憶された、別のプログラムモジュールから受信された、又は生体測定センサ及び視標追跡システムから直接受信された生体測定データ及び凝視固定データ及び/又は(生体測定認知力指数などの)中間データ構築物にアクセスするコンピュータプログラムモジュールの組を使用して、生体測定認知プロットエリアを決定することができる。データは、リアルタイムデータであっても、或いは1又はそれ以上の視聴者メンバーから以前に捕捉されて記憶されたデータであってもよい。
対話型タスク、プロセス又は体験中のイベント時間(持続時間又は頻度)の、皮膚コンダクタンス、心拍数及び呼吸反応の1又はそれ以上などの感情反応(値又は振幅の値、振幅又は変化率)が、予め定めた閾値を上回る(例えば、kを0.5、1.0、1.5とすることができるk*標準偏差による平均又は平均的反応を上回る又は下回る)部分の関数として、イベントウィンドウ(又はタイムスロット又はタイムウィンドウ)の生体測定感情力指数を求めることができる。他の実施形態では、皮膚コンダクタンス、心拍数、及び脳波活動など呼吸反応の代わりとして又はこれらに加えて他の感情反応の尺度を使用することができる。
イベントeの生体測定感情力指数(e)は、各被験者の体験の最初のT秒(被験者の分析持続時間Tという)における、測定した感情反応が予め定めた閾値を上回る時点ti(又は時間の部分又はパーセンテージ)の数の合計として求めることができ、これを同じ体験/刺激を見た全ての被験者にわたって平均化することができる。
例えば、生体測定感情力(e)=[全ての被験者s全体にわたる]平均(感情_反応(s、ti)の合計)であり、この場合、ti<T、及び感情反応(皮膚_コンダクタンス_反応)>指定閾値である。
本発明の1つの実施形態では、分析持続時間Tを、被験者のイベント体験の最初の5秒に設定することができる。他の実施形態では、例えば5〜10秒の間に設定することができる。他の実施形態では、イベント持続時間又はタイムウィンドウの1/2又は1/3に設定することができる。
本発明の1つの実施形態では、時点tiを、生体測定センサ用システムのサンプリング速度、例えば20ミリ秒とすることができる。他の実施形態では、0.10秒及び0.01秒などの他の時間単位を使用することができる。
この場合、この例では、測定される感情反応が皮膚コンダクタンス反応関数である。反応が、イベントeに対する被験者sの平均反応に対して、0.5と1.5の間などの分析固有の閾値又はパラメータをkとするk*標準偏差よりも大きく異なる場合、皮膚コンダクタンス反応(s、ti)という関数を、イベントウィンドウe中の時点tiにおける被験者sの反応とすることができる。分析持続時間の長さは、プレゼンテーションの個々の刺激画像、イベント又はシーンに特化したものとすることができる。
本発明の1つの実施形態によれば、分析持続時間Tを、平均的個人がプレゼンテーションの画像、イベント又はシーン内に示される情報を処理するのに必要な時間の1/2〜1/3として決定することができる。例えば、プレゼンテーションが、主にテキスト文書又は印刷素材で構成されている場合、分析持続時間Tを、例えば15〜45秒の範囲に設定し、タイムウィンドウ又はイベントウィンドウの最初に、又は時間又はイベントウィンドウの例えば最初の15秒以内に開始することができる。画像、イベント又はシーンが、主に(文字情報がごくわずかな)印刷広告などの視対象/図面で構成されている場合、分析持続時間Tを5〜10秒の範囲に設定することができる。本発明の代替の実施形態では、分析持続時間を、イベントウィンドウ又はタイムウィンドウの最初の5秒に設定することができる。他の実施形態では、分析持続時間Tを、イベントウィンドウ又はタイムウィンドウ以下のいずれかの時間単位とすることができ、イベントウィンドウ又はタイムウィンドウ中のあらゆる時点で開始することができる。例えば、ショッピングなどの対話的活動では、イベントウィンドウを、視聴者メンバーが購入する品目を選択し、購入し、又は品目を返却する時間単位とすることができ、分析持続時間Tは、近似的に視聴者メンバーが購入する品目を選択し、購入し、又は品目を返却した時点で開始することができる。
本発明の1つの実施形態によれば、生体測定感情力指数の特定を、コンピュータシステムのメモリに記憶された生体測定データにアクセスする、別のプログラムモジュールからデータを受信する、又はこれを生体測定センサから直接受信するコンピュータプログラム又はコンピュータプログラムモジュール内で実行することができる。データは、リアルタイムデータであっても、或いは1又はそれ以上の視聴者メンバーから以前に捕捉して後で処理するために記憶したデータであってもよい。
本発明の1つの実施形態によれば、本明細書に記載するデータマイニング本のいずれかに記載された予測モデルを使用して、被験者の(すなわち視聴者メンバーの)行動(例えば、刺激又はイベントで説明された製品の購入/返品)などの結果変数を利用することにより、k及び分析持続時間Tを含むパラメータを計算することができる。
画像などの視覚刺激に関しては、例えば、2次元画面範囲を、サイズm×nのセル又は画素のグリッドで構成されたものとして表すことができる。m及びnの値は視覚刺激のパラメータ及び視覚刺激を表示するコンピュータ又はテレビ画面によって決まり、プレゼンテーション画面の画素解像度とし、又はプレゼンテーション画面の画素解像度の関数として求めることができる。通常、m×nは、1280×1024又は640×480となる。本発明の1つの実施形態では、視覚画面を、1280×1024グリッドの画素とすることができ、刺激グリッドを、グリッドセルの行列により、例えば(グリッドセルを2×2行列の画素として定義することにより)640×512として表すことができる。
凝視場所は、視聴者メンバーの凝視の焦点であるとともに時間又はイベントウィンドウ中に視聴者メンバーが見たグリッドセルの組(0−(m*n))を表すと判断されるグリッドセルの組として定義することができる。視聴者メンバーが1つのグリッドセルに焦点を合わせた場合、凝視場所はこの1つのグリッドセルであり、一方で視聴者メンバーが2つ以上のグリッドセルに焦点を合わせた場合、凝視場所はグリッドセルの組、又はこのグリッドセルの組(最も長い時間にわたって焦点となったグリッドセル又は隣接グリッドセルの組など)の関数である。グリッドセルが2以上の画素として定義された場合、グリッドセル内の画素のいずれかに焦点を合わせている視聴者メンバーは、このグリッドセルの場所を凝視していると考えられる。画面上のグリッドセルの組を使用して隣接範囲を識別するために凝視場所を使用することができる。或いは、凝視場所は、個々の範囲が互いにばらばらの隣接範囲のグループを表すこともできる。
刺激が、画像又はビデオなどの視覚成分を有する場合、個人の又は集合グループの凝視固定の範囲を、感情力指数に対応するプレゼンテーション(又はこの中の画像、イベント又はシーン)上に、生体測定感情力指数(感情反応の持続時間又は頻度が閾値レベルを上回る場合)及び凝視場所の関数としてプロットすることにより、生体測定感情マップを生成することができる。生体測定感情マップを使用して、高レベルの感情活動を示すより高レベルの反応に関連するプレゼンテーションの範囲を識別することができる。具体的には、生体測定感情マップは、例えば、被験者の体験の分析持続時間中に被験者の感情反応がその平均からk*標準偏差(kは0.5と1.5の間とすることができる)だけ異なる場合の凝視場所又は刺激の視覚的部分における場所の集合領域を表す。凝視場所は、分析持続時間内で、個々の被験者に関して時間的瞬間にわたって(例えば、被験者「s」が、ある場所を瞬間「h」及び「h+5」に見る)、或いは被験者の体験の分析持続時間内で、その場所を見ている異なる被験者わたって集まることがある。本明細書で開示するデータマイニング本に記載されるような様々なクラスタリングアルゴリズムを使用して、特定の凝視場所の組から集合領域又はクラスタを作成することができる。
本発明の1つの実施形態によれば、生体測定感情マップを、コンピュータプログラムによって、コンピュータプログラムモジュールによって、或いはコンピュータシステムのメモリに記憶された、別のプログラムモジュールから受信された、又は生体測定センサ及び視標追跡システムから直接受信された生体測定感情力指数データ及び凝視固定データにアクセスするコンピュータプログラムモジュールの組によって生成することができる。データは、リアルタイムデータであっても、或いは1又はそれ以上の視聴者メンバーから以前に捕捉して記憶したデータであってもよい。
本発明の1つの実施形態によれば、まず特定の時間又はイベントウィンドウなどに関して感情マップ内に凝視場所をプロットし、その後クラスタ又は集合領域を作成してクラスタの範囲又は相対的範囲を求めることにより、生体測定感情プロットエリアを決定することができる。
本発明の1つの実施形態によれば、システムが、本発明の方法に基づいて、分析持続時間を上回る期間にわたって刺激に曝された全ての被験者の刺激(又はイベント)に関して、著しい感情反応(閾値を満たす又は上回る反応)に対応する凝視場所を生体測定感情マップ内にプロットすることができる。これは、例えば、コンピュータプログラム、コンピュータプログラムモジュール、又はコンピュータプログラムモジュールの組内で実施することができる。例えばkを0.5から1.5の間とすることができるk*std_偏差によって、被験者の感情反応が被験者の平均反応を上回るか又は下回る(すなわち、異なる)場合にのみ凝視場所をプロットすることができる。反応が平均を上回る場合、その場所は、感情反応が高い場所と呼ぶことができ、この場所は、高感情場所と考えることができる。反応が平均を下回る場合、その場所は、感情反応が低い場所と呼ぶことができ、この場所は、低感情場所と考えることができる。
また、周知のクラスタリングアルゴリズムを使用して、隣接する高い場所及び/又は隣接する低い場所を近接度(互いの距離)に基づいて組み合わせることができる。クラスタリングアルゴリズムの例は、本明細書で開示したデータマイニング本に開示されている。
本発明の1つの実施形態によれば、以下のようにクラスタ化を達成することができる。
高い場所又は低い場所を識別する個々のグリッドセルに関し、このグリッドセルの組を拡張して、その全ての隣接グリッドセル、すなわち全ての方向における5つのグリッドセル(すなわち、グリッドセルを中心とする半径5の円だけ拡張する)をクラスタに含める。代替の10〜15の半径のグリッドセルを使用することもできる。従って、ある種類の(高い又は低い)グリッドセルの組のクラスタが、いずれかの「埋まっていない隙間」(範囲内の非選択グリッドセル)を含み、感情マップ内の1又はそれ以上の隣接する「幾何学領域」を識別することができる。感情マップ内の低感情クラスタは低感情場所をクラスタ化し、感情マップ内の高感情クラスタは高感情場所をクラスタ化する。クラスタリングアルゴリズムを、単一のグリッドセル(又は画素)又は隣接するグリッドセル(又は画素)の組から開始して反復的に適用し、所定数のクラスタが定義されるまで繰り返すことができる。
生体測定感情プロットエリアは、感情マップ上で識別された又は感情マップのために定義された低クラスタ及び高クラスタを有することができる。システムは、本発明の方法に基づいて、高及び/又は低感情クラスタの全域を判定することにより、生体測定感情プロットエリアを決定することができる。生体測定感情プロットエリアは、クラスタ又はクラスタグループ内の画素又はグリッドセルの数に関して、又はプレゼンテーション画面の全域又はプレゼンテーション画面の一部(象限又は領域など)の割合(又はパーセンテージ)として測定することができる。
本発明の1つの実施形態によれば、コンピュータプログラムを使用して、コンピュータプログラムモジュールを使用して、或いはコンピュータシステムのメモリに記憶された、別のプログラムモジュールから受信された、又は生体測定センサ及び視標追跡システムから直接受信された生体測定データ及び凝視固定データ及び/又は(生体測定感情力指数などの)中間データ構築物にアクセスするコンピュータプログラムモジュールの組を使用して、生体測定感情プロットエリアを決定することができる。データは、リアルタイムデータであっても、或いは1又はそれ以上の視聴者メンバーから以前に捕捉されて記憶されたデータであってもよい。
視標追跡システムは、経時的に又はイベントに基づいて各ユーザの凝視固定をモニタすることができる。凝視固定データを使用して、(サンプル視聴者を構成する)ユーザ又はユーザのグループがプレゼンテーションの他の範囲よりも多くの時間をかけて見た範囲、又は他の範囲よりも高い認知反応又は感情反応に対応する範囲、又は他の範囲よりも高い認知反応又は感情反応に関連する範囲を含む関心要素、範囲又は領域を識別することができる。システムは、視標追跡及び反応データを分析して、反応又は反応の組み合わせに対応するプレゼンテーション内の領域、範囲又は要素のプロットエリアを特定又は計算することができる。プロットエリアは、関心のある範囲又は領域の周辺境界を定めることができる。
視標追跡反応データ及び生体測定反応データを使用して、1又はそれ以上の生体測定認知マップ及び生体測定的感情マップを生成し、個々の認知及び感情マップの生体測定認知及び感情プロットエリアを決定することもできる。本発明の1つの実施形態によれば、(製品などの)刺激のカテゴリの認知視覚範囲指数及び感情視覚範囲指数を、生体測定認知プロットエリア及び生体測定感情プロットエリアの関数として求めることができる。1つの実施形態では、視覚範囲指数を、高い又は低い(認知又は感情)反応及びプレゼンテーション画面又は画面上のプレゼンテーションの全域に関連するプレゼンテーションの範囲の関数として求めることができる。
刺激に関する全ての高認知クラスタの範囲の合計を高認知プロットエリアとし、プレゼンテーション凝視範囲(プレゼンテーションが全体画面未満しか占めていない場合)又は画面の全域を全域とした場合、高認知視覚範囲指数=高認知プロットエリア/全域となる。
刺激に関する全ての高感情クラスタの範囲の合計を高感情プロットエリアとし、プレゼンテーション凝視範囲(プレゼンテーションが全体画面未満しか占めていない場合)又は画面の全域を全域とした場合、高感情視覚範囲指数=高感情プロットエリア/全域となる。
刺激に関する全ての低認知クラスタの範囲の合計を低認知プロットエリアとし、プレゼンテーション凝視範囲(プレゼンテーションが全体画面未満しか占めていない場合)又は画面の全域を全域とした場合、低認知視覚範囲指数=低認知プロットエリア/全域となる。
刺激に関する全ての低感情クラスタの範囲の合計を低感情プロットエリアとし、プレゼンテーション凝視範囲(プレゼンテーションが全体画面未満しか占めていない場合)又は画面の全域を全域とした場合、低感情視覚範囲指数=低感情プロットエリア/全域となる。
少なくとも1つの生体測定認知マップ及び少なくとも1つの生体測定感情マップが生成される場合、個々のタスク、プロセス、体験又はイベントについて認知範囲指数(高及び低)及び感情視覚範囲指数(高及び低)を求めることができる。
本発明の1つの実施形態によれば、認知範囲指数及び感情範囲指数の関数として視覚影響指数(又は範囲)を求めることができる。感情及び認知範囲指数の平均又は合計として、刺激又は刺激(又は製品)のカテゴリの高視覚影響指数(又は範囲)を求めることができる。
例えば、本発明の1つの実施形態によれば、刺激又は刺激のカテゴリ(又は製品)の高視覚影響指数(又は範囲)は、例えば以下のように求めることができる。
(高感情視覚範囲指数+高認知視覚範囲指数)
刺激又は刺激のカテゴリ(又は製品)の低視覚影響指数(又は範囲)は、例えば以下のように求めることができる。
(低感情視覚範囲指数+低認知視覚範囲指数)
本発明の実施形態によれば、刺激に関する強度、同調性、関心、感情指数、認知力指数、感情範囲指数、生体測定範囲指数及び視覚影響力などの、本明細書で説明した計算される生体測定の尺度の各々を使用して、独立した又は他の刺激との比較に基づく刺激の成功率を予測又推定することができる。刺激内で表されるコンテンツ、製品又はブランドに対する試験施設外部の一般視聴者又は標的視聴者の外部反応の尺度によって成功を測ることができる。外部反応の尺度としては、以下に限定されるわけではないが、刺激を見ている、ダウンロードする、及び/又は記憶又はスキップ/転送する視聴者の数(全体的視聴特性)、オフライン又はオンライン(インターネット)フォーラム、ソーシャルネットワーク、コミュニティ及び/又は市場における、刺激又は刺激内で参照されたコンテンツが生み出すコメント数又は口コミ量、オフライン又はオンライン(インターネット)フォーラム、ソーシャルネットワーク、コミュニティ及び/又は市場における(視聴者メンバーによる)刺激の視聴回数、視聴者による刺激の平均視聴率、標的視聴者による全体的普及率(製品販売量)などを挙げることができる。
図6に示す本発明の1つの実施形態600によれば、買い物客600を製品の組620又は特定の種類の製品を含む能動的又は受動的プレゼンテーションに曝すことにより、この買い物客を調査することができる。例えば、ストアの棚に置いているような異なる種類及び/又はブランドのスープ620A、ソース620B、ジュース620C、及びサルサ620Dを提示することができる。個々の買い物客610が、ジュース、サルサ、ソース又はスープなどの、全て同じ又は異なる企業からの様々な製品を求めて実際にストアで買い物をしている間、この買い物客をモニタし、例えば、製品を棚から取って、マウスを使用して選択し、又はアイコンをショッピングカートにドラッグすることにより、1又はそれ以上を購入するために選択するように求めることができる。買い物客が実際にストア内で買い物をしている場合、例えばヘルメット装着型カメラ632A、又は買い物客が付けている眼鏡に装着したカメラなどの、この買い物客が何を見ているかを示すようにされたカメラを買い物客に取り付けることができる。このようにして、カメラ632Aは、所与のタイムスロット又はイベントウィンドウ中に買い物客610が何を見ているかを示すことができる。また、体験中、生体測定感知シャツ634A又はブレスレット634Bなどの、買い物客が身に着けた1又はそれ以上の生体測定モニタリング装置634を使用して買い物客をモニタすることができる。買い物客が見ているストアの範囲内に(装着型又はハンドヘルド型の)追加カメラ632Bを設置して、瞳孔反応データを得ることもできる。この反応データを、ユーザが身に着けたモニタリング装置634(又はモニタリング装置の1又はそれ以上に付随する1又はそれ以上の記憶装置)に記憶し、又はポータブルコンピュータとして示すデータ処理システム640にネットワーク642を介して有線(図示せず)又は無線で転送することができるが、同様にデスクトップコンピュータ又はコンピュータのグループを使用することもできる。使用するネットワークの種類によっては、店内、街中又は国中などの、ネットワーク642に接続できるあらゆる場所にデータ処理システムを配置することができる。ネットワーク642は、(イーサネット、WiFi、WiMax、BlueTooth、ZigBeeなどの)1つの技術又は複数の技術の組み合わせを使用して、いくつかの通信チャネルで構成することができる。データをモニタリング装置(又はモニタリング装置の1又はそれ以上に付随する1又はそれ以上の記憶装置)に記憶する場合、タスク又はプレゼンテーション又はタスク又はプレゼンテーションの組が中断又は完了した後に、ネットワーク642を使用してデータ処理システム640へデータを転送することができる。或いは、記憶したデータを、直接有線接続(図示せず)によりデータ処理システム640へ転送することもできる。ここで説明したように、データ処理コンピュータは、センサ及びカメラデータを処理して、本明細書で説明する様々な指数を生成することができる。
或いは、買い物客にヘルメット装着型カメラ632A又はメガネ装着型カメラ(図示せず)のみを取り付けて、ショッピング中に送信することができる。図5に示すような本発明の実施形態によるシステムを使用してモニタしている間、買い物客に対してコンピュータ、テレビ又はビデオ画面上にショッピング体験のビデオを表示することができる。従って、視標追跡システム532及び生体測定用検知装置及び行動検知装置534A、534B及び入力装置534、526、528の組み合わせを使用して、活動に関連する反応データをモニタし、この反応データをさらなる処理のためにデータ処理システム540へ転送することができる。或いは、買い物客が、シミュレートされた、すなわち仮想現実環境においてショッピングを行うこともできる。
これらのプレゼンテーションの各々では、買い物客610が棚上の各個々の製品620A、620B、620C、620dを見たときに、視標追跡システムが、どの製品に焦点が当たっているかを判定し、その時のユーザの生体測定反応を記録することができる。反応データを記憶する場合、これをプレゼンテーションのタイムマーク、フレーム番号、又は任意のインデックスマーク又は番号に関連付けることができる。1つの実施形態では、システムが20msごとの間隔で反応を記録するが、例えば、データ記憶システムの速度及びサイズ、使用するセンサシステムの反応特性及び所望の解像度などの、システムの様々な制約及び要件によっては、より長い又はより短い間隔を使用することができる。本発明の1つの実施形態によれば、プレゼンテーションに、システムが反応データを特定の時点(通常はプレゼンテーションの開始からのオフセット)に関連付けることができるようにする、或いは反応データが特定のフレームに関連付けられるようにする実行時間又はフレームごとのインデックス又は時間、或いは特定のフレームに関連する時間インデックスを提供することができる。
本発明の他の実施形態では、プレゼンテーションの予め定めた時点又はフレームから開始して予め定めた持続時間にわたって延長する予め定めたイベントウィンドウをプレゼンテーションにマーキングし、又はプレゼンテーションをこのイベントウィンドウに関連付けることができる。イベントウィンドウ間の時間は一定である必要はなく、1つのイベントウィンドウから次のイベントウィンドウまでのイベントウィンドウの持続時間は同じであっても又は異なってもよい。1つの実施形態では、ユーザを対話型プレゼンテーション、タスク又は活動に関与させる画面ディスプレイがユーザに提示されたときにイベントウィンドウが開始し、5(又は場合によっては最大10)秒の持続時間にわたって延長する。5(又は10)秒のウィンドウ中に、視標追跡、行動データ及び生体測定反応データを20ms間隔で収集することができ、このイベントウィンドウでは、個々のセンサから最大250個(又は10秒間で500個)のデータ点が得られる。センサによっては、同じ頻度でデータを供給することができず、システムは、イベントウィンドウ単位で測定した個々の反応につき1つの要素値を求めることができる。このイベントウィンドウの1つの要素値は、例えば、イベントウィンドウに対応する時間周期中に受信された反応データの平均、中央又はモードの関数として求めることができる。
本発明の1つの実施形態によれば、上記メトリクスを使用して、様々な視聴者に関する様々な対話的及び受動的プレゼンテーションの関心及び視覚影響力を分析することができる。高い視覚影響指数は、購入又は製品選択時の(心拍数、皮膚導電率、呼吸などの非視覚的な生体測定反応を使用する)生体測定非視覚強度と良く相関し、一方で低い視覚影響指数は、製品棚に製品を戻す際の生体測定非視覚強度と良く相関することが分かっている。
以下の表1にサンプルデータを示しており、これを使用して、本発明の実施形態により求められる、行動及び生体測定強度指数と視覚影響指数の相関関係を実証することができる。表1の結果は、買い物客が購入するためにジュース、サルサ、ソース及びスープを選択するように求められた場合のショッピングタスク又は活動の組に関する反応データから得られた強度指数及び視覚影響指数を示している。
Figure 2012524458
上記の表1では、活動カテゴリは、評価される行動(活動又はタスク)であり、非視覚強度は、生体測定反応データに関する強度指数の尺度であり、強度ランキングは、8つのカテゴリの強度データの全体的なランキングである。個々の活動、すなわち購入(製品をスーパーマーケットの棚から選択)又は返却(選択した製品を棚に返却)について、活動の視覚影響も判定し、また予め定めた閾値に基づいて、視覚影響力を高又低として分類した。最終列には、ショッピング活動の視覚影響指数の全体的なランキングを示している。
上記のデータを相関づけ、0.3未満の相関関係値は小さな又は重要でない相関関係を示し、0.3を越えて0.5未満の相関関係値は中程度又は適度な相関関係を示し、0.5を越える相関関係値は高い又は重要な相関関係を示す。表1の全ての活動カテゴリに関しては、非視覚強度指数と視覚影響指数の相関関係は0.52である。表1のジュース関連の活動のみに関しては、非視覚強度指数と視覚影響指数の相関関係は0.55である。表1のソース及びスープ関連の活動のみに関しては、非視覚強度指数と視覚影響指数の相関関係は0.65である。相関関係を、ランキングデータにも基づいて判定した。表1の全ての活動カテゴリに関しては、非視覚強度ランキングと視覚影響力ランキングの相関関係は0.7である。表1のジュース関連の活動のみに関しては、非視覚強度ランキングと視覚影響力ランキングの相関関係は0.8である。表1のソース及びスープ関連の活動のみに関しては、非視覚強度ランキングと視覚影響力ランキングの相関関係は0.785である。表1からのデータを購入(又は選択)活動と返却活動に分けた場合、購入活動に関しては、強度指数と高値視覚影響指数の相関関係は0.49であり、返却活動に関しては、強度指数と低視覚影響指数の相関関係は0.99である。
タスク(プロセス又は体験)完了指数、効率指数及びフラストレーション指数の尺度の関数として、タスク、プロセス又は体験の流動指数を求めることができ、この流動指数は、完了指数、効率指数及びフラストレーション指数にさらに重み付けし、又はこれらを調整するために自己報告及び生体測定反応を含むことができる。本発明の1つの実施形態によれば、以下の方程式により流動指数を求めることができる。
流動指数=(完了指数+効率指数)−フラストレーション指数
完了指数は、試験グループにわたる完了までの平均時間及び標準偏差などの、タスク、プロセス又は体験を完了した個々のユーザの試験グループのパーセンテージ及び完了までの時間に関する1又はそれ以上のメトリクスの関数として求めることができる。完了パーセンテージが高いタスク又はプロセスには高い完了指数を与えることができ、2又はそれ以上のタスクの完了パーセンテージが類似している場合、完了までの時間が最も短い又は完了までの時間偏差が最も小さいタスクに他のものよりも高く重み付けすることができる。
compl−time(T)がタスクTの平均完了時間を表す場合、タスクTの完了指数を、(compl−time(T)−(compl−time(Ti)))/標準_偏差(compl_time(Ti))の平均のようなz−スコアとして定義することができる。
なお、試験グループの行動(例えば、タスクTの好き/嫌い)などの結果変数に完了時間を関連付けることにより、本明細書に記載したデータマイニング本に記載される予測モデルを使用して、タスクTの完了指数に関する他の関数を導出することもできる。利用できる特定の技術には、完了時間と結果変数の関係を見つけ、結果変数の指標として完了指数を使用する回帰分析がある。
効率指数は、(タスクパスなどに沿った)一連の1又はそれ以上の関心の標的範囲にわたる凝視固定及び持続時間の関数として求めることができる。効率指数には、使いやすさ及びユーザ体験の自己報告尺度によって重み付けすることができる。予め定めた標的範囲に対する凝視固定及び持続時間のパーセンテージが高いタスク又はプロセスには、より高い効率指数を与えることができ、この値には、使いやすさ及びユーザ体験に関する質問及び問い合わせに対する自己報告反応に基づいて重み付けすることができる。
標的範囲セットAを含むタスクTの効率指数=標的範囲セットAを含むTの感情効率指数+標的範囲セットAを含むTの認知効率指数である。
この場合、ターゲットセットAを含むタスクTの認知効率指数>0であれば、=ターゲットセットAを含むTの高認知効率指数となり、そうでなければ、Aを含むTの低認知効率指数となる。
Aを含むTの高認知効率指数=範囲((高認知マップ、A)の幾何学的交差)の合計/高認知マップ内のプロットエリアの合計である。
Aを含むTの低認知効率指数=(−1)*範囲((高認知マップ、A)の幾何学的交差)の合計/高認知マップ内のプロットエリアの合計である。
ターゲットセットAを含むタスクTの感情効率指数>0であれば、=ターゲットセットAを含むTの高感情効率指数となり、そうでなければ、Aを含むTの低感情効率指数となる。
Aを含むTの高感情効率指数=範囲((高感情マップ、A)の幾何学的交差)の合計/高感情マップ内のプロットエリアの合計である。
Aを含むTの低感情効率指数=(−1)*範囲((高感情マップ、A)の幾何学的交差)合計/高感情マップ内のプロットエリアの合計である。
試験グループの行動(例えば、タスクTの好き/嫌い)などの結果変数に効率指数を関連付けることにより、本明細書に記載したデータマイニング本に記載される予測モデルを使用して、高/低感情効率指数、認知効率指数を組み合わせるための他の関数を導出することもできる。利用できる特定の技術には、完了時間と結果変数の関係を見つけ、結果変数の指標として効率指数を使用する回帰分析がある。
フラストレーション指数は、表情及び体の動きなどのフラストレーションを示す傾向にある行動反応、及び、圧力検知コンピュータマウス又はその他の入力装置などの、圧力を測定できるシステム入力装置(例えば、キーボードのキーに加わる圧力及び繰り返しのキー押下)の関数として求めることができる。フラストレーション指数には、フラストレーションの自己報告尺度及び1又はそれ以上の生体測定感情尺度の1又はそれ以上により重み付けすることができる。
タスクTのフラストレーション指数=圧力マウスの反応、体の動き、キー押下及び顔の表情からのフラストレーション指数の合計である。
圧力マウスからのタスクTのフラストレーション指数=タスクT−DBのデータベースと比較したタスクTの圧力マウスの信号のzスコアであり、この場合T−DBは、同様に、キー押下からのタスクTのフラストレーション指数=タスクT−DBのデータベースと比較したタスクTのキー押下のzスコアである。
フラストレーション指数を、自己報告研究で述べた特定の標的範囲に制限することもできる。例えば、標的範囲セットAにおけるキー押下からのタスクTのフラストレーション指数は、標的範囲セットAにおけるキー押下のみを考慮することができる。
なお、試験グループの行動(例えば、タスクTの好き/嫌い)などの結果変数に入力変数(キー押下、圧力マウスの信号値など)を関連付けることにより、本明細書に記載したデータマイニング本に記載される予測モデルを使用して、タスクTのフラストレーション指数のための他の関数を導出することもできる。利用できる特定の技術には、入力と結果変数の関係を見つけ、フラストレーション指数を結果変数の指標と仮定する回帰分析がある。
好ましさに対する自己報告反応、生体測定感情反応、並びにミクロ及びマクロ表情、活動に対する体又は頭部の曲がりの行動的尺度の重み付き組み合わせ(1又はそれ以上の)の関数として、タスク、プロセス又は体験の魅力指数を求めることができる。魅力指数は、タスク、プロセス又は体験に対するユーザによる魅力の暗示を示すことができ、高い魅力指数はより楽しい体験を示す。
i=1〜nとすると、Tの魅力指数=(重み付け*自己報告(T)、重み付け(b1)*生体測定_反応(T、b1)、重み付け(bn)*生体測定_反応(T、bn))の合計である。
この場合、biが、n個の生体測定の尺度のi番目の生体測定の尺度となる。
なお、試験グループの行動(例えば、タスクTの好き/嫌い)などの結果変数に入力変数(自己報告、頭部の曲がり値など)を関連付けることにより、本明細書に記載したデータマイニング本に記載される予測モデルを使用して、タスクTの魅力指数のための他の関数を導出することもできる。利用できる特定の技術としては、入力と結果変数の関係を見つける回帰分析がある。
例えば、流動指数、魅力指数、生体測定感情力指数及び生体測定認知力指数の関数として、タスク、プロセス又は体験の関心指数を求めることができる。
関心指数=流動指数+魅力指数+生体測定感情力指数+生体測定認知力指数である。
また、人口学的又は心理学的プロファイルに関わらず、タスク、プロセス又は体験メトリクスのパターンの類似性を有するユーザのグループを識別することにより、生体測定的なペルソナ又はグループ分けを作成することもできる。なお、このグループ分けでは、このグループ分けに機械ベースのクラスタリングアルゴリズムを利用することができ、或いはユーザのグループ分け又はクラスタを識別する管理者/専門家の手動によるプロセスを伴う場合がある。
他の実施形態も、本発明の範囲及び思想に含まれる。例えば、スコアリングアルゴリズムの性質に起因して、上述した機能を、ソフトウェア、ハードウェア、ファームウェア、配線又はこれらのいずれかの組み合わせを使用して実施及び/又は自動化することができる。機能又は機能の一部が異なる物理的場所において実施されるように分散されることを含め、機能を実施する特徴を物理的に様々な場所に位置付けることもできる。
さらに、上記の説明は本発明に言及したものであるが、説明は2以上の発明を含むことができる。
300 システム
310 人物
312 参加者
312A 生物学的モニタリングシステム
314 モニタリング装置
316 データ処理装置
318 ユーザインターフェイス
320 報告

Claims (37)

  1. 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
    前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定できる生体測定センサ装置を提供するステップと、
    前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
    前記生体測定センサ装置に接続されて前記生体測定ベースの認知反応を表わすデータを受け取る、前記生体測定ベースの認知反応データを記憶するメモリを含むコンピュータシステムを提供するステップと、
    前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定し、各々の測定した生体測定に基づく反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
    前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
    少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの生体測定認知力指数を、全ての前記視聴者メンバーの前記測定した生体測定ベースの認知反応の関数として求めるステップと、
    前記少なくとも1つのイベントウィンドウの前記生体測定認知力指数を示す報告を作成するステップと、
    を含むことを特徴とする方法。
  2. 前記視聴者の少なくとも1つの生体測定認知力指数を求めるステップが、
    生体測定ベースの認知反応閾値を決定するステップと、
    1つのイベントウィンドウの個々の視聴者メンバーの個々の測定した生体測定ベースの認知反応を前記閾値と比較するステップと、
    個々の視聴者メンバーの前記閾値を上回る測定した生体測定ベースの認知反応の数をカウントするステップと、
    を含むことを特徴とする請求項1に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  3. 前記生体測定ベースの認知反応閾値が、前記イベントウィンドウ中の前記視聴者メンバーの平均的な生体測定ベースの認知反応である、
    ことを特徴とする請求項2に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  4. 前記視聴者の少なくとも1つの生体測定認知力指数を求めるステップが、前記生体測定認知力指数を、2以上の視聴者メンバーの前記閾値を上回る1つのイベントウィンドウに関する測定した生体測定ベースの認知反応の数の前記合計として求めるステップを含む、
    ことを特徴とする請求項2に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  5. 前記視聴者の1以上のメンバーについて、前記プレゼンテーションの見られている部分を識別し、前記プレゼンテーションの個々の見られている部分を、前記期間の前記持続時間中の時点に関連付けるステップと、
    前記プレゼンテーションの個々のイベントウィンドウ、及び前記視聴者の前記1以上のメンバーが見ている前記部分の前記生体測定認知力指数の関数として生体測定認知マップを生成するステップと、
    をさらに含み、前記生体測定認知マップが、前記プレゼンテーションの、前記視聴者の高レベルの認知活動に関連する範囲を示す、
    ことを特徴とする請求項1に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  6. 前記生体測定認知マップが、前記プレゼンテーションの、予め定めた閾値を上回る生体測定認知反応指数を有する前記視聴者の1以上のメンバーが見ている部分を集約することにより生成される、
    ことを特徴とする請求項5に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  7. 前記プレゼンテーションの、前記視聴者の個々のメンバーが見ている部分を識別できる視覚センサ装置を提供するステップをさらに含む、
    ことを特徴とする請求項5に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  8. 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
    前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定できる生体測定センサ装置を提供するステップと、
    前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
    前記生体測定センサ装置に接続されて前記生体測定ベースの感情反応を表わすデータを受け取る、前記生体測定ベースの感情反応データを記憶するメモリを含むコンピュータシステムを提供するステップと、
    前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定し、各々の測定した生体測定に基づく感情反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
    前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
    少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの生体測定感情力指数を、全ての前記視聴者メンバーの前記測定した生体測定ベースの感情反応の関数として求めるステップと、
    前記少なくとも1つのイベントウィンドウの前記生体測定感情力指数を示す報告を作成するステップと、
    を含むことを特徴とする方法。
  9. 前記視聴者の少なくとも1つの生体測定感情力指数を求めるステップが、
    生体測定ベースの感情反応閾値を決定するステップと、
    1つのイベントウィンドウの個々の視聴者メンバーの個々の測定した生体測定ベースの感情反応を前記閾値と比較するステップと、
    個々の視聴者メンバーの前記閾値を上回る測定した生体測定ベースの感情反応の数をカウントするステップと、
    を含むことを特徴とする請求項8に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  10. 前記生体測定ベースの感情反応閾値が、前記イベントウィンドウ中の前記視聴者メンバーの平均的な生体測定ベースの感情反応である、
    ことを特徴とする請求項9に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  11. 前記視聴者の少なくとも1つの生体測定感情力指数を求めるステップが、前記生体測定感情力指数を、2以上の視聴者メンバーの前記閾値を上回る測定した生体測定ベースの感情反応の数の前記合計として求めるステップを含む、
    ことを特徴とする請求項9に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  12. 前記視聴者の1以上のメンバーについて、前記プレゼンテーションの見られている部分を識別し、前記プレゼンテーションの個々の見られている部分を、前記期間の前記持続時間中の時点に関連付けるステップと、
    前記プレゼンテーションの個々のイベントウィンドウ、及び前記視聴者の前記1以上のメンバーが見ている前記部分の前記生体測定感情力指数の関数として生体測定感情マップを生成するステップと、
    をさらに含み、前記生体測定感情マップが、前記プレゼンテーションの、前記視聴者の高レベルの感情活動に関連する範囲を示す、
    ことを特徴とする請求項8に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  13. 前記生体測定感情マップが、前記プレゼンテーションの、予め定めた閾値を上回る生体測定感情反応指数を有する前記視聴者の1以上のメンバーが見ている部分を集約することにより生成される、
    ことを特徴とする請求項12に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  14. 前記プレゼンテーションの、前記視聴者の個々のメンバーが見ている部分を識別できる視覚センサ装置を提供するステップをさらに含む、
    ことを特徴とする請求項12に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  15. 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求めるためのコンピュータ制御システムであって、
    前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すようになっているプレゼンテーション装置と、
    前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定できる生体測定センサ装置と、
    前記生体測定センサ装置に接続されて前記生体測定ベースの認知反応を表わすデータを受け取る、前記生体測定ベースの認知反応データを記憶するメモリを含むコンピュータシステムと、
    を備え、前記コンピュータシステムが、
    前記期間の持続時間中に前記プレゼンテーションに応答して生成された前記生体測定ベースの認知反応データを前記コンピュータシステムの前記メモリに記憶するようになっているとともに、前記生体測定ベースの認知反応データを、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるようになっている記録モジュールと、
    少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの生体測定認知力指数を、全ての前記視聴者メンバーの前記測定した生体測定ベースの認知反応データの関数として求めるとともに、前記少なくとも1つのイベントウィンドウの前記生体測定認知力指数を示す報告を作成するようになっている処理モジュールと、
    を備える、
    ことを特徴とするコンピュータ制御システム。
  16. 前記処理モジュールが、1つのイベントウィンドウに関連する前記生体測定ベースの認知反応データを、生体測定ベースの認知反応閾値と比較し、前記1つのイベントウィンドウの前記閾値を上回る生体測定ベースの認知反応データ要素の総数を求める、
    ことを特徴とする請求項15に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  17. 前記処理モジュールが、前記生体測定ベースの認知反応閾値を、前記1つのイベントウィンドウに関連する前記生体測定ベースの認知反応データ要素の前記平均として求める、
    ことを特徴とする請求項16に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  18. 前記処理モジュールが、前記生体測定認知力指数を、2以上の視聴者メンバーの前記閾値を上回る生体測定ベースの認知反応データ要素の前記総数の関数として求める、
    ことを特徴とする請求項16に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  19. 前記記録モジュールが、前記期間の前記持続時間中に前記プレゼンテーションに応答して生成された視標追跡データを受け取って前記コンピュータシステムの前記メモリに記憶するようになっているとともに、前記視標追跡データを、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点と関連付けるようになっており、前記視標追跡データが、前記プレゼンテーションの、前記期間の前記持続時間中の時点に前記視聴者の前記メンバーが見ている部分の識別を含み、
    前記処理モジュールが、個々のイベントウィンドウの生体測定認知力指数、及び前記視聴者の前記1以上のメンバーが見ている前記プレゼンテーションの前記部分の関数として生体測定認知マップを生成するようになっており、前記生体測定認知マップが、前記プレゼンテーションの、前記視聴者の高レベルの認知活動に関連する範囲を示す、
    ことを特徴とする請求項15に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  20. 前記処理モジュールが、前記プレゼンテーションの、予め定めた閾値を上回る生体測定レベルの認知反応指数を有する前記視聴者の1以上のメンバーが見ている前記部分を集約することにより前記生体測定認知マップを生成する、
    ことを特徴とする請求項19に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  21. 前記プレゼンテーションの、前記視聴者の個々のメンバーが見ている部分を識別できる視覚センサ装置をさらに含む、
    ことを特徴とする請求項20に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  22. 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求めるためのコンピュータ制御システムであって、
    前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すようになっているプレゼンテーション装置と、
    前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定できる生体測定センサ装置と、
    前記生体測定センサ装置に接続されて前記生体測定ベースの感情反応を表わすデータを受け取る、前記生体測定ベースの感情反応データを記憶するメモリを含むコンピュータシステムと、
    を備え、前記コンピュータシステムが、
    前記期間の持続時間中に前記プレゼンテーションに応答して生成された前記生体測定ベースの感情反応データを前記コンピュータシステムの前記メモリに記憶するようになっているとともに、前記生体測定ベースの感情反応データを、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるようになっている記録モジュールと、
    少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの生体測定感情力指数を、全ての前記視聴者メンバーの前記測定した生体測定ベースの感情反応データの関数として求めるとともに、前記少なくとも1つのイベントウィンドウの前記生体測定感情力指数を示す報告を作成するようになっている処理モジュールと、
    を備える、
    ことを特徴とするコンピュータ制御システム。
  23. 前記処理モジュールが、1つのイベントウィンドウに関連する前記生体測定ベースの感情反応データを、生体測定ベースの感情反応閾値と比較し、前記1つのイベントウィンドウの前記閾値を上回る生体測定ベースの感情反応データ要素の総数を求める、
    ことを特徴とする請求項22に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  24. 前記処理モジュールが、前記生体測定ベースの感情反応閾値を、前記1つのイベントウィンドウに関連する前記生体測定ベースの感情反応データ要素の前記平均として求める、
    ことを特徴とする請求項23に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  25. 前記処理モジュールが、前記生体測定ベースの感情力指数を、2以上の視聴者メンバーの前記閾値を上回る生体測定ベースの感情反応データ要素の前記総数の関数として求める、
    ことを特徴とする請求項23に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  26. 前記記録モジュールが、前記期間の前記持続時間中に前記プレゼンテーションに応答して生成された視標追跡データを受け取って前記コンピュータシステムの前記メモリに記憶するようになっているとともに、前記視標追跡データを、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点と関連付けるようになっており、前記視標追跡データが、前記プレゼンテーションの、前記期間の前記持続時間中の時点に前記視聴者の前記メンバーが見ている部分の識別を含み、
    前記処理モジュールが、個々のイベントウィンドウの生体測定認知力指数、及び前記視聴者の前記1以上のメンバーが見ている前記プレゼンテーションの前記部分の関数として生体測定感情マップを生成するようになっており、前記生体測定感情マップが、前記プレゼンテーションの、前記視聴者の高レベルの感情活動に関連する範囲を示す、
    ことを特徴とする請求項22に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  27. 前記処理モジュールが、前記プレゼンテーションの、予め定めた閾値を上回る生体測定レベルの感情反応指数を有する前記視聴者の1以上のメンバーが見ている前記部分を集約することにより前記生体測定感情マップを生成する、
    ことを特徴とする請求項26に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  28. 前記プレゼンテーションの、前記視聴者の個々のメンバーが見ている部分を識別できる視覚センサ装置をさらに含む、
    ことを特徴とする請求項26に記載のプレゼンテーションに対する視聴者の反応の尺度を求めるためのコンピュータ制御システム。
  29. 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
    前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定できる第1の生体測定センサ装置を提供するステップと、
    プレゼンテーション画像の、前記視聴者の少なくとも1人のメンバーが見ている1以上の凝視場所を判定できる視標追跡センサ装置を提供するステップと、
    前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
    前記第1の生体測定センサ装置及び前記視標追跡センサ装置に接続されて前記生体測定ベースの認知反応を表わすデータ及び視標追跡データを受け取る、前記生体測定ベースの認知反応データ及び視標追跡データを記憶するメモリを含むコンピュータシステムを提供するステップと、
    前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定し、個々の測定した生体測定に基づく認知反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
    前記視聴者の少なくとも1人のメンバーについて、前記プレゼンテーションの1以上の画像の、前記少なくとも1つの視聴者メンバーが見ている1以上の場所を判定し、前記場所の各々を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
    前記少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの認知影響指数を、全ての前記視聴者メンバー及び前記凝視場所の前記測定した生体測定ベースの認知反応の関数として求めるステップと、
    前記少なくとも1つのイベントウィンドウの前記生体測定認知影響指数を示す報告を作成するステップと、
    を含むことを特徴とする方法。
  30. 前記少なくとも1つのイベントウィンドウの少なくとも1つの生体測定認知影響指数を求めるステップが、
    前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
    前記視聴者の高生体測定認知視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を上回る前記測定した生体測定ベースの認知反応の関数として求めるステップと、
    前記視聴者の低生体測定認知視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を下回る前記測定した生体測定ベースの認知反応の関数として求めるステップと、
    前記高生体測定認知視覚範囲指数及び低生体測定認知視覚範囲指数の関数として認知影響指数を求めるステップと、
    前記少なくとも1つのイベントウィンドウの前記高生体測定認知視覚範囲指数、前記低生体測定認知視覚範囲指数、及び前記認知影響指数を示す報告を作成するステップと、
    を含むことを特徴とする請求項29に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  31. 前記認知影響指数が、前記少なくとも1つのイベントウィンドウの前記高認知範囲指数から前記低認知範囲指数を差し引いたものとして求められる、
    ことを特徴とする請求項30に記載の方法。
  32. 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
    前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定できる第1の生体測定センサ装置を提供するステップと、
    プレゼンテーション画像の、前記視聴者の少なくとも1人のメンバーが見ている1以上の凝視場所を判定できる視標追跡センサ装置を提供するステップと、
    前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
    前記第1の生体測定センサ装置に接続されて前記生体測定ベースの感情反応を表わすデータ及び視標追跡データを受け取る、前記生体測定ベースの感情反応データを記憶するメモリを含むコンピュータシステムを提供するステップと、
    前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定し、個々の測定した生体測定に基づく感情反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
    前記視聴者の少なくとも1人のメンバーについて、前記プレゼンテーションの1以上の画像の、前記少なくとも1つの視聴者メンバーが見ている1以上の場所を判定し、前記場所の各々を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
    前記少なくとも1つのイベントウィンドウについて、前記視聴者の少なくとも1つの感情影響指数を、全ての前記視聴者メンバー及び前記凝視場所の前記測定した生体測定ベースの感情反応の関数として求めるステップと、
    前記少なくとも1つのイベントウィンドウの前記生体測定感情影響指数を示す報告を作成するステップと、
    を含むことを特徴とする方法。
  33. 前記少なくとも1つのイベントウィンドウの少なくとも1つの生体測定感情影響指数を求めるステップが、
    前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
    前記視聴者の高生体測定感情視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を上回る前記測定した生体測定ベースの感情反応の関数として求めるステップと、
    前記視聴者の低生体測定感情視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を下回る前記測定した生体測定ベースの感情反応の関数として求めるステップと、
    前記高生体測定感情視覚範囲指数及び低生体測定感情視覚範囲指数の関数として感情影響指数を求めるステップと、
    前記少なくとも1つのイベントウィンドウの前記高生体測定感情視覚範囲指数、前記低生体測定感情視覚範囲指数、及び前記感情影響指数を示す報告を作成するステップと、
    を含むことを特徴とする請求項32に記載のプレゼンテーションに対する視聴者の反応の尺度を求める方法。
  34. 前記感情影響指数が、前記少なくとも1つのイベントウィンドウの前記高感情範囲指数から前記低感情範囲指数を差し引いたものとして求められる、
    ことを特徴とする請求項33に記載の方法。
  35. 1以上のメンバーを含む視聴者のプレゼンテーションに対する反応の尺度を求める方法であって、
    前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を測定できる第1の生体測定センサ装置を提供するステップと、
    前記視聴者の個々のメンバーの、前記プレゼンテーションに対する少なくとも1つの生体測定ベースの感情反応を測定できる第2の生体測定センサ装置を提供するステップと、
    プレゼンテーション画像の、前記視聴者の少なくとも1人のメンバーが見ている1以上の凝視場所を判定できる視標追跡センサ装置を提供するステップと、
    前記視聴者の個々のメンバーを、複数の時点を含む期間にわたって前記プレゼンテーションに曝すステップと、
    前記第1及び第2の生体測定センサ装置及び前記視標追跡センサ装置に接続されて前記生体測定ベースの認知反応を表わすデータ、前記生体測定ベースの感情反応を表すデータ、及び視標追跡データを受け取る、前記生体測定ベースの認知反応データ、前記生体測定ベースの感情反応データ、及び視標追跡データを記憶するメモリを含むコンピュータシステムを提供するステップと、
    前記視聴者の個々のメンバーについて、前記期間の持続時間中に前記プレゼンテーションに対する少なくとも1つの生体測定ベースの認知反応を及び少なくとも1つの生体測定ベースの感情反応測定し、個々の測定した生体測定に基づく認知反応及び個々の測定された生体測定ベースの感情反応を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
    前記視聴者の少なくとも1人のメンバーについて、前記プレゼンテーションの1以上の画像の、前記少なくとも1つの視聴者メンバーが見ている1以上の場所を判定し、前記場所の各々を、前記コンピュータシステムの前記メモリ内で前記期間の前記持続時間中の時点に関連付けるステップと、
    前記期間内の1以上の時点に対応する、予め定めた持続時間を各々が有する少なくとも1つのイベントウィンドウを定義するステップと、
    前記視聴者の高生体測定認知視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を上回る前記測定した生体測定ベースの認知反応の関数として求めるステップと、
    前記視聴者の高生体測定感情視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を上回る前記測定した生体測定ベースの感情反応の関数として求めるステップと、
    前記視聴者の低生体測定認知視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を下回る前記測定した生体測定ベースの認知反応の関数として求めるステップと、
    前記視聴者の低生体測定感情視覚範囲指数の尺度を、イベントウィンドウ中の全ての前記視聴者メンバー、前記イベントウィンドウ中に判定された1以上の凝視場所、及び前記プレゼンテーションの前記総凝視範囲の予め定めた閾値を下回る前記測定した生体測定ベースの感情反応の関数として求めるステップと、
    前記少なくとも1つのイベントウィンドウの前記高生体測定認知視覚範囲指数、前記高生体測定感情視覚範囲指数、低生体測定認知視覚範囲指数、及び低生体測定感情視覚範囲指数を示す報告を作成するステップと、
    を含むことを特徴とする方法。
  36. 前記高生体測定認知視覚範囲指数及び高生体測定感情視覚範囲指数の関数として高視覚影響指数を求めるステップをさらに含む、
    ことを特徴とする請求項35に記載の方法。
  37. 前記低生体測定認知視覚範囲指数及び低生体測定感情視覚範囲指数の関数として低視覚影響指数を求めるステップをさらに含む、
    ことを特徴とする請求項35に記載の方法。
JP2012505954A 2009-04-19 2010-04-16 対話的活動に関するユーザ体験を測定するための方法及びシステム Pending JP2012524458A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/426,259 2009-04-19
US12/426,259 US20100004977A1 (en) 2006-09-05 2009-04-19 Method and System For Measuring User Experience For Interactive Activities
PCT/US2010/031375 WO2010123770A2 (en) 2009-04-19 2010-04-16 Method and system for measuring user experience for interactive activities

Publications (1)

Publication Number Publication Date
JP2012524458A true JP2012524458A (ja) 2012-10-11

Family

ID=43011696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012505954A Pending JP2012524458A (ja) 2009-04-19 2010-04-16 対話的活動に関するユーザ体験を測定するための方法及びシステム

Country Status (6)

Country Link
US (1) US20100004977A1 (ja)
EP (1) EP2422284A4 (ja)
JP (1) JP2012524458A (ja)
AU (1) AU2010239526A1 (ja)
CA (1) CA2758272A1 (ja)
WO (1) WO2010123770A2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014081913A (ja) * 2012-09-27 2014-05-08 Dainippon Printing Co Ltd アンケート分析装置、アンケート分析システム、アンケート分析方法、及びプログラム
JP2017204146A (ja) * 2016-05-11 2017-11-16 富士通株式会社 画像制御方法、装置、及びプログラム
JP2019020834A (ja) * 2017-07-12 2019-02-07 Necネッツエスアイ株式会社 情報測定装置、情報測定方法及び情報測定プログラム
JP2019514127A (ja) * 2016-04-12 2019-05-30 アール−ストール インコーポレイテッド 仮想化環境内に広告を提示するための方法及び装置
JP2021509850A (ja) * 2018-01-08 2021-04-08 ソニー・インタラクティブエンタテインメント エルエルシー 状況適応型ゲームプレイ支援を生成するためにプレイヤーの関与を識別すること
JP2022023467A (ja) * 2020-07-27 2022-02-08 トヨタ紡織株式会社 観光ガイドシステム

Families Citing this family (211)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100198697A1 (en) 2006-07-21 2010-08-05 Videoegg, Inc. Fixed Position Interactive Advertising
US9208500B2 (en) * 2006-07-21 2015-12-08 Microsoft Technology Licensing, Llc Fixed position multi-state interactive advertisement
US8732019B2 (en) 2006-07-21 2014-05-20 Say Media, Inc. Non-expanding interactive advertisement
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
JP5194015B2 (ja) 2006-09-05 2013-05-08 インナースコープ リサーチ, インコーポレイテッド 感覚的刺激への視聴者反応を決定する方法およびシステム
CN101711388B (zh) 2007-03-29 2016-04-27 神经焦点公司 营销和娱乐的效果分析
US8386312B2 (en) * 2007-05-01 2013-02-26 The Nielsen Company (Us), Llc Neuro-informatics repository system
WO2008137581A1 (en) 2007-05-01 2008-11-13 Neurofocus, Inc. Neuro-feedback based stimulus compression device
US20090328089A1 (en) * 2007-05-16 2009-12-31 Neurofocus Inc. Audience response measurement and tracking system
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US20120239458A9 (en) * 2007-05-18 2012-09-20 Global Rainmakers, Inc. Measuring Effectiveness of Advertisements and Linking Certain Consumer Activities Including Purchases to Other Activities of the Consumer
US20080300894A1 (en) * 2007-06-01 2008-12-04 John George H Television Audience Targeting Online
US8494905B2 (en) * 2007-06-06 2013-07-23 The Nielsen Company (Us), Llc Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI)
US20090030287A1 (en) * 2007-06-06 2009-01-29 Neurofocus Inc. Incented response assessment at a point of transaction
US8533042B2 (en) 2007-07-30 2013-09-10 The Nielsen Company (Us), Llc Neuro-response stimulus and stimulus attribute resonance estimator
US20090036755A1 (en) * 2007-07-30 2009-02-05 Neurofocus, Inc. Entity and relationship assessment and extraction using neuro-response measurements
US20090037946A1 (en) * 2007-07-31 2009-02-05 Nelson Liang An Chang Dynamically displaying content to an audience
US8572094B2 (en) * 2007-08-17 2013-10-29 Google Inc. Ranking social network objects
US8386313B2 (en) * 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
US8635105B2 (en) * 2007-08-28 2014-01-21 The Nielsen Company (Us), Llc Consumer experience portrayal effectiveness assessment system
EP2180825A4 (en) 2007-08-28 2013-12-04 Neurofocus Inc EVALUATION SYSTEM OF THE EXPERIENCE OF A CONSUMER
US8392255B2 (en) 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US20090083129A1 (en) * 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
US8494610B2 (en) * 2007-09-20 2013-07-23 The Nielsen Company (Us), Llc Analysis of marketing and entertainment effectiveness using magnetoencephalography
US20090079547A1 (en) * 2007-09-25 2009-03-26 Nokia Corporation Method, Apparatus and Computer Program Product for Providing a Determination of Implicit Recommendations
WO2009046224A1 (en) 2007-10-02 2009-04-09 Emsense Corporation Providing remote access to media, and reaction and survey data from viewers of the media
CN101917898A (zh) 2007-10-31 2010-12-15 埃姆申塞公司 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法
US8059865B2 (en) 2007-11-09 2011-11-15 The Nielsen Company (Us), Llc Methods and apparatus to specify regions of interest in video frames
US20090318773A1 (en) * 2008-06-24 2009-12-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Involuntary-response-dependent consequences
US20100010370A1 (en) 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
WO2010018459A2 (en) * 2008-08-15 2010-02-18 Imotions - Emotion Technology A/S System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text
US20100123776A1 (en) * 2008-11-18 2010-05-20 Kimberly-Clark Worldwide, Inc. System and method for observing an individual's reaction to their environment
US8700072B2 (en) 2008-12-23 2014-04-15 At&T Mobility Ii Llc Scalable message fidelity
JP4775671B2 (ja) * 2008-12-26 2011-09-21 ソニー株式会社 情報処理装置および方法、並びにプログラム
US9357240B2 (en) 2009-01-21 2016-05-31 The Nielsen Company (Us), Llc Methods and apparatus for providing alternate media for video decoders
US8270814B2 (en) 2009-01-21 2012-09-18 The Nielsen Company (Us), Llc Methods and apparatus for providing video with embedded media
US8464288B2 (en) * 2009-01-21 2013-06-11 The Nielsen Company (Us), Llc Methods and apparatus for providing personalized media in video
US9295806B2 (en) 2009-03-06 2016-03-29 Imotions A/S System and method for determining emotional response to olfactory stimuli
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
US8959540B1 (en) * 2009-05-27 2015-02-17 Google Inc. Predicting engagement in video content
GB2471905B (en) * 2009-07-17 2011-08-31 Sony Comp Entertainment Europe User interface and method of user interaction
US20110046502A1 (en) * 2009-08-20 2011-02-24 Neurofocus, Inc. Distributed neuro-response data collection and analysis
US8655437B2 (en) 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
US10987015B2 (en) * 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US10475047B2 (en) * 2009-08-28 2019-11-12 Resonate Networks, Inc. Method and apparatus for delivering targeted content to website visitors
US20120191815A1 (en) * 2009-12-22 2012-07-26 Resonate Networks Method and apparatus for delivering targeted content
US20110119278A1 (en) * 2009-08-28 2011-05-19 Resonate Networks, Inc. Method and apparatus for delivering targeted content to website visitors to promote products and brands
US20110082719A1 (en) * 2009-10-07 2011-04-07 Tokoni Inc. System and method for determining aggregated tracking metrics for user activities
US20110106750A1 (en) * 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US8209224B2 (en) 2009-10-29 2012-06-26 The Nielsen Company (Us), Llc Intracluster content management using neuro-response priming data
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US8335715B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Advertisement exchange using neuro-response data
US8335716B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Multimedia advertisement exchange
CN102129824A (zh) * 2010-01-20 2011-07-20 鸿富锦精密工业(深圳)有限公司 资讯控制系统及方法
US8888497B2 (en) * 2010-03-12 2014-11-18 Yahoo! Inc. Emotional web
US20110237971A1 (en) * 2010-03-25 2011-09-29 Neurofocus, Inc. Discrete choice modeling using neuro-response data
WO2011133548A2 (en) * 2010-04-19 2011-10-27 Innerscope Research, Inc. Short imagery task (sit) research method
US9400550B2 (en) * 2010-05-06 2016-07-26 Nokia Technologies Oy Apparatus and method providing viewer feedback of observed personal user data
US8655428B2 (en) 2010-05-12 2014-02-18 The Nielsen Company (Us), Llc Neuro-response data synchronization
WO2011153318A2 (en) 2010-06-02 2011-12-08 Q-Tec Systems Llc Method and apparatus for monitoring emotion in an interactive network
US10796176B2 (en) * 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US20130102854A1 (en) * 2010-06-07 2013-04-25 Affectiva, Inc. Mental state evaluation learning for advertising
US20130238394A1 (en) * 2010-06-07 2013-09-12 Affectiva, Inc. Sales projections based on mental states
US8307006B2 (en) 2010-06-30 2012-11-06 The Nielsen Company (Us), Llc Methods and apparatus to obtain anonymous audience measurement data from network server data for particular demographic and usage profiles
US8392250B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Neuro-response evaluated stimulus in virtual reality environments
US8392251B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Location aware presentation of stimulus material
WO2012021719A1 (en) * 2010-08-11 2012-02-16 Norogene Llc Learning management system and method
US8463677B2 (en) 2010-08-12 2013-06-11 Net Power And Light, Inc. System architecture and methods for experimental computing
US9172979B2 (en) 2010-08-12 2015-10-27 Net Power And Light, Inc. Experience or “sentio” codecs, and methods and systems for improving QoE and encoding based on QoE experiences
US9557817B2 (en) 2010-08-13 2017-01-31 Wickr Inc. Recognizing gesture inputs using distributed processing of sensor data from multiple sensors
US8396744B2 (en) 2010-08-25 2013-03-12 The Nielsen Company (Us), Llc Effective virtual reality environments for presentation of marketing materials
US20120060101A1 (en) * 2010-08-30 2012-03-08 Net Power And Light, Inc. Method and system for an interactive event experience
US11869024B2 (en) 2010-09-22 2024-01-09 The Nielsen Company (Us), Llc Methods and apparatus to analyze and adjust demographic information
EP3518169A1 (en) 2010-09-22 2019-07-31 The Nielsen Company (US), LLC Methods and apparatus to determine impressions using distributed demographic information
US9092797B2 (en) * 2010-09-22 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to analyze and adjust demographic information
US8429704B2 (en) 2010-10-21 2013-04-23 Net Power And Light, Inc. System architecture and method for composing and directing participant experiences
US20120284332A1 (en) * 2010-11-03 2012-11-08 Anantha Pradeep Systems and methods for formatting a presentation in webpage based on neuro-response data
US20120114189A1 (en) * 2010-11-04 2012-05-10 The Go Daddy Group, Inc. Systems for Person's Verification Using Photographs on Identification Documents
JP2012109810A (ja) * 2010-11-17 2012-06-07 Panasonic Corp 表示装置、表示制御方法、携帯電話及び半導体装置
CN103329162B (zh) 2010-12-20 2015-11-25 尼尔森(美国)有限公司 使用分布式人口统计信息确定媒体印象的方法和装置
US9202111B2 (en) * 2011-01-09 2015-12-01 Fitbit, Inc. Fitness monitoring device with user engagement metric functionality
US20130234826A1 (en) * 2011-01-13 2013-09-12 Nikon Corporation Electronic device and electronic device control program
WO2012100082A2 (en) * 2011-01-19 2012-07-26 Panelvision, Llc Interactive point of purchase system
US10726362B2 (en) * 2011-01-31 2020-07-28 X-Act Science Inc. Predictive deconstruction of dynamic complexity
CA2810264C (en) 2011-03-18 2020-06-09 The Nielsen Company (Us), Llc Methods and apparatus to determine media impressions
BR112013026063B1 (pt) * 2011-04-14 2021-08-31 Koninklijke Philips N.V Dispositivo de medição de estresse para a determinação de um nível de estresse de um usuário, dispositivo trajável usado por um usuário, sistema de medição de estresse, método de medição de estresse para a determinação de um nível de estresse de um usuário, dispositivo de medição de pressão sanguínea e método de medição de pressão sanguínea
US9229489B2 (en) * 2011-05-03 2016-01-05 Facebook, Inc. Adjusting mobile device state based on user intentions and/or identity
MY184961A (en) * 2011-06-06 2021-04-30 Univ Putra Malaysia A system for determining user engagement behavior with a multimedia interface in a real time environment and a method thereof
US11222348B2 (en) * 2011-06-17 2022-01-11 Research & Business Foundation Sungkyunkwan University Context-specific experience sampling method and system
AU2012272977A1 (en) 2011-06-20 2014-01-16 Tandemseven, Inc. System and method for building and managing user experience for computer software interfaces
US9962083B2 (en) * 2011-07-05 2018-05-08 Saudi Arabian Oil Company Systems, computer medium and computer-implemented methods for monitoring and improving biomechanical health of employees
US20130019187A1 (en) * 2011-07-15 2013-01-17 International Business Machines Corporation Visualizing emotions and mood in a collaborative social networking environment
US9299083B2 (en) 2011-07-15 2016-03-29 Roy Morgan Research Pty Ltd Electronic data generation methods
US20130022947A1 (en) * 2011-07-22 2013-01-24 Muniz Simas Fernando Moreira Method and system for generating behavioral studies of an individual
WO2013019997A1 (en) 2011-08-02 2013-02-07 Emotiv Lifesciences Inc. Methods for modeling neurological development and diagnosing a neurological impairment of a patient
US20130041976A1 (en) * 2011-08-12 2013-02-14 Microsoft Corporation Context-aware delivery of content
US8719278B2 (en) * 2011-08-29 2014-05-06 Buckyball Mobile Inc. Method and system of scoring documents based on attributes obtained from a digital document by eye-tracking data analysis
US8854282B1 (en) * 2011-09-06 2014-10-07 Google Inc. Measurement method
US20130138499A1 (en) * 2011-11-30 2013-05-30 General Electric Company Usage measurent techniques and systems for interactive advertising
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
WO2013086357A2 (en) * 2011-12-07 2013-06-13 Affectiva, Inc. Affect based evaluation of advertisement effectiveness
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
DE112011105941B4 (de) * 2011-12-12 2022-10-20 Intel Corporation Scoring der Interessantheit von interessanten Bereichen in einem Anzeigeelement
US8538333B2 (en) 2011-12-16 2013-09-17 Arbitron Inc. Media exposure linking utilizing bluetooth signal characteristics
US9015255B2 (en) 2012-02-14 2015-04-21 The Nielsen Company (Us), Llc Methods and apparatus to identify session users with cookie information
US9569986B2 (en) * 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US20130317318A1 (en) * 2012-05-25 2013-11-28 Qualcomm Incorporated Methods and devices for acquiring electrodermal activity
WO2013177592A2 (en) * 2012-05-25 2013-11-28 Emotiv Lifesciences, Inc. System and method for providing and aggregating biosignals and action data
US20130325546A1 (en) * 2012-05-29 2013-12-05 Shopper Scientist, Llc Purchase behavior analysis based on visual history
AU2013204865B2 (en) 2012-06-11 2015-07-09 The Nielsen Company (Us), Llc Methods and apparatus to share online media impressions data
US9361392B1 (en) * 2012-07-05 2016-06-07 Microstrategy Incorporated Comparing subsets of user identities of a social networking platform
US9060671B2 (en) 2012-08-17 2015-06-23 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
AU2013204953B2 (en) 2012-08-30 2016-09-08 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions
US10453355B2 (en) 2012-09-28 2019-10-22 Nokia Technologies Oy Method and apparatus for determining the attentional focus of individuals within a group
US20140095109A1 (en) * 2012-09-28 2014-04-03 Nokia Corporation Method and apparatus for determining the emotional response of individuals within a group
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9116865B2 (en) 2012-12-05 2015-08-25 Chegg, Inc. Enhancing automated terms listings in HTML document publishing based on user searches
US20140164056A1 (en) * 2012-12-07 2014-06-12 Cascade Strategies, Inc. Biosensitive response evaluation for design and research
EP2932899A4 (en) * 2012-12-15 2016-08-10 Tokyo Inst Tech APPARATUS FOR EVALUATING A HUMAN MENTAL CONDITION
US20140180060A1 (en) * 2012-12-17 2014-06-26 Todd Parrish Methods and Systems for Automated Functional MRI in Clinical Applications
RU2530210C2 (ru) * 2012-12-25 2014-10-10 Закрытое акционерное общество "Лаборатория Касперского" Система и способ выявления вредоносных программ, препятствующих штатному взаимодействию пользователя с интерфейсом операционной системы
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US20140258373A1 (en) 2013-03-11 2014-09-11 Say Media, Inc. Systems and Methods for Managing and Publishing Managed Content
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US20140289009A1 (en) * 2013-03-15 2014-09-25 Triangle Strategy Group, LLC Methods, systems and computer readable media for maximizing sales in a retail environment
US9697533B2 (en) 2013-04-17 2017-07-04 The Nielsen Company (Us), Llc Methods and apparatus to monitor media presentations
US20140358667A1 (en) * 2013-05-29 2014-12-04 Daniel Alexander Beltramo, JR. Methods and apparatus to evaluate advertising campaigns
US10068246B2 (en) 2013-07-12 2018-09-04 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions
KR101535432B1 (ko) * 2013-09-13 2015-07-13 엔에이치엔엔터테인먼트 주식회사 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법
US20150142520A1 (en) * 2013-10-04 2015-05-21 TruValue Labs, Inc. Crowd-based sentiment indices
US9332035B2 (en) 2013-10-10 2016-05-03 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
JP6424357B2 (ja) * 2013-10-17 2018-11-21 株式会社夏目綜合研究所 視認対象効果度測定装置
US20150121246A1 (en) * 2013-10-25 2015-04-30 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting user engagement in context using physiological and behavioral measurement
US10134226B2 (en) 2013-11-07 2018-11-20 Igt Canada Solutions Ulc Methods and apparatus for controlling casino game machines
US9084013B1 (en) * 2013-11-15 2015-07-14 Google Inc. Data logging for media consumption studies
US10546310B2 (en) 2013-11-18 2020-01-28 Sentient Decision Science, Inc. Systems and methods for assessing implicit associations
US10956947B2 (en) 2013-12-23 2021-03-23 The Nielsen Company (Us), Llc Methods and apparatus to measure media using media object characteristics
US9237138B2 (en) 2013-12-31 2016-01-12 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions and search terms
US9760898B2 (en) * 2014-01-06 2017-09-12 The Nielsen Company (Us), Llc Methods and apparatus to detect engagement with media presented on wearable media devices
EP4219071A3 (en) 2014-03-13 2023-08-09 The Nielsen Company (US), LLC Methods and apparatus to compensate impression data for misattribution and/or non-coverage by a database proprietor
US10798459B2 (en) 2014-03-18 2020-10-06 Vixs Systems, Inc. Audio/video system with social media generation and methods for use therewith
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US20150302422A1 (en) * 2014-04-16 2015-10-22 2020 Ip Llc Systems and methods for multi-user behavioral research
US10321842B2 (en) * 2014-04-22 2019-06-18 Interaxon Inc. System and method for associating music with brain-state data
WO2015183318A1 (en) * 2014-05-30 2015-12-03 Hewlett-Packard Development Company, L. P. Associate a learner and learning content
US10325205B2 (en) 2014-06-09 2019-06-18 Cognitive Scale, Inc. Cognitive information processing system environment
US20160029938A1 (en) * 2014-07-31 2016-02-04 JVC Kenwood Corporation Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium
US9805381B2 (en) 2014-08-21 2017-10-31 Affectomatics Ltd. Crowd-based scores for food from measurements of affective response
DE102015113929A1 (de) 2014-08-21 2016-02-25 Affectomatics Ltd. Bewertung und Benachrichtigungen auf der Grundlage affektiver Reaktionen der Crowd
US11269891B2 (en) 2014-08-21 2022-03-08 Affectomatics Ltd. Crowd-based scores for experiences from measurements of affective response
US11494390B2 (en) 2014-08-21 2022-11-08 Affectomatics Ltd. Crowd-based scores for hotels from measurements of affective response
US9881512B2 (en) 2014-08-29 2018-01-30 Dhiraj JEYANANDARAJAN Systems and methods for customizing a learning experience of a user
US20160063539A1 (en) 2014-08-29 2016-03-03 The Nielsen Company (Us), Llc Methods and apparatus to associate transactions with media impressions
US10789603B2 (en) * 2014-10-20 2020-09-29 The Like Machine, Inc. At-shelf consumer feedback
US20160189182A1 (en) 2014-12-31 2016-06-30 The Nielsen Company (Us), Llc Methods and apparatus to correct age misattribution in media impressions
DE102016101661A1 (de) 2015-01-29 2016-08-04 Affectomatics Ltd. Auf datenschutzüberlegungen gestützte offenlegung von auf der grundlage von messwerten der affektiven reaktion berechneten crowd-basierten bewertungen
US11232466B2 (en) 2015-01-29 2022-01-25 Affectomatics Ltd. Recommendation for experiences based on measurements of affective response that are backed by assurances
US20160224683A1 (en) 2015-01-30 2016-08-04 Cory Michael Hicks Blending of content item types in a social network
US11093950B2 (en) * 2015-02-02 2021-08-17 Opower, Inc. Customer activity score
WO2016123777A1 (zh) 2015-02-05 2016-08-11 华为技术有限公司 一种基于生物特征的对象呈现、推荐方法和装置
US9521143B2 (en) * 2015-02-20 2016-12-13 Qualcomm Incorporated Content control at gateway based on audience
US10108264B2 (en) 2015-03-02 2018-10-23 Emotiv, Inc. System and method for embedded cognitive state metric system
WO2016142423A1 (en) * 2015-03-12 2016-09-15 Essilor International (Compagnie Générale d'Optique) A method for customizing a mounted sensing device
KR20160125295A (ko) * 2015-04-21 2016-10-31 삼성전자주식회사 디스플레이 장치 및 그 동작 방법
US20160316263A1 (en) 2015-04-21 2016-10-27 Samsung Electronics Co., Ltd. Display apparatus, and method of operating the display apparatus
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
US10375184B2 (en) * 2015-06-25 2019-08-06 Salesforce.Com, Inc. Electronic content engagement determination
US10380633B2 (en) 2015-07-02 2019-08-13 The Nielsen Company (Us), Llc Methods and apparatus to generate corrected online audience measurement data
US10045082B2 (en) 2015-07-02 2018-08-07 The Nielsen Company (Us), Llc Methods and apparatus to correct errors in audience measurements for media accessed using over-the-top devices
US9852329B2 (en) * 2015-07-24 2017-12-26 International Business Machines Corporation Calculation of a characteristic of a hotspot in an event
US10984363B2 (en) * 2015-09-04 2021-04-20 International Business Machines Corporation Summarization of a recording for quality control
US10205994B2 (en) 2015-12-17 2019-02-12 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions
JP2017117384A (ja) * 2015-12-25 2017-06-29 東芝テック株式会社 情報処理装置
US10270673B1 (en) 2016-01-27 2019-04-23 The Nielsen Company (Us), Llc Methods and apparatus for estimating total unique audiences
US10187694B2 (en) 2016-04-07 2019-01-22 At&T Intellectual Property I, L.P. Method and apparatus for enhancing audience engagement via a communication network
US10049263B2 (en) * 2016-06-15 2018-08-14 Stephan Hau Computer-based micro-expression analysis
US10210459B2 (en) 2016-06-29 2019-02-19 The Nielsen Company (Us), Llc Methods and apparatus to determine a conditional probability based on audience member probability distributions for media audience measurement
US10120747B2 (en) 2016-08-26 2018-11-06 International Business Machines Corporation Root cause analysis
US10110950B2 (en) * 2016-09-14 2018-10-23 International Business Machines Corporation Attentiveness-based video presentation management
US10171880B2 (en) * 2016-12-27 2019-01-01 Rovi Guides, Inc. Systems and methods for modeling audience stability of a media asset series
US20180240157A1 (en) * 2017-02-17 2018-08-23 Wipro Limited System and a method for generating personalized multimedia content for plurality of users
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
US10929860B2 (en) * 2017-03-28 2021-02-23 Adobe Inc. Viewed location metric generation and engagement attribution within an AR or VR environment
US10977674B2 (en) 2017-04-28 2021-04-13 Qualtrics, Llc Conducting digital surveys that collect and convert biometric data into survey respondent characteristics
DE102017209079A1 (de) * 2017-05-30 2018-12-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zur Erfassung von Wahrnehmung oder Wiedergabe identifizierter Objekte in einem Videosignal
US11631110B2 (en) * 2017-06-29 2023-04-18 Tyler Peppel Audience-based optimization of communication media
US20200143436A1 (en) * 2017-06-30 2020-05-07 Carrier Corporation Real estate buyer passive feedback application
US11723579B2 (en) 2017-09-19 2023-08-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
KR20200127969A (ko) * 2017-09-29 2020-11-11 워너 브로스. 엔터테인먼트 인크. 사용자 감정 상태에 반응하여 영화 컨텐츠의 생성 및 제어
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
EP3731749A4 (en) 2017-12-31 2022-07-27 Neuroenhancement Lab, LLC NEURO-ACTIVATION SYSTEM AND METHOD FOR ENHANCING EMOTIONAL RESPONSE
WO2019136394A1 (en) * 2018-01-08 2019-07-11 Chappell Arvel A Social interactive applications for detection of neuro-physiological state
US10441886B2 (en) * 2018-01-29 2019-10-15 Sony Interactive Entertainment LLC Dynamic allocation of contextual assistance during game play
US10610783B2 (en) 2018-01-31 2020-04-07 Sony Interactive Entertainment LLC Assignment of contextual game play assistance to player reaction
US11182747B2 (en) 2018-04-06 2021-11-23 Korn Ferry System and method for interview training with time-matched feedback
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
WO2019239274A1 (en) * 2018-06-14 2019-12-19 Gaurav Dubey System of determining efficiency of trainer delivering training session and method thereof
CN113382683A (zh) 2018-09-14 2021-09-10 纽罗因恒思蒙特实验有限责任公司 改善睡眠的系统和方法
US10833945B2 (en) * 2018-11-13 2020-11-10 International Business Machines Corporation Managing downloading of content
US11644806B1 (en) * 2019-01-24 2023-05-09 Veritone Alpha, Inc. Using active non-destructive state excitation of a physical system to model and control operations of the physical system
US11107084B2 (en) * 2019-05-03 2021-08-31 Walmart Apollo, Llc Fraud risk scoring tool
US11720546B2 (en) * 2019-05-22 2023-08-08 People.ai, Inc. Systems and methods for determining a communication channel based on a status of a node profile determined using electronic activities
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
US11308430B2 (en) * 2019-10-11 2022-04-19 Microsoft Technology Licensing, Llc Keeping track of important tasks
US11228544B2 (en) 2020-01-09 2022-01-18 International Business Machines Corporation Adapting communications according to audience profile from social media
US11963783B2 (en) 2020-08-26 2024-04-23 Dhiraj JEYANANDARAJAN Systems and methods for brain wave data acquisition and visualization
US11750883B2 (en) * 2021-03-26 2023-09-05 Dish Network Technologies India Private Limited System and method for using personal computing devices to determine user engagement while viewing an audio/video program
US20230157635A1 (en) 2021-11-24 2023-05-25 Dhiraj JEYANANDARAJAN Multimodal biometric human machine interface headset

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310454A (ja) * 2006-05-16 2007-11-29 Nippon Hoso Kyokai <Nhk> 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム
WO2008030493A2 (en) * 2006-09-05 2008-03-13 Innerscope Research, Llc Method and system for determining audience response to a sensory stimulus
WO2008072739A1 (ja) * 2006-12-15 2008-06-19 Visual Interactive Sensitivity Research Institute Co., Ltd. 視聴傾向管理装置、システム及びプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4859050A (en) * 1986-04-04 1989-08-22 Applied Science Group, Inc. Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers
US4870579A (en) * 1987-10-01 1989-09-26 Neonics, Inc. System and method of predicting subjective reactions
US5243517A (en) * 1988-08-03 1993-09-07 Westinghouse Electric Corp. Method and apparatus for physiological evaluation of short films and entertainment materials
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5436830A (en) * 1993-02-01 1995-07-25 Zaltman; Gerald Metaphor elicitation method and apparatus
US5676148A (en) * 1995-03-31 1997-10-14 Siemens Medical Systems Inc. Method and system for doppler ultrasound audio dealiasing
US6292688B1 (en) * 1996-02-28 2001-09-18 Advanced Neurotechnologies, Inc. Method and apparatus for analyzing neurological response to emotion-inducing stimuli
US5676138A (en) * 1996-03-15 1997-10-14 Zawilinski; Kenneth Michael Emotional response analyzer system with multimedia display
US5842199A (en) * 1996-10-18 1998-11-24 Regents Of The University Of Minnesota System, method and article of manufacture for using receiver operating curves to evaluate predictive utility
US6315569B1 (en) * 1998-02-24 2001-11-13 Gerald Zaltman Metaphor elicitation technique with physiological function monitoring
US6099319A (en) * 1998-02-24 2000-08-08 Zaltman; Gerald Neuroimaging as a marketing tool
US6358201B1 (en) * 1999-03-02 2002-03-19 Doc L. Childre Method and apparatus for facilitating physiological coherence and autonomic balance
US6422999B1 (en) * 1999-05-13 2002-07-23 Daniel A. Hill Method of measuring consumer reaction
EP1284991B1 (en) * 2000-05-19 2005-02-02 The NutraSweet Company Synthesis of n-[n-(3,3-dimethylbutyl)-l-alpha-aspartyl]-l-phenylalanine 1-methyl ester using oxazolidinone derivatives
AU2001282449A1 (en) * 2000-08-16 2002-02-25 Nizan Yaniv Applications of the biofeedback technique
US20060129458A1 (en) * 2000-10-12 2006-06-15 Maggio Frank S Method and system for interacting with on-demand video content
GB2379016A (en) * 2001-07-27 2003-02-26 Hewlett Packard Co Portable apparatus monitoring reaction of user to music
US20070038516A1 (en) * 2005-08-13 2007-02-15 Jeff Apple Systems, methods, and computer program products for enabling an advertiser to measure user viewing of and response to an advertisement
JP2009508553A (ja) * 2005-09-16 2009-03-05 アイモーションズ−エモーション テクノロジー エー/エス 眼球性質を解析することで、人間の感情を決定するシステムおよび方法
US7797186B2 (en) * 2005-10-18 2010-09-14 Donnelly Andrew Dybus Method and system for gathering and recording real-time market survey and other data from radio listeners and television viewers utilizing telephones including wireless cell phones
US7930199B1 (en) * 2006-07-21 2011-04-19 Sensory Logic, Inc. Method and report assessing consumer reaction to a stimulus by matching eye position with facial coding
US9833184B2 (en) * 2006-10-27 2017-12-05 Adidas Ag Identification of emotional states using physiological responses
US20080255949A1 (en) * 2007-04-13 2008-10-16 Lucid Systems, Inc. Method and System for Measuring Non-Verbal and Pre-Conscious Responses to External Stimuli

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310454A (ja) * 2006-05-16 2007-11-29 Nippon Hoso Kyokai <Nhk> 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム
WO2008030493A2 (en) * 2006-09-05 2008-03-13 Innerscope Research, Llc Method and system for determining audience response to a sensory stimulus
WO2008072739A1 (ja) * 2006-12-15 2008-06-19 Visual Interactive Sensitivity Research Institute Co., Ltd. 視聴傾向管理装置、システム及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014081913A (ja) * 2012-09-27 2014-05-08 Dainippon Printing Co Ltd アンケート分析装置、アンケート分析システム、アンケート分析方法、及びプログラム
JP2019514127A (ja) * 2016-04-12 2019-05-30 アール−ストール インコーポレイテッド 仮想化環境内に広告を提示するための方法及び装置
JP2017204146A (ja) * 2016-05-11 2017-11-16 富士通株式会社 画像制御方法、装置、及びプログラム
JP2019020834A (ja) * 2017-07-12 2019-02-07 Necネッツエスアイ株式会社 情報測定装置、情報測定方法及び情報測定プログラム
JP2021509850A (ja) * 2018-01-08 2021-04-08 ソニー・インタラクティブエンタテインメント エルエルシー 状況適応型ゲームプレイ支援を生成するためにプレイヤーの関与を識別すること
JP7286656B2 (ja) 2018-01-08 2023-06-05 ソニー・インタラクティブエンタテインメント エルエルシー 状況適応型ゲームプレイ支援を生成するためにプレイヤーの関与を識別すること
US11691082B2 (en) 2018-01-08 2023-07-04 Sony Interactive Entertainment LLC Identifying player engagement to generate contextual game play assistance
JP2022023467A (ja) * 2020-07-27 2022-02-08 トヨタ紡織株式会社 観光ガイドシステム
JP7371584B2 (ja) 2020-07-27 2023-10-31 トヨタ紡織株式会社 観光ガイドシステム

Also Published As

Publication number Publication date
WO2010123770A2 (en) 2010-10-28
EP2422284A4 (en) 2013-09-11
EP2422284A2 (en) 2012-02-29
US20100004977A1 (en) 2010-01-07
AU2010239526A1 (en) 2011-11-10
CA2758272A1 (en) 2010-10-28
WO2010123770A3 (en) 2010-12-29

Similar Documents

Publication Publication Date Title
US11200964B2 (en) Short imagery task (SIT) research method
US20210065117A1 (en) Method and system for predicting audience viewing behavior
JP2012524458A (ja) 対話的活動に関するユーザ体験を測定するための方法及びシステム
JP5194015B2 (ja) 感覚的刺激への視聴者反応を決定する方法およびシステム
US9451303B2 (en) Method and system for gathering and computing an audience&#39;s neurologically-based reactions in a distributed framework involving remote storage and computing
US20160055420A1 (en) Systems and techniques for identifying and exploiting relationships between media consumption and health
US9292858B2 (en) Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US20080243590A1 (en) Methods and systems for measuring exposure to media
EP2152155A1 (en) Multi-market program and commercial response monitoring system using neuro-response measurements
AU2013273825B2 (en) Method and System for Determining Audience Response to a Sensory Stimulus
Soleymani Implicit and Automated Emtional Tagging of Videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140304

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140707

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20151007