JP2012522470A - 視聴者の視聴行動を予測するための方法およびシステム - Google Patents

視聴者の視聴行動を予測するための方法およびシステム Download PDF

Info

Publication number
JP2012522470A
JP2012522470A JP2012503596A JP2012503596A JP2012522470A JP 2012522470 A JP2012522470 A JP 2012522470A JP 2012503596 A JP2012503596 A JP 2012503596A JP 2012503596 A JP2012503596 A JP 2012503596A JP 2012522470 A JP2012522470 A JP 2012522470A
Authority
JP
Japan
Prior art keywords
interest
response
content
value
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012503596A
Other languages
English (en)
Other versions
JP5756456B2 (ja
Inventor
カール ディー マーチ
ブライアン レヴィン
ラヴィ カンス ヴイ コスリ
ケイレブ ジェイ シーフェルト
Original Assignee
インナースコープ リサーチ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インナースコープ リサーチ, インコーポレイテッド filed Critical インナースコープ リサーチ, インコーポレイテッド
Publication of JP2012522470A publication Critical patent/JP2012522470A/ja
Application granted granted Critical
Publication of JP5756456B2 publication Critical patent/JP5756456B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25883Management of end-user data being end-user demographical data, e.g. age, family status or address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • A61B5/0533Measuring galvanic skin response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • A61B5/225Measuring muscular strength of the fingers, e.g. by monitoring hand-grip force
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6897Computer input devices, e.g. mice or keyboards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Social Psychology (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Biophysics (AREA)
  • Tourism & Hospitality (AREA)
  • Biomedical Technology (AREA)
  • Operations Research (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Neurosurgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)

Abstract

本発明は、感覚的刺激体験を提供するプレゼンテーションに対する視聴者の生物学に基づく反応に基づいて、視聴者の行動を予測して、当該プレゼンテーションに対する視聴者の関心のレベルやパターンの尺度を決定するための方法およびシステムに関する。特に、本発明は、視聴者がプレゼンテーションの全部を見るか否かを予測するための方法およびシステムに関する。さらに、本発明は、視聴者が、記録されたコンテンツの早送り、チャンネルの変更、または、生のコンテンツを視聴するときに部屋を離れることを含む、他の感覚的刺激体験に彼らの注意をそらす可能性を予測すること、あるいは、その感覚的刺激体験から彼らの関心を再び向け直すことのために、利用することができる。
【選択図】図2A

Description

本件出願は、米国特許出願第11/850650号(2007年9月5日出願、現在係属中)の一部継続出願である。本件出願は、米国仮出願第61/164892号(2009年3月30日)の、法律によって与えられる任意および全ての利益を主張する。これらの出願の全体を参照することで本件明細書に援用する。
本発明は、生のプレゼンテーション(感覚的刺激)や記録されたプレゼンテーション、コマーシャル、および、テレビ、インターネットや携帯機器などの様々なプラットフォーム上での番組(show segment)を含むメディアコンテンツの視聴者の視聴行動を予測するための方法およびシステムに関する。特に、本方法およびシステムは、一般に、a)サンプル集団の視聴者をメディアコンテンツ(感覚的刺激体験)にさらし、b)前記メディアコンテンツに対する前記視聴者の生物学に基づいた反応を測定し、前記メディアコンテンツに対する前記視聴者の反応の強度(intensity)、同調性(synchrony)および関心(関与)(engagement)についてのレベルの程度やパターンを決定することで、前記視聴者の経験を評価すること、および、c)視聴者メンバーが、記録されたコンテンツの早送り、チャンネルの変更、または、ライブのコンテンツを視聴するときに部屋を離れることを含む、どれか1つの感覚的刺激体験に彼らの注意を変えられるか否かを予測すること、あるいはその他の方法で、その感覚的刺激体験から彼らの関心を再び向け直すことを含む。
多くの異なる種類の聴覚(オーディオ)、視覚(ビジュアル)および視聴覚(オーディオ・ビジュアル)のプレゼンテーション(感覚的刺激)があり、人々は、毎日、それらにさらされる。これらのプレゼンテーションは、感覚的体験として作用し、我々の感覚を刺激し、生物学に基づいた反応をもたらすことが知られている。当該反応は、電気的または機械的に測定できる(例えば、心拍数、呼吸数、血圧、および、皮膚伝導)。
これらのプレゼンテーションを評価するための測定を行うことに、一般的に用いられるアプローチは、質問することであり、そのアプローチにおいては、テレビ/メディア視聴者および/またはインターネットユーザーおよび/またはゲームプレーヤーは、テレビ/メディアの視聴者のメンバー、インターネットユーザーのメンバー、または、ゲームプレーヤーのメンバーとして、自分自身を識別することを求められる。テレビの視聴に関して、この質問は、通常、統計的に選択された母集団および監視サイトにおける監視付き受信器と関連付けられた、電気的なプロンプト(electronic prompting)や、データ入力デバイス(例えば、アービトロン社のポータブルピープルメーター(Portable People Meter)など)を用いて行われる。また、メンバー識別は、年齢、性別、および、人口統計データを含んでもよい。統計的に選択された監視サイトにおける各監視付き受信器と関連付けられた人口統計データおよび調整データ(tuning data)の両方を、監視サイト内に配置された蓄積転送装置に記憶し、その後、これらのデータを、公衆交換電話網上での直通電話を介して、または、インターネットを介して、定期的に中央オフィスコンピュータに転送することが一般的である。
米国特許出願第12/426259号明細書
視聴者の反応を測定するこれら非生物学的な自己報告方法は、極めて誤差を生じやすいことで知られている。個人の記録は、主観的であって記憶の偏りをもたらし、家庭監視装置は、個人による出来事の記録を必要とし、低い規則遵守(コンプライアンス)に苦しむ。一方、ケーブルやインターネット信号のデジタル監視は、家庭内のどのメンバーが視聴者に含まれるかを識別することができず、また、それらメンバーによる反応性のレベルを評価することもできない。さらに、自己報告は、メディアのプレゼンテーションに対する生物学的な反応を捉えることができない。それゆえに、自己報告の方法は、価値のあるデータを提供するものの、それらは、非常に誤差を生じやすく、メディア消費に対するその時々の反応を追跡することができない。
従って、メディアの様々な形式および長さに対する、視聴者の感情的反応(関心)を、客観的に測定する方法およびシステムは、好都合であろう。さらに、デジタル録画における技術的進歩に基づいて、対象とする視聴者は、もし機会があればコマーシャルを早送りすることができ、早送りするか否かについて指標を獲得するために、そのような方法およびシステムを使うことは有益であろう。
歴史的に、生物学に基づく試験は、1つまたは2つの生理反応(例えば、心拍数または脳波検査)を用いることに集中しており、写真、印刷広告、テレビコマーシャルなどの広告媒体のような、特定の刺激に対する反応において引き起こされる特定の感情を判別する。しかしながら、引き起こされる特定の感情を判定することは、これらの感情的反応が、所望の行動反応あるいは行動の変化を、どのようにもたらすのかを予測することの助けにはならない。さらに、この試験は、個人の反応に焦点を当てている。よって、目標母集団の行動反応あるいは行動の変化をもたらすことができる、または、それらに関連する母集団サンプルにおける生理学または生物学上の反応、または、反応のパターンを識別することが望ましい。
本発明は、視聴者測定の分野において、使用されるためのシステムおよび方法に関する。特に、本発明は、プレゼンテーション(例えば、ライブまたは記録され、受動的または双方向の聴覚、視覚、視聴覚のプレゼンテーション)に対する、生物学に基づく視聴者の反応を記録するための方法およびシステム、そして、刺激のあるプレゼンテーションによる、視聴者の強度、同調性や関心を、全体的にまたはその時々に測定するための方法およびシステムを対象とする。そして、サンプル母集団の視聴者の関心の測定は、全体として母集団が、同じプレゼンテーションに対して、好きか嫌いかで、注意を引かれるレベルを評価するために使用することができる。視標追跡技術を組み合わせると、視聴者の関心の程度は、プレゼンテーションのどの要素が、当該プレゼンテーションまたは類似のプレゼンテーションにおける他の要素と比較して、最も関心を引くものであるかを判定することにも用いることができる。強度、同調性や関心の程度は、診断的価値のため、および/または、プレゼンテーションの成功または不成功を予測するための両方に用いることができる。これは、予測モデルによって成し遂げることができる。予測モデルは、例えば、既知の成功したプレゼンテーションに対する強度、同調性、または、関心の尺度と、未知または予め評価されていないプレゼンテーションに対する関心の尺度とを、サンプル母集団(代表的な視聴者)に対して比較する。
本発明は、メディア試験ツールとして用いることができ、視聴者の反応を測定するために、従来のダイアルテスト、自己報告調査およびフォーカスグループの代わりに、または、それらの補完的な役割をするものとして利用される。本発明は、ヒトの神経生物学や具体化された反応を利用することができ、当該反応は、サンプル視聴者の反応を測定し、より多くの一般視聴者の反応を予測するために、本発明に従って測定されて処理される。
1つの実施形態によると、2人以上のサンプル視聴者は、1つのコンテンツ(ライブまたは予め記録されたもの)を提示され、当該コンテンツは、5秒から5時間(または、それ以上)までのいずれかの時間でも継続することができる。本発明によるシステムは、前記コンテンツに対する視聴者の反応の客観的な尺度を得るために、視聴者の生体反応を監視する。
生体反応データは、マルチセンサー装着型身体監視デバイスを介して、収集することができ、当該デバイスは、生物学に基づくデータの継続的な収集を行うことができる。そして、プレゼンテーションとデータとを互いに関係づけるために、そのデータにタイムスタンプが付与される。このセンサーパッケージは、皮膚伝導率(skin conductivity; SC)の測定を含むことができ、心臓反応、脳波、呼吸反応、身体の動き、視標追跡、顔の表情およびその他の生物学に基づく信号などの反応を監視するために、いくつでも付加的なセンサーを含めることができる。
プレゼンテーションの一部として、視聴者に提示されるコンテンツは、これらに限られるものではないが、写真、印刷広告、テレビ番組、映画、ドキュメンタリー、コマーシャル、インフォマーシャル、報道、生のコンテンツ、生の演劇、録画された演劇、模擬裁判、絵コンテ、俳優オーディション、見本版テレビ番組や映画コンセプト、音楽、インターネット、ゲームなどを含むことができる。
本発明に基づいて、反応データは、小グループもしくは大グループの状況下で、別々に収集され、非侵襲的(全てのセンサーが外部にある)なものとなることができる。
本発明によると、本システムは、どのプレゼンテーションが視聴されたか、誰がコンテンツを視聴しているのかを追跡することができ、視聴されているコンテンツまたはプレゼンテーションに対応するタイムロックされた視聴者メンバーの生物学的反応を追跡することができる。よって、視聴された所与のコンテンツまたはプレゼンテーションに対して、サンプル母集団の各メンバーの生物学的反応は、一部のコンテンツに関連付けることができ、異なる時間および場所において収集された、1以上のサンプル視聴者からのデータは組み合わせることができる。本発明の目的のために、サンプル視聴者(または、サンプル母集団)は、数回、例えば数日間に、同じコンテンツを視聴することを監視される1人の個人とすることができる。
1つの実施形態では、本発明によるシステムは、コンテンツクリエーター、配給業者、および販売者に、彼らの視聴者がどのコンテンツに反応を示すのか客観的な見解を得るのを助けることができる。
1つの実施形態では、本システムは、自然な家庭環境において使用され、可能な限り非侵襲的なものとすることができる。本システムは、テレビ(および、その他のメディア)が家族のメンバーによって視聴されたかを追跡することができ、視聴しているメンバーや、それらメンバーの視聴している番組を正確に追跡することができる。
家族のメンバーにとって、彼らは、以前と同じように、それらのメディアをコントロールすることができる。彼らにとって、主な違いは、彼らがセンサーデバイス(例えば、特別な衣類、ブレスレットまたはその他のデバイス)を、彼らがビデオを見るとき、または、音楽を聴くときに、身に着けなければならないことである。この例では、このデバイスは、生物学的センサーを用いることで、再生されているメディアに対して彼らの関心があるかを判定するために用いられる。本システムは、収集されたデータについての評価を作成することができ、例えば、動きのより大きなレベルほど、より少ない視聴者メンバーは注意を払っており、より多くの視聴者メンバーは、非受動的な視聴体験に関心を持つ。
1つの実施形態では、デバイスによって収集されたデータは、デバイスまたは視聴者が、メディアディスプレイに近づいていると判定される場合にのみに用いられる。さもなければ、視聴者が、メディアを体験するのにメディアから離れすぎているとみなされる。当該データは、一定の間隔でセットトップボックス(STB)、または、受信器に転送され、消費されている現在のメディアに関する情報に加えて、各視聴者メンバーの識別情報と関連付けられる。このデータは、データベースに一緒に入れられ、リアルタイムに提供することが可能である。
本システムの1つの実施形態では、コンプライアンスの問題を処理するために、ユーザーは、機能的センサーデバイスを身につけない限り、または、STBあるいは受信機に取り付けられた差込口/ドックにおける放電ユニットを充電しない限り、チャンネルを変更することができない。
本発明によるこのシステムは、プレゼンテーションおよびコンテンツクリエーターによって利用され、広く配信される前に、クリエーターらの番組を評価する。例えば、クリエーターらは、彼らが求めるビデオやオーディオを“プッシュ”することで、サンプル視聴者を評価するために、本システムを利用することができ、当該ビデオやオーディオは、サンプル視聴者のホームエンターテイメントシステムまたはコンピュータに直接評価される。
本件発明は、コンテンツ刺激(content stimulus)の視聴率を予測するための方法に関するものである。コンテンツ刺激は、これらに限られるものではないが、テレビ番組、プレゼンテーション、コマーシャル、および、それらの組み合わせを含む多くの形式を取ることができる。
本方法は、一連のステップからなり、コンテンツ刺激を予め設定された数の時間間隔に分割するステップと、視聴者のバイオメトリックス(生体統計)に基づいて、コンテンツ刺激の各時間間隔に対する関心スコアを獲得するステップと、少なくとも1つの尺度を決定するために前記関心スコアを利用するステップと、前記少なくとも1つの尺度に基づいて、視聴率を予測するステップとを含む。
1つの実施形態では、尺度は、負の増加(negative buildup)、正の増加(positive buildup)、平均関心スコア、最大関心スコア、および/または、それらの組み合わせであるかもしれない。別の実施形態では、少なくとも2つ尺度が、視聴率を予測するために利用され得る。
本発明の1つの態様によると、関心スコアは、ある期間にわたって、視聴者にコンテンツ刺激を受けされることによって得られる。その期間は、少なくとも2つの時間間隔に分割される。次に、サンプル母集団の各メンバーに対するコンテンツ刺激の少なくとも1つの生物学上の反応が、測定される。生物学上の反応は、心拍数、皮膚伝導、呼吸状態、動作および視標追跡のうち少なくとも1つを含むことができる。強度の値(intensity value)は、各時間間隔に対して測定された生物学上の反応の少なくとも1つに応じて決定される。同調性の値は、各時間間隔に対して、測定された生物学上の反応の少なくとも1つの変化率に応じて決定される。最後に、関心スコアは、強度の値と同調性の値に応じて、各時間間隔に対して決定される。
1つの実施形態では、正の増加は、コンテンツ刺激に対する関心スコアを用いることで決定され得る。それは、少なくとも1つのしきい値を設定すること、関心の値が比較的一定の状態のままか増加する時間間隔によって定められた上昇部分に、関心曲線を分割すること、そのような各上昇部分に対して、前期しきい値を上回る領域を算出すること、前記領域を合計すること、コンテンツの時間長によって前記合計を分割することによって、行われる。
本発明の別の態様によると、負の増加は、コンテンツ刺激に対する関心スコアを用いることで決定され得る。それは、少なくとも1つのしきい値を設定すること、関心の値が比較的一定の状態のままか減少する時間間隔によって定められた下降部分に、関心曲線を分割すること、そのような各下降部分に対して、前記しきい値を下回る領域を算出すること、前記領域を合計すること、コンテンツの時間長によって前記合計を分割することによって、行われる。
1つの実施形態では、コンテンツ刺激の視聴率は、尺度とあらかじめ収集された現実の視聴率データ間の予め決められた相関関係を用いることによって予測することができる。別の実施形態では、少なくとも1つの尺度は、コンテンツ刺激が予め記録されている場合に、視聴者がコンテンツ刺激の全部を見るかどうかを予測するために利用することができる。別の実施形態では、少なくとも1つの尺度は、コンテンツ刺激が生で発表されているときに、コンテンツ刺激の全部を見るかどうかを予測するために利用することができる。
また、本発明は、コンテンツ刺激の視聴率を予測するためのコンピュータシステムに関する。本システムは、複数のセンサーを含むことができ、それぞれ、2以上の時間間隔にわたって、コンテンツ刺激に対する生物学上の反応を測定するのに適している。さらに、本システムは、コンテンツ刺激に関連するデータや、コンテンツ刺激に対する少なくとも1つの生物学上の反応の尺度を提供する複数のセンサーからのデータを受信するのに適したコンピュータ処理システムを含むことができる。さらに、本システムは、各時間間隔に対して、測定された生物学上の反応のうち少なくとも1つに応じて、少なくとも1つの強度の値を決定するのに適した強度処理モジュール(intensity processing module)を含むことができる。加えて、各時間間隔に対して、測定された生物学上の反応のうち少なくとも1つに応じて、少なくとも1つの同調性の値を決定するのに適した同調性処理モジュール(synchrony processing module)を含むことができる。また、システムは、各時間間隔に対して、少なくとも1つの強度の値、少なくとも1つの同調性の値、および、負の増加、正の増加、平均関心スコアや最大関心スコアのからなるグループから選択された少なくとも1つの尺度に応じて、少なくとも1つの関心の値を決定するのに適した関心処理モジュール(engagement processing module)も含むことができる。
1つの実施形態では、本システムは、さらに、少なくとも1つの関心の値と、第二のコンテンツ刺激に対応する、データベースに記憶された関心の値とを比較するのに適した比較モジュールと、比較に基づいて、コンテンツ刺激が第二のコンテンツ刺激に類似することを示すのに適したインジケータも含む。
本発明の1つの態様によると、生物学上の反応は、心拍、皮膚伝導、呼吸状態、動作、および、視標追跡からなるグループから選ばれる。
1つの実施形態では、強度処理モジュールは、標準化されたスコアに応じて、強度の値を決定するのに適している。標準化したスコアは、少なくとも1つの生物学上の反応のピーク値、トラフ値、中央値、平均値、および、変化率の値の少なくとも1つに応じて決定される。
1つの実施形態では、同調性処理モジュールは、少なくとも一部の視聴者についての少なくとも1つの生物学上の反応の変化率の値の分散に応じて、同調性値を決定するのに適している。
本件発明は、また、コンテンツ刺激の視聴率に関連する尺度を検証する方法に関する。本方法は、少なくとも2つの時間間隔に分割された期間にわたって、コンテンツ刺激に視聴者をさらすこと、サンプル母集団の各メンバーに対して、コンテンツ刺激に対する少なくとも1つの生物学上の反応を測定すること、各時間間隔に対して、測定された生物学上の反応の少なくとも1つに応じて、少なくとも1つの強度値を決定すること、各時間間隔に対して、測定された生物学上の反応の少なくとも1つの変化率に応じて、少なくとも1つの同調性値を決定すること、少なくとも1つの強度値と少なくとも1つの同調性値に応じて、各時間間隔に対する少なくとも1つの関心スコアを決定すること、負の増加、正の増加、平均関心スコアおよび最大関心スコアを含む、関心の尺度を決定するために、前記関心スコアを利用すること、データを標準化すること、関心の尺度と、商業的に入手可能な視聴者保持数(viewership retention numbers)との相関関係を決定することを含む。
本発明の1つの態様によると、少なくとも1つの生物学上の反応を測定するステップは、心拍数、皮膚伝導(コンダクタンス)、呼吸数、呼吸状態、動作、および、視標追跡のうち少なくとも1つを測定することを含む。
1つの実施形態では、関心の尺度を決定するために関心スコアを利用するステップは、少なくとも1つのしきい値を設定すること、関心の値が一定の状態のままであるか減少する時間間隔によって定められる下降部分に曲線を分割すること、そのような下降部分のそれぞれに対して、前記しきい値を下回る領域を算出すること、前記領域を合計すること、コンテンツの時間長で前記合計を分割することによって、負の増加を決定することを含む。
別の実施形態では、関心の尺度を決定するために関心スコアを利用するステップは、少なくとも1つのしきい値を設定すること、関心の値が一定の状態のままであるか増加する時間間隔によって定められる上昇部分に曲線を分割すること、そのような上昇部分のそれぞれに対して、前記しきい値を上回る領域を算出すること、前記領域を合計すること、コンテンツの時間長で前記合計を分割することによって、正の増加を決定することを含む。
本発明とともに、本発明のこれらの機能およびその他の機能は、図面、詳細な説明および特許請求の範囲を確認した後、より十分に理解されるだろう。
本発明の更なる特徴および利点は、次の図面と関連して与えられる発明の詳細な説明から確かめることができる。
図1は、試験シアターにおいて、視聴者の測定を行うための本発明に従ったシステムの概略図である。 図2Aは、自宅において、視聴者の測定を行うための本発明に従った、第二の実施形態のシステムの概略図である。 図2Bは、第二の実施形態に対する自宅内でのコンプライアンスアルゴリズムの流れ図である。 図2Cは、自宅内システムの1つの態様の流れ図であり、所与の世帯において誰が実際にメディアを体験しているのかを識別するための機能である。 図3は、社会的相互作用の間にわたり、関心のレベルを監視するための本発明に従った、第三の実施形態のシステムの概略図である。 図4Aは、本発明による、30秒コマーシャルに対する関心パターンを示す。 図4Bは、本発明による、60秒コマーシャルに対する関心パターンを示す。 図5は、本発明による、35秒コマーシャルに対する関心パターンを示す。 図6は、本発明による、35秒コマーシャルに対する関心パターンを示す。 図7は、負の増加と商業的に入手可能な視聴率記憶データとの間の相関関係を示す。 図8は、平均関心と商業的に入手可能な視聴率記憶データとの間の相関関係を示す。 図9は、最大関心と商業的に入手可能な視聴率記憶データとの間の相関関係を示す。
本発明は、プレゼンテーションに対するサンプル母集団におけるメンバーの生物学上の反応を測定することによって、サンプル母集団の体験の尺度を決めるための方法およびシステムに関する。当該プレゼンテーションは、感覚的刺激体験を提供する。本発明に従う方法およびシステムは、感覚的刺激体験のレベルの尺度や、強度、同調性および関心のパターンの尺度を決定する。特に、本発明は、関心のその時々のパターンや全体的なレベルを決定するために、感覚的刺激またはプレゼンテーションを受けた1人以上の人の1以上の生物学上の反応を測定するための方法およびシステムを対象とする。関心の全体的なレベルが得られると、人が感覚的刺激に(部分的に、または、全体的に)さらされている状態を回避する機会に従って行動するどうかについての予測を得ることができる。さらに、本発明は、プレゼンテーションが、その他のプレゼンテーションおよびその他の母集団と比べて、母集団に対してより有効であるかを決定するために使用でき、高いレベルの関心や、プレゼンテーションの有効性および成功に貢献するプレゼンテーションの要素を識別することを助ける。
多種多様な種類の聴覚、視覚、視聴覚のプレゼンテーションがあり、人々は毎日それらにさらされている。これらのプレゼンテーションは、我々の感覚に刺激として働く。ある例では、アーティスト、ミュージシャンまたは映画監督は、視聴者から1以上の感情や一連の反応を引き出すことを目的とするプレゼンテーションを創作している。他の例では、プレゼンテーションは、製品、サービス、組織または主義を啓蒙することや促進することを目的としている。最後に、しばしば、視聴者の関心のレベルが、例えば、実演中の生の人、フォーカスグループ、インタビュー中、または、任意の社会的相互作用などに、反応するという機会や応用分野がある。
これらの感覚的刺激は、音または音の集まり、1つの写真または写真集、あるいは、オーディオビジュアルのプレゼンテーションの形式で表され得る。当該プレゼンテーションは、テレビまたはラジオなどにおいて、受動的に提示され、または、ビデオゲームやインターネット体験などにおけるインタラクティブな環境において提示される。感覚的刺激は、前もって記録されるか、または、演劇や訴訟手続のようにライブで見せることができ(受動的)、または、ボートクルーズに参加することあるいは遊園地の乗り物に乗ることのような実世界の状況(または、シミュレーション)で提供することができる(相互作用)。
過去20年間の科学的な研究は、体験に対する人の反応が、コンテンツの処理の複雑さに大きく左右されることを示唆している。処理のレベルは、順々に、強い影響をもたらし、コンテンツは、ターゲットの視聴者を取り込むことができ、態度または行動の変化をもたらすための能力を有し得る。さらに、いくつかの研究は、より興奮させるコンテンツが、後日においても、そのコンテンツをより思い出しやすくするという結果をもたらしたことを示している。これに限定されるものではないが、クリエイティブディレクター、エンターテイメントスペシャリスト、政治家や広告主などを含むさまざまな業界の専門家にとって、これは特に興味深いものである。例えば、エンターテイメントの分野において、作品がその視聴者(例えば、子供、老人、男性や女性)に最も訴えかけることを評価できることが望ましい。
この情報は、ターゲットの視聴者を識別するのに、クリエーターやプロモーターにとって役に立つばかりでなく、宣伝目的のために、企業スポンサーや広告主にとっても有用である。与えられた刺激の全体的なインパクトを見積もるための機能は、患者を啓蒙しようとする臨床医、学生を奮い立たせる先生、または、有権者を説き伏せる政治家にとっても重要である。このように、もしあれば、人口統計上のグループが、関心のある特定のメディアコンテンツを見出すことを判定するのが望ましく、そのインパクトを測定する助けになる。同様に、もしあれば、人口統計上のグループが、関心を持つ特定の印刷物、テレビあるいはラジオコマーシャルを見つけることが望ましく、最終的には、態度の変化、購買行動、または、社会的行動などの人の行動を予測する機能を有することが望ましい。
受動的または相互的なプレゼンテーションに対する生物学上の反応は、身体に付けられた様々なセンサーを用いて測定することができ、これらに限定されるものではないが、心拍、呼吸数、動作、および皮膚伝導を含む様々な生物学上の反応を記録する。現在、市場において、生物学に基づく人の反応の連続的な目立たない監視を可能にする多種多様な製品や新しい技術が存在する。例えば、それらの多くは、ヘルスおよびフィットネスのために、しばしば採用されている。LifeShift System (VivoMetrics社、カリフォルニア州ベンチュラ)という製品名の製品は、最新式の衣服であり、それは、評価対象の人によって目立たないように身につけられ、後の分析のために、肺、心臓、皮膚、姿勢および声の情報を同時に収集できる。SenseWear (BodyMedia社、ペンシルベニア州ピッツバーグ)という製品名の別の製品は、皮膚伝導、体温、動作、および心拍を同時に収集するアームバンドである。また、Tobii x50 Eye Tracker または Tobii 2150 (Tobii Technology社、バージニア州マクレーン)という製品名の製品は、最新式の視標追跡デバイスであり、それは、高い確実性の、眼球固定位置および眼球固定期間の目立たない監視を可能にする。視標追跡とその他の生物学上の反応を組み合わせることによって、システムは、複雑な感覚的体験(例えば、マルチメディアまたはインターネット体験)における特定要素が、反応を引き起こすことを独自に予測することができる。
本発明によると、ターゲット視聴者の全体として、受動的および相互的なオーディオ、ビデオ、オーディオビデオコンテンツに対する、その瞬間その瞬間のパターンや全体の反応を、確実にかつ客観的に定量化する方法およびシステムが提案されている。個々の被験者の個別の感情を識別するために、それぞれの生物学的反応を用いるというよりも、本発明は、ターゲット視聴者の代表的なサンプル母集団の生物学上の反応を集めることができる方法およびシステムを対象にし、感覚的刺激体験を与えるプレゼンテーションに関して、ターゲット視聴者のその時々や全体の関心の指数を生成する。
本発明は、聴覚、視覚、または視聴覚のプレゼンテーションに対する人(または、動物)の様々な生物学上の反応の代表的なデータを収集するための方法およびシステムを対象とする。プレゼンテーションは、音または一連の音、写真またはビデオを含む一連の写真、または、1以上の音と1以上の写真との組み合わせ(ビデオを含む)などの知覚刺激体験を提供する。本プレゼンテーションは、予め記録され、表示デバイスまたはシステム(例えば、テレビ、ビデオディスプレイ、映画のように、スクリーン上に投影)で再生されるか、または、ライブパフォーマンスとして体験することができる。本プレゼンテーションは、受動的であり、視聴者は(例えば、シアター内で座って、または、テレビやビデオスクリーンの前に座って)定位置からプレゼンテーションを体験するか、または、本プレゼンテーションは、双方向であり、視聴者は、何らかの形式の活動(例えば、本物のジェットコースター、ジェットコースターのシミュレーション、インターネットを介した対話型セッション、フォーカスグループ)に参加する。
収集されたデータは、本発明に従って処理され、視聴者の強度、同調性および関心を測定する。母集団サンプルに対する強度、同調性および関心の尺度は、さらに、当該母集団の強度、同調性および関心のレベルを予測するために、利用することができる。この開示内容において、母集団サンプルは、(同時に、または、異なる時間で)同じプレゼンテーションに対する複数の個人の反応の尺度に基づいているか、複数回同じプレゼンテーションを公開された1人の個人の反応の複数の尺度に基づいている。
本発明に従って、プレゼンテーションの公開の期間において、当該プレゼンテーションに対する強度の尺度、および、当該プレゼンテーションに対する反応の同調性は、生物学上の反応から測定することができる。さらに、公開の期間は、様々な期間(固定または可変)の時間スロット(時間枠)またはウィンドウ(時間帯)に分割されるか、または、各時間ウィンドウあるいはイベントウィンドウに対して定められ、かつ、関連付けられた対応反応値の単位に基づいたイベントに分割される。強度の尺度は、プレゼンテーションに対する生物学上の反応の、基準レベルからの変化を決定することを含み、2以上の生物学的測定にわたって集められ、かつ、母集団あるいは母集団の一部にわたって集められる。さらに、反応値は、測定された変化および予め定められた一連のしきい値に応じて決定される。同調性の尺度は、同期化された変化を示す値か、または、サンプル母集団における生物学上の反応の相関関係を決定することが含まれる。与えられた時間ウィンドウに対する同調性の尺度は、共通の時間ウィンドウに対して、サンプル母集団の測定された生物学上の反応に対する分散の逆数に応じて決定することができる。関心の尺度は、時間ウィンドウ基準による時間ウィンドウ上の強度の尺度と同調性の尺度を組み合わせることによって決定することができる。強度と同調性の尺度は、均一または不均一に、関心の尺度の決定を加重することができる。
本システムは、3つのタイムロックまたは同期化されたデータのソースを含む。それは、1)感覚的刺激あるいは一連の刺激を提供するための、メディアプレゼンテーションデバイス、またはその他の装置、またはフォーラム、2)プレゼンテーションに対する複数の生物学的反応を収集するための反応監視デバイス、そして、3)顔の反応に加えて、瞳孔の固定の位置や期間を測定するための視標追跡システムおよび/またはビデオカメラである。付加的なビデオカメラは、メディアデバイスに対する個人および/または聴衆の近さや、体験したプレゼンテーションの特定要素を判別するのに利用することができる。反応監視デバイスおよび視標追跡システムおよび/またはビデオカメラは、感覚的刺激に対してタイムロックされるか、あるいは、同期化され得る。そのため、監視デバイスおよび視標追跡システムおよび/またはビデオカメラは、プレゼンテーションの同じ部分に対応する生物学的な反応を、着実に記録することができる。
システムセンサーパッケージは、これらに限定されるものではないが、皮膚伝導、心拍、心拍変動、迷走神経緊張(vagal tone)、呼吸、身体の動きの測定、顔面の筋肉の動き/表情、視標追跡の測定、および、体温、顔および身体のサーモグラフィイメージング、顔のEMG,EEG,fMRIなどのその他の生物学上の信号の測定を含むことができる。プレゼンテーションの内容は、これらに限定されるものではないが、受動的あるいは対話的な、テレビ、ラジオ、映画、インターネット、ゲーム、および、エンターテイメントや教材を含むだけでなく、生(ライブ)の社会的相互作用や、劇場、経験および娯楽のプレゼンテーションも含まれる。タイムロックされたデータソースは、コンピュータ制御のデータプロセッサに、接続されるか、または転送され、単位時間(時間スロット)毎、イベント毎、あるいは、全体のプレゼンテーションの上演にわたる関心のパターン(または、マップ)というスコア化された結果をもたらす上述の方法に、自動的に適用される。
本システムは、さらに、よりいっそうの徹底的な処理のため、特定の要素、または興味の瞬間を分離するのに、視標追跡、指向性のオーディオおよび/またはビデオ、あるいは、その他のテクノロジーを用いることができる。本発明に従って、本システムは、見られているコンテンツが何であるか、誰が当該コンテンツを見ているのか、そして、視聴者のどの生物学的な反応が、視聴中のコンテンツに対応するのかを追跡することができる。
本システムは、視聴者が、どのようにプレゼンテーションに反応するかの客観的な考察を提供することができる。さらに、本システムは、視聴者の生物学上の反応、反応パターン、視聴者の関心パターン、および、様々な歴史的なメディア刺激に対するレベルのデータベースを含むことができ、人口統計上のデータとテストメディアコンテンツに関連するその他のデータを組み合わせたときに、比較的成功を収めるだろうコンテンツを予測することを可能にする。
方法は、タイムロックされた関心の指標を計算するためのものである。本方法は、サンプル視聴者の生物学的反応の集約を伴う。サンプル母集団または被験者グループの反応を集めるために、1以上の次の手順に従って、データを処理することが望ましい:
1.個々のデータストリームを時間スロットまたはウィンドウにタイムロックする;生物学的反応データは、特定の時間スロットに関連付けられる連続したブロックに分割される;
2.個々の基準線および個々の分散に基づいて、前記データを定めて処理する;前記生物学的反応データは、サンプル母集団でセンサー装置を使用した個々のメンバーのさまざまな反応を補正するために、標準化される;
3.個々の基準線と分散を比較するために各時間スロットに対するピーク値とトラフ値を定めて処理し、1以上の生物学的反応の各時間スロットに対する変化の割合を処理する;
4.各生物学的尺度に対して、時間スロット毎に、標準化されたスコアを算出する;
5.強度の尺度を生成するために、1以上の生物学的尺度に対する1以上の標準化されたスコアを用いて、サンプル母集団の全体にわたって、時間スロット毎の前記標準化されたスコアを組み合わせる。好ましくは、1以上の生物学的尺度は、他の生物学的尺度とは異なるウェイトで重み付けされた少なくとも1つの生物学的尺度と共に用いられる。ただし、重み付けは、サンプル母集団およびプレゼンテーションまたはコンテンツに依存する;
6.試験視聴者の全体にわたる生物学的尺度のサブセットの、単位時間当たりの変化率の残差分散の逆数の平均をとり、テスト母集団とテストコンテンツに応じて、他の生物学的尺度とは異なるウェイトで重み付けされているいくつかの生物学的尺度と共に、同調性の尺度を生成する;
7.単位時間当たりの全体的な関心の尺度を生成するために、前記強度の尺度と前記同調性の尺度を組み合わせる。好ましくは、前記強度の尺度か、前記同調性の尺度のいずれかが、サンプル母集団およびプレゼンテーションまたはコンテンツに応じて、異なるウェイトで重み付けされ得る;
8.様々なサイズの他の母集団における他の試験と比較するために、個人の集合数(サンプル母集団サイズ)に対して、単位時間当たりの関心の結果として得られた尺度を標準化する。
本システムの1つの実施形態によれば、サンプル視聴者は、試験的映画館において、感覚的刺激、または(ライブあるいは記録された)メディアコンテンツを視聴させられる。当該試験は、最低数秒から数時間まで継続できる。本発明の目的として、サンプル視聴者は、ある時間で同じコンテンツを視聴することを監視される、1人の個人とするか、複数個人の1グループとすることができる。視聴者を監視することは、同時に、小さいグループにおいて、または、大きいグループにおいて、個別に行うことができる。視聴者は、きっちり定義された人口統計学的/サイコグラフィックプロファイル、または、大まかに定義された人口統計学的/サイコグラフィックプロファイル、または、その2つの組み合わせから得られる。本システムは、タイムロックされたデータストリームを記録し、その時々の関心のレベルを計算し、そして、関心のパターンを類似するメディアコンテンツのデータベースと比較する。さらに、本システムは、さらなる徹底的な処理のために、特定の要素や興味の瞬間を分離するために、視標追跡、または、その他のテクノロジーを用いることができる。本発明に従って、本システムは、視聴されているコンテンツは何か、誰が当該コンテンツを視聴しているのか、視聴者のどの生物学的反応が視聴されているコンテンツに対応するのかを追跡することができる。このように、与えられた刺激的なコンテンツに対して、生物学的反応は、当該反応が引き出されたコンテンツの部分に関連付けることができ、異なる時間や場所で集められた1以上のサンプル視聴者、または、サンプル視聴者のサブセットからのデータを集約することができる。
別の実施形態によると、世帯の被験メンバーは、センサーデバイス(例えば、特別な衣類、ブレスレットまたはその他のデバイス)を着用している間、彼らの1日の流れの初めから終わりまで、彼らのメディアの選択および使用をコントロールすることができる。当該センサーデバイスは、彼らがテレビを視聴するか、音楽を聴くか、またはインターネットを使用するときの生物学的反応のいくつかの組み合わせを測定する。この実施形態では、家庭内のセンシングデバイスは、家庭内のコンピュータ、または、セットトップボックス(STB)と通信し、被験者が選択したメディアコンテンツの内容とタイミングだけでなく、当該被験者に関する識別情報も判別する。
この点については、本システムは、メディア刺激からの距離を判別できるテクノロジーを含むだろう。当該距離とは、例えば、赤外線、全地球測位衛星(GPS)、レーダーなどのような技術を介して測定されたもの、または、2つの対象物間の信号により測定されたものである。2つの対象物とは、例えば、テレビあるいはコンピュータと、被験者などであり、周知の動作範囲を有する技術(たとえば、WiFi,Zigbee(登録商標),RFID、またはBluetooth(登録商標))および/または被験者の視線の方向(例えば、視標追跡技術)を利用する。この実施形態の変形例において、STBまたはコンピュータは、センサーデバイスがコンプライアンスを保証するように起動されない限り、家庭内のメディアデバイスの起動を防ぐことができる。この実施形態の別の変形例において、試験的プレゼンテーションのコンテンツおよび/またはブロードキャスト/ケーブルによるプレゼンテーションのコンテンツは、被験者に“プッシュ”配信される。当該被験者は、所望の人口統計学的/サイコグラフィックプロファイル、または、関心の予め決められたレベルあるいはパターンに、“マッチする”ものである。先の実施形態と同様に、本システムは、タイムロックされたデータストリームを記録でき、被験者に関する関心のその時々のレベルを計算でき、関心のパターンを、類似する個々の体験のデータベースと比較することができる。
別の実施形態によると、感覚的刺激を提供するプレゼンテーションは、生身の人あるいは人々、または、アクティビティ(活動)とすることができる。この生身の人または人々は、これらに限定されることはないが、生のフォーカスグループでの対話、事前審理または模擬裁判中の陪審に対する生のプレゼンテーション、インタビューする人とされる人との対話、教師と学生または学生グループ、患者と医師との対話、デート中の対話、または、その他の社会的相互作用を含むことができる。当該生のアクティビティは、例えば、ジェットコースター、ボードまたは自動車に乗ることのようなアクティビティとすることができる。本システムは、タイムロックされたデータストリームを記録することができ、関心のその時々のレベルを計算することができ、類似の社会的相互作用のデータベースに、関心のパターンを比較することができ、それにより、当該社会的相互作用のタイプに対して、他の反応パターンと関連する反応パターンを推定することができる。
本件発明は、視聴者測定の分野において使用するためのシステムおよび方法に関する。システムは、ライブまたは記録された、受動的または双方向の聴覚、視覚、視聴覚のプレゼンテーションに対して、生物学上の視聴者の反応を記録するために説明される。方法は、強度のパターン、同調性および関心の尺度を計算するために、生物学上の視聴者の反応を用いるために説明される。本方法は、多数の被験者の生物学上の反応を、単位時間毎、イベント毎の標準化されたスコア、または、サンプル母集団の視聴者全体にわたって集められる時間/イベントについて集められた、標準化されたスコアに変換することに関する。本システムは、サンプル母集団の視聴者に対して、その時々および全体の体験の強度や同調性を測定する。標準化された強度や同調性のスコアは、視聴者の関心の全体的な尺度を生成するために、組み合わせることができる。関心の尺度は、複数の生物学上の尺度に基づいて、定められた視聴者区分(セグメント)の体験の客観的な尺度を表す。
関心の尺度は、複数の生物学上の尺度から定められる2つの要素から定められる。第一の要素は、強度の尺度であり、(時間スロットまたはイベントによって表わされる)プレゼンテーションの定められた複数の部分の対する、生物学上の強度を反映する。第二の要素は、同調性の尺度であり、(時間スロットまたはイベントによって表わされる)プレゼンテーションの定められた複数の部分に対するサンプル母集団において、(どれぐらいの人々が、同じコンテンツに対して、同じあるいは類似する反応を有するのかという)生物学上の反応における変化の相関関係または同時発生を反映する。
さらに、本システムは、反応を引き起こす感覚的刺激の特定要素を識別するために、タイムロックされた視標追跡と、関心の尺度を用いたその他のビデオ監視技術とを統合することができる。また、本システムは、関心の尺度を用いることができ、類似視聴者の類似テスト刺激に対する関心の過去のパターンを蓄積したデータベースを用いた、予測モデルを介して、テスト刺激の相対的な成功と失敗を予測する。
図1は、本発明に従ったシステムの実施形態の概略図を示す。プレゼンテーションは、ディスプレイ装置10を介して、視聴者12に提示される。当該デバイス装置10は、ビデオディスプレイスクリーン、または、テストあるいはサンプル視聴者12にプレゼンテーションを見せるための、その他の商用テクノロジーなどである。プレゼンテーションは、これらに限られることはないが、受動的または双方向のテレビ、ラジオ、映画、インターネット、ゲーム、および、エンターテイメントや教材を含むことができる。ディスプレイ装置10は、これらに限られることはないが、テレビ、映画スクリーン、デスクトップ、ハンドヘルドあるいはウェアラブルコンピュータ、ゲーミングコンソール、ホームあるいはポータブル音楽デバイス、または、受動的あるいは相互作用的な聴覚、視覚、または視聴覚のプレゼンテーションの公表のためのその他任意のデバイスを含むことができる。
本発明の目的のために、テスト視聴者12は、同じコンテンツを数回見ることを監視される1人の個人とすることができ、または、いくつかのパラメータ(例えば、人口統計データ、興味のレベル、生理学的あるいは心理学的なプロファイルなど)によって定められた少数あるいは多数のグループとすることができる。テスト視聴者は、互いに、テスト刺激ごとに、時間を限った複数の生物学的反応の収集のために、生物学的監視システム12aを用いて監視される。
本システムは、視聴者の行動、顔面の反応および/または正確な焦点に関するデータを収集するための焦点および/または顔面監視システム14(例えば、視標追跡、または、デジタルビデオカメラ)である。3つのデータソース(メディア刺激、生物学的反応データ、および、焦点データ)は、互いに、同期し、または、タイムロックされ、および/または、イベント的に固定される(event-locked)。それによって、収集された反応データは、プレゼンテーションの一部分に関連づけられ、コンピュータデータ処理装置16に送られる。コンピュータデータ処理装置は、生物学的反応データを処理して、強度、同調性および関連の値を生成するために、プロセッサ、メモリおよびソフトウェアを備える汎用コンピュータ、または、パーソナルコンピュータとすることができる。
3つのデータソースは、タイムロックされ、データプロセッサ16の外部または内部に統合される。それは、これに限定されるものではないが、それらを全て同時に着手することを含む様々な手段によって統合されるか、または、それらのクロック/イベントタイマーを統合するため、あるいは、システムのそれぞれのクロックを単に統合するため、あるいは、共通の時計を用いるために、(データプロセッサ16内の)各システムに、3つのデータソースからデータを収集させることを可能にする共通イベントマーカーを提供することによって統合される。
データプロセッサ16は、その時々の、そのイベント毎の、あるいは全レベルの関心を計算するためのスコアリングアルゴリズムを含むソフトウェアを実行することができ、その計算結果を、同一または類似のテストプレゼンテーションに対する他の視聴者の反応のデータベースと比較して、比較結果をユーザーインターフェース18に送る。ユーザーインターフェース18は、データプロセッサ16にアクセスするデスクトップまたはポータブルコンピュータまたはコンピュータ端末上に提供され得る。ユーザーインターフェース16は、ウェブベースのユーザーインターフェース、または、デスクトップあるいはポータブルコンピュータあるいはコンピュータ端末上で実行される専用のクライアントによって提供される。当該結果は読取られて、配布するために、印刷されたレポートまたは電子レポート20に集約することができる。反応データは、反応が測定されたときに表示されたプレゼンテーションの一部分に関連付けることができる。また、反応データは、決められた遅延に基づいて、反応が生じていると推測されるので、プレゼンテーションのもっと前の部分に関連付けることができる。
生物学的反応を測定するための監視装置12Aは、そのような反応を測定するために、市販のセンサー、または、当該分野において周知のその他のセンサーのうちいずれかのもとのすることができる。好ましくは、センサーは、“あたかも”被験者が全く監視されていないかのように、被験者にテスト刺激を体験させるであろう。フォームファクター(form factor)は、これに限られるものではないが、見栄えの良い衣服、腕時計、およびかぶりものなどのような着用できる装置を含む。多くのデバイスは、自律神経系、顔面筋肉組織、動作や位置、声の特徴、眼球運動、呼吸状態、および、脳波の測定値を収集するために、利用可能であり、よく知られている。
関心度の尺度を決めるために、本発明に従う方法の実施例は、次に説明するスコアのうちいくつかまたは全てを獲得すること、予測モデルを採用することを含むことができる。
強度スコア(Intensity Score)
強度のそれぞれの尺度は、被験期間内の時間、または、時間あるいはイベントマーカーのウィンドウあるいはビンにおけるポイントと関連付けられる。この関連付けは、多くの方法を用いて成し遂げることができる。好ましくは、被験期間内の時間、または、時間のウィンドウにおけるポイントと、強度の尺度と関連付ける方法は、母集団サンプルにおいて定められる関心のそれぞれの尺度と同一または類似である。例えば、1つの方法において、生物学上の反応における変化と関連付けられた、強度の所与の尺度は、時間スロットまたはウィンドウに割り当てられる。当該時間スロットまたはウィンドウは、反応が生じた立ち上がり時間の半分に対応する。
例えば、データプロセッサ16への入力は、N×Mのデータマトリックスとすることができ、Nは、被験者の数であり、Mは、生物学的反応を記録する間の時点の数である。データプロセッサ16は、生物学的反応データを受信する1以上のソフトウェアモジュールを含むことができ、後の処理ステップで用いられるN×Mマトリックスを生成する。データプロセッサ16は、強度を処理するモジュールを含むことができ、生物学的反応データのN×Mマトリックスを受け取り、測定された各生物学的反応および各時間スロットに対して、1以上の標準化スコアを算出する。出力は、W秒幅の時間ウィンドウ(これは、プレゼンテーションに依存する可変パラメータである)における被験者全体にわたる強度の合計整数スコア(total integer score)とすることができる。部分的立ち上がり時間パラメータ(f−rise)は、反応が生じる際に、関連する時間ウィンドウまたはスロットを推定するために用いることができる。例えば、もし生物学上の反応における変化が、3つの時間スロットまたはウィンドウ、W1、W2およびW3において生じ、当該反応の立ち上がり時間の半分が、ウィンドウW2の間に生じた場合に、反応における当該変化に対する強度の尺度は、ウィンドウW2に関連付けられ得る。また、強度の尺度は、ピーク値を含むウィンドウ(例えば、ウィンドウW3)、または、トラフ値を含むウィンドウ(例えば、ウィンドウW1)に関連付けることも可能である。さらに、部分的標準偏差パラメータ(f−std)は、基準線からの、反応における変化の度合いを見積もるのに用いられる。
結果として、それぞれの人に対して、各人がプレゼンテーションにさらされた(提示された)期間の各時間(または、イベント)ウィンドウと関連付けられた強度の値の集合として反応マップ(response map)が定められる。サンプル母集団に対する強度の尺度は、プレゼンテーションを体験させられたそれぞれの人に対して、同一の時間ウィンドウに関連付けられた強度の尺度を加算することによって決定することができる。その結果は、反応の時系列(タイムライン)であり、母集団サンプルの総計である。2以上の生物学上の反応(例えば、皮膚伝導、心拍、呼吸数、動作など)は、時間ウィンドウごとに(均等に、または、不均等に重み付けされて)、組み合わせることができ、全体的な強度のスコア、または、強度の時系列を定める。総計は、母集団サイズに対して標準化することができ、例えば、10または25人である。
本発明に従うと、反応マップ、または、反応パターンは、ラジオ、印刷物およびオーディオビジュアルの広告(テレビとインターネットの両方)、テレビ番組および映画を評価するために用いることができる。1つの実施形態では、母集団サンプルは、1つ以上のよく知られた成功した広告(テレビ番組、映画またはウェブサイト)を提示されて、その後、同一または異なる母集団サンプルが、新しい広告(テレビ番組、映画またはウェブサイト)を提示される。その反応パターンが1つ以上のよく知られた成功した広告(テレビ番組、映画またはウェブサイト)に対する反応パターンと類似する場合、その新しい広告(テレビ番組、映画またはウェブサイト)も成功するだろうという予測され得る。さらに、異なる種類の刺激(広告、テレビ番組、映画、ウェブサイトなど)に対する反応パターンのデータベースは、成功する広告、テレビ番組、映画またはウェブサイトの特性を定めるために、保持されて分析され得る。
本発明によると、データプロセッサ16は、同調性処理モジュールを含むことができ、生物学的反応データのN×Mマトリックスを受け取り、サンプル母集団の少なくとも一部分について、1以上の生物学的尺度の変化率の逆分散を計算し、そして、与えられた時間スロットに対する同調性の代表的な標準値を決定することができる。データプロセッサ16は、母集団サンプルにおけるそれぞれの人に対する被験期間について、与えられた時間ウィンドウまたはイベントウィンドウにおける反応の勾配(slope)を評価することによって、与えられた生物学的反応の同調性を定めることができる。それぞれの時間ウィンドウに対して、勾配値(slope value)は、勾配の値に基づいて割り当てられる。例えば、勾配が大きくなるほど、勾配値も大きくなる。母集団サンプルのそれぞれの人のそれぞれ対応する時間ウィンドウまたはイベントウィンドウに対する傾斜値は、それぞれの時間ウィンドウまたはイベントウィンドウに対する母集団サンプルについて、分散の程度を定めるために、処理することができる。例えば、各時間ウィンドウまたはイベントウィンドウに対する母集団サンプルの傾斜値の平均および標準偏差が算出され、それらは、さらに残差分散を定めるために用いられる。さらに、残差分散は、標準化(正規化)することができ、刺激に対する母集団サンプルの反応のタイムロックされた同調性を示す反応パターンを生成するために用いることができる。
同様に、同調性反応マップまたはパターンは、ラジオ、印刷物および視聴覚広告(テレビおよびインターネットの両方)、テレビ番組や映画を評価するために利用され得る。さらに、上述の刺激は、強度の反応パターンと同調性の反応パターンの両方を使用して評価することができる。
強度のスコアは、次のステップに従って、計算することができる。
ステップ1:各入力チャネルに対するノイズ低減処理の後に、各被験者に対して、反応の平均(μ)と標準偏差(σ)を含む反応の振幅分布は、ある基準期間(これは、刺激によって決まる変数パラメータである)について計算される。
ステップ2:各被験者に対して、各反応のトラフ振幅とピーク振幅の位置とタイミングが推定され、それぞれのピーク値とトラフ値との間の差(反応の振幅)が計算される。
ステップ3:そのように算出された値は、各個人の反応に対するスコアを定めるために用いられる:それゆえに、もし振幅がそのチャネルに対する基準μよりも小さいならば、スコア0であり、もし振幅がμとμ+f-(σ)の間であるならば、反応に対してスコア1であり、もし振幅がμ+f-(σ)以上ならば、反応に対してスコア2である。
ステップ4:各被験者に対する各反応スコアは、f−riseの時間を特定することによって、メディア刺激にタイムロックされた可変長の連続ビンに割り当てられる。
ステップ5:各生物学的センサーに対し、すべての被験者にわたるビンに割り当てられた反応スコアのすべての和が計算される。収集されるセンサーの数(各試験で等しい)、および、被験者の数(各試験で異なる)に応じて、スコアが標準化(正規化)される。このようにして生成されたスコアが、単位時間当たり、または時間スロット当たりの強度スコアである。
使用されるセンサーおよび体験させるプレゼンテーションによっては、すべてのチャネルが強度スコアに加えられるわけではない。例えば、ある形態の呼吸(例えば、退屈を示唆する溜め息等)または動作(飲料を飲む、または腕時計を見る)は、実際には強度スコアから差し引くことができる。さらに、目的が異なるプレゼンテーションに対しては、強度の尺度の別バージョンを使用することができる。例えば、ホラー映画を試験している場合、コンテンツの目的は興奮を促すことであるため、計算においては皮膚伝導などのセンサーをより重く加重することができ、一方、笑いを誘うことを意図しているコメディを試験している場合は、呼吸反応に対してより強い加重を用いることができる。
強度スコアを決定する更なる方法は、米国特許出願第12/426259号に開示される。その全てを参照することによって本件明細書に援用する。
同調性スコア(Synchrony Score)
同調性は、刺激またはプレゼンテーションの一部に対する、視聴者(サンプル母集団の複数のメンバー)による反応の変化率の尺度である。視聴者は、ある期間にわたり、または、一連のステップまたはイベントを通じて、刺激またはプレゼンテーションにさらされる。被験期間は、刺激またはプレゼンテーションを構成する要素またはイベントに対応するウィンドウまたは部分またはイベントに分割することができる。例えば、反応の同調性は、プレゼンテーションの間の刺激またはイベントの一部に対する、複数の視聴者メンバーまたは母集団サンプルによる、生物学に基づく反応の変化率に応じて、決定することができる。
本発明によれば、データプロセッサ16に対する入力は、対象の数をN、生物学的反応が記録される時点の数をMとしたN×Mのデータマトリックスとすることができる。データプロセッサ16は、生物学的反応データのN×Mマトリックスを受け取り、マトリックス値全体の分散の逆数を計算し、測定された各生物学的反応および各時間スロットに対する1つ以上の標準化スコアを決定する、同調性処理モジュールを含むことができる。出力は、W秒幅の時間ウィンドウにおける、イベント全体の反応の同調性の合計整数スコアとなる(これは刺激に基づく可変パラメータである)。本発明によれば、所与の反応の同調性は、試験視聴者内の各被験者に対する、被験時間にわたる所与の時間ウィンドウまたは時間スロットにおける反応の変化率を評価することにより決定される。
同調性スコアは、以下のステップに従って計算することができる。
ステップ1:各入力チャネルのノイズ低減処理の後に、ウィンドウサイズよりも小さい時間増分で前方に移動する可変幅のスライドウィンドウを生成する。
ステップ2:各ウィンドウにおいて、各被験者に対して、1つ以上の反応終了点の1次導関数を計算する。
ステップ3:すべての被験者にわたり、各ウィンドウにおける変化率の平均(μ)および標準偏差(σ)を計算する。
ステップ4:上記からスコア=−In|σ−μ|を計算する。
ステップ5:すべての数字が0から100の間になるように、得られたスコアを調整する。
ステップ6:スライドスコアを、メディア刺激にタイムロックされた可変長の連続的なウィンドウに、平均化することにより、強度スコアウィンドウと比例するウィンドウのスコア(windowed score)を計算する。このようにして生成されたスコアが、単位時間当たり、または時間スロット当たりの同調性スコアである。
同調性スコアを決定する更なる方法は、米国特許出願第12/426259号に開示される。その全てを参照することによって本件明細書に援用する。
関心スコア(Engagement Score)
強度および同調性のスコアを互いに加算して、単位時間当たり、または時間スロット当たりの経時的な関心スコアを計算することができる。試験プレゼンテーションおよび試験視聴者の性質によって、強度および同調性のスコアのうちの一方は、他方と関連して加重され得る。例えば、ある試験においては、最も極端な反応を識別することが好ましい場合があり、そのため、強度がより重く加重される。あるいは、異なる関数を使用して異なる形態の関与スコアを決定することができる。例えば、強度に同調性を乗ずることにより、より読みやすく、ある状況、例えば何時間もの裁判の宣誓証言を評価する場合等において使用可能な誇張されたグラフが生成され、最も極端な関心の実施例を識別することに有用となり得る。
図4Aおよび4Bは、本発明に従って決定された関心の尺度の2つの実施例を示す。図は、20人の男性のサンプル母集団視聴者から生成された。図4Aは、30秒のコマーシャルに対する関心の尺度またはパターンを示し、その期間は6つの5秒時間スロットに分割され、40から100の関心値が各時間スロットに対して決定される。図4Aにおける図が示すように、関心のパターンは、時間とともに増加する。図4Bは、60秒のコマーシャルに対する関心の尺度またはパターンを示し、その期間は12個の5秒時間スロットに分割され、40から100の関心値が各時間スロットに対して決定される。図4Aのコマーシャルでは、図4Bのコマーシャルと比較して、チャンネルを変えない視聴者の数が3倍であった。
導出された関心基準(Derived Engagement Metrics)
上述のように、コンテンツ刺激(テレビ番組、コマーシャル、プレゼンテーション、および/または、同様のメディア)の関心の尺度は、コンテンツ刺激を視聴中の試験グループの生理学的な信号を収集して分析することによって獲得され得る。さらに、多くの関心基準(メトリクス、尺度)は、コンテンツの初めから終わりまでの関心スコアから導出され得る。
導出された基準は、限定されるものではないが、平均関心(average engagement)、最大関心(maximum engagement)、負の増加(negative buildup)、および正の増加(positive buildup)を含むことができる。平均関心は、時間間隔数で分けられた各時間間隔に対する関心スコアの合計として定義される。最大関心スコアは、コンテンツの全期間(時間)にわたる最高のスコアとして定義される。
負の増加は、特定のしきい値を下回る関心曲線部分として定義される。そして、1)関心曲線を“下降”時間間隔(ただし、関心スコアが、時間間隔の間で一定であるか、あるいは減少する)に分割すること、2)しきい値を下回るぞれぞれの下降時間間隔に対する部分を算出すること、3)それら部分を合計すること、4)コンテンツの全期間でその合計を割ることによって、負の増加は計算される。もし関心値が下降部分の全体的な減少の25%未満で上昇するなら、それらの部分は、下降部分に寄与するものであると考えられる。
本発明の1つの側面によると、負の関心に対するしきい値は、たいてい約60である。1つの実施形態では、負の関心に対するしきい値は、約55の関心スコアに設定される。別の実施形態では、負の関心に対する敷地は、約50未満の関心スコアに設定される。
正の増加は、特定のしきい値を上回る関心曲線部分として定義される。そして、(1)当該曲線を“上昇”部分(ただし、関心スコアが継続的な時間間隔の間で、そのままであるか、あるいは増加する)に分割すること、(2)そのような上昇曲線のそれぞれに対して(特定しきい値を上回る)部分を算出すること、(3)そのような部分を全て合計すること、(4)コンテンツ刺激に対する正の関心増加を導き出すために、コンテンツの期間でその合計を割ることによって、正の増加は計算される。
1つの実施形態によると、正の関心に対するしきい値は、約50よりも大きい関心スコアに設定される。別の実施形態では、正の関心に対するしきい値は、約60の関心スコアに設定される。他の実施形態では、正の関心に対するしきい値は、約65の関心スコアに設定される。
目標が、視聴者が生の(記録されていない)コンテンツの全体のプレゼンテーションを視聴しそうか否かを予測することである場合に、好ましい基準は、これらに限定されるものではないが、正の増加、平均関心スコア、および最大関心を含む。視聴者または視聴者のメンバーが記録されたコンテンツを早送りしそうか否かを評価する場合に、好ましい基準は、これらに限定されるものではないが、負の増加、平均関心スコア、および最大関心を含む。しかしながら、どの基準も、視聴者メンバーの振る舞いを予測することに用いられ得る。
1つの実施形態では、正の増加は、視聴者メンバーがコンテンツ刺激の全部を視聴する気になる可能性を予測するために用いられる。さらに、高い正の増加は、視聴者メンバーが、他のメディア形式で、もう一度コンテンツを視聴し得るという可能性に関連する。例えば、テレビで放送中のスポーツイベントにおいて示された高い正の増加を有するコマーシャルは、ウェブサイトや、その他のソーシャルメディアなどの別のメディア形式で、見られるか議論される可能性もあり得る。
別の実施形態において、最大関心スコアは、特定のコンテンツ刺激の成功を求めるために利用される。例えば、高い最大関心スコアを伴うコマーシャルは、一般に、それよりも低い最大関心スコアを伴うコマーシャルよりも、早送りあるいは無視される可能性がより低くなる。最大関心スコアを有していれば、広告主は、コマーシャルを放送する前に、当該コマーシャルの潜在的な成功をランク付けることができる。さらに、高い最大関心スコアは、印象の強烈な個々の瞬間を備えているというコンテンツを示しており、ブランディング(ブランド確立活動の)目的で用いられ得る。
本発明の1つの側面によると、負の増加は、視聴者メンバーが、コンテンツ刺激を早送りする可能性を予測するために用いられる。例えば、高い負の増加を伴うコマーシャルは、それよりも低い負の増加を伴うコマーシャルよりも、視聴者メンバーが記録されたコンテンツを視聴しているときに、早送りされる可能性がより高くなる。この情報は、番組中に放送されるコマーシャルの順序を決定する際に有用である。高い負の増加を伴う第一コマーシャルを、低い負の増加を伴う第二コマーシャルよりも前に配置することは、第二コマーシャルの視聴率にとって好ましくない。なぜなら、視聴者メンバーは、第一および第二コマーシャルをスルーして早送りし得るからである。
別の実施形態において、平均関心がコンテンツ刺激をランク付けするために利用され得る。例えば、高い平均関心を伴うコマーシャルは、低い平均関心を伴うコマーシャルよりも、より高くランク付けされ得る。1つの実施形態では、1以上の関心基準は、関心基準データベースと比較され、それに応じてランク付けされる。例えば、コマーシャルに対する最大関心は、コマーシャルの相対的な強度を決定するために用いられ得る。
1つの実施形態において、1以上の関心基準は、関心基準のデータベースと比較されて、それによってランキング付けされる。例えば、コマーシャルに対する最大関心は、最大関心スコアのデータベースと比較され、コマーシャルの相対的な強さを決定する。1つの実施形態では、最大関心は、最大関心スコアのデータベースに基づいて、百分位数のランキングを決定する。最大関心が議論されているけれども、どの関心基準も、コンテンツ刺激の相対的な強さを決定するのに用いられ得る。
別の実施形態では、複数のコンテンツ刺激が提示されて、1以上の関心基準の値順にランク付けされる。例えば、3つのコマーシャルが視聴者に示され得る。各コマーシャルに対する関心基準が上述のように計算されると、コマーシャルは、特定の関心基準に対する値の順序でランク付けされ得る。最も高い最大関心を伴うコマーシャルは、1番目にランク付けされ、最も低い最大関心を伴うコマーシャルは3番目にランク付けされる。最大関心について議論されているけれども、どの関心基準でも、コンテンツ刺激の相対的強度を決定するために用いられ得る。
既知の視聴者保持数との比較(Comparison to Known Viewership Retention Numbers)
上述の基準は、データ収集サービスからの利用可能な視聴者データと比較され得る。生放送の視聴率と録画放送の視聴率の両方に対する視聴統計情報に関して、多くのデータ源がある。例えば、TiVoTMは、StopWatchTMと呼ばれる視聴率サービスを提供する。当該StopWatchTMは、100,000名の加入者のランダムサンプルに対する視聴率統計情報を提供する。
一旦取得すると、当該基準は、相関関係の度合いを定めるために、既知の視聴者数(viewership numbers)と比較され得る。例えば、商用のソース(例えば、TivoTMなど)からの視聴者保持数を用いると、関心基準は、視聴率記憶データと互いに関連があり得る。当該視聴率記憶データは、視聴者メンバーがコンテンツを早送りするか、さもなければ無視することを判断するのに有用である。しかしながら、関心基準から、何がユーザーにコンテンツを無視させるのかの判断がなされる。言い換えれば、関心基準は、なぜ視聴者の振る舞いが生じるのかを判断するのに役立つ。
視聴者保持、平均関心、最大関心および負の増加間の相関関係は、コマーシャルまたはテレビ番組の最低3秒間の視聴後に、視聴者が全コンテンツを視聴する可能性を予測するのに有効である。図7−9に示されるように、関心基準は、テレビで放送された番組中の様々なポイントに対して、既知の視聴者保持数と密接に関連している。
例えば、図7は、標準化された負の増加と、商用ソースから得られた視聴率記憶データとの間の相関関係を示す。図8は、平均関心と視聴率記憶データとの間の密接な相関関係を実証する。図9は、最大関心と視聴率記憶データとの間の関連性を示す。
予測モデリング(Predictive Modeling)
システムは、人口統計学的/サイコグラフィックのプロファイル、および、試験コンテンツと関連した他のデータと組み合わされた場合の、より小さい集団におけるそのコンテンツの相対的成功の予測を可能とする、様々な歴史的メディアまたは他の関連した刺激もしくは体験に対する視聴者の関心のデータベースをさらに含むことができる。視聴者を試験した後に、上述の方法からの様々な形式の出力が、感覚的刺激の目標達成の成功の可能性を推定することができる。予測モデル作成のための統計分析は、これに限られるものではないが、製品もしくはコンテンツ自体に関連する変数、製品もしくはコンテンツの販売価格または生産費、購入場所、あるいは、体験の媒体、販売促進費、および/または視聴者の特性を含むことができる。例えば、テレビ産業に対するモデルに含まれる因子(ファクター)には、これに限られるものではないが、a)時間スロット当たりの視聴者数、b)番組の導入部分の視聴率、c)後に続く番組の視聴率、d)番組の種類に対する平均視聴率、e)主演男優/女優の人気度、f)時期、g)広告収入、h)その番組に対する販売促進予算、および/またはi)ネットワークの人気が含まれ得る。他の因子には、これに限られるものではないが、ターゲット視聴者の特性、例えば、a)報告された番組に対する好み、b)サイコグラフィックの特性(例えば、内向型 対 外向型等)、c)人口統計学的特性、および/または、d)番組の要素を思い出しまたは認識する能力を含むことができる。成功の指標(インジケータ)には、これに限られるものではないが、類似した特性の母集団が試験的映画館の外でどの程度テレビ番組を見るか、および/または、類似した特性の母集団が広告されている製品をどの程度覚えているか、および/または、どの程度購入するかが含まれ得る。好ましくは、試験される人々が多いほど(サンプル母集団が大きいほど)、集団はより良く特徴付けられ、そのモデルがより大きな母集団の反応の正確な予測手段となる可能性が大きくなる。好ましい予測手段モデルには、a)混合メディアモデル、b)古典的な多変量解析、c)階層線形モデル、d)機械学習、e)回帰分析、f)ベイズ収縮推定量、ならびに/またはg)クラスタおよび因子分析、といった統計モデルのいずれもが含まれ得る、これらに限定されない。
図2Aは、本発明によるシステムの第2の実施形態の概略図200を示す。この実施形態において、メディア刺激は、ケーブルTV信号等の商用のビデオ信号22を介して提示され、STB22Aにつながる。一方、STB22Aは、TVモニタ、コンピュータ、ステレオ等のメディアデバイス24に番組が表示されることを可能にする。このシステムにおいて、ブレスレット32等の目立たないフォームファクターの無線生物学的センサーパッケージを装着した、視聴距離にある被験者30は、メディアデバイスと相互作用する。その人物が基本的な視聴距離にある限り、別個のユニットであってもSTB22に内蔵されていてもよいセンサー受信器26は、その被験者に関する情報を受信する。システム200は、その被験者の一意の識別子とともに、生物学的反応にタイムスタンプ(日時記録)を記録することができる。このデータは、被験者によって現在再生されている番組に対してタイムスタンプが記録され得る。この情報は、インターネット接続、ポケベル、または携帯電話ネットワーク等の伝送ネットワーク28を介して中央データベース216に返送され得る。データは、人口統計、家庭、家族、コミュニティ、場所、および、潜在的にエンドユーザと関連する他のいかなる種類の情報とも組み合わせることができ、関与の経時的パターンを計算するために本件出願に記載のスコア化アルゴリズムを使用したソフトウェアで処理することができ、また、同じまたは類似のメディア試験刺激36に対する他の視聴者の反応のデータベースと比較し、上述の関心スコアおよび/または予測モデルを使用して処理し、ユーザーインターフェース(11)に送達して配布用のレポートを作成することができる。
図2Bは、本発明の家庭内での実施形態の使用を改善するための、家庭内コンプライアンスアルゴリズムの流れ図210を示す。本システムを設定することができる家庭において、コンプライアンスは、使用中のメディアデバイス上の番組を変更する能力を制御することによって対処される。STB22Aは、センサーデバイスが装着されておらず、または起動されていない場合には(部分的にまたは完全に)機能しないようにプログラムされ得る。センサーが装着されているか、または充電中である場合、STBは作動するようにプログラムされ得る。しかしながら、センサーが装着されておらず、完全に充電されていない場合、STBは、完全にまたは部分的に反応しないようにプログラムされ得る。部分的機能モードでは、例えば一般的なアクセスおよび緊急用の局等のある特定の局のみが利用可能となることができる。動作のフローチャート210は、1つまたは複数のセンサーから信号を得ているかどうかを確認する(42)ためにチェックする(44)受信器26を含むが、これはセンサーが起動され装着されている場合にのみ可能である。受信器が信号を得ている場合、再開前に一定時間待機する(46)。信号を受信していない場合は、システムは、取り付けられたクレードル内でセンサーデバイスが充電中かどうかをチェックする(48)。充電中でありバッテリーが満充電(フル)ではない場合、再チェックの前に、さらに一定間隔待機する(50)。しかしながら、センサーが起動されていないか、充電されていないか、または完全に充電されていないか、および使用されていない場合は、STBは、次のチェックで変化が示されるまで休止状態となることができる(52)。
図2Cは、家庭内システムの一側面、すなわち、所与の家族において誰が実際に見ているかを識別する能力を示す。センサーと受信器との接続に関する無線技術が、一意の識別子を送信する。この識別子は、生物測定データのソースを識別して現在のメディア刺激にリンクさせるために送信されたデータに関連する。センサーを装着しているが受信器から所定の無線範囲内にいない者は全て、その範囲の外にいる間はその情報が追跡されることはない。システムは、無線信号が受信されない場合、ある期間待機する(68)。しかしながら、他の受信器(およびSTB26)の範囲内にあり(62)、信号が受信される場合(62)、そのシステムにより情報を追跡することができる。フローチャート220は、センサーデバイスを受信器またはSTB22Aに接続するために使用される無線技術26(例えば、ブルートゥース)を含む。受信器(図示せず)とSTB22Aとの間で接続を確立して(66)データを伝送するために、また上述のコンプライアンスを決定するために必要なデータを伝送するために、無線通信を使用することができる。被験者が識別されたら、その被験者に関する情報が収集され、データベース(DB)に送信され(70)、配布用のレポートを作成するために上記のように処理される(74)。
図3は、本発明によるシステム300の第3の実施形態の説明図を示す。この実施形態において、感覚的刺激は生の人310であってもよく、本発明のシステムおよび方法は、生のフォーカスグループの対話、公判前もしくは模擬裁判中の陪審へのプレゼンテーション、面接官と面接者の対話、教師と1人もしくはグループの生徒の対話、患者と医師の対話、デートでの対話、または他のいくつかの社会的相互作用を含むが、これらに限定されない社会的相互作用に適用することができる。社会的相互作用は、生物学的監視システム312Aを使用して互いにタイムロックされた、それぞれの個々の被験者312の生物学に基づく反応に関して監視され得る。任意選択のオーディオ−ビデオカメラまたは他の監視デバイスを視聴者314にフォーカスして、顔面の反応および/または凝視期間および場所の視標追跡を監視することができる。データソースは、互いにタイムロックされてコンピュータデータ処理デバイス316に送信され得る。データ処理デバイス316は、経時的な関与のパターンを計算するためのスコア化アルゴリズムを含み、それを同じまたは類似したメディア試験刺激に対する他の視聴者の反応のデータベースと比較し、結果をユーザーインターフェース318に送達するソフトウェアを実行することができる。結果は、上述の予測手段モデルで処理され、解釈され、配布のために報告320内に収集され得る。
アルゴリズムは、単独で提示されても、または関連産業のモデルに埋め込まれてもよい。パイロットテレビ番組試験を例にとると、モデルは以下のような因子を含むことができる。
1.時間スロット当たりの典型的な視聴者
2.番組の導入部分の視聴率
3.後に続く番組の視聴率
4.ジャンル毎の平均視聴率
5.俳優の人気−Qレーティング(QRating)
6.その時間スロットでの競合する番組の視聴率
7.時期
8.その番組に対する販売促進予算
9.ネットワークの人口統計
広告からの実施例はこれらの変数のすべてを含むことができるが、さらに以下を追加してもよい。
1.フライティング/反復
2.セグメント長
3.ターゲット視聴者
4.含有する番組の人口統計
事例
これに限定されるものではないが、次の事例は、本発明の好ましい実施形態のうち、単に説明のためのものであり、本発明、すなわち、請求項で定めた本発明の範囲を限定するように解釈されるものではない。
例1
関心基準は、生物学に基づく信号を測定することによって得られる。特に、強度スコアおよび同調性スコアは、上述のように得られ、関心スコアは、5秒間隔で得られる。関心スコアは、コンテクストの影響(効果)を明らかにするために、最初の5秒間は差し引いて、全体コンテンツについて平均がとられて、平均関心が得られる。
最大関心は、コンテンツの全期間について、コンテクストの影響を明らかにするために、最初の5秒間は除いて、関心スコアを見直すことおよび最大レベルの関心を確かめることによって得られる。
図5は、35秒のコンテンツ刺激に対する関心曲線または関心パターンを示す。この場合において、コンテンツ刺激はコマーシャルである。X軸は時間(秒)を表し、Y軸は関心スコアを表す。
しきい値50は、この例のために用いられる。正の増加は、上昇部分(ascending segment)を識別することで計算される。図5に示されるように、最初の上昇部分は、5秒から15秒である。20秒における関心は、15秒のピーク値をはるかに下回って減少する。よって、部分から、15秒から20秒までの部分は除かれる。2番目の上昇部分は、20秒から30秒までの上昇部分である。この例では、30秒における値は、25条におけるそれよりも低い;しかしながら、関心スコアの減少(80−78)=2は、部分(80−60)における全体の増加の25%未満である(0.25*20=5ポイント)。したがって、ポイント“78”は、上昇部分の一部とみなされる。しかしながら、(25秒から30秒までの)下降部分より上の領域と、最大値(80)の部分より下の領域は、全体から差し引かれる。
次に、上昇部分に対して、しきい値50を上回る領域が算出される。上昇部分の領域1=(70−50)*(15−5)/2=100。上昇部分の領域2=(80−60)*(25−20)/2+(80−60)*(30−25)−(80−78)*(30−25)/2+10*10=245。そして、上昇部分の領域は、次のように加算される:100+245=345。最後に、加算された合計は、コンテンツの全体の時間で割ることで、345/35=9.86のように、しきい値50より上の正の増加を算出する。
しきい値60より上の正の増加を計算するために、60より上の領域が定められる。そして、当該領域は次のように計算され得る:
上昇部分の領域1=(70−60)*5/2=25
上昇部分の領域2=(80−60)*(25−20)/2+(80−60)*(30−25)−(80−78)*(30−25)/2=145。
したがって、しきい値60より上の正の増加=(145+25)/35=4.86。
例2
図6は、35秒コマーシャルに対する関心曲線または関心パターンを示す。図5のように、X軸は時間(秒)を表し、Y軸はコマーシャルに対する関心の値を表す。
負の増加は、上述のように計算される。まず、下降部分が識別される。図6に示すように、下降部分は5秒から15秒、20秒から30秒である。この例では、30秒での値は、25秒の値よりも高い;しかしながら、関心スコアの増加(32−30)=2は、部分(50−30)における全体の減少の25%未満である(0.25*20=5ポイント)。したがって、ポイント“32”は、下降部分の一部とみなされる。しかしながら、(25秒から30秒までの)上昇部分より下の領域と、当該部分の最小値(30)より上の領域は、全体から差し引かれる。
次に、しきい値より下の下降部分の領域が計算される。しきい値50に対して、しきい値より下の第一部分の領域は、(50−40)*5/2=25である。第二部分に対する当該しきい値より下の領域は、(50−30)*5/2+(50−30)*5−(32−30)*5/2=145である。これら領域は足し合わされて、145+25=170となる。図6に示されるように、25秒から30秒までにわずかな増加がある。最後に、その合計は、コンテンツの全体の時間で割られて、50より下の負の増加が与えられる:170/35=4.86。
同様の手順に従って、しきい値60に対する負の増加は、次のように計算される:第一部分に対して、当該しきい値より下の領域は、(60−40)*10/2=100である。第二部分に対して、当該しきい値より下の領域は、(50−30)*5/2+(60−50)*5+(60−30)*5−(32−30)*5/2=245である。これら領域は足し合わされて、245+100=345となる。最後に、その合計はコンテンツの全体の時間で割られて、負の増加を算出する:345/35=9.86。
他の実施形態も、本発明の精神および範囲内である。例えば、スコア化アルゴリズムの性質に起因して、上述の機能は、ソフトウェア、ハードウェア、ファームウェア、配線、またはそれらのいずれの組合せをも使用して実装および/または自動化され得る。機能の一部が異なる物理的な場所で実装されるように分散されている等、機能を実装する特徴もまた物理的に様々な場所に位置することができる。
さらに、上述の説明は本発明に言及しているが、説明は複数の発明を含み得る。

Claims (19)

  1. コンテンツ刺激の視聴率を予測するための方法において、
    前記コンテンツ刺激を予め設定された数の時間間隔に分割することと、
    視聴者のバイオメトリクスに基づいて、プレゼンテーションの各時間間隔に対する関心スコアを得ることと、
    負の増加、正の増加、平均関心スコア、最大関心スコア、およびそれらの組合せからなるグループから選択された少なくとも1つの基準を定めるために、関心スコアを用いることと、
    前記少なくとも1つの基準に基づいて視聴率を予測することと
    を含むことを特徴とする方法。
  2. 前記関心スコアを得ることは、
    前記視聴者をある期間にわたり前記コンテンツ刺激にさらすことであって、当該期間は少なくとも2つの時間間隔に分割される、ことと、
    サンプル母集団の各メンバーに対して、前記コンテンツ刺激に対する少なくとも1つの生物学に基づく反応を測定することと、
    各時間間隔に対し、測定された生物学に基づく反応の少なくとも1つに応じて、少なくとも1つの強度値を決定することと、
    各時間間隔に対し、測定された生物学に基づく反応の少なくとも1つの変化率に応じて、少なくとも1つの同調性値を決定することと、
    前記少なくとも1つの強度値と前記少なくとも1つの同調性値に応じて、各時間間隔に対する少なくとも1つの関心スコアを決定することと
    を含む請求項1に記載の方法。
  3. 前記少なくとも1つの生物学に基づく反応を測定することは、
    心拍数、皮膚伝導、呼吸状態、動作、および視標追跡のうち少なくとも1つを測定することを含む請求項2に記載の方法。
  4. 前記少なくとも1つの基準を定めるために、関心スコアを用いることは、
    少なくとも1つのしきい値を設定することと、
    関心曲線を、前記関心値が比較的一定のままか、または増加する時間間隔で定められた上昇部分に分割することと、
    そのような上昇部分のそれぞれに対して、しきい値より上の領域を計算することと、
    前記領域を合計することと、
    コンテンツの時間で前記合計を割ることによって、正の増加を決定すること
    を含む請求項1に記載の方法。
  5. 前記少なくとも1つの基準を定めるために、関心スコアを用いることは、
    少なくとも1つのしきい値を設定すること、
    関心曲線を、前記関心値が比較的一定のままか、または減少する時間間隔で定められた下降部分に分割することと、
    そのような下降部分のそれぞれに対して、しきい値より下の領域を計算することと、
    前記領域を合計することと、
    コンテンツの時間で前記合計を割ることによって、負の増加を決定すること
    を含む請求項1に記載の方法。
  6. 前記少なくとも1つの基準に基づいて視聴率を予測することは、
    前記基準と事前に収集された実際の視聴率データとの間の所定の相関関係に基づいて、コンテンツ刺激の視聴率を予測することを含む請求項1に記載の方法。
  7. 前記少なくとも1つの基準に基づいて視聴率を予測することは、
    前記コンテンツ刺激が予め記録されている場合に、視聴者が前記コンテンツ刺激の全体を視聴するか否かを決定することを含む請求項1に記載の方法。
  8. 前記少なくとも1つの基準に基づいて視聴率を予測することは、
    前記コンテンツ刺激が生で提示される場合に、視聴者が前記コンテンツ刺激の全体を視聴するか否かを決定することを含む請求項1に記載の方法。
  9. 前記コンテンツ刺激は、テレビ番組、プレゼンテーション、コマーシャル、およびそれらの組合せを含む請求項1に記載の方法。
  10. 前記視聴率を予測することは、負の増加、正の増加、平均関心スコア、最大関心スコア、およびそれらの組合せからなる前記グループから選択された少なくとも2つの基準を評価することを含む請求項1に記載の方法。
  11. コンテンツ刺激の視聴率を予測するためのコンピュータ化したシステムにおいて、
    複数のセンサーであって、当該センサーのそれぞれは、ある期間にわたりプレゼンテーションに対する生物学に基づく反応を測定するように構成され、当該期間は2以上の時間間隔に分割される、複数のセンサーと、
    前記プレゼンテーションに関連するデータと、前記コンテンツ刺激に対する少なくとも1つの生物学に基づく反応の尺度を提供する前記複数のセンサーからのデータとを受信するように構成されたコンピュータ処理システムと、
    各時間間隔に対し、測定された生物学に基づく反応のうち少なくとも1つに応じて、少なくとも1つの強度値を決定するように構成された強度処理モジュールと、
    各時間間隔に対し、測定された生物学に基づく反応のうち少なくとも1つに応じて、少なくとも1つの同調性値を決定するように構成された同調性処理モジュールと、
    各時間間隔に対し、前記少なくとも1つの強度値と、前記少なくとも1つの同調性値と、負の増加、正の増加、平均関心スコア、および最大関心スコアからなる前記グループから選択された少なくとも1つの基準とに応じて、少なくとも1つの関心値を決定するように構成された関心処理モジュールと
    を含むことを特徴とするシステム。
  12. 前記少なくとも1つの関心値を、第二のコンテンツ刺激に対応するデータベースに格納された関与値と比較するように構成された比較モジュールと、
    当該比較に基づいて、前記コンテンツ刺激が前記第2のコンテンツ刺激に類似していることを示すように構成されたインジケータと
    をさらに含む請求項11に記載のシステム。
  13. 前記生物学に基づく反応は、心拍数、皮膚伝導、呼吸状態、動作、および視標追跡からなるグループから選択されること
    を特徴とする請求項11に記載のシステム。
  14. 前記強度処理モジュールは、標準化スコアに応じて強度値を決定し、
    当該標準化スコアは、生物学に基づく反応のうち少なくとも1つのピーク値、トラフ値、中央値、平均値、および変化率の値のうち少なくとも1つに応じて決定されるように構成されたことを特徴とする請求項11に記載のシステム。
  15. 前記同調性処理モジュールは、前記視聴者の少なくとも一部に対する前記生物学に基づく反応のうち少なくとも1つの変化率の値の分散に応じて、同調性値を決定するように構成されたことを特徴とする請求項11に記載のシステム。
  16. コンテンツ刺激の視聴率に関する基準を確認する方法において、
    視聴者をある期間にわたり前記コンテンツ刺激にさらすことであって、当該期間は少なくとも2つの時間間隔に分割される、ことと、
    サンプル母集団の各メンバーに対して、前記コンテンツ刺激に対する少なくとも1つの生物学に基づく反応を測定することと、
    各時間間隔に対し、測定された生物学に基づく反応の少なくとも1つに応じて、少なくとも1つの強度値を決定することと、
    各時間間隔に対し、測定された生物学に基づく反応の少なくとも1つの変化率に応じて、少なくとも1つの同調性値を決定することと、
    前記少なくとも1つの強度値と前記少なくとも1つの同調性値に応じて、各時間間隔に対する少なくとも1つの関心スコアを決定することと、
    負の増加、正の増加、平均関心スコア、および最大関心スコアを含む関心基準を定めるために、関心スコアを用いることと、
    データを標準化することと、
    前記関心基準と商業的に入手可能な視聴者保持数との間の相関関係を定めること
    を含むことを特徴とする方法。
  17. 前記少なくとも1つの生物学に基づく反応を測定することは、
    心拍数、皮膚伝導、呼吸数、呼吸状態、動作、および視標追跡のうち少なくとも1を測定することを含む請求項16に記載の方法。
  18. 前記関心基準を定めるために、関心スコアを用いることは、
    少なくとも1つのしきい値を設定すること、
    関心曲線を、前記関心値が比較的一定のままか、または減少する時間間隔で定められた下降部分に分割することと、
    そのような下降部分のそれぞれに対して、しきい値より下の領域を計算することと、
    前記領域を合計することと、
    コンテンツの時間で前記合計を割ることによって、負の増加を決定こと
    を含む請求項16に記載の方法。
  19. 前記関心基準を定めるために、関心スコアを用いることは、
    少なくとも1つのしきい値を設定すること、
    関心曲線を、前記関心値が比較的一定のままか、または増加する時間間隔で定められた上昇部分に分割することと、
    そのような上昇部分のそれぞれに対して、しきい値より上の領域を計算することと、
    前記領域を合計することと、
    コンテンツの時間で前記合計を割ることによって、正の増加を決定こと
    を含む請求項16に記載の方法。
JP2012503596A 2009-03-30 2010-03-30 視聴者の視聴行動を予測するための方法およびシステム Active JP5756456B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US16489209P 2009-03-30 2009-03-30
US61/164,892 2009-03-30
US12/749,376 2010-03-29
US12/749,376 US9514436B2 (en) 2006-09-05 2010-03-29 Method and system for predicting audience viewing behavior
PCT/US2010/029162 WO2010117763A2 (en) 2009-03-30 2010-03-30 Method and system for predicting audience viewing behavior

Publications (2)

Publication Number Publication Date
JP2012522470A true JP2012522470A (ja) 2012-09-20
JP5756456B2 JP5756456B2 (ja) 2015-07-29

Family

ID=42560729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012503596A Active JP5756456B2 (ja) 2009-03-30 2010-03-30 視聴者の視聴行動を予測するための方法およびシステム

Country Status (6)

Country Link
US (4) US9514436B2 (ja)
EP (1) EP2414968A4 (ja)
JP (1) JP5756456B2 (ja)
AU (1) AU2010234826A1 (ja)
CA (1) CA2757034A1 (ja)
WO (1) WO2010117763A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160063438A (ko) * 2014-11-25 2016-06-07 전자부품연구원 개인화 ux 프로파일링 시스템 및 이에 적용되는 개인화 ux 프로파일링 방법
JP2020526088A (ja) * 2017-06-23 2020-08-27 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオ・ビジュアルコンテンツプログラムの視聴者に関する情報を決定する方法、装置、コンピュータプログラム及びシステム
JP2022162331A (ja) * 2021-04-12 2022-10-24 株式会社Nttドコモ 情報処理装置

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US20090006608A1 (en) * 2007-06-28 2009-01-01 Microsoft Corporation Dynamically enhancing meeting participation through compilation of data
US20100123776A1 (en) * 2008-11-18 2010-05-20 Kimberly-Clark Worldwide, Inc. System and method for observing an individual's reaction to their environment
US20140176665A1 (en) * 2008-11-24 2014-06-26 Shindig, Inc. Systems and methods for facilitating multi-user events
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
US10987015B2 (en) 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US20110106750A1 (en) 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US8684742B2 (en) 2010-04-19 2014-04-01 Innerscope Research, Inc. Short imagery task (SIT) research method
US20130238394A1 (en) * 2010-06-07 2013-09-12 Affectiva, Inc. Sales projections based on mental states
US20130102854A1 (en) * 2010-06-07 2013-04-25 Affectiva, Inc. Mental state evaluation learning for advertising
US10013978B1 (en) 2016-12-30 2018-07-03 Google Llc Sequence dependent operation processing of packet based data message transmissions
US10957002B2 (en) 2010-08-06 2021-03-23 Google Llc Sequence dependent or location based operation processing of protocol based data message transmissions
US9009298B2 (en) * 2010-12-10 2015-04-14 The Nielsen Company (Us), Llc Methods and apparatus to determine audience engagement indices associated with media presentations
US8453173B1 (en) * 2010-12-13 2013-05-28 Google Inc. Estimating demographic compositions of television audiences from audience similarities
US10945011B2 (en) 2010-12-29 2021-03-09 Comcast Cable Communications, Llc Measuring video viewing
US10089592B2 (en) 2010-12-29 2018-10-02 Comcast Cable Communications, Llc Measuring video asset viewing
US9420320B2 (en) * 2011-04-01 2016-08-16 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to estimate local market audiences of media content
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
EP2521374B1 (en) * 2011-05-03 2016-04-27 LG Electronics Inc. Image display apparatus and methods for operating the same
US8886581B2 (en) 2011-05-11 2014-11-11 Ari M. Frank Affective response predictor for a stream of stimuli
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9015746B2 (en) 2011-06-17 2015-04-21 Microsoft Technology Licensing, Llc Interest-based video streams
US9077458B2 (en) 2011-06-17 2015-07-07 Microsoft Technology Licensing, Llc Selection of advertisements via viewer feedback
US20130035979A1 (en) * 2011-08-01 2013-02-07 Arbitron, Inc. Cross-platform audience measurement with privacy protection
US9015084B2 (en) 2011-10-20 2015-04-21 Gil Thieberger Estimating affective response to a token instance of interest
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US20130145385A1 (en) * 2011-12-02 2013-06-06 Microsoft Corporation Context-based ratings and recommendations for media
WO2013086357A2 (en) * 2011-12-07 2013-06-13 Affectiva, Inc. Affect based evaluation of advertisement effectiveness
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US9355366B1 (en) * 2011-12-19 2016-05-31 Hello-Hello, Inc. Automated systems for improving communication at the human-machine interface
US9339691B2 (en) 2012-01-05 2016-05-17 Icon Health & Fitness, Inc. System and method for controlling an exercise device
US11627356B2 (en) 2012-01-28 2023-04-11 Comcast Cable Communications, Llc Data translation for video-viewing activity
US10440428B2 (en) 2013-01-13 2019-10-08 Comcast Cable Communications, Llc Measuring video-program-viewing activity
US10645433B1 (en) 2013-08-29 2020-05-05 Comcast Cable Communications, Llc Measuring video-content viewing
US20130205314A1 (en) * 2012-02-07 2013-08-08 Arun Ramaswamy Methods and apparatus to select media based on engagement levels
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US9569986B2 (en) 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
WO2013142538A1 (en) * 2012-03-19 2013-09-26 Rentrak Corporation System and method for measuring television audience engagement
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US8473975B1 (en) * 2012-04-16 2013-06-25 The Nielsen Company (Us), Llc Methods and apparatus to detect user attentiveness to handheld computing devices
CA2775700C (en) * 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US20150073916A1 (en) * 2012-05-24 2015-03-12 Thomson Licensing Content/advertising profiling
AU2013204865B2 (en) 2012-06-11 2015-07-09 The Nielsen Company (Us), Llc Methods and apparatus to share online media impressions data
JP5914653B2 (ja) * 2012-06-15 2016-05-11 株式会社日立製作所 刺激呈示システム
US9767479B2 (en) 2012-06-25 2017-09-19 Google Inc. System and method for deploying ads based on a content exposure interval
US8806518B2 (en) * 2012-06-27 2014-08-12 Intel Corporation Performance analysis for combining remote audience responses
US9998789B1 (en) * 2012-07-27 2018-06-12 Dp Technologies, Inc. Audience interaction system
US20140096152A1 (en) * 2012-09-28 2014-04-03 Ron Ferens Timing advertisement breaks based on viewer attention level
US8763042B2 (en) 2012-10-05 2014-06-24 Motorola Mobility Llc Information provision
US9235198B2 (en) 2012-10-25 2016-01-12 International Business Machines Corporation System and method for using biometrics to predict and select music preferences
US8484676B1 (en) * 2012-11-21 2013-07-09 Motorola Mobility Llc Attention-based, multi-screen advertisement scheduling
US9544647B2 (en) 2012-11-21 2017-01-10 Google Technology Holdings LLC Attention-based advertisement scheduling in time-shifted content
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
WO2014090308A1 (en) * 2012-12-13 2014-06-19 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for assessing user experience
US20150327802A1 (en) * 2012-12-15 2015-11-19 Tokyo Institute Of Technology Evaluation apparatus for mental state of human being
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US20150340031A1 (en) * 2013-01-09 2015-11-26 Lg Electronics Inc. Terminal and control method therefor
US10049336B2 (en) * 2013-02-14 2018-08-14 Sociometric Solutions, Inc. Social sensing and behavioral analysis system
BR112015021758B1 (pt) * 2013-03-06 2022-11-16 Arthur J. Zito Jr Sistemas de apresentação multimídia, métodos para exibir uma apresentação multimídia, dispositivo de apresentação multimídia e hardware para apresentar estímulos perceptíveis a um espectador humano ou criatura
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
EP2969058B1 (en) 2013-03-14 2020-05-13 Icon Health & Fitness, Inc. Strength training apparatus with flywheel and related methods
US9443144B2 (en) * 2013-03-15 2016-09-13 Disney Enterprises, Inc. Methods and systems for measuring group behavior
US9361705B2 (en) * 2013-03-15 2016-06-07 Disney Enterprises, Inc. Methods and systems for measuring group behavior
US9596508B2 (en) * 2013-03-15 2017-03-14 Sony Corporation Device for acquisition of viewer interest when viewing content
US9015737B2 (en) 2013-04-18 2015-04-21 Microsoft Technology Licensing, Llc Linked advertisements
US11743544B2 (en) * 2013-04-25 2023-08-29 Trent R McKenzie Interactive content feedback system
US20140325540A1 (en) * 2013-04-29 2014-10-30 Microsoft Corporation Media synchronized advertising overlay
US9159031B2 (en) 2013-04-30 2015-10-13 Microsoft Technology Licensing, Llc Predicting audience response for scripting
US11218434B2 (en) * 2013-06-12 2022-01-04 Google Llc Audio data packet status determination
US20150067061A1 (en) * 2013-08-30 2015-03-05 Milyoni, Inc. Systems and methods for predicting and characterizing social media effectiveness
KR102095888B1 (ko) 2013-10-07 2020-04-01 삼성전자주식회사 방송 시청 패턴 정보를 제공하는 사용자 단말 장치, 서버 및 시청 패턴 정보 제공 방법
US10134226B2 (en) 2013-11-07 2018-11-20 Igt Canada Solutions Ulc Methods and apparatus for controlling casino game machines
US9137558B2 (en) 2013-11-26 2015-09-15 At&T Intellectual Property I, Lp Method and system for analysis of sensory information to estimate audience reaction
US20150163550A1 (en) * 2013-12-11 2015-06-11 Tinj, Co. System and method for multidimensional content rating
US9510038B2 (en) * 2013-12-17 2016-11-29 Google Inc. Personal measurement devices for media consumption studies
WO2015100429A1 (en) 2013-12-26 2015-07-02 Icon Health & Fitness, Inc. Magnetic resistance mechanism in a cable machine
US9426192B2 (en) 2014-01-02 2016-08-23 International Business Machines Corporation Predicting viewing activity of a posting to an activity stream
US10433612B2 (en) 2014-03-10 2019-10-08 Icon Health & Fitness, Inc. Pressure sensor to quantify work
CN104035982B (zh) * 2014-05-28 2017-10-20 小米科技有限责任公司 多媒体资源推荐方法及装置
US20170193620A1 (en) * 2014-05-30 2017-07-06 Hewlett-Packard Development Company, L.P Associate a learner and learning content
US10426989B2 (en) 2014-06-09 2019-10-01 Icon Health & Fitness, Inc. Cable system incorporated into a treadmill
WO2015195965A1 (en) 2014-06-20 2015-12-23 Icon Health & Fitness, Inc. Post workout massage device
US9451315B2 (en) * 2014-06-30 2016-09-20 Rovi Guides, Inc. Systems and methods for generating for display an interactive media guide based on user history
US9729933B2 (en) 2014-06-30 2017-08-08 Rovi Guides, Inc. Systems and methods for loading interactive media guide data based on user history
US9258606B1 (en) 2014-07-31 2016-02-09 Google Inc. Using second screen devices to augment media engagement metrics
US10835147B1 (en) * 2014-08-26 2020-11-17 Neuromatters, Llc Method for predicting efficacy of a stimulus by measuring physiological response to stimuli
US10726376B2 (en) * 2014-11-04 2020-07-28 Energage, Llc Manager-employee communication
US20160149547A1 (en) * 2014-11-20 2016-05-26 Intel Corporation Automated audio adjustment
US9997199B2 (en) 2014-12-05 2018-06-12 Warner Bros. Entertainment Inc. Immersive virtual reality production and playback for storytelling content
US10391361B2 (en) 2015-02-27 2019-08-27 Icon Health & Fitness, Inc. Simulating real-world terrain on an exercise device
US10223442B2 (en) 2015-04-09 2019-03-05 Qualtrics, Llc Prioritizing survey text responses
US9936250B2 (en) * 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
US20160350771A1 (en) * 2015-06-01 2016-12-01 Qualtrics, Llc Survey fatigue prediction and identification
CN104954846B (zh) * 2015-07-27 2018-09-18 北京京东方多媒体科技有限公司 元素调整方法、设备及系统
US10339160B2 (en) 2015-10-29 2019-07-02 Qualtrics, Llc Organizing survey text responses
US20170142065A1 (en) * 2015-11-18 2017-05-18 International Business Machines Corporation System, method, and recording medium for an emotional firewall for deleterious information
US10314510B2 (en) * 2015-12-30 2019-06-11 The Nielsen Company (Us), Llc Determining intensity of a biological response to a presentation
CN108604252B (zh) 2016-01-05 2022-12-16 六科股份有限公司 具有基于信道改变的触发特征的计算系统
EP4080794A1 (en) 2016-01-06 2022-10-26 TVision Insights, Inc. Systems and methods for assessing viewer engagement
US11540009B2 (en) 2016-01-06 2022-12-27 Tvision Insights, Inc. Systems and methods for assessing viewer engagement
US10560742B2 (en) * 2016-01-28 2020-02-11 Oath Inc. Pointer activity as an indicator of interestingness in video
US11228817B2 (en) 2016-03-01 2022-01-18 Comcast Cable Communications, Llc Crowd-sourced program boundaries
US20170257678A1 (en) * 2016-03-01 2017-09-07 Comcast Cable Communications, Llc Determining Advertisement Locations Based on Customer Interaction
US10493349B2 (en) 2016-03-18 2019-12-03 Icon Health & Fitness, Inc. Display on exercise device
US10625137B2 (en) 2016-03-18 2020-04-21 Icon Health & Fitness, Inc. Coordinated displays in an exercise device
US10272317B2 (en) 2016-03-18 2019-04-30 Icon Health & Fitness, Inc. Lighted pace feature in a treadmill
US10187694B2 (en) 2016-04-07 2019-01-22 At&T Intellectual Property I, L.P. Method and apparatus for enhancing audience engagement via a communication network
JP6722505B2 (ja) * 2016-05-11 2020-07-15 富士通株式会社 画像制御方法、装置、及びプログラム
US10600097B2 (en) 2016-06-30 2020-03-24 Qualtrics, Llc Distributing action items and action item reminders
US11645317B2 (en) 2016-07-26 2023-05-09 Qualtrics, Llc Recommending topic clusters for unstructured text documents
US9843768B1 (en) * 2016-09-23 2017-12-12 Intel Corporation Audience engagement feedback systems and techniques
US10671705B2 (en) 2016-09-28 2020-06-02 Icon Health & Fitness, Inc. Customizing recipe recommendations
US10171880B2 (en) * 2016-12-27 2019-01-01 Rovi Guides, Inc. Systems and methods for modeling audience stability of a media asset series
US10602214B2 (en) 2017-01-19 2020-03-24 International Business Machines Corporation Cognitive television remote control
US20180240157A1 (en) * 2017-02-17 2018-08-23 Wipro Limited System and a method for generating personalized multimedia content for plurality of users
US10783443B2 (en) 2017-03-08 2020-09-22 International Business Machines Corporation Real-time analysis of predictive audience feedback during content creation
JP7209359B2 (ja) * 2017-04-20 2023-01-20 テレビジョン・インサイツ、インコーポレイテッド 複数テレビジョン測定のための方法および装置
US10943177B2 (en) 2017-06-13 2021-03-09 Opentv, Inc. Channel change optimization using probabilistic modeling
US11631110B2 (en) * 2017-06-29 2023-04-18 Tyler Peppel Audience-based optimization of communication media
US10645455B1 (en) 2017-07-17 2020-05-05 Pandora Media, Llc Delivering artist messages to listeners based on predicted responses
US20190056438A1 (en) * 2017-08-17 2019-02-21 Colossio, Inc. Adaptive learning based on electroencephalographic data
US10904615B2 (en) * 2017-09-07 2021-01-26 International Business Machines Corporation Accessing and analyzing data to select an optimal line-of-sight and determine how media content is distributed and displayed
WO2019067783A1 (en) 2017-09-29 2019-04-04 Chappell Arvel A PRODUCTION AND CONTROL OF KINEMATIC CONTENT IN RESPONSE TO AN EMOTIONAL USER STATUS
US10841651B1 (en) * 2017-10-10 2020-11-17 Facebook, Inc. Systems and methods for determining television consumption behavior
US20190132646A1 (en) * 2017-10-26 2019-05-02 International Business Machines Corporation Real-time movie viewer analysis system
CN112118784A (zh) * 2018-01-08 2020-12-22 华纳兄弟娱乐公司 用于检测神经生理状态的社交交互应用
US20190286234A1 (en) * 2018-03-19 2019-09-19 MindMaze Holdiing SA System and method for synchronized neural marketing in a virtual environment
US11159596B2 (en) * 2018-03-28 2021-10-26 International Business Machines Corporation Streaming media abandonment mitigation
US11310296B2 (en) * 2018-11-06 2022-04-19 International Business Machines Corporation Cognitive content multicasting based on user attentiveness
US11301760B2 (en) * 2018-11-28 2022-04-12 International Business Machines Corporation Automated postulation thresholds in computer-based questioning
US11309082B2 (en) 2018-12-10 2022-04-19 Groop Internet Platform, Inc. System and method for monitoring engagement
WO2020123514A1 (en) * 2018-12-10 2020-06-18 Groop Internet Platform, Inc. d/b/a Talkspace System and method for monitoring engagement
US11107084B2 (en) * 2019-05-03 2021-08-31 Walmart Apollo, Llc Fraud risk scoring tool
US11373213B2 (en) 2019-06-10 2022-06-28 International Business Machines Corporation Distribution of promotional content based on reaction capture
US11589094B2 (en) * 2019-07-22 2023-02-21 At&T Intellectual Property I, L.P. System and method for recommending media content based on actual viewers
US20210124980A1 (en) * 2019-10-28 2021-04-29 Aetna Inc. Augmented group experience event correlation
US11228544B2 (en) * 2020-01-09 2022-01-18 International Business Machines Corporation Adapting communications according to audience profile from social media
US11128925B1 (en) * 2020-02-28 2021-09-21 Nxp Usa, Inc. Media presentation system using audience and audio feedback for playback level control
US10990166B1 (en) * 2020-05-10 2021-04-27 Truthify, LLC Remote reaction capture and analysis system
US11157965B1 (en) * 2020-08-18 2021-10-26 Amazon Technologies, Inc. Filtering supplementary content using completion rate
US11750883B2 (en) * 2021-03-26 2023-09-05 Dish Network Technologies India Private Limited System and method for using personal computing devices to determine user engagement while viewing an audio/video program
DE102021109778A1 (de) * 2021-04-19 2022-10-20 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zum Wiedergeben der Publikumsstimmung bei einer Echtzeitübertragung
US11272888B1 (en) * 2021-06-22 2022-03-15 Nft Ip Holdings Llc Devices and systems that measure, quantify, compare, package, and capture human content in databases
CN115238753B (zh) * 2022-09-21 2022-12-06 西南交通大学 一种基于局部离群因子的自适应shm数据清洗方法
EP4351085A1 (en) 2022-10-08 2024-04-10 Thales Dis France Sas System and method of electroencephalography (eeg) continuous authentication and mental and synchrony assessments
EP4351084A1 (en) 2022-10-08 2024-04-10 Thales System and method of electroencephalography (eeg) authentication
CN116248903A (zh) * 2022-12-30 2023-06-09 天翼云科技有限公司 一种直播推荐方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142975A (ja) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
WO2008030493A2 (en) * 2006-09-05 2008-03-13 Innerscope Research, Llc Method and system for determining audience response to a sensory stimulus
US20080097854A1 (en) * 2006-10-24 2008-04-24 Hello-Hello, Inc. Method for Creating and Analyzing Advertisements
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4859050A (en) 1986-04-04 1989-08-22 Applied Science Group, Inc. Method and system for generating a synchronous display of a visual presentation and the looking response of many viewers
US4870579A (en) * 1987-10-01 1989-09-26 Neonics, Inc. System and method of predicting subjective reactions
US5243517A (en) * 1988-08-03 1993-09-07 Westinghouse Electric Corp. Method and apparatus for physiological evaluation of short films and entertainment materials
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5436830A (en) * 1993-02-01 1995-07-25 Zaltman; Gerald Metaphor elicitation method and apparatus
US5676148A (en) * 1995-03-31 1997-10-14 Siemens Medical Systems Inc. Method and system for doppler ultrasound audio dealiasing
US6292688B1 (en) * 1996-02-28 2001-09-18 Advanced Neurotechnologies, Inc. Method and apparatus for analyzing neurological response to emotion-inducing stimuli
US5676138A (en) 1996-03-15 1997-10-14 Zawilinski; Kenneth Michael Emotional response analyzer system with multimedia display
US5842199A (en) * 1996-10-18 1998-11-24 Regents Of The University Of Minnesota System, method and article of manufacture for using receiver operating curves to evaluate predictive utility
US20010013009A1 (en) * 1997-05-20 2001-08-09 Daniel R. Greening System and method for computer-based marketing
US5983129A (en) * 1998-02-19 1999-11-09 Cowan; Jonathan D. Method for determining an individual's intensity of focused attention and integrating same into computer program
US6315569B1 (en) * 1998-02-24 2001-11-13 Gerald Zaltman Metaphor elicitation technique with physiological function monitoring
US6099319A (en) * 1998-02-24 2000-08-08 Zaltman; Gerald Neuroimaging as a marketing tool
ES2296585T3 (es) 1998-05-12 2008-05-01 Nielsen Media Research, Inc. Sistema de medicion de audiencia para la television digital.
US20020001371A1 (en) * 1998-05-29 2002-01-03 Randy G. Goldberg Method and apparatus for delivering personalized broadcast messages
US6453241B1 (en) * 1998-12-23 2002-09-17 Rosetta Inpharmatics, Inc. Method and system for analyzing biological response signal data
US6358201B1 (en) * 1999-03-02 2002-03-19 Doc L. Childre Method and apparatus for facilitating physiological coherence and autonomic balance
US6422999B1 (en) * 1999-05-13 2002-07-23 Daniel A. Hill Method of measuring consumer reaction
EP1087618A3 (en) 1999-09-27 2003-12-17 Be Here Corporation Opinion feedback in presentation imagery
US6652283B1 (en) * 1999-12-30 2003-11-25 Cerego, Llc System apparatus and method for maximizing effectiveness and efficiency of learning retaining and retrieving knowledge and skills
FR2807976B1 (fr) * 2000-04-20 2002-06-28 Plastic Omnium Cie Reservoir a carburant de vehicule automobile
ES2233647T3 (es) * 2000-05-19 2005-06-16 The Nutrasweet Company Sintesis de n- n-(3,3-dimetilbutil)-l-alfa- aspartil-l- fenilalanina 1-metil ester utilizando "nuevos derivados de laoxazolidinona".
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
US8495679B2 (en) * 2000-06-30 2013-07-23 Thomson Licensing Method and apparatus for delivery of television programs and targeted de-coupled advertising
JP2002015217A (ja) * 2000-06-30 2002-01-18 Fujitsu Ltd オークションを用いたデジタルコンテンツ広告表示システム
WO2002013672A2 (en) 2000-08-16 2002-02-21 Nizan Yaniv Applications of the biofeedback technique
US20060129458A1 (en) 2000-10-12 2006-06-15 Maggio Frank S Method and system for interacting with on-demand video content
US7024024B1 (en) * 2000-11-14 2006-04-04 Axle International System for contrast echo analysis
US20020013717A1 (en) * 2000-12-28 2002-01-31 Masahiro Ando Exercise body monitor with functions to verify individual policy holder and wear of the same, and a business model for a discounted insurance premium for policy holder wearing the same
WO2002080027A1 (en) * 2001-03-29 2002-10-10 British Telecommunications Public Limited Company Image processing
US7408634B2 (en) * 2001-06-21 2008-08-05 Hewlett-Packard Development Company L.P. Automated imaging with phosphorescent imaging targets
GB2379016A (en) * 2001-07-27 2003-02-26 Hewlett Packard Co Portable apparatus monitoring reaction of user to music
US20030046683A1 (en) * 2001-08-28 2003-03-06 Jutzi Curtis E. Server-side preference prediction based on customer billing information to generate a broadcast schedule
US20030063222A1 (en) 2001-10-03 2003-04-03 Sony Corporation System and method for establishing TV setting based on viewer mood
US10102486B1 (en) * 2002-05-08 2018-10-16 Thomson Licensing Implementing ETV with multiple presentment, response and communication techniques
JP4975249B2 (ja) 2002-10-09 2012-07-11 ボディーメディア インコーポレイテッド 生理学的情報及び/又はコンテキストパラメータを用いて個人の状態パラメータを測定する装置
US20060026642A1 (en) * 2002-12-11 2006-02-02 Koninklijke Philips Electronics, N.V. Method and apparatus for predicting a number of individuals interested in an item based on recommendations of such item
US20040219184A1 (en) 2003-03-25 2004-11-04 The Regents Of The University Of California Growth of large patterned arrays of neurons on CCD chips using plasma deposition methods
US20050071879A1 (en) 2003-07-10 2005-03-31 University Of Florida Research Foundation, Inc. Smart space appliance control using a mobile communications device
JP2005051654A (ja) 2003-07-31 2005-02-24 Sony Corp コンテンツ再生方法、コンテンツ再生装置、コンテンツ記録方法、コンテンツ記録メディア
US7577655B2 (en) 2003-09-16 2009-08-18 Google Inc. Systems and methods for improving the ranking of news articles
US20050071865A1 (en) 2003-09-30 2005-03-31 Martins Fernando C. M. Annotating meta-data with user responses to digital content
US20050071462A1 (en) 2003-09-30 2005-03-31 Ibm Corporation Creating user metric patterns
US20050172311A1 (en) * 2004-01-31 2005-08-04 Nokia Corporation Terminal and associated method and computer program product for monitoring at least one activity of a user
US20080022267A1 (en) * 2004-04-26 2008-01-24 Google Inc. Method and System for Dynamically Composing Distributed Interactive Applications from High-Level Programming Languages
JP2006006355A (ja) 2004-06-22 2006-01-12 Sony Corp 生体情報の処理装置および映像音響再生装置
CA2512945A1 (en) * 2004-07-23 2006-01-23 Genesis Group Inc. System and method for estimating user ratings from user behavior and providing recommendations
JP2006227994A (ja) 2005-02-18 2006-08-31 Olympus Corp 画像検索表示装置、画像検索表示方法及びプログラム
US20070038516A1 (en) 2005-08-13 2007-02-15 Jeff Apple Systems, methods, and computer program products for enabling an advertiser to measure user viewing of and response to an advertisement
US20070066916A1 (en) 2005-09-16 2007-03-22 Imotions Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
US7797186B2 (en) 2005-10-18 2010-09-14 Donnelly Andrew Dybus Method and system for gathering and recording real-time market survey and other data from radio listeners and television viewers utilizing telephones including wireless cell phones
US20090030780A1 (en) 2006-01-03 2009-01-29 Ds-Iq, Inc. Measuring effectiveness of marketing campaigns presented on media devices in public places using audience exposure data
JP2007185360A (ja) 2006-01-13 2007-07-26 Carl Manufacturing Co Ltd 商品陳列用具
WO2007115224A2 (en) * 2006-03-30 2007-10-11 Sri International Method and apparatus for annotating media streams
US20070244739A1 (en) * 2006-04-13 2007-10-18 Yahoo! Inc. Techniques for measuring user engagement
JP2007310454A (ja) 2006-05-16 2007-11-29 Nippon Hoso Kyokai <Nhk> 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム
US7930199B1 (en) * 2006-07-21 2011-04-19 Sensory Logic, Inc. Method and report assessing consumer reaction to a stimulus by matching eye position with facial coding
US20100004977A1 (en) 2006-09-05 2010-01-07 Innerscope Research Llc Method and System For Measuring User Experience For Interactive Activities
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US9833184B2 (en) 2006-10-27 2017-12-05 Adidas Ag Identification of emotional states using physiological responses
US20080147742A1 (en) * 2006-12-13 2008-06-19 Chris Allen Method and system for evaluating evaluators
WO2008072739A1 (ja) 2006-12-15 2008-06-19 Visual Interactive Sensitivity Research Institute Co., Ltd. 視聴傾向管理装置、システム及びプログラム
US8230457B2 (en) * 2007-03-07 2012-07-24 The Nielsen Company (Us), Llc. Method and system for using coherence of biological responses as a measure of performance of a media
US20080255949A1 (en) 2007-04-13 2008-10-16 Lucid Systems, Inc. Method and System for Measuring Non-Verbal and Pre-Conscious Responses to External Stimuli
US8684742B2 (en) 2010-04-19 2014-04-01 Innerscope Research, Inc. Short imagery task (SIT) research method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142975A (ja) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
WO2008030493A2 (en) * 2006-09-05 2008-03-13 Innerscope Research, Llc Method and system for determining audience response to a sensory stimulus
US20080097854A1 (en) * 2006-10-24 2008-04-24 Hello-Hello, Inc. Method for Creating and Analyzing Advertisements
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160063438A (ko) * 2014-11-25 2016-06-07 전자부품연구원 개인화 ux 프로파일링 시스템 및 이에 적용되는 개인화 ux 프로파일링 방법
KR102111808B1 (ko) * 2014-11-25 2020-05-19 전자부품연구원 개인화 ux 프로파일링 시스템 및 이에 적용되는 개인화 ux 프로파일링 방법
JP2020526088A (ja) * 2017-06-23 2020-08-27 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオ・ビジュアルコンテンツプログラムの視聴者に関する情報を決定する方法、装置、コンピュータプログラム及びシステム
US11317145B2 (en) 2017-06-23 2022-04-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. Method, apparatus, computer program and system for determining information related to the audience of an audio-visual content program
JP7096464B2 (ja) 2017-06-23 2022-07-06 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオ・ビジュアルコンテンツプログラムの視聴者に関する情報を決定する方法、装置、コンピュータプログラム及びシステム
JP2022162331A (ja) * 2021-04-12 2022-10-24 株式会社Nttドコモ 情報処理装置

Also Published As

Publication number Publication date
US9514436B2 (en) 2016-12-06
US20160255384A1 (en) 2016-09-01
EP2414968A2 (en) 2012-02-08
AU2010234826A1 (en) 2011-11-17
JP5756456B2 (ja) 2015-07-29
US20210065117A1 (en) 2021-03-04
US20100211439A1 (en) 2010-08-19
WO2010117763A3 (en) 2010-12-16
EP2414968A4 (en) 2013-04-03
US10839350B2 (en) 2020-11-17
CA2757034A1 (en) 2010-10-14
WO2010117763A2 (en) 2010-10-14
US10198713B2 (en) 2019-02-05
US20190164130A1 (en) 2019-05-30

Similar Documents

Publication Publication Date Title
JP5756456B2 (ja) 視聴者の視聴行動を予測するための方法およびシステム
JP5194015B2 (ja) 感覚的刺激への視聴者反応を決定する方法およびシステム
US11200964B2 (en) Short imagery task (SIT) research method
US20100004977A1 (en) Method and System For Measuring User Experience For Interactive Activities
JP5746472B2 (ja) 生理学的データに基づいてメディア及びメディアのイベントを評価する方法及びシステム
EP2217142B1 (en) Method, system and computer program for automated interpretation of measurements in response to stimuli
US20080243590A1 (en) Methods and systems for measuring exposure to media
KR20100107036A (ko) 웃음 탐지기 및 미디어 프리젠테이션에 대한 감정 반응을 추적하기 위한 시스템 및 방법
AU2013273825B2 (en) Method and System for Determining Audience Response to a Sensory Stimulus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140519

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150529

R150 Certificate of patent or registration of utility model

Ref document number: 5756456

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250